This media is not supported in your browser
VIEW IN TELEGRAM
🦠 رهگیری سلول با هوش مصنوعی – بدون نیاز به دادههای برچسبخورده! 🦠
پژوهشگران دانشگاه RWTH یک چارچوب نوآورانه برای Cell Tracking معرفی کردهاند که با ترکیب مدل Segment Anything 2 (SAM2) در پایپلاین رهگیری، میتواند هر سلول را بهصورت Zero-Shot بخشبندی و رهگیری کند 🚀
🔹 نیازی به دادههای آموزشی اختصاصی ندارد.
🔹 دقت بالا در شناسایی و دنبالکردن سلولها در ویدیوهای میکروسکوپی.
🔹 انتشار کد منبع برای جامعهی علمی 💙
📖
📄 مقاله:
https://arxiv.org/pdf/2509.09943
💻 کد منبع:
https://github.com/zhuchen96/sam4celltracking
@rss_ai_ir
#AI #BioAI #CellTracking #SAM2 #DeepLearning #BiomedicalResearch
پژوهشگران دانشگاه RWTH یک چارچوب نوآورانه برای Cell Tracking معرفی کردهاند که با ترکیب مدل Segment Anything 2 (SAM2) در پایپلاین رهگیری، میتواند هر سلول را بهصورت Zero-Shot بخشبندی و رهگیری کند 🚀
🔹 نیازی به دادههای آموزشی اختصاصی ندارد.
🔹 دقت بالا در شناسایی و دنبالکردن سلولها در ویدیوهای میکروسکوپی.
🔹 انتشار کد منبع برای جامعهی علمی 💙
📖
📄 مقاله:
https://arxiv.org/pdf/2509.09943
💻 کد منبع:
https://github.com/zhuchen96/sam4celltracking
@rss_ai_ir
#AI #BioAI #CellTracking #SAM2 #DeepLearning #BiomedicalResearch
🔥15🎉12👍10🥰8😁8👏6❤3🤔1
🧬⚡️ راهنمای جدید انویدیا برای مقیاسپذیری مدلهای زیستی
شرکت NVIDIA یک گاید جامع منتشر کرده که نشان میدهد چگونه میتوان مدلهای بیولوژی محاسباتی را تا مقیاس میلیاردها پارامتر گسترش داد—بدون نیاز به نوشتن CUDA دستی و بدون ساختن سیستمهای پیچیده از صفر.
سه ایدهٔ کلیدی همه چیز را تغییر میدهند:
۱) بهکارگیری Transformer Engine ⚙️
این موتور، بلاکهای استاندارد ترنسفورمر را با نسخههای بهینهشده جایگزین میکند:
✔️ کاهش چشمگیر مصرف حافظه
✔️ افزایش سرعت ضربهای ماتریسی
✔️ پشتیبانی از FP8 و FP4
نتیجه: سرعت بیشتر در آموزش و استنتاج، بدون تغییر معماری مدل.
۲) گسترش آموزش تا مقیاس میلیارد پارامتر 🚀
با استفاده از FSDP و انواع موازیسازی ترکیبی، مدل میتواند روی چندین GPU یا چندین نود توزیع شود.
پیکربندیها از قبل آمادهاند و نیازی نیست مهندسی موازیسازی را دستی بسازید.
۳) صرفهجویی بزرگ در VRAM با sequence packing 💡
دادههای زیستی—مثل توالی پروتئینها—طولهای بسیار متفاوت دارند و پدینگ زیاد باعث تلف شدن حافظه میشود.
همچنین Sequence Packing توالیها را فشرده میکند، پدینگها حذف میشوند، و نتیجه:
✔️ سرعت بالاتر
✔️ مصرف VRAM کمتر
✔️ مدلهای بزرگتر روی GPUهای کوچکتر
مزیت نهایی این روشها در BioNeMo Recipes این است که همچنان میتوان از همان استک آشنای PyTorch + HuggingFace استفاده کرد، اما به عملکردی نزدیک به فریمورکهای سطح بالا رسید.
🔗 توضیحات کامل:
https://developer.nvidia.com/blog/scale-biology-transformer-models-with-pytorch-and-nvidia-bionemo-recipes/
@rss_ai_ir
#NVIDIA ⚡️ #BioAI #هوش_مصنوعی #زیستمحاسباتی
شرکت NVIDIA یک گاید جامع منتشر کرده که نشان میدهد چگونه میتوان مدلهای بیولوژی محاسباتی را تا مقیاس میلیاردها پارامتر گسترش داد—بدون نیاز به نوشتن CUDA دستی و بدون ساختن سیستمهای پیچیده از صفر.
سه ایدهٔ کلیدی همه چیز را تغییر میدهند:
۱) بهکارگیری Transformer Engine ⚙️
این موتور، بلاکهای استاندارد ترنسفورمر را با نسخههای بهینهشده جایگزین میکند:
✔️ کاهش چشمگیر مصرف حافظه
✔️ افزایش سرعت ضربهای ماتریسی
✔️ پشتیبانی از FP8 و FP4
نتیجه: سرعت بیشتر در آموزش و استنتاج، بدون تغییر معماری مدل.
۲) گسترش آموزش تا مقیاس میلیارد پارامتر 🚀
با استفاده از FSDP و انواع موازیسازی ترکیبی، مدل میتواند روی چندین GPU یا چندین نود توزیع شود.
پیکربندیها از قبل آمادهاند و نیازی نیست مهندسی موازیسازی را دستی بسازید.
۳) صرفهجویی بزرگ در VRAM با sequence packing 💡
دادههای زیستی—مثل توالی پروتئینها—طولهای بسیار متفاوت دارند و پدینگ زیاد باعث تلف شدن حافظه میشود.
همچنین Sequence Packing توالیها را فشرده میکند، پدینگها حذف میشوند، و نتیجه:
✔️ سرعت بالاتر
✔️ مصرف VRAM کمتر
✔️ مدلهای بزرگتر روی GPUهای کوچکتر
مزیت نهایی این روشها در BioNeMo Recipes این است که همچنان میتوان از همان استک آشنای PyTorch + HuggingFace استفاده کرد، اما به عملکردی نزدیک به فریمورکهای سطح بالا رسید.
🔗 توضیحات کامل:
https://developer.nvidia.com/blog/scale-biology-transformer-models-with-pytorch-and-nvidia-bionemo-recipes/
@rss_ai_ir
#NVIDIA ⚡️ #BioAI #هوش_مصنوعی #زیستمحاسباتی