🧩 مدل OmniPart: نسل جدید تولید سهبعدی با آگاهی از اجزای شیء
پژوهشگران در مدل OmniPart روشی دومرحلهای برای ساخت اشیاء سهبعدی قابلویرایش از روی تصاویر و ماسکهای دوبعدی ارائه کردهاند.
🔹 ویژگیهای کلیدی:
1. جداسازی معنایی قوی بین اجزاء (Semantic Decoupling)
2. انسجام ساختاری بالا بین کل مدل (Structural Cohesion)
3. امکان کنترل و ویرایش بخشهای جداگانه مدل پس از تولید
🔹 روش کار:
مرحله اول: یک ترنسفورمر خودبازگشتی (Autoregressive Transformer) چیدمان سهبعدی اجزاء را به صورت توالی باکسها، بر اساس ماسکهای ۲بعدی، طراحی میکند.
مرحله دوم: یک ماژول سنتز مکانی (Spatially-Conditioned Synthesis) — آموزشدیده از یک مدل تولیدی پیشفرض — همه اجزاء را به طور همزمان در این چیدمان میسازد.
🔹 نتایج:
دقت F1 Score = 0.74 در سطح جزء (با آستانه Chamfer Distance < 0.1)
عملکرد بهتر نسبت به تمام مدلهای موجود در تولید سهبعدی مبتنی بر اجزاء
🔹 کاربردها:
♻️ویرایش جزئی مدلهای سهبعدی
♻️انیمیشنسازی بخشی
♻️اختصاص متریال به قسمتهای خاص در سیستمهای تعاملی
📄 مطالعه کامل: arXiv
💻 کد و مدل: HuggingFace
#3D #ComputerVision #GenerativeAI
@rss_ai_ir
پژوهشگران در مدل OmniPart روشی دومرحلهای برای ساخت اشیاء سهبعدی قابلویرایش از روی تصاویر و ماسکهای دوبعدی ارائه کردهاند.
🔹 ویژگیهای کلیدی:
1. جداسازی معنایی قوی بین اجزاء (Semantic Decoupling)
2. انسجام ساختاری بالا بین کل مدل (Structural Cohesion)
3. امکان کنترل و ویرایش بخشهای جداگانه مدل پس از تولید
🔹 روش کار:
مرحله اول: یک ترنسفورمر خودبازگشتی (Autoregressive Transformer) چیدمان سهبعدی اجزاء را به صورت توالی باکسها، بر اساس ماسکهای ۲بعدی، طراحی میکند.
مرحله دوم: یک ماژول سنتز مکانی (Spatially-Conditioned Synthesis) — آموزشدیده از یک مدل تولیدی پیشفرض — همه اجزاء را به طور همزمان در این چیدمان میسازد.
🔹 نتایج:
دقت F1 Score = 0.74 در سطح جزء (با آستانه Chamfer Distance < 0.1)
عملکرد بهتر نسبت به تمام مدلهای موجود در تولید سهبعدی مبتنی بر اجزاء
🔹 کاربردها:
♻️ویرایش جزئی مدلهای سهبعدی
♻️انیمیشنسازی بخشی
♻️اختصاص متریال به قسمتهای خاص در سیستمهای تعاملی
📄 مطالعه کامل: arXiv
💻 کد و مدل: HuggingFace
#3D #ComputerVision #GenerativeAI
@rss_ai_ir
👍14😁13🥰10👏10🎉9🔥8❤3
🚀 تراشههای نوری؛ شرطبندی بزرگ Q.ANT برای عصر هوش مصنوعی
شرکت آلمانی Q.ANT با جذب سرمایه ۶۲ میلیون یورویی — بزرگترین دور سرمایهگذاری فوتونیک در اروپا — قصد دارد جایگزینی برای تراشههای سیلیکونی سنتی ارائه دهد: پردازندههایی که با نور کار میکنند.
🔹 انجام عملیاتهایی مثل ضرب تنها با یک المان نوری
🔹 ساخت بر پایه لیتیوم نیوبات لایهنازک با راندمان انرژی تا ۳۰ برابر بالاتر
🔹 سرورهای آمادهبهکار، بدون نیاز به خنکسازی آبی یا نصب پیچیده
🔹 پشتیبانی از Python، C++ و استکهای استاندارد
🔹 منشعبشده از TRUMPF و به رهبری فیزیکدان مؤسسه ماکس پلانک Michael Förtsch
📌 نکته مهم اینجاست که برخلاف بسیاری از رقبا که هنوز در مرحله تحقیق و توسعه هستند، Q.ANT همین حالا در حال عرضه محصول است و قصد دارد تا سال ۲۰۳۰، همراهپردازندههای فوتونیک را کنار GPUها در تمام مراکز داده بزرگ قرار دهد.
@rss_ai_ir 💡
شرکت آلمانی Q.ANT با جذب سرمایه ۶۲ میلیون یورویی — بزرگترین دور سرمایهگذاری فوتونیک در اروپا — قصد دارد جایگزینی برای تراشههای سیلیکونی سنتی ارائه دهد: پردازندههایی که با نور کار میکنند.
🔹 انجام عملیاتهایی مثل ضرب تنها با یک المان نوری
🔹 ساخت بر پایه لیتیوم نیوبات لایهنازک با راندمان انرژی تا ۳۰ برابر بالاتر
🔹 سرورهای آمادهبهکار، بدون نیاز به خنکسازی آبی یا نصب پیچیده
🔹 پشتیبانی از Python، C++ و استکهای استاندارد
🔹 منشعبشده از TRUMPF و به رهبری فیزیکدان مؤسسه ماکس پلانک Michael Förtsch
📌 نکته مهم اینجاست که برخلاف بسیاری از رقبا که هنوز در مرحله تحقیق و توسعه هستند، Q.ANT همین حالا در حال عرضه محصول است و قصد دارد تا سال ۲۰۳۰، همراهپردازندههای فوتونیک را کنار GPUها در تمام مراکز داده بزرگ قرار دهد.
@rss_ai_ir 💡
❤7👍7👏7🔥6🥰3🎉3😁2
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 تکنیک بوستینگ (Boosting) در یادگیری ماشین
بوستینگ یکی از قدرتمندترین تکنیکها در یادگیری تجمعی (Ensemble Learning) است که هدف آن ترکیب چندین مدل ضعیف (Weak Learners) برای ساخت یک مدل قوی با خطای کم است.
🔹 ایده اصلی
در بوستینگ، مدلها بهصورت پیاپی (Sequential) آموزش داده میشوند. هر مدل جدید تلاش میکند خطاهای مدلهای قبلی را اصلاح کند. به این ترتیب، وزن بیشتری به نمونههایی داده میشود که در مراحل قبلی بهدرستی پیشبینی نشدهاند.
🔹 مراحل کلی
1. شروع با یک مدل ضعیف (مثلاً درخت تصمیم کوچک)
2. محاسبه خطاها و افزایش وزن دادههای سخت
3. آموزش مدل بعدی با تمرکز بر دادههای دارای خطای بالا
4. ترکیب خروجی مدلها (مثلاً با میانگین وزنی یا جمعبندی)
🔹 انواع معروف بوستینگ
AdaBoost → اولین نسخه مشهور بوستینگ، تغییر وزن نمونهها پس از هر مرحله
Gradient Boosting → استفاده از گرادیان برای کاهش خطا بهصورت مرحلهای
XGBoost → نسخه بهینهسازیشده با سرعت و دقت بالا
LightGBM → سریع و مناسب دادههای حجیم
CatBoost → بهینه برای دادههای دستهای (Categorical)
🔹 مزایا
♻️دقت بالا در مسائل طبقهبندی و رگرسیون
♻️توانایی مدیریت دادههای پیچیده
♻️کاهش Bias و بهبود Generalization
🔹 معایب
♻️حساس به نویز و دادههای پرت
♻️هزینه محاسباتی بالا در مجموعه دادههای بزرگ
📌 بوستینگ در بسیاری از مسابقات دادهکاوی (Kaggle) و پروژههای صنعتی، انتخاب اول برای رسیدن به بالاترین دقت است.
#هوش_مصنوعی #یادگیری_ماشین #Boosting #DataScience #MachineLearning #EnsembleLearning #AI #XGBoost #LightGBM #CatBoost #GradientBoosting
@rss_ai_ir 🤖
بوستینگ یکی از قدرتمندترین تکنیکها در یادگیری تجمعی (Ensemble Learning) است که هدف آن ترکیب چندین مدل ضعیف (Weak Learners) برای ساخت یک مدل قوی با خطای کم است.
🔹 ایده اصلی
در بوستینگ، مدلها بهصورت پیاپی (Sequential) آموزش داده میشوند. هر مدل جدید تلاش میکند خطاهای مدلهای قبلی را اصلاح کند. به این ترتیب، وزن بیشتری به نمونههایی داده میشود که در مراحل قبلی بهدرستی پیشبینی نشدهاند.
🔹 مراحل کلی
1. شروع با یک مدل ضعیف (مثلاً درخت تصمیم کوچک)
2. محاسبه خطاها و افزایش وزن دادههای سخت
3. آموزش مدل بعدی با تمرکز بر دادههای دارای خطای بالا
4. ترکیب خروجی مدلها (مثلاً با میانگین وزنی یا جمعبندی)
🔹 انواع معروف بوستینگ
AdaBoost → اولین نسخه مشهور بوستینگ، تغییر وزن نمونهها پس از هر مرحله
Gradient Boosting → استفاده از گرادیان برای کاهش خطا بهصورت مرحلهای
XGBoost → نسخه بهینهسازیشده با سرعت و دقت بالا
LightGBM → سریع و مناسب دادههای حجیم
CatBoost → بهینه برای دادههای دستهای (Categorical)
🔹 مزایا
♻️دقت بالا در مسائل طبقهبندی و رگرسیون
♻️توانایی مدیریت دادههای پیچیده
♻️کاهش Bias و بهبود Generalization
🔹 معایب
♻️حساس به نویز و دادههای پرت
♻️هزینه محاسباتی بالا در مجموعه دادههای بزرگ
📌 بوستینگ در بسیاری از مسابقات دادهکاوی (Kaggle) و پروژههای صنعتی، انتخاب اول برای رسیدن به بالاترین دقت است.
#هوش_مصنوعی #یادگیری_ماشین #Boosting #DataScience #MachineLearning #EnsembleLearning #AI #XGBoost #LightGBM #CatBoost #GradientBoosting
@rss_ai_ir 🤖
🎉8👍6👏6❤5😁5🔥4🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 شرکت Runway از مدل قدرتمند Aleph رونمایی کرده که ویرایش ویدیو را تنها با دستورات متنی ممکن میکند.
با Aleph میتوانید:
🌄 تغییر محیط و زمان ویدیو
⏩ گسترش بازه زمانی و پیشبینی ادامه ویدیو
🗑 حذف اشیای ناخواسته یا بازتاب آنها در آینه
🎯 جداسازی سوژه متحرک و قراردادن آن روی پرده سبز
🎥 دریافت نماهای مختلف از یک سوژه
🎨 انتقال استایل یک ویدیو به ویدیوی دیگر
👵 تغییر سن افراد در تصویر
✨ و سایر ویرایشهای پیشرفته تنها با متن
این قابلیت از هماکنون برای تمام کاربران اشتراک Runway فعال است.
#هوش_مصنوعی #Runway #AI #Aleph #ویدیو #ویرایش_ویدیو #AIEditing
@rss_ai_ir
با Aleph میتوانید:
🌄 تغییر محیط و زمان ویدیو
⏩ گسترش بازه زمانی و پیشبینی ادامه ویدیو
🗑 حذف اشیای ناخواسته یا بازتاب آنها در آینه
🎯 جداسازی سوژه متحرک و قراردادن آن روی پرده سبز
🎥 دریافت نماهای مختلف از یک سوژه
🎨 انتقال استایل یک ویدیو به ویدیوی دیگر
👵 تغییر سن افراد در تصویر
✨ و سایر ویرایشهای پیشرفته تنها با متن
این قابلیت از هماکنون برای تمام کاربران اشتراک Runway فعال است.
#هوش_مصنوعی #Runway #AI #Aleph #ویدیو #ویرایش_ویدیو #AIEditing
@rss_ai_ir
👏11😁8👍7🔥6🎉5🥰4❤1
📊🤖 بهبود دقت GPT-5 با پرامپت کاستوم جدید
تستها روی مدل gpt-5-nano با تلاش medium و بنچمارک MMLU-PRO نشان دادند که استفاده از نسخه سوم پرامپت کاستوم باعث افزایش دقت از 68.73٪ به 70.20٪ شده است (+1.47٪).
📌 ویژگیهای نسخه جدید
♻️استفاده از تکنیک «ساخت روبریک» در حین فکر کردن مدل
♻️ارزیابی داخلی پاسخها (۰ تا ۱۰۰) و بازنویسی در صورت کیفیت پایین
♻️حذف ترفندهای قدیمی بیاثر و بهبود فرمت خروجی
♻️بدون تحمیل جدول یا پیشنهاد اضافی مگر درخواستی باشد
📈 در نمودار دوم میبینید که تقریباً در تمام حوزهها (مهندسی، علوم کامپیوتر، شیمی، بیزینس، زیست، فیزیک و …) عملکرد کمی بهتر بوده است.
📥 پرامپت و توضیحات کامل:
github.com/DenisSergeevitch/chatgpt-custom-instructions
@rss_ai_ir 🚀 | #هوش_مصنوعی #پرامپت #GPT5 #LLM #پردازش_زبان
تستها روی مدل gpt-5-nano با تلاش medium و بنچمارک MMLU-PRO نشان دادند که استفاده از نسخه سوم پرامپت کاستوم باعث افزایش دقت از 68.73٪ به 70.20٪ شده است (+1.47٪).
📌 ویژگیهای نسخه جدید
♻️استفاده از تکنیک «ساخت روبریک» در حین فکر کردن مدل
♻️ارزیابی داخلی پاسخها (۰ تا ۱۰۰) و بازنویسی در صورت کیفیت پایین
♻️حذف ترفندهای قدیمی بیاثر و بهبود فرمت خروجی
♻️بدون تحمیل جدول یا پیشنهاد اضافی مگر درخواستی باشد
📈 در نمودار دوم میبینید که تقریباً در تمام حوزهها (مهندسی، علوم کامپیوتر، شیمی، بیزینس، زیست، فیزیک و …) عملکرد کمی بهتر بوده است.
📥 پرامپت و توضیحات کامل:
github.com/DenisSergeevitch/chatgpt-custom-instructions
@rss_ai_ir 🚀 | #هوش_مصنوعی #پرامپت #GPT5 #LLM #پردازش_زبان
🔥18❤12😁11👍9🥰7🎉6👏5
🚀 افزایش چشمگیر سقف استفاده از GPT-5 Thinking برای کاربران Plus
سام آلتمن اعلام کرد که سهمیه هفتگی کاربران Plus برای مدل GPT-5-Thinking به ۳۰۰۰ درخواست رسیده است؛ رقمی که چندین برابر مجموع سقف مدلهای استدلالی قبلی مثل o3 و o4-mini است.
📊 آمار جالب از استفاده مدلهای استدلالی
کاربران رایگان: سهم پاسخهای مدلهای استدلالی از کمتر از ۱٪ به ۷٪ افزایش یافته است.
کاربران Plus: این سهم از ۷٪ به ۲۴٪ رسیده است.
نتیجه: تقاضا برای GPT-5-Thinking حدود ۳.۵ برابر رشد کرده و کیفیت تجربه کاربران تازهکار بهطور محسوسی بهتر شده است.
⚙️ روش فعالسازی Thinking بهصورت خودکار
در پایان پرسش بنویسید: «Think better»، «think for long» یا «لطفاً عمیق فکر کن».
یا از تنظیمات بالای چت، حالت Thinking را بهصورت پیشفرض فعال کنید.
💡 جمعبندی: با سقف جدید ۳۰۰۰ درخواست هفتگی، مدل GPT-5 در حالت Thinking میتواند به شکل روزمره در طیف وسیعی از سناریوها، پاسخهایی عمیقتر و دقیقتر ارائه دهد.
#هوش_مصنوعی #GPT5 #Thinking #ChatGPT
@rss_ai_ir
سام آلتمن اعلام کرد که سهمیه هفتگی کاربران Plus برای مدل GPT-5-Thinking به ۳۰۰۰ درخواست رسیده است؛ رقمی که چندین برابر مجموع سقف مدلهای استدلالی قبلی مثل o3 و o4-mini است.
📊 آمار جالب از استفاده مدلهای استدلالی
کاربران رایگان: سهم پاسخهای مدلهای استدلالی از کمتر از ۱٪ به ۷٪ افزایش یافته است.
کاربران Plus: این سهم از ۷٪ به ۲۴٪ رسیده است.
نتیجه: تقاضا برای GPT-5-Thinking حدود ۳.۵ برابر رشد کرده و کیفیت تجربه کاربران تازهکار بهطور محسوسی بهتر شده است.
⚙️ روش فعالسازی Thinking بهصورت خودکار
در پایان پرسش بنویسید: «Think better»، «think for long» یا «لطفاً عمیق فکر کن».
یا از تنظیمات بالای چت، حالت Thinking را بهصورت پیشفرض فعال کنید.
💡 جمعبندی: با سقف جدید ۳۰۰۰ درخواست هفتگی، مدل GPT-5 در حالت Thinking میتواند به شکل روزمره در طیف وسیعی از سناریوها، پاسخهایی عمیقتر و دقیقتر ارائه دهد.
#هوش_مصنوعی #GPT5 #Thinking #ChatGPT
@rss_ai_ir
👏16👍11🔥11🥰10😁10🎉9❤7🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
🟦 بررسی مفهوم وکسل (Voxel) در پردازش تصویر سهبعدی
در پردازش تصویر سهبعدی، همانطور که یک پیکسل کوچکترین واحد تصویری دوبعدی است، وکسل (Voxel – Volumetric Pixel) کوچکترین واحد حجم در دادههای سهبعدی محسوب میشود. هر وکسل در واقع یک مکعب یا حجم کوچک است که ویژگیهایی مانند مکان (X,Y,Z)، شدت روشنایی یا حتی رنگ را ذخیره میکند.
📍 کاربردهای وکسل در پردازش تصویر
🩻 تصویربرداری پزشکی: در CT و MRI، وکسلها دادههای حجمی بدن را بازنمایی میکنند.
🛰 مدلسازی سهبعدی و GIS: برای نمایش حجم سازهها، زمین و اجسام.
🤖 بینایی ماشین و رباتیک: در نقشهبرداری سهبعدی با LiDAR یا ساخت مدل محیط.
🎮 گرافیک و بازیسازی: ایجاد جهانهای سهبعدی با دقت و جزئیات بالا.
⚙️ مزیت وکسل نسبت به مشها
♻️نمایش دقیقتر ساختارهای داخلی اجسام (نه فقط سطح آنها).
♻️امکان پردازش دادههای حجمی برای شبیهسازی فیزیکی یا تحلیلی.
📊 چالشها
♻️حجم داده بالا به دلیل ذخیرهسازی سهبعدی.
♻️نیاز به الگوریتمهای فشردهسازی و پردازش سریع.
💡 جمعبندی: وکسلها ستون فقرات پردازش تصویر سهبعدی هستند و نقش کلیدی در پزشکی، مهندسی و شبیهسازی دارند، اما مدیریت حجم بالای داده یکی از چالشهای اصلی آنها است.
#پردازش_تصویر #Voxel #بینایی_ماشین #مدلسازی_سهبعدی
@rss_ai_ir
در پردازش تصویر سهبعدی، همانطور که یک پیکسل کوچکترین واحد تصویری دوبعدی است، وکسل (Voxel – Volumetric Pixel) کوچکترین واحد حجم در دادههای سهبعدی محسوب میشود. هر وکسل در واقع یک مکعب یا حجم کوچک است که ویژگیهایی مانند مکان (X,Y,Z)، شدت روشنایی یا حتی رنگ را ذخیره میکند.
📍 کاربردهای وکسل در پردازش تصویر
🩻 تصویربرداری پزشکی: در CT و MRI، وکسلها دادههای حجمی بدن را بازنمایی میکنند.
🛰 مدلسازی سهبعدی و GIS: برای نمایش حجم سازهها، زمین و اجسام.
🤖 بینایی ماشین و رباتیک: در نقشهبرداری سهبعدی با LiDAR یا ساخت مدل محیط.
🎮 گرافیک و بازیسازی: ایجاد جهانهای سهبعدی با دقت و جزئیات بالا.
⚙️ مزیت وکسل نسبت به مشها
♻️نمایش دقیقتر ساختارهای داخلی اجسام (نه فقط سطح آنها).
♻️امکان پردازش دادههای حجمی برای شبیهسازی فیزیکی یا تحلیلی.
📊 چالشها
♻️حجم داده بالا به دلیل ذخیرهسازی سهبعدی.
♻️نیاز به الگوریتمهای فشردهسازی و پردازش سریع.
💡 جمعبندی: وکسلها ستون فقرات پردازش تصویر سهبعدی هستند و نقش کلیدی در پزشکی، مهندسی و شبیهسازی دارند، اما مدیریت حجم بالای داده یکی از چالشهای اصلی آنها است.
#پردازش_تصویر #Voxel #بینایی_ماشین #مدلسازی_سهبعدی
@rss_ai_ir
👍13❤10🔥10😁10👏9🎉6🥰5
📉🧠 در یک تست آفلاین مقایسهای، میزان IQ مدلهای مختلف هوش مصنوعی اندازهگیری شد.
🔹 مدل Claude-4 Opus با امتیاز 118 بالاترین رتبه را به دست آورد.
🔹 مدلهای o3 Pro و Gemini 2.5 Pro نیز با اختلاف اندک در جایگاههای بعدی قرار گرفتند.
🔹 نکته جالب این است که GPT-5 Thinking با امتیاز 57 پایینترین رکورد را ثبت کرده و حتی در تست آفلاین هم فقط به 70 رسیده است.
📊 این نتایج نشان میدهد که عملکرد مدلهای هوش مصنوعی میتواند بسته به نوع و بهینهسازی آنها بسیار متفاوت باشد، حتی اگر از یک شرکت باشند.
#هوش_مصنوعی #تست_IQ #GPT5 #Claude4
@rss_ai_ir
🔹 مدل Claude-4 Opus با امتیاز 118 بالاترین رتبه را به دست آورد.
🔹 مدلهای o3 Pro و Gemini 2.5 Pro نیز با اختلاف اندک در جایگاههای بعدی قرار گرفتند.
🔹 نکته جالب این است که GPT-5 Thinking با امتیاز 57 پایینترین رکورد را ثبت کرده و حتی در تست آفلاین هم فقط به 70 رسیده است.
📊 این نتایج نشان میدهد که عملکرد مدلهای هوش مصنوعی میتواند بسته به نوع و بهینهسازی آنها بسیار متفاوت باشد، حتی اگر از یک شرکت باشند.
#هوش_مصنوعی #تست_IQ #GPT5 #Claude4
@rss_ai_ir
👏9😁6🔥5🥰4❤3👍3🎉3🤯1
animation.gif
19.5 MB
🌀 چه زمانی باید سراغ پردازش سهبعدی برویم؟
پردازش سهبعدی (3D Processing) همیشه لازم نیست، اما در برخی پروژهها تغییر بازی ایجاد میکند. انتخاب آن باید بر اساس ماهیت دادهها و نیاز پروژه باشد.
🔍 مواردی که پردازش سهبعدی توجیه دارد:
1. دادههای حجمی یا وکسل (Voxel) → مثل تصاویر MRI، CT یا اسکنهای صنعتی که اطلاعات عمق در کل حجم مهم است.
2. تحلیل هندسه و ساختار واقعی اشیا → در رباتیک، مهندسی معکوس یا کنترل کیفیت قطعات پیچیده.
3. بینایی ماشین پیشرفته → تشخیص و ردیابی اجسام در محیطهای سهبعدی (خودروهای خودران، پهپادها).
4. شبیهسازیهای علمی و مهندسی → جریان سیالات، تحلیل سازه، یا شبیهسازیهای پزشکی.
5. مدلسازی و واقعیت مجازی/افزوده (VR/AR) → ایجاد محیطهای تعاملی و دقیق.
⚠️ چه زمانی نرویم سمت 3D؟
وقتی داده دوبعدی جوابگو است و هزینه پردازش پایینتر اهمیت دارد.
وقتی ابعاد اضافه، ارزش افزوده واقعی در دقت یا کاربرد ایجاد نمیکند.
📌 نکته: پردازش سهبعدی نیازمند منابع سختافزاری بیشتر (GPU، حافظه) و الگوریتمهای بهینهسازی خاص است، پس انتخاب آن باید آگاهانه باشد.
@rss_ai_ir 🤖
پردازش سهبعدی (3D Processing) همیشه لازم نیست، اما در برخی پروژهها تغییر بازی ایجاد میکند. انتخاب آن باید بر اساس ماهیت دادهها و نیاز پروژه باشد.
🔍 مواردی که پردازش سهبعدی توجیه دارد:
1. دادههای حجمی یا وکسل (Voxel) → مثل تصاویر MRI، CT یا اسکنهای صنعتی که اطلاعات عمق در کل حجم مهم است.
2. تحلیل هندسه و ساختار واقعی اشیا → در رباتیک، مهندسی معکوس یا کنترل کیفیت قطعات پیچیده.
3. بینایی ماشین پیشرفته → تشخیص و ردیابی اجسام در محیطهای سهبعدی (خودروهای خودران، پهپادها).
4. شبیهسازیهای علمی و مهندسی → جریان سیالات، تحلیل سازه، یا شبیهسازیهای پزشکی.
5. مدلسازی و واقعیت مجازی/افزوده (VR/AR) → ایجاد محیطهای تعاملی و دقیق.
⚠️ چه زمانی نرویم سمت 3D؟
وقتی داده دوبعدی جوابگو است و هزینه پردازش پایینتر اهمیت دارد.
وقتی ابعاد اضافه، ارزش افزوده واقعی در دقت یا کاربرد ایجاد نمیکند.
📌 نکته: پردازش سهبعدی نیازمند منابع سختافزاری بیشتر (GPU، حافظه) و الگوریتمهای بهینهسازی خاص است، پس انتخاب آن باید آگاهانه باشد.
@rss_ai_ir 🤖
🥰8🔥6🎉5❤4👍4👏4😁4
📊 روشهای تخصصی تشخیص ناهنجاری (Anomaly Detection)
تشخیص ناهنجاری یا Anomaly Detection یکی از بخشهای کلیدی در هوش مصنوعی، یادگیری ماشین و تحلیل داده است که هدف آن شناسایی الگوهای غیرعادی در دادههاست. این روشها در حوزههایی مانند تشخیص خرابی تجهیزات، امنیت سایبری، تشخیص تقلب مالی و مانیتورینگ سلامت کاربرد دارند.
---
🔍 دستهبندی اصلی روشها
1️⃣ روشهای آماری (Statistical Methods)
ایده: فرض بر این است که دادههای نرمال از یک توزیع مشخص (مثلاً Gaussian) پیروی میکنند و نقاطی که احتمال وقوعشان کم است، ناهنجار هستند.
مثالها:
Z-Score
Grubbs’ Test
Generalized ESD Test
✅ مزیت: ساده و سریع
❌ ضعف: کارایی پایین در دادههای پیچیده یا توزیع غیرخطی
---
2️⃣ روشهای مبتنی بر فاصله و چگالی (Distance & Density Based)
ایده: نقاط ناهنجار فاصله زیادی از خوشهها دارند یا در مناطق با چگالی کم قرار گرفتهاند.
مثالها:
K-Nearest Neighbors (KNN) for Outlier Detection
Local Outlier Factor (LOF)
DBSCAN برای شناسایی نقاط کمچگالی
✅ مزیت: عدم نیاز به فرض توزیع
❌ ضعف: مقیاسپذیری ضعیف در دیتاستهای خیلی بزرگ
---
3️⃣ روشهای مبتنی بر یادگیری نظارتشده (Supervised Learning)
ایده: برچسبگذاری دادههای نرمال و غیرنرمال، سپس آموزش یک مدل طبقهبندی.
مثالها:
Random Forest
SVM (با کلاسبندی دوتایی)
XGBoost
✅ مزیت: دقت بالا در دادههای برچسبخورده
❌ ضعف: نیاز به دادههای برچسبخورده (که معمولاً نایاب هستند)
---
4️⃣ روشهای بدوننظارت (Unsupervised Learning)
ایده: الگوریتم دادهها را بدون برچسب خوشهبندی کرده و نقاط دورافتاده را ناهنجار تشخیص میدهد.
مثالها:
Isolation Forest
One-Class SVM
PCA for Anomaly Detection
✅ مزیت: بدون نیاز به برچسب
❌ ضعف: حساسیت به نویز
---
5️⃣ روشهای مبتنی بر یادگیری عمیق (Deep Learning)
ایده: استفاده از شبکههای عصبی برای مدلسازی دادههای نرمال و شناسایی نمونههای غیرعادی بر اساس خطای بازسازی یا احتمال تولید.
مثالها:
Autoencoders (و Variational Autoencoders)
LSTM Autoencoders برای دادههای زمانی
GAN-based Anomaly Detection (مثل AnoGAN)
✅ مزیت: قدرت مدلسازی بالا در دادههای پیچیده
❌ ضعف: نیاز به منابع محاسباتی زیاد و داده کافی
---
6️⃣ روشهای ترکیبی (Hybrid Approaches)
ایده: ترکیب چند الگوریتم برای بهبود دقت و کاهش نرخ خطا.
مثال: استفاده از Isolation Forest بهعنوان پیشپردازش و سپس Autoencoder برای تحلیل عمیق.
---
💡 نکته صنعتی:
در مانیتورینگ صنعتی (مثل تشخیص خرابی موتور یا توربین)، ترکیب مدلهای پیشبینی سری زمانی (مثل Prophet یا LSTM) با روشهای anomaly detection بسیار مؤثر است.
---
📍 @rss_ai_ir | #هوش_مصنوعی #AnomalyDetection #یادگیری_ماشین #DeepLearning #داده_کاوی
تشخیص ناهنجاری یا Anomaly Detection یکی از بخشهای کلیدی در هوش مصنوعی، یادگیری ماشین و تحلیل داده است که هدف آن شناسایی الگوهای غیرعادی در دادههاست. این روشها در حوزههایی مانند تشخیص خرابی تجهیزات، امنیت سایبری، تشخیص تقلب مالی و مانیتورینگ سلامت کاربرد دارند.
---
🔍 دستهبندی اصلی روشها
1️⃣ روشهای آماری (Statistical Methods)
ایده: فرض بر این است که دادههای نرمال از یک توزیع مشخص (مثلاً Gaussian) پیروی میکنند و نقاطی که احتمال وقوعشان کم است، ناهنجار هستند.
مثالها:
Z-Score
Grubbs’ Test
Generalized ESD Test
✅ مزیت: ساده و سریع
❌ ضعف: کارایی پایین در دادههای پیچیده یا توزیع غیرخطی
---
2️⃣ روشهای مبتنی بر فاصله و چگالی (Distance & Density Based)
ایده: نقاط ناهنجار فاصله زیادی از خوشهها دارند یا در مناطق با چگالی کم قرار گرفتهاند.
مثالها:
K-Nearest Neighbors (KNN) for Outlier Detection
Local Outlier Factor (LOF)
DBSCAN برای شناسایی نقاط کمچگالی
✅ مزیت: عدم نیاز به فرض توزیع
❌ ضعف: مقیاسپذیری ضعیف در دیتاستهای خیلی بزرگ
---
3️⃣ روشهای مبتنی بر یادگیری نظارتشده (Supervised Learning)
ایده: برچسبگذاری دادههای نرمال و غیرنرمال، سپس آموزش یک مدل طبقهبندی.
مثالها:
Random Forest
SVM (با کلاسبندی دوتایی)
XGBoost
✅ مزیت: دقت بالا در دادههای برچسبخورده
❌ ضعف: نیاز به دادههای برچسبخورده (که معمولاً نایاب هستند)
---
4️⃣ روشهای بدوننظارت (Unsupervised Learning)
ایده: الگوریتم دادهها را بدون برچسب خوشهبندی کرده و نقاط دورافتاده را ناهنجار تشخیص میدهد.
مثالها:
Isolation Forest
One-Class SVM
PCA for Anomaly Detection
✅ مزیت: بدون نیاز به برچسب
❌ ضعف: حساسیت به نویز
---
5️⃣ روشهای مبتنی بر یادگیری عمیق (Deep Learning)
ایده: استفاده از شبکههای عصبی برای مدلسازی دادههای نرمال و شناسایی نمونههای غیرعادی بر اساس خطای بازسازی یا احتمال تولید.
مثالها:
Autoencoders (و Variational Autoencoders)
LSTM Autoencoders برای دادههای زمانی
GAN-based Anomaly Detection (مثل AnoGAN)
✅ مزیت: قدرت مدلسازی بالا در دادههای پیچیده
❌ ضعف: نیاز به منابع محاسباتی زیاد و داده کافی
---
6️⃣ روشهای ترکیبی (Hybrid Approaches)
ایده: ترکیب چند الگوریتم برای بهبود دقت و کاهش نرخ خطا.
مثال: استفاده از Isolation Forest بهعنوان پیشپردازش و سپس Autoencoder برای تحلیل عمیق.
---
💡 نکته صنعتی:
در مانیتورینگ صنعتی (مثل تشخیص خرابی موتور یا توربین)، ترکیب مدلهای پیشبینی سری زمانی (مثل Prophet یا LSTM) با روشهای anomaly detection بسیار مؤثر است.
---
📍 @rss_ai_ir | #هوش_مصنوعی #AnomalyDetection #یادگیری_ماشین #DeepLearning #داده_کاوی
🥰7🎉7🔥6👏6❤5👍4😁4
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 فاینتیونینگ کارآمد مدلهای زبانی با PEFT
✳️در پروژههای هوش مصنوعی، مخصوصاً مدلهای زبانی بزرگ (LLM)، فاینتیونینگ کامل تمام وزنها (Full Fine-Tuning) بسیار پرهزینه و نیازمند GPUهای قدرتمند است. تکنیک PEFT (Parameter-Efficient Fine-Tuning) با هدف کاهش این هزینهها معرفی شده و امروز یکی از رایجترین رویکردها برای سفارشیسازی مدلها در حوزه تخصصی است.
🔍 ایده اصلی PEFT
بهجای تغییر دادن همه پارامترهای مدل (که ممکن است میلیاردها وزن باشد)، فقط یک زیرمجموعه کوچک از پارامترها یا لایههای اضافه شده (مثل LoRA – Low-Rank Adaptation) آموزش داده میشود. وزنهای اصلی مدل پیشآموزشدیده (Pretrained Weights) ثابت میمانند و تنها ماتریسهای کمرتبهی افزوده شده بهروزرسانی میشوند.
⚙️ مهمترین روشهای PEFT
LoRA (Low-Rank Adaptation) 🟦
تزریق دو ماتریس کمرتبه (A و B) به وزنهای مدل
بهروزرسانی فقط این ماتریسها
کاهش چشمگیر تعداد پارامترهای قابلآموزش (تا 1000 برابر کمتر از Full Fine-Tuning)
Prefix-Tuning 🟧
اضافه کردن یک توالی از "توکنهای پیشوند" قابلآموزش به ورودی هر لایه ترنسفورمر
مناسب برای وظایف تولید متن (NLG) و دیالوگ
Prompt-Tuning 🟨
آموزش چند embedding بهعنوان پرامپت ثابت برای هدایت مدل مناسب برای سناریوهایی که ورودی همیشه ساختار مشخصی دارد
Adapters 🟩
اضافه کردن ماژولهای کوچک بین لایههای ترنسفورمر مدل اصلی ثابت میماند و فقط آداپترها آموزش میبینند
📊 مزایا برای پروژههای صنعتی
💾 نیاز کمتر به حافظه GPU (مثلاً 8GB هم کافی است)
⏱️ سرعت بالاتر آموزش و استقرار
🔄 قابلیت اشتراک و ترکیب ماژولهای فاینتیون (Adapter Fusion)
📦 امکان استفاده روی مدلهای خیلی بزرگ بدون منابع ابری گران
💡 کاربردهای تخصصی
♻️سفارشیسازی GPT یا LLaMA برای تحلیل متون حقوقی، پزشکی یا فنی
♻️آموزش مدلهای چندزبانه روی دادههای سازمانی محدود
♻️ایجاد نسخههای سبکتر و بهینه برای اجرا روی لبه (Edge AI)
📌 جمعبندی
روشPEFT با تمرکز روی تغییرات کمهزینه و ماژولار، فاینتیونینگ را برای همه قابلدسترس کرده است. بهجای روزها آموزش روی چندین GPU، میتوان با منابع محدود، مدلهای قدرتمند را دقیقاً مطابق نیاز حوزه تخصصی خود تنظیم کرد.
@rss_ai_ir 🤖
| #هوش_مصنوعی #LLM #PEFT #LoRA #پردازش_زبان_طبیعی
✳️در پروژههای هوش مصنوعی، مخصوصاً مدلهای زبانی بزرگ (LLM)، فاینتیونینگ کامل تمام وزنها (Full Fine-Tuning) بسیار پرهزینه و نیازمند GPUهای قدرتمند است. تکنیک PEFT (Parameter-Efficient Fine-Tuning) با هدف کاهش این هزینهها معرفی شده و امروز یکی از رایجترین رویکردها برای سفارشیسازی مدلها در حوزه تخصصی است.
🔍 ایده اصلی PEFT
بهجای تغییر دادن همه پارامترهای مدل (که ممکن است میلیاردها وزن باشد)، فقط یک زیرمجموعه کوچک از پارامترها یا لایههای اضافه شده (مثل LoRA – Low-Rank Adaptation) آموزش داده میشود. وزنهای اصلی مدل پیشآموزشدیده (Pretrained Weights) ثابت میمانند و تنها ماتریسهای کمرتبهی افزوده شده بهروزرسانی میشوند.
⚙️ مهمترین روشهای PEFT
LoRA (Low-Rank Adaptation) 🟦
تزریق دو ماتریس کمرتبه (A و B) به وزنهای مدل
بهروزرسانی فقط این ماتریسها
کاهش چشمگیر تعداد پارامترهای قابلآموزش (تا 1000 برابر کمتر از Full Fine-Tuning)
Prefix-Tuning 🟧
اضافه کردن یک توالی از "توکنهای پیشوند" قابلآموزش به ورودی هر لایه ترنسفورمر
مناسب برای وظایف تولید متن (NLG) و دیالوگ
Prompt-Tuning 🟨
آموزش چند embedding بهعنوان پرامپت ثابت برای هدایت مدل مناسب برای سناریوهایی که ورودی همیشه ساختار مشخصی دارد
Adapters 🟩
اضافه کردن ماژولهای کوچک بین لایههای ترنسفورمر مدل اصلی ثابت میماند و فقط آداپترها آموزش میبینند
📊 مزایا برای پروژههای صنعتی
💾 نیاز کمتر به حافظه GPU (مثلاً 8GB هم کافی است)
⏱️ سرعت بالاتر آموزش و استقرار
🔄 قابلیت اشتراک و ترکیب ماژولهای فاینتیون (Adapter Fusion)
📦 امکان استفاده روی مدلهای خیلی بزرگ بدون منابع ابری گران
💡 کاربردهای تخصصی
♻️سفارشیسازی GPT یا LLaMA برای تحلیل متون حقوقی، پزشکی یا فنی
♻️آموزش مدلهای چندزبانه روی دادههای سازمانی محدود
♻️ایجاد نسخههای سبکتر و بهینه برای اجرا روی لبه (Edge AI)
📌 جمعبندی
روشPEFT با تمرکز روی تغییرات کمهزینه و ماژولار، فاینتیونینگ را برای همه قابلدسترس کرده است. بهجای روزها آموزش روی چندین GPU، میتوان با منابع محدود، مدلهای قدرتمند را دقیقاً مطابق نیاز حوزه تخصصی خود تنظیم کرد.
@rss_ai_ir 🤖
| #هوش_مصنوعی #LLM #PEFT #LoRA #پردازش_زبان_طبیعی
😁9🎉8🔥7👏6❤3🥰3👍1
🤖 مدل جدید Grok V7 از تیم xAI ایلان ماسک، هفته گذشته مرحله پیشآموزش را به پایان رسانده و بهصورت چندوجهی بومی طراحی شده است.
🎥🔊 این مدل میتواند جریان بیت ویدئو یا صدا را بهطور مستقیم پردازش کند، بدون اینکه ابتدا آن را به متن یا داده میانی تبدیل کند.
این یعنی قادر است جزئیات لحن، احساس و تأکید در صحبتها را مستقیماً درک کند؛ مشابه درک انسانی از ویدئو و صدا.
🚀 چنین رویکردی میتواند نسل بعدی تعاملات انسان و هوش مصنوعی را شکل دهد، جایی که مدل نهتنها معنا، بلکه احساس و بافت ارتباط را نیز بفهمد.
#هوش_مصنوعی #چندوجهی #xAI #Grok #ایلان_ماسک
@rss_ai_ir
🎥🔊 این مدل میتواند جریان بیت ویدئو یا صدا را بهطور مستقیم پردازش کند، بدون اینکه ابتدا آن را به متن یا داده میانی تبدیل کند.
این یعنی قادر است جزئیات لحن، احساس و تأکید در صحبتها را مستقیماً درک کند؛ مشابه درک انسانی از ویدئو و صدا.
🚀 چنین رویکردی میتواند نسل بعدی تعاملات انسان و هوش مصنوعی را شکل دهد، جایی که مدل نهتنها معنا، بلکه احساس و بافت ارتباط را نیز بفهمد.
#هوش_مصنوعی #چندوجهی #xAI #Grok #ایلان_ماسک
@rss_ai_ir
🔥7🎉6👏5😁5👍3🥰3❤2
📊 آمار جالب از سمت Altman
قبل از معرفی GPT-5، تنها حدود ۷٪ از کاربران نسخه Plus سراغ مدلهای Reasoning میرفتند. حالا این عدد به ۲۴٪ رسیده است، چون سیستم جدید بهصورت خودکار درخواستها را به مدلهای استدلالی هدایت میکند.
در بخش کاربران رایگان، اوضاع حتی جالبتر است: پیشتر کمتر از ۱٪ آنها Reasoning Models را امتحان کرده بودند، ولی حالا این رقم به ۷٪ رسیده است.
❓ پرسش اینجاست که آیا همه واقعاً اینقدر به gpt-4o علاقهمند بودند، یا مشکل اصلی این بوده که بلد نبودند از منوی کشویی انتخاب مدل استفاده کنند؟ 😄
#هوش_مصنوعی #GPT5 #Reasoning #OpenAI
@rss_ai_ir 🚀
قبل از معرفی GPT-5، تنها حدود ۷٪ از کاربران نسخه Plus سراغ مدلهای Reasoning میرفتند. حالا این عدد به ۲۴٪ رسیده است، چون سیستم جدید بهصورت خودکار درخواستها را به مدلهای استدلالی هدایت میکند.
در بخش کاربران رایگان، اوضاع حتی جالبتر است: پیشتر کمتر از ۱٪ آنها Reasoning Models را امتحان کرده بودند، ولی حالا این رقم به ۷٪ رسیده است.
❓ پرسش اینجاست که آیا همه واقعاً اینقدر به gpt-4o علاقهمند بودند، یا مشکل اصلی این بوده که بلد نبودند از منوی کشویی انتخاب مدل استفاده کنند؟ 😄
#هوش_مصنوعی #GPT5 #Reasoning #OpenAI
@rss_ai_ir 🚀
❤18🥰12👏12🎉6👍5🔥5😁4
🚀 پیشرفت بزرگ در الگوریتمهای گراف: روش جدیدی برای یافتن کوتاهترین مسیرها سریعتر از دیکسترا
🧩 محققان دانشگاههای Tsinghua، استنفورد و Max Planck موفق به ارائه الگوریتمی قطعی برای مسئلهی SSSP (یافتن کوتاهترین مسیر از یک رأس به تمام رأسهای دیگر) در گرافهای جهتدار با وزنهای غیرمنفی شدهاند که از «سد مرتبسازی» عبور میکند و از دیکسترا سریعتر عمل میکند.
🔍 ایده کلیدی، ترکیبی از دیکسترا و بلمن-فورد است:
✳️به جای نگهداری کامل مجموعهی مرزی مرتب، الگوریتم در صورت بزرگ شدن این مجموعه، چند گام بلمن-فورد را روی رأسهای آن اجرا میکند تا مسیرهای کوتاه سریعاً مشخص شوند.
✳️رأسهایی که مسیر طولانیتری دارند باید از «نقاط تکیهگاه» عبور کنند که تعدادشان بهمراتب کمتر است.
✳️با روش تقسیم و حل (Divide & Conquer)، مسئله به سطوح کوچکتر شکسته میشود و پیچیدگی لگاریتمی به یک عامل آهستهتر کاهش مییابد.
📈 نتیجه: زمانی متناسب با تعداد یالها × یک ضریب لگاریتمی کندتر از دیکسترا، که در عمل سرعت بالاتری بهویژه برای کاربردهایی مانند ناوبری، شبکهها و برنامهریزی دارد.
💡 اهمیت کشف:
♻️اثبات اینکه دیکسترا سقف نهایی سرعت نیست.
♻️بهبود قابلتوجه در حل مسائل مسیرکوتاه در گرافهای بزرگ.
لینک
#الگوریتم #هوش_مصنوعی #GraphTheory #SSSP #AIResearch
@rss_ai_ir
🧩 محققان دانشگاههای Tsinghua، استنفورد و Max Planck موفق به ارائه الگوریتمی قطعی برای مسئلهی SSSP (یافتن کوتاهترین مسیر از یک رأس به تمام رأسهای دیگر) در گرافهای جهتدار با وزنهای غیرمنفی شدهاند که از «سد مرتبسازی» عبور میکند و از دیکسترا سریعتر عمل میکند.
🔍 ایده کلیدی، ترکیبی از دیکسترا و بلمن-فورد است:
✳️به جای نگهداری کامل مجموعهی مرزی مرتب، الگوریتم در صورت بزرگ شدن این مجموعه، چند گام بلمن-فورد را روی رأسهای آن اجرا میکند تا مسیرهای کوتاه سریعاً مشخص شوند.
✳️رأسهایی که مسیر طولانیتری دارند باید از «نقاط تکیهگاه» عبور کنند که تعدادشان بهمراتب کمتر است.
✳️با روش تقسیم و حل (Divide & Conquer)، مسئله به سطوح کوچکتر شکسته میشود و پیچیدگی لگاریتمی به یک عامل آهستهتر کاهش مییابد.
📈 نتیجه: زمانی متناسب با تعداد یالها × یک ضریب لگاریتمی کندتر از دیکسترا، که در عمل سرعت بالاتری بهویژه برای کاربردهایی مانند ناوبری، شبکهها و برنامهریزی دارد.
💡 اهمیت کشف:
♻️اثبات اینکه دیکسترا سقف نهایی سرعت نیست.
♻️بهبود قابلتوجه در حل مسائل مسیرکوتاه در گرافهای بزرگ.
لینک
#الگوریتم #هوش_مصنوعی #GraphTheory #SSSP #AIResearch
@rss_ai_ir
🥰23👏21🎉16❤15😁15👍10🔥9
This media is not supported in your browser
VIEW IN TELEGRAM
🎯 کتابخانه Trackers – راهکاری ماژولار برای ردیابی چندشیء همزمان
👨🏻💻 در پروژههایی که نیاز به ردیابی همزمان چندین شیء در ویدیو داشتم، استفاده از DeepSORT و SORT همیشه با یک مشکل همراه بود: یا سخت به مدلهای مختلف وصل میشدند یا ساختار کد آنها انعطافپذیر و قابل توسعه نبود.
✏️ کتابخانه Trackers این مشکل را برطرف کرده. یک پکیج کاملاً ماژولار که اجازه میدهد بهراحتی بین الگوریتمهای مختلف جابهجا شوید و با انواع مدلهای تشخیص شیء مثل Ultralytics، Transformers، MMDetection و … یکپارچهسازی کنید.
🔹 ویژگیها:
1️⃣ فقط کافی است مدل تشخیص خود را به آن بدهید؛ ماژول ردیابی بقیه کار را انجام میدهد.
2️⃣ پشتیبانی رسمی از SORT و DeepSORT.
3️⃣ پشتیبانی آینده از الگوریتمهای قدرتمندتر مانند StrongSORT و ByteTrack.
📦 نصب:
pip install trackers
📂 ساختار:
┌ 🏳️🌈 Trackers
├ 📖 Documentation
├ ♾️ DeepSORT tracker
├ ♾️ SORT tracker
└ 🐱 GitHub-Repos
🌐 #یادگیری_عمیق #DeepLearning
@rss_ai_ir
👨🏻💻 در پروژههایی که نیاز به ردیابی همزمان چندین شیء در ویدیو داشتم، استفاده از DeepSORT و SORT همیشه با یک مشکل همراه بود: یا سخت به مدلهای مختلف وصل میشدند یا ساختار کد آنها انعطافپذیر و قابل توسعه نبود.
✏️ کتابخانه Trackers این مشکل را برطرف کرده. یک پکیج کاملاً ماژولار که اجازه میدهد بهراحتی بین الگوریتمهای مختلف جابهجا شوید و با انواع مدلهای تشخیص شیء مثل Ultralytics، Transformers، MMDetection و … یکپارچهسازی کنید.
🔹 ویژگیها:
1️⃣ فقط کافی است مدل تشخیص خود را به آن بدهید؛ ماژول ردیابی بقیه کار را انجام میدهد.
2️⃣ پشتیبانی رسمی از SORT و DeepSORT.
3️⃣ پشتیبانی آینده از الگوریتمهای قدرتمندتر مانند StrongSORT و ByteTrack.
📦 نصب:
pip install trackers
📂 ساختار:
┌ 🏳️🌈 Trackers
├ 📖 Documentation
├ ♾️ DeepSORT tracker
├ ♾️ SORT tracker
└ 🐱 GitHub-Repos
🌐 #یادگیری_عمیق #DeepLearning
@rss_ai_ir
🥰15👏15😁15🎉15❤14🔥13👍7🙏1
❓ در یک سامانه پایش تجهیزات صنعتی، استفاده از روش تشخیص ناهنجاری مبتنی بر Autoencoder چه مزیتی نسبت به روشهای آستانهگذاری ثابت دارد؟
Anonymous Quiz
86%
امکان شناسایی ناهنجاریهای ناشناخته با یادگیری الگوهای عادی از دادهها
14%
کاهش نیاز به دادههای آموزشی برای عملکرد مناسب
0%
حذف کامل نویز سنسورها بدون افت دقت
0%
وابستگی کمتر به قدرت پردازش سختافزار
😁15🔥13🎉13❤12👍11👏8🥰6
🤖 پلتفرم Genie Envisioner – راهکاری نوین برای آموزش رباتهای دستکاری اشیاء
شرکت AgiBot چارچوبی جامع مبتنی بر مدل جهان (World Model) برای کنترل و آموزش بازوهای رباتیکی معرفی کرده است. این پلتفرم از سه بخش کلیدی تشکیل شده است:
🔹 بخش GE-Base – مدل ویدئویی بر پایه *diffusion* که با بیش از ۳۰۰۰ ساعت داده و یک میلیون اپیزود دستکاری اشیاء از مجموعهداده AgiBot-World-Beta آموزش دیده است. این مدل توانایی تحلیل دقیق توالیهای تصویری و حرکتی را دارد و هسته اصلی سیستم به شمار میآید.
🔹 بخش GE-Act – مدل تصمیمگیری مبتنی بر روش *flow-matching* که از ویژگیهای بصری استخراجشده توسط GE-Base برای تولید حرکات بهینه بازوی ربات در زمان واقعی استفاده میکند.
🔹 بخش GE-Sim – شبیهساز عصبی محیط که برای ارزیابی و بهینهسازی عملکرد ربات در حلقهبسته به کار میرود و امکان تست سیاستهای کنترلی را بدون نیاز به اجرای واقعی فراهم میکند.
🟢 توسعهدهندگان وعده دادهاند که کد منبع، مدلها و بنچمارکها بهصورت متنباز منتشر شوند تا پژوهشگران و مهندسان بتوانند این سیستم را بازتولید و گسترش دهند.
📄 مقاله: [arxiv.org/abs/2508.05635v1]
🌐 پروژه: [genie-envisioner.github.io]
@rss_ai_ir
#هوش_مصنوعی #رباتیک #مدل_جهان #DeepLearning #AI
شرکت AgiBot چارچوبی جامع مبتنی بر مدل جهان (World Model) برای کنترل و آموزش بازوهای رباتیکی معرفی کرده است. این پلتفرم از سه بخش کلیدی تشکیل شده است:
🔹 بخش GE-Base – مدل ویدئویی بر پایه *diffusion* که با بیش از ۳۰۰۰ ساعت داده و یک میلیون اپیزود دستکاری اشیاء از مجموعهداده AgiBot-World-Beta آموزش دیده است. این مدل توانایی تحلیل دقیق توالیهای تصویری و حرکتی را دارد و هسته اصلی سیستم به شمار میآید.
🔹 بخش GE-Act – مدل تصمیمگیری مبتنی بر روش *flow-matching* که از ویژگیهای بصری استخراجشده توسط GE-Base برای تولید حرکات بهینه بازوی ربات در زمان واقعی استفاده میکند.
🔹 بخش GE-Sim – شبیهساز عصبی محیط که برای ارزیابی و بهینهسازی عملکرد ربات در حلقهبسته به کار میرود و امکان تست سیاستهای کنترلی را بدون نیاز به اجرای واقعی فراهم میکند.
🟢 توسعهدهندگان وعده دادهاند که کد منبع، مدلها و بنچمارکها بهصورت متنباز منتشر شوند تا پژوهشگران و مهندسان بتوانند این سیستم را بازتولید و گسترش دهند.
📄 مقاله: [arxiv.org/abs/2508.05635v1]
🌐 پروژه: [genie-envisioner.github.io]
@rss_ai_ir
#هوش_مصنوعی #رباتیک #مدل_جهان #DeepLearning #AI
❤12😁11🎉10👍9👏9🔥8🥰6🙏1
💉 ایده واکسیناسیون هوش مصنوعی علیه رفتارهای منفی
پژوهشگران شرکت Anthropic روشی جالب برای ایمنسازی مدلهای هوش مصنوعی در برابر رفتارهای ناخواسته ارائه دادهاند.
در این روش، مدل طی آموزش، «مقدار کنترلشدهای از رفتار منفی» را تجربه میکند تا بتواند آن را شناسایی و از آن اجتناب کند.
🔹 ابتدا یک ویژگی منفی مانند پرخاشگری یا تمایل به دستکاری انتخاب میشود.
🔹 امضای عصبی آن ویژگی، با شناسایی نورونهای فعال هنگام بروز آن، استخراج میشود.
🔹 این امضا تغییر داده میشود تا اثرش بر رفتار مدل بررسی گردد.
🔹 در فرایند آموزش، دادههای بیشازحد سمی فیلتر میشوند، اما مقدار کمی از رفتار منفی تحت نظارت به مدل تزریق میشود تا توانایی تشخیص و مسدودسازی آن تقویت شود.
این ایده مشابه واکسن است: قرار دادن سیستم در معرض مقدار کمِ مشکل، برای ایجاد مقاومت در برابر آن.
بهصورت نظری، چنین رویکردی میتواند به مدل کمک کند تا پاسخهای سمی، فریبکارانه یا بیشازحد چاپلوسانه را بهطور خودکار شناسایی و متوقف کند، بدون اینکه منتظر بازخورد انسانی بماند.
@rss_ai_ir 🤖✨
پژوهشگران شرکت Anthropic روشی جالب برای ایمنسازی مدلهای هوش مصنوعی در برابر رفتارهای ناخواسته ارائه دادهاند.
در این روش، مدل طی آموزش، «مقدار کنترلشدهای از رفتار منفی» را تجربه میکند تا بتواند آن را شناسایی و از آن اجتناب کند.
🔹 ابتدا یک ویژگی منفی مانند پرخاشگری یا تمایل به دستکاری انتخاب میشود.
🔹 امضای عصبی آن ویژگی، با شناسایی نورونهای فعال هنگام بروز آن، استخراج میشود.
🔹 این امضا تغییر داده میشود تا اثرش بر رفتار مدل بررسی گردد.
🔹 در فرایند آموزش، دادههای بیشازحد سمی فیلتر میشوند، اما مقدار کمی از رفتار منفی تحت نظارت به مدل تزریق میشود تا توانایی تشخیص و مسدودسازی آن تقویت شود.
این ایده مشابه واکسن است: قرار دادن سیستم در معرض مقدار کمِ مشکل، برای ایجاد مقاومت در برابر آن.
بهصورت نظری، چنین رویکردی میتواند به مدل کمک کند تا پاسخهای سمی، فریبکارانه یا بیشازحد چاپلوسانه را بهطور خودکار شناسایی و متوقف کند، بدون اینکه منتظر بازخورد انسانی بماند.
@rss_ai_ir 🤖✨
👍18🔥13👏13❤11😁11🥰6🎉4🙏1
📊 گزارش محبوبترین زبانهای برنامهنویسی ۲۰۲۵
براساس آمار منتشرشده، Python پس از یک دهه رشد مداوم، در سال اخیر جهش چشمگیری داشته و با رشد ۷ درصدی نسبت به ۲۰۲۴، به یکی از زبانهای پیشرو در هوش مصنوعی، علم داده و توسعه بکاند تبدیل شده است.
🔹 ردهبندی محبوبترین زبانها بین تمام پاسخدهندگان:
🔹 Top 10 Programming Languages (All Respondents – 2025):
1. JavaScript — 66%
2. HTML/CSS — 61.9%
3. SQL — 58.6%
4. Python — 57.9%
5. Bash/Shell — 48.7%
6. TypeScript — 43.6%
7. Java — 29.4%
8. C# — 27.8%
9. C++ — 23.5%
10. PowerShell — 23.2%
📈 این آمار نشان میدهد که ابزارهای وب (JavaScript, HTML, CSS) همچنان سلطه دارند، اما پایتون با شتاب بالایی به جایگاه چهارم رسیده و در برخی شاخهها حتی از SQL هم پیشی گرفته است.
@rss_ai_ir 🚀💻
براساس آمار منتشرشده، Python پس از یک دهه رشد مداوم، در سال اخیر جهش چشمگیری داشته و با رشد ۷ درصدی نسبت به ۲۰۲۴، به یکی از زبانهای پیشرو در هوش مصنوعی، علم داده و توسعه بکاند تبدیل شده است.
🔹 ردهبندی محبوبترین زبانها بین تمام پاسخدهندگان:
🔹 Top 10 Programming Languages (All Respondents – 2025):
1. JavaScript — 66%
2. HTML/CSS — 61.9%
3. SQL — 58.6%
4. Python — 57.9%
5. Bash/Shell — 48.7%
6. TypeScript — 43.6%
7. Java — 29.4%
8. C# — 27.8%
9. C++ — 23.5%
10. PowerShell — 23.2%
📈 این آمار نشان میدهد که ابزارهای وب (JavaScript, HTML, CSS) همچنان سلطه دارند، اما پایتون با شتاب بالایی به جایگاه چهارم رسیده و در برخی شاخهها حتی از SQL هم پیشی گرفته است.
@rss_ai_ir 🚀💻
🥰16❤12🎉12👍10👏8😁6🔥4🙏1