VIRSUN
14.3K subscribers
263 photos
172 videos
2 files
180 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🔹 کانال توسط اساتید هوش مصنوعی مدیریت میشود
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir
Download Telegram
🧩 مدل OmniPart: نسل جدید تولید سه‌بعدی با آگاهی از اجزای شیء

پژوهشگران در مدل OmniPart روشی دو‌مرحله‌ای برای ساخت اشیاء سه‌بعدی قابل‌ویرایش از روی تصاویر و ماسک‌های دوبعدی ارائه کرده‌اند.

🔹 ویژگی‌های کلیدی:

1. جدا‌سازی معنایی قوی بین اجزاء (Semantic Decoupling)
2. انسجام ساختاری بالا بین کل مدل (Structural Cohesion)
3. امکان کنترل و ویرایش بخش‌های جداگانه مدل پس از تولید



🔹 روش کار:

مرحله اول: یک ترنسفورمر خودبازگشتی (Autoregressive Transformer) چیدمان سه‌بعدی اجزاء را به صورت توالی باکس‌ها، بر اساس ماسک‌های ۲بعدی، طراحی می‌کند.

مرحله دوم: یک ماژول سنتز مکانی (Spatially-Conditioned Synthesis) — آموزش‌دیده از یک مدل تولیدی پیش‌فرض — همه اجزاء را به طور همزمان در این چیدمان می‌سازد.


🔹 نتایج:

دقت F1 Score = 0.74 در سطح جزء (با آستانه Chamfer Distance < 0.1)

عملکرد بهتر نسبت به تمام مدل‌های موجود در تولید سه‌بعدی مبتنی بر اجزاء


🔹 کاربردها:

♻️ویرایش جزئی مدل‌های سه‌بعدی
♻️انیمیشن‌سازی بخشی
♻️اختصاص متریال به قسمت‌های خاص در سیستم‌های تعاملی


📄 مطالعه کامل: arXiv
💻 کد و مدل: HuggingFace

#3D #ComputerVision #GenerativeAI
@rss_ai_ir
👍14😁13🥰10👏10🎉9🔥83
🚀 تراشه‌های نوری؛ شرط‌بندی بزرگ Q.ANT برای عصر هوش مصنوعی

شرکت آلمانی Q.ANT با جذب سرمایه ۶۲ میلیون یورویی — بزرگ‌ترین دور سرمایه‌گذاری فوتونیک در اروپا — قصد دارد جایگزینی برای تراشه‌های سیلیکونی سنتی ارائه دهد: پردازنده‌هایی که با نور کار می‌کنند.

🔹 انجام عملیات‌هایی مثل ضرب تنها با یک المان نوری
🔹 ساخت بر پایه لیتیوم نیوبات لایه‌نازک با راندمان انرژی تا ۳۰ برابر بالاتر
🔹 سرورهای آماده‌به‌کار، بدون نیاز به خنک‌سازی آبی یا نصب پیچیده
🔹 پشتیبانی از Python، C++ و استک‌های استاندارد
🔹 منشعب‌شده از TRUMPF و به رهبری فیزیکدان مؤسسه ماکس پلانک Michael Förtsch

📌 نکته مهم اینجاست که برخلاف بسیاری از رقبا که هنوز در مرحله تحقیق و توسعه هستند، Q.ANT همین حالا در حال عرضه محصول است و قصد دارد تا سال ۲۰۳۰، همراه‌پردازنده‌های فوتونیک را کنار GPUها در تمام مراکز داده بزرگ قرار دهد.

@rss_ai_ir 💡
7👍7👏7🔥6🥰3🎉3😁2
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 تکنیک بوستینگ (Boosting) در یادگیری ماشین

بوستینگ یکی از قدرتمندترین تکنیک‌ها در یادگیری تجمعی (Ensemble Learning) است که هدف آن ترکیب چندین مدل ضعیف (Weak Learners) برای ساخت یک مدل قوی با خطای کم است.

🔹 ایده اصلی
در بوستینگ، مدل‌ها به‌صورت پیاپی (Sequential) آموزش داده می‌شوند. هر مدل جدید تلاش می‌کند خطاهای مدل‌های قبلی را اصلاح کند. به این ترتیب، وزن بیشتری به نمونه‌هایی داده می‌شود که در مراحل قبلی به‌درستی پیش‌بینی نشده‌اند.

🔹 مراحل کلی

1. شروع با یک مدل ضعیف (مثلاً درخت تصمیم کوچک)
2. محاسبه خطاها و افزایش وزن داده‌های سخت
3. آموزش مدل بعدی با تمرکز بر داده‌های دارای خطای بالا
4. ترکیب خروجی مدل‌ها (مثلاً با میانگین وزنی یا جمع‌بندی)



🔹 انواع معروف بوستینگ

AdaBoost → اولین نسخه مشهور بوستینگ، تغییر وزن نمونه‌ها پس از هر مرحله

Gradient Boosting → استفاده از گرادیان برای کاهش خطا به‌صورت مرحله‌ای

XGBoost → نسخه بهینه‌سازی‌شده با سرعت و دقت بالا

LightGBM → سریع و مناسب داده‌های حجیم

CatBoost → بهینه برای داده‌های دسته‌ای (Categorical)


🔹 مزایا

♻️دقت بالا در مسائل طبقه‌بندی و رگرسیون
♻️توانایی مدیریت داده‌های پیچیده
♻️کاهش Bias و بهبود Generalization


🔹 معایب

♻️حساس به نویز و داده‌های پرت
♻️هزینه محاسباتی بالا در مجموعه داده‌های بزرگ


📌 بوستینگ در بسیاری از مسابقات داده‌کاوی (Kaggle) و پروژه‌های صنعتی، انتخاب اول برای رسیدن به بالاترین دقت است.

#هوش_مصنوعی #یادگیری_ماشین #Boosting #DataScience #MachineLearning #EnsembleLearning #AI #XGBoost #LightGBM #CatBoost #GradientBoosting

@rss_ai_ir 🤖
🎉8👍6👏65😁5🔥4🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 شرکت Runway از مدل قدرتمند Aleph رونمایی کرده که ویرایش ویدیو را تنها با دستورات متنی ممکن می‌کند.

با Aleph می‌توانید:

🌄 تغییر محیط و زمان ویدیو
گسترش بازه زمانی و پیش‌بینی ادامه ویدیو
🗑 حذف اشیای ناخواسته یا بازتاب آن‌ها در آینه
🎯 جداسازی سوژه متحرک و قراردادن آن روی پرده سبز
🎥 دریافت نماهای مختلف از یک سوژه
🎨 انتقال استایل یک ویدیو به ویدیوی دیگر
👵 تغییر سن افراد در تصویر
و سایر ویرایش‌های پیشرفته تنها با متن

این قابلیت از هم‌اکنون برای تمام کاربران اشتراک Runway فعال است.

#هوش_مصنوعی #Runway #AI #Aleph #ویدیو #ویرایش_ویدیو #AIEditing

@rss_ai_ir
👏11😁8👍7🔥6🎉5🥰41
📊🤖 بهبود دقت GPT-5 با پرامپت کاستوم جدید

تست‌ها روی مدل gpt-5-nano با تلاش medium و بنچمارک MMLU-PRO نشان دادند که استفاده از نسخه سوم پرامپت کاستوم باعث افزایش دقت از 68.73٪ به 70.20٪ شده است (+1.47٪).

📌 ویژگی‌های نسخه جدید

♻️استفاده از تکنیک «ساخت روبریک» در حین فکر کردن مدل
♻️ارزیابی داخلی پاسخ‌ها (۰ تا ۱۰۰) و بازنویسی در صورت کیفیت پایین
♻️حذف ترفندهای قدیمی بی‌اثر و بهبود فرمت خروجی
♻️بدون تحمیل جدول یا پیشنهاد اضافی مگر درخواستی باشد


📈 در نمودار دوم می‌بینید که تقریباً در تمام حوزه‌ها (مهندسی، علوم کامپیوتر، شیمی، بیزینس، زیست، فیزیک و …) عملکرد کمی بهتر بوده است.

📥 پرامپت و توضیحات کامل:
github.com/DenisSergeevitch/chatgpt-custom-instructions

@rss_ai_ir 🚀 | #هوش_مصنوعی #پرامپت #GPT5 #LLM #پردازش_زبان
🔥1812😁11👍9🥰7🎉6👏5
🚀 افزایش چشمگیر سقف استفاده از GPT-5 Thinking برای کاربران Plus

سام آلتمن اعلام کرد که سهمیه هفتگی کاربران Plus برای مدل GPT-5-Thinking به ۳۰۰۰ درخواست رسیده است؛ رقمی که چندین برابر مجموع سقف مدل‌های استدلالی قبلی مثل o3 و o4-mini است.

📊 آمار جالب از استفاده مدل‌های استدلالی

کاربران رایگان: سهم پاسخ‌های مدل‌های استدلالی از کمتر از ۱٪ به ۷٪ افزایش یافته است.

کاربران Plus: این سهم از ۷٪ به ۲۴٪ رسیده است.

نتیجه: تقاضا برای GPT-5-Thinking حدود ۳.۵ برابر رشد کرده و کیفیت تجربه کاربران تازه‌کار به‌طور محسوسی بهتر شده است.


⚙️ روش فعال‌سازی Thinking به‌صورت خودکار

در پایان پرسش بنویسید: «Think better»، «think for long» یا «لطفاً عمیق فکر کن».

یا از تنظیمات بالای چت، حالت Thinking را به‌صورت پیش‌فرض فعال کنید.


💡 جمع‌بندی: با سقف جدید ۳۰۰۰ درخواست هفتگی، مدل GPT-5 در حالت Thinking می‌تواند به شکل روزمره در طیف وسیعی از سناریوها، پاسخ‌هایی عمیق‌تر و دقیق‌تر ارائه دهد.

#هوش_مصنوعی #GPT5 #Thinking #ChatGPT

@rss_ai_ir
👏16👍11🔥11🥰10😁10🎉97🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
🟦 بررسی مفهوم وکسل (Voxel) در پردازش تصویر سه‌بعدی

در پردازش تصویر سه‌بعدی، همان‌طور که یک پیکسل کوچک‌ترین واحد تصویری دوبعدی است، وکسل (Voxel – Volumetric Pixel) کوچک‌ترین واحد حجم در داده‌های سه‌بعدی محسوب می‌شود. هر وکسل در واقع یک مکعب یا حجم کوچک است که ویژگی‌هایی مانند مکان (X,Y,Z)، شدت روشنایی یا حتی رنگ را ذخیره می‌کند.

📍 کاربردهای وکسل در پردازش تصویر

🩻 تصویربرداری پزشکی: در CT و MRI، وکسل‌ها داده‌های حجمی بدن را بازنمایی می‌کنند.

🛰 مدل‌سازی سه‌بعدی و GIS: برای نمایش حجم سازه‌ها، زمین و اجسام.

🤖 بینایی ماشین و رباتیک: در نقشه‌برداری سه‌بعدی با LiDAR یا ساخت مدل محیط.

🎮 گرافیک و بازی‌سازی: ایجاد جهان‌های سه‌بعدی با دقت و جزئیات بالا.


⚙️ مزیت وکسل نسبت به مش‌ها

♻️نمایش دقیق‌تر ساختارهای داخلی اجسام (نه فقط سطح آن‌ها).
♻️امکان پردازش داده‌های حجمی برای شبیه‌سازی فیزیکی یا تحلیلی.


📊 چالش‌ها

♻️حجم داده بالا به دلیل ذخیره‌سازی سه‌بعدی.
♻️نیاز به الگوریتم‌های فشرده‌سازی و پردازش سریع.


💡 جمع‌بندی: وکسل‌ها ستون فقرات پردازش تصویر سه‌بعدی هستند و نقش کلیدی در پزشکی، مهندسی و شبیه‌سازی دارند، اما مدیریت حجم بالای داده یکی از چالش‌های اصلی آن‌ها است.

#پردازش_تصویر #Voxel #بینایی_ماشین #مدل‌سازی_سه‌بعدی

@rss_ai_ir
👍1310🔥10😁10👏9🎉6🥰5
📉🧠 در یک تست آفلاین مقایسه‌ای، میزان IQ مدل‌های مختلف هوش مصنوعی اندازه‌گیری شد.

🔹 مدل Claude-4 Opus با امتیاز 118 بالاترین رتبه را به دست آورد.
🔹 مدل‌های o3 Pro و Gemini 2.5 Pro نیز با اختلاف اندک در جایگاه‌های بعدی قرار گرفتند.
🔹 نکته جالب این است که GPT-5 Thinking با امتیاز 57 پایین‌ترین رکورد را ثبت کرده و حتی در تست آفلاین هم فقط به 70 رسیده است.

📊 این نتایج نشان می‌دهد که عملکرد مدل‌های هوش مصنوعی می‌تواند بسته به نوع و بهینه‌سازی آن‌ها بسیار متفاوت باشد، حتی اگر از یک شرکت باشند.

#هوش_مصنوعی #تست_IQ #GPT5 #Claude4


@rss_ai_ir
👏9😁6🔥5🥰43👍3🎉3🤯1
animation.gif
19.5 MB
🌀 چه زمانی باید سراغ پردازش سه‌بعدی برویم؟

پردازش سه‌بعدی (3D Processing) همیشه لازم نیست، اما در برخی پروژه‌ها تغییر بازی ایجاد می‌کند. انتخاب آن باید بر اساس ماهیت داده‌ها و نیاز پروژه باشد.

🔍 مواردی که پردازش سه‌بعدی توجیه دارد:

1. داده‌های حجمی یا وکسل (Voxel) → مثل تصاویر MRI، CT یا اسکن‌های صنعتی که اطلاعات عمق در کل حجم مهم است.


2. تحلیل هندسه و ساختار واقعی اشیا → در رباتیک، مهندسی معکوس یا کنترل کیفیت قطعات پیچیده.


3. بینایی ماشین پیشرفته → تشخیص و ردیابی اجسام در محیط‌های سه‌بعدی (خودروهای خودران، پهپادها).


4. شبیه‌سازی‌های علمی و مهندسی → جریان سیالات، تحلیل سازه، یا شبیه‌سازی‌های پزشکی.


5. مدل‌سازی و واقعیت مجازی/افزوده (VR/AR) → ایجاد محیط‌های تعاملی و دقیق.



⚠️ چه زمانی نرویم سمت 3D؟

وقتی داده دوبعدی جوابگو است و هزینه پردازش پایین‌تر اهمیت دارد.

وقتی ابعاد اضافه، ارزش افزوده واقعی در دقت یا کاربرد ایجاد نمی‌کند.


📌 نکته: پردازش سه‌بعدی نیازمند منابع سخت‌افزاری بیشتر (GPU، حافظه) و الگوریتم‌های بهینه‌سازی خاص است، پس انتخاب آن باید آگاهانه باشد.

@rss_ai_ir 🤖
🥰8🔥6🎉54👍4👏4😁4
📊 روش‌های تخصصی تشخیص ناهنجاری (Anomaly Detection)

تشخیص ناهنجاری یا Anomaly Detection یکی از بخش‌های کلیدی در هوش مصنوعی، یادگیری ماشین و تحلیل داده است که هدف آن شناسایی الگوهای غیرعادی در داده‌هاست. این روش‌ها در حوزه‌هایی مانند تشخیص خرابی تجهیزات، امنیت سایبری، تشخیص تقلب مالی و مانیتورینگ سلامت کاربرد دارند.


---

🔍 دسته‌بندی اصلی روش‌ها

1️⃣ روش‌های آماری (Statistical Methods)

ایده: فرض بر این است که داده‌های نرمال از یک توزیع مشخص (مثلاً Gaussian) پیروی می‌کنند و نقاطی که احتمال وقوع‌شان کم است، ناهنجار هستند.

مثال‌ها:

Z-Score

Grubbs’ Test

Generalized ESD Test


مزیت: ساده و سریع

ضعف: کارایی پایین در داده‌های پیچیده یا توزیع غیرخطی



---

2️⃣ روش‌های مبتنی بر فاصله و چگالی (Distance & Density Based)

ایده: نقاط ناهنجار فاصله زیادی از خوشه‌ها دارند یا در مناطق با چگالی کم قرار گرفته‌اند.

مثال‌ها:

K-Nearest Neighbors (KNN) for Outlier Detection

Local Outlier Factor (LOF)

DBSCAN برای شناسایی نقاط کم‌چگالی


مزیت: عدم نیاز به فرض توزیع

ضعف: مقیاس‌پذیری ضعیف در دیتاست‌های خیلی بزرگ



---

3️⃣ روش‌های مبتنی بر یادگیری نظارت‌شده (Supervised Learning)

ایده: برچسب‌گذاری داده‌های نرمال و غیرنرمال، سپس آموزش یک مدل طبقه‌بندی.

مثال‌ها:

Random Forest

SVM (با کلاس‌بندی دوتایی)

XGBoost


مزیت: دقت بالا در داده‌های برچسب‌خورده

ضعف: نیاز به داده‌های برچسب‌خورده (که معمولاً نایاب هستند)



---

4️⃣ روش‌های بدون‌نظارت (Unsupervised Learning)

ایده: الگوریتم داده‌ها را بدون برچسب خوشه‌بندی کرده و نقاط دورافتاده را ناهنجار تشخیص می‌دهد.

مثال‌ها:

Isolation Forest

One-Class SVM

PCA for Anomaly Detection


مزیت: بدون نیاز به برچسب

ضعف: حساسیت به نویز



---

5️⃣ روش‌های مبتنی بر یادگیری عمیق (Deep Learning)

ایده: استفاده از شبکه‌های عصبی برای مدل‌سازی داده‌های نرمال و شناسایی نمونه‌های غیرعادی بر اساس خطای بازسازی یا احتمال تولید.

مثال‌ها:

Autoencoders (و Variational Autoencoders)

LSTM Autoencoders برای داده‌های زمانی

GAN-based Anomaly Detection (مثل AnoGAN)


مزیت: قدرت مدل‌سازی بالا در داده‌های پیچیده

ضعف: نیاز به منابع محاسباتی زیاد و داده کافی



---

6️⃣ روش‌های ترکیبی (Hybrid Approaches)

ایده: ترکیب چند الگوریتم برای بهبود دقت و کاهش نرخ خطا.

مثال: استفاده از Isolation Forest به‌عنوان پیش‌پردازش و سپس Autoencoder برای تحلیل عمیق.



---

💡 نکته صنعتی:
در مانیتورینگ صنعتی (مثل تشخیص خرابی موتور یا توربین)، ترکیب مدل‌های پیش‌بینی سری زمانی (مثل Prophet یا LSTM) با روش‌های anomaly detection بسیار مؤثر است.


---

📍 @rss_ai_ir | #هوش_مصنوعی #AnomalyDetection #یادگیری_ماشین #DeepLearning #داده_کاوی
🥰7🎉7🔥6👏65👍4😁4
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 فاین‌تیونینگ کارآمد مدل‌های زبانی با PEFT

✳️در پروژه‌های هوش مصنوعی، مخصوصاً مدل‌های زبانی بزرگ (LLM)، فاین‌تیونینگ کامل تمام وزن‌ها (Full Fine-Tuning) بسیار پرهزینه و نیازمند GPUهای قدرتمند است. تکنیک PEFT (Parameter-Efficient Fine-Tuning) با هدف کاهش این هزینه‌ها معرفی شده و امروز یکی از رایج‌ترین رویکردها برای سفارشی‌سازی مدل‌ها در حوزه تخصصی است.


🔍 ایده اصلی PEFT
به‌جای تغییر دادن همه پارامترهای مدل (که ممکن است میلیاردها وزن باشد)، فقط یک زیرمجموعه کوچک از پارامترها یا لایه‌های اضافه شده (مثل LoRA – Low-Rank Adaptation) آموزش داده می‌شود. وزن‌های اصلی مدل پیش‌آموزش‌دیده (Pretrained Weights) ثابت می‌مانند و تنها ماتریس‌های کم‌رتبه‌ی افزوده شده به‌روزرسانی می‌شوند.


⚙️ مهم‌ترین روش‌های PEFT
LoRA (Low-Rank Adaptation) 🟦
تزریق دو ماتریس کم‌رتبه (A و B) به وزن‌های مدل
به‌روزرسانی فقط این ماتریس‌ها
کاهش چشمگیر تعداد پارامترهای قابل‌آموزش (تا 1000 برابر کمتر از Full Fine-Tuning)


Prefix-Tuning 🟧
اضافه کردن یک توالی از "توکن‌های پیشوند" قابل‌آموزش به ورودی هر لایه ترنسفورمر
مناسب برای وظایف تولید متن (NLG) و دیالوگ


Prompt-Tuning 🟨
آموزش چند embedding به‌عنوان پرامپت ثابت برای هدایت مدل مناسب برای سناریوهایی که ورودی همیشه ساختار مشخصی دارد


Adapters 🟩
اضافه کردن ماژول‌های کوچک بین لایه‌های ترنسفورمر مدل اصلی ثابت می‌ماند و فقط آداپترها آموزش می‌بینند


📊 مزایا برای پروژه‌های صنعتی
💾 نیاز کمتر به حافظه GPU (مثلاً 8GB هم کافی است)
⏱️ سرعت بالاتر آموزش و استقرار
🔄 قابلیت اشتراک و ترکیب ماژول‌های فاین‌تیون (Adapter Fusion)
📦 امکان استفاده روی مدل‌های خیلی بزرگ بدون منابع ابری گران


💡 کاربردهای تخصصی
♻️سفارشی‌سازی GPT یا LLaMA برای تحلیل متون حقوقی، پزشکی یا فنی
♻️آموزش مدل‌های چندزبانه روی داده‌های سازمانی محدود
♻️ایجاد نسخه‌های سبک‌تر و بهینه برای اجرا روی لبه (Edge AI)


📌 جمع‌بندی
روشPEFT با تمرکز روی تغییرات کم‌هزینه و ماژولار، فاین‌تیونینگ را برای همه قابل‌دسترس کرده است. به‌جای روزها آموزش روی چندین GPU، می‌توان با منابع محدود، مدل‌های قدرتمند را دقیقاً مطابق نیاز حوزه تخصصی خود تنظیم کرد.


@rss_ai_ir 🤖

| #هوش_مصنوعی #LLM #PEFT #LoRA #پردازش_زبان_طبیعی
😁9🎉8🔥7👏63🥰3👍1
🤖 مدل جدید Grok V7 از تیم xAI ایلان ماسک، هفته گذشته مرحله پیش‌آموزش را به پایان رسانده و به‌صورت چندوجهی بومی طراحی شده است.

🎥🔊 این مدل می‌تواند جریان بیت ویدئو یا صدا را به‌طور مستقیم پردازش کند، بدون اینکه ابتدا آن را به متن یا داده میانی تبدیل کند.
این یعنی قادر است جزئیات لحن، احساس و تأکید در صحبت‌ها را مستقیماً درک کند؛ مشابه درک انسانی از ویدئو و صدا.

🚀 چنین رویکردی می‌تواند نسل بعدی تعاملات انسان و هوش مصنوعی را شکل دهد، جایی که مدل نه‌تنها معنا، بلکه احساس و بافت ارتباط را نیز بفهمد.

#هوش_مصنوعی #چندوجهی #xAI #Grok #ایلان_ماسک
@rss_ai_ir
🔥7🎉6👏5😁5👍3🥰32
📊 آمار جالب از سمت Altman

قبل از معرفی GPT-5، تنها حدود ۷٪ از کاربران نسخه Plus سراغ مدل‌های Reasoning می‌رفتند. حالا این عدد به ۲۴٪ رسیده است، چون سیستم جدید به‌صورت خودکار درخواست‌ها را به مدل‌های استدلالی هدایت می‌کند.

در بخش کاربران رایگان، اوضاع حتی جالب‌تر است: پیش‌تر کمتر از ۱٪ آن‌ها Reasoning Models را امتحان کرده بودند، ولی حالا این رقم به ۷٪ رسیده است.

پرسش اینجاست که آیا همه واقعاً این‌قدر به gpt-4o علاقه‌مند بودند، یا مشکل اصلی این بوده که بلد نبودند از منوی کشویی انتخاب مدل استفاده کنند؟ 😄

#هوش_مصنوعی #GPT5 #Reasoning #OpenAI
@rss_ai_ir 🚀
18🥰12👏12🎉6👍5🔥5😁4
🚀 پیشرفت بزرگ در الگوریتم‌های گراف: روش جدیدی برای یافتن کوتاه‌ترین مسیرها سریع‌تر از دیکسترا

🧩 محققان دانشگاه‌های Tsinghua، استنفورد و Max Planck موفق به ارائه الگوریتمی قطعی برای مسئله‌ی SSSP (یافتن کوتاه‌ترین مسیر از یک رأس به تمام رأس‌های دیگر) در گراف‌های جهت‌دار با وزن‌های غیرمنفی شده‌اند که از «سد مرتب‌سازی» عبور می‌کند و از دیکسترا سریع‌تر عمل می‌کند.

🔍 ایده کلیدی، ترکیبی از دیکسترا و بلمن-فورد است:

✳️به جای نگه‌داری کامل مجموعه‌ی مرزی مرتب، الگوریتم در صورت بزرگ شدن این مجموعه، چند گام بلمن-فورد را روی رأس‌های آن اجرا می‌کند تا مسیرهای کوتاه سریعاً مشخص شوند.

✳️رأس‌هایی که مسیر طولانی‌تری دارند باید از «نقاط تکیه‌گاه» عبور کنند که تعدادشان به‌مراتب کمتر است.

✳️با روش تقسیم و حل (Divide & Conquer)، مسئله به سطوح کوچک‌تر شکسته می‌شود و پیچیدگی لگاریتمی به یک عامل آهسته‌تر کاهش می‌یابد.


📈 نتیجه: زمانی متناسب با تعداد یال‌ها × یک ضریب لگاریتمی کندتر از دیکسترا، که در عمل سرعت بالاتری به‌ویژه برای کاربردهایی مانند ناوبری، شبکه‌ها و برنامه‌ریزی دارد.

💡 اهمیت کشف:

♻️اثبات اینکه دیکسترا سقف نهایی سرعت نیست.
♻️بهبود قابل‌توجه در حل مسائل مسیرکوتاه در گراف‌های بزرگ.

لینک

#الگوریتم #هوش_مصنوعی #GraphTheory #SSSP #AIResearch
@rss_ai_ir
🥰23👏21🎉1615😁15👍10🔥9
This media is not supported in your browser
VIEW IN TELEGRAM
🎯 کتابخانه Trackers – راهکاری ماژولار برای ردیابی چندشیء همزمان

👨🏻‍💻 در پروژه‌هایی که نیاز به ردیابی همزمان چندین شیء در ویدیو داشتم، استفاده از DeepSORT و SORT همیشه با یک مشکل همراه بود: یا سخت به مدل‌های مختلف وصل می‌شدند یا ساختار کد آن‌ها انعطاف‌پذیر و قابل توسعه نبود.

✏️ کتابخانه Trackers این مشکل را برطرف کرده. یک پکیج کاملاً ماژولار که اجازه می‌دهد به‌راحتی بین الگوریتم‌های مختلف جابه‌جا شوید و با انواع مدل‌های تشخیص شیء مثل Ultralytics، Transformers، MMDetection و … یکپارچه‌سازی کنید.

🔹 ویژگی‌ها:
1️⃣ فقط کافی است مدل تشخیص خود را به آن بدهید؛ ماژول ردیابی بقیه کار را انجام می‌دهد.
2️⃣ پشتیبانی رسمی از SORT و DeepSORT.
3️⃣ پشتیبانی آینده از الگوریتم‌های قدرتمندتر مانند StrongSORT و ByteTrack.

📦 نصب:

pip install trackers

📂 ساختار:
🏳️‍🌈 Trackers
📖 Documentation
♾️ DeepSORT tracker
♾️ SORT tracker
🐱 GitHub-Repos

🌐 #یادگیری_عمیق #DeepLearning
@rss_ai_ir
🥰15👏15😁15🎉1514🔥13👍7🙏1
در یک سامانه پایش تجهیزات صنعتی، استفاده از روش تشخیص ناهنجاری مبتنی بر Autoencoder چه مزیتی نسبت به روش‌های آستانه‌گذاری ثابت دارد؟
Anonymous Quiz
86%
امکان شناسایی ناهنجاری‌های ناشناخته با یادگیری الگوهای عادی از داده‌ها
14%
کاهش نیاز به داده‌های آموزشی برای عملکرد مناسب
0%
حذف کامل نویز سنسورها بدون افت دقت
0%
وابستگی کمتر به قدرت پردازش سخت‌افزار
😁15🔥13🎉1312👍11👏8🥰6
🤖 پلتفرم Genie Envisioner – راهکاری نوین برای آموزش ربات‌های دستکاری اشیاء

شرکت AgiBot چارچوبی جامع مبتنی بر مدل جهان (World Model) برای کنترل و آموزش بازوهای رباتیکی معرفی کرده است. این پلتفرم از سه بخش کلیدی تشکیل شده است:

🔹 بخش GE-Base – مدل ویدئویی بر پایه *diffusion* که با بیش از ۳۰۰۰ ساعت داده و یک میلیون اپیزود دستکاری اشیاء از مجموعه‌داده AgiBot-World-Beta آموزش دیده است. این مدل توانایی تحلیل دقیق توالی‌های تصویری و حرکتی را دارد و هسته اصلی سیستم به شمار می‌آید.

🔹 بخش GE-Act – مدل تصمیم‌گیری مبتنی بر روش *flow-matching* که از ویژگی‌های بصری استخراج‌شده توسط GE-Base برای تولید حرکات بهینه بازوی ربات در زمان واقعی استفاده می‌کند.

🔹 بخش GE-Sim – شبیه‌ساز عصبی محیط که برای ارزیابی و بهینه‌سازی عملکرد ربات در حلقه‌بسته به کار می‌رود و امکان تست سیاست‌های کنترلی را بدون نیاز به اجرای واقعی فراهم می‌کند.

🟢 توسعه‌دهندگان وعده داده‌اند که کد منبع، مدل‌ها و بنچمارک‌ها به‌صورت متن‌باز منتشر شوند تا پژوهشگران و مهندسان بتوانند این سیستم را بازتولید و گسترش دهند.

📄 مقاله: [arxiv.org/abs/2508.05635v1]
🌐 پروژه: [genie-envisioner.github.io]

@rss_ai_ir

#هوش_مصنوعی #رباتیک #مدل_جهان #DeepLearning #AI
12😁11🎉10👍9👏9🔥8🥰6🙏1
💉 ایده واکسیناسیون هوش مصنوعی علیه رفتارهای منفی

پژوهشگران شرکت Anthropic روشی جالب برای ایمن‌سازی مدل‌های هوش مصنوعی در برابر رفتارهای ناخواسته ارائه داده‌اند.
در این روش، مدل طی آموزش، «مقدار کنترل‌شده‌ای از رفتار منفی» را تجربه می‌کند تا بتواند آن را شناسایی و از آن اجتناب کند.

🔹 ابتدا یک ویژگی منفی مانند پرخاشگری یا تمایل به دست‌کاری انتخاب می‌شود.
🔹 امضای عصبی آن ویژگی، با شناسایی نورون‌های فعال هنگام بروز آن، استخراج می‌شود.
🔹 این امضا تغییر داده می‌شود تا اثرش بر رفتار مدل بررسی گردد.
🔹 در فرایند آموزش، داده‌های بیش‌ازحد سمی فیلتر می‌شوند، اما مقدار کمی از رفتار منفی تحت نظارت به مدل تزریق می‌شود تا توانایی تشخیص و مسدودسازی آن تقویت شود.

این ایده مشابه واکسن است: قرار دادن سیستم در معرض مقدار کمِ مشکل، برای ایجاد مقاومت در برابر آن.
به‌صورت نظری، چنین رویکردی می‌تواند به مدل کمک کند تا پاسخ‌های سمی، فریبکارانه یا بیش‌ازحد چاپلوسانه را به‌طور خودکار شناسایی و متوقف کند، بدون این‌که منتظر بازخورد انسانی بماند.

@rss_ai_ir 🤖
👍18🔥13👏1311😁11🥰6🎉4🙏1
📊 گزارش محبوب‌ترین زبان‌های برنامه‌نویسی ۲۰۲۵

براساس آمار منتشرشده، Python پس از یک دهه رشد مداوم، در سال اخیر جهش چشمگیری داشته و با رشد ۷ درصدی نسبت به ۲۰۲۴، به یکی از زبان‌های پیشرو در هوش مصنوعی، علم داده و توسعه بک‌اند تبدیل شده است.

🔹 رده‌بندی محبوب‌ترین زبان‌ها بین تمام پاسخ‌دهندگان:

🔹 Top 10 Programming Languages (All Respondents – 2025):

1. JavaScript — 66%
2. HTML/CSS — 61.9%
3. SQL — 58.6%
4. Python — 57.9%
5. Bash/Shell — 48.7%
6. TypeScript — 43.6%
7. Java — 29.4%
8. C# — 27.8%
9. C++ — 23.5%
10. PowerShell — 23.2%


📈 این آمار نشان می‌دهد که ابزارهای وب (JavaScript, HTML, CSS) همچنان سلطه دارند، اما پایتون با شتاب بالایی به جایگاه چهارم رسیده و در برخی شاخه‌ها حتی از SQL هم پیشی گرفته است.

@rss_ai_ir 🚀💻
🥰1612🎉12👍10👏8😁6🔥4🙏1