Media is too big
VIEW IN TELEGRAM
🎥 بررسی تخصصی ویدیوی
Score-based Diffusion Models | Generative AI Animated
---
مدلهای انتشار (Diffusion) به یکی از دقیقترین و پیشرفتهترین روشها در تولید دادههای مصنوعی با کیفیت بالا تبدیل شدهاند. این ویدیو با زبان انیمیشنی مفاهیم مدلهای Score-based Diffusion را بهشکل حرفهای و قابل فهم نمایش میدهد 🚀
---
🔍 مهمترین نکات این مدلها:
🧠 فرایند یادگیری با افزودن نویز به دادهها و سپس حذف نویز
🎯 کنترل دقیقتر نسبت به GAN در تولید محتوا
🖼 کاربرد در تولید تصویر، بازسازی داده، طراحی هوشمند
---
⚙️ مزایا:
✔️ کیفیت بالا در خروجی
✔️ پایداری بهتر نسبت به GAN
✔️ مناسب برای پروژههای دقیق و خلاقانه
⚠️ محدودیتها:
🔸 زمان آموزش زیاد
🔸 نیازمند منابع سختافزاری بالا
🔸 حساس به تنظیمات مدل
---
💡 اگر به Generative AI علاقهمند هستی یا پروژهای در زمینه بازسازی تصویر، طراحی صنعتی یا تولید داده مصنوعی داری، این مدلها یک انتخاب آیندهدار و بسیار کاربردی هستن.
ویدیوی کامل رو از این لینک ببین:
📺 https://www.youtube.com/watch?v=lUljxdkolK8
❌♨️زیرنویس فارسی
---
#هوش_مصنوعی #یادگیری_عمیق #DiffusionModel #ScoreBased #GenerativeAI #مدل_انتشار #OpenAI #AIResearch #پردازش_تصویر #تولید_داده
📡 کانال تخصصی ما:
🔗 https://t.iss.one/rss_ai_ir
Score-based Diffusion Models | Generative AI Animated
---
مدلهای انتشار (Diffusion) به یکی از دقیقترین و پیشرفتهترین روشها در تولید دادههای مصنوعی با کیفیت بالا تبدیل شدهاند. این ویدیو با زبان انیمیشنی مفاهیم مدلهای Score-based Diffusion را بهشکل حرفهای و قابل فهم نمایش میدهد 🚀
---
🔍 مهمترین نکات این مدلها:
🧠 فرایند یادگیری با افزودن نویز به دادهها و سپس حذف نویز
🎯 کنترل دقیقتر نسبت به GAN در تولید محتوا
🖼 کاربرد در تولید تصویر، بازسازی داده، طراحی هوشمند
---
⚙️ مزایا:
✔️ کیفیت بالا در خروجی
✔️ پایداری بهتر نسبت به GAN
✔️ مناسب برای پروژههای دقیق و خلاقانه
⚠️ محدودیتها:
🔸 زمان آموزش زیاد
🔸 نیازمند منابع سختافزاری بالا
🔸 حساس به تنظیمات مدل
---
💡 اگر به Generative AI علاقهمند هستی یا پروژهای در زمینه بازسازی تصویر، طراحی صنعتی یا تولید داده مصنوعی داری، این مدلها یک انتخاب آیندهدار و بسیار کاربردی هستن.
ویدیوی کامل رو از این لینک ببین:
📺 https://www.youtube.com/watch?v=lUljxdkolK8
❌♨️زیرنویس فارسی
---
#هوش_مصنوعی #یادگیری_عمیق #DiffusionModel #ScoreBased #GenerativeAI #مدل_انتشار #OpenAI #AIResearch #پردازش_تصویر #تولید_داده
📡 کانال تخصصی ما:
🔗 https://t.iss.one/rss_ai_ir
❤2🔥1🙏1
🚀 پیشرفت بزرگ در الگوریتمهای گراف: روش جدیدی برای یافتن کوتاهترین مسیرها سریعتر از دیکسترا
🧩 محققان دانشگاههای Tsinghua، استنفورد و Max Planck موفق به ارائه الگوریتمی قطعی برای مسئلهی SSSP (یافتن کوتاهترین مسیر از یک رأس به تمام رأسهای دیگر) در گرافهای جهتدار با وزنهای غیرمنفی شدهاند که از «سد مرتبسازی» عبور میکند و از دیکسترا سریعتر عمل میکند.
🔍 ایده کلیدی، ترکیبی از دیکسترا و بلمن-فورد است:
✳️به جای نگهداری کامل مجموعهی مرزی مرتب، الگوریتم در صورت بزرگ شدن این مجموعه، چند گام بلمن-فورد را روی رأسهای آن اجرا میکند تا مسیرهای کوتاه سریعاً مشخص شوند.
✳️رأسهایی که مسیر طولانیتری دارند باید از «نقاط تکیهگاه» عبور کنند که تعدادشان بهمراتب کمتر است.
✳️با روش تقسیم و حل (Divide & Conquer)، مسئله به سطوح کوچکتر شکسته میشود و پیچیدگی لگاریتمی به یک عامل آهستهتر کاهش مییابد.
📈 نتیجه: زمانی متناسب با تعداد یالها × یک ضریب لگاریتمی کندتر از دیکسترا، که در عمل سرعت بالاتری بهویژه برای کاربردهایی مانند ناوبری، شبکهها و برنامهریزی دارد.
💡 اهمیت کشف:
♻️اثبات اینکه دیکسترا سقف نهایی سرعت نیست.
♻️بهبود قابلتوجه در حل مسائل مسیرکوتاه در گرافهای بزرگ.
لینک
#الگوریتم #هوش_مصنوعی #GraphTheory #SSSP #AIResearch
@rss_ai_ir
🧩 محققان دانشگاههای Tsinghua، استنفورد و Max Planck موفق به ارائه الگوریتمی قطعی برای مسئلهی SSSP (یافتن کوتاهترین مسیر از یک رأس به تمام رأسهای دیگر) در گرافهای جهتدار با وزنهای غیرمنفی شدهاند که از «سد مرتبسازی» عبور میکند و از دیکسترا سریعتر عمل میکند.
🔍 ایده کلیدی، ترکیبی از دیکسترا و بلمن-فورد است:
✳️به جای نگهداری کامل مجموعهی مرزی مرتب، الگوریتم در صورت بزرگ شدن این مجموعه، چند گام بلمن-فورد را روی رأسهای آن اجرا میکند تا مسیرهای کوتاه سریعاً مشخص شوند.
✳️رأسهایی که مسیر طولانیتری دارند باید از «نقاط تکیهگاه» عبور کنند که تعدادشان بهمراتب کمتر است.
✳️با روش تقسیم و حل (Divide & Conquer)، مسئله به سطوح کوچکتر شکسته میشود و پیچیدگی لگاریتمی به یک عامل آهستهتر کاهش مییابد.
📈 نتیجه: زمانی متناسب با تعداد یالها × یک ضریب لگاریتمی کندتر از دیکسترا، که در عمل سرعت بالاتری بهویژه برای کاربردهایی مانند ناوبری، شبکهها و برنامهریزی دارد.
💡 اهمیت کشف:
♻️اثبات اینکه دیکسترا سقف نهایی سرعت نیست.
♻️بهبود قابلتوجه در حل مسائل مسیرکوتاه در گرافهای بزرگ.
لینک
#الگوریتم #هوش_مصنوعی #GraphTheory #SSSP #AIResearch
@rss_ai_ir
🥰23👏21🎉16❤15😁15👍11🔥9
📢 ShinkaEvolve
؛ جایگزین متنباز AlphaEvolve از Sakana AI
⛔️شرکت Sakana AI چارچوبی متنباز با نام ShinkaEvolve معرفی کرده که برای بهینهسازی و توسعه الگوریتمها و معماریهای پیچیده طراحی شده است. «Shinka» (進化) در ژاپنی به معنای تکامل است و این رویکرد هم بر پایهی اصول تکاملی بنا شده.
🔹 چطور کار میکند؟
1️⃣ ورودی شامل یک Seed-program و یک Verifier (محاسبه متریک کیفیت/fitness) است. کدهای جدید در یک «آرشیو والدین» ذخیره میشوند.
2️⃣ همچنین LLM به عنوان اپراتور جهش عمل میکند: میتواند کد را با روشهای مختلف تغییر دهد (diff-patch، بازنویسی کامل، crossover). انتخاب LLM بهینه توسط الگوریتم multi-armed bandit انجام میشود.
3️⃣ کاندیداها ابتدا از فیلتر novelty-rejection (بر اساس شباهت تع嵌 embeddings) عبور میکنند تا ایدههای تکراری حذف شوند. سپس بهترینها به آرشیو اضافه میشوند.
4️⃣ برای تنوع، از مفهوم «جزیرهها» (populationهای مستقل) استفاده شده و در مواقع بنبست، مهاجرت بین آنها انجام میشود.
🔹 نتایج تستها
✅ در بهینهسازی ریاضی: تنها با 150 نمونه، راهحل جدیدی برای مسئلهی Circle Packing پیدا کرد.
✅ در طراحی ایجنت هوش مصنوعی: بعد از ~75 نسل، معماری سهبخشی جدیدی ایجاد کرد که baseline را در AIME شکست داد.
✅ در برنامهنویسی رقابتی: با بهبودهای متعدد، به سطح مدال نقره رسید.
✅ در آموزش LLM: پس از ~30 نسل، تابع خطای جدیدی برای MoE کشف شد که عملکردی بهتر از بسیاری روشهای رایج داشت.
⚡️ تفاوت اصلی با AlphaEvolve این است که ShinkaEvolve همین حالا و رایگان قابل استفاده است. کافیست فایل evaluate.py را برای مسئلهی خود بازنویسی کنید، initial.py را آماده کرده و اجرا کنید:
📎 کد و راهنمای کامل:
GitHub
#هوش_مصنوعی #الگوریتم_تکاملی #SakanaAI #ShinkaEvolve #AIResearch
؛ جایگزین متنباز AlphaEvolve از Sakana AI
⛔️شرکت Sakana AI چارچوبی متنباز با نام ShinkaEvolve معرفی کرده که برای بهینهسازی و توسعه الگوریتمها و معماریهای پیچیده طراحی شده است. «Shinka» (進化) در ژاپنی به معنای تکامل است و این رویکرد هم بر پایهی اصول تکاملی بنا شده.
🔹 چطور کار میکند؟
1️⃣ ورودی شامل یک Seed-program و یک Verifier (محاسبه متریک کیفیت/fitness) است. کدهای جدید در یک «آرشیو والدین» ذخیره میشوند.
2️⃣ همچنین LLM به عنوان اپراتور جهش عمل میکند: میتواند کد را با روشهای مختلف تغییر دهد (diff-patch، بازنویسی کامل، crossover). انتخاب LLM بهینه توسط الگوریتم multi-armed bandit انجام میشود.
3️⃣ کاندیداها ابتدا از فیلتر novelty-rejection (بر اساس شباهت تع嵌 embeddings) عبور میکنند تا ایدههای تکراری حذف شوند. سپس بهترینها به آرشیو اضافه میشوند.
4️⃣ برای تنوع، از مفهوم «جزیرهها» (populationهای مستقل) استفاده شده و در مواقع بنبست، مهاجرت بین آنها انجام میشود.
🔹 نتایج تستها
✅ در بهینهسازی ریاضی: تنها با 150 نمونه، راهحل جدیدی برای مسئلهی Circle Packing پیدا کرد.
✅ در طراحی ایجنت هوش مصنوعی: بعد از ~75 نسل، معماری سهبخشی جدیدی ایجاد کرد که baseline را در AIME شکست داد.
✅ در برنامهنویسی رقابتی: با بهبودهای متعدد، به سطح مدال نقره رسید.
✅ در آموزش LLM: پس از ~30 نسل، تابع خطای جدیدی برای MoE کشف شد که عملکردی بهتر از بسیاری روشهای رایج داشت.
⚡️ تفاوت اصلی با AlphaEvolve این است که ShinkaEvolve همین حالا و رایگان قابل استفاده است. کافیست فایل evaluate.py را برای مسئلهی خود بازنویسی کنید، initial.py را آماده کرده و اجرا کنید:
shinka_launch variant=experiment_name
📎 کد و راهنمای کامل:
GitHub
#هوش_مصنوعی #الگوریتم_تکاملی #SakanaAI #ShinkaEvolve #AIResearch
This media is not supported in your browser
VIEW IN TELEGRAM
📹🤖 LONGLIVE از NVIDIA —
ویدئوسازی تعاملیِ بلادرنگ
مدل LONGLIVE یک چارچوب autoregressive در سطح فریم برای تولید ویدئوی طولانی بهصورت Real-time است. حین تولید میتوانید پشتسرهم پرامپت بدهید و مدل همانجا مسیر ویدئو را تغییر دهد.
چرا مهم است؟
⏱️ پاسخدهی بلادرنگ؛ مناسب استریم و تجربههای تعاملی
🧠 تولید فریمبهفریم = کنترل دقیق صحنه و تداوم داستان
🧩 پشتیبانی از پرامپتهای پیدرپی (sequential prompts)
🛠️ کد و مدل منتشر شده (لایسنس غیرتجاری)
لینکها:
Paper: arxiv.org/pdf/2509.22622
Project: nvlabs.github.io/LongLive/
Code: github.com/NVlabs/LongLive
HF: huggingface.co/Efficient-Large-Model/LongLive-1.3B
#NVIDIA #LongLive #RealtimeVideo #InteractiveAI #GenerativeVideo #Autoregressive #AIResearch #OpenSource
ویدئوسازی تعاملیِ بلادرنگ
مدل LONGLIVE یک چارچوب autoregressive در سطح فریم برای تولید ویدئوی طولانی بهصورت Real-time است. حین تولید میتوانید پشتسرهم پرامپت بدهید و مدل همانجا مسیر ویدئو را تغییر دهد.
چرا مهم است؟
⏱️ پاسخدهی بلادرنگ؛ مناسب استریم و تجربههای تعاملی
🧠 تولید فریمبهفریم = کنترل دقیق صحنه و تداوم داستان
🧩 پشتیبانی از پرامپتهای پیدرپی (sequential prompts)
🛠️ کد و مدل منتشر شده (لایسنس غیرتجاری)
لینکها:
Paper: arxiv.org/pdf/2509.22622
Project: nvlabs.github.io/LongLive/
Code: github.com/NVlabs/LongLive
HF: huggingface.co/Efficient-Large-Model/LongLive-1.3B
#NVIDIA #LongLive #RealtimeVideo #InteractiveAI #GenerativeVideo #Autoregressive #AIResearch #OpenSource
👍4🔥1🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
👔 LucidFlux:
ترمیم همهکارهی تصویر (HKUSTGZ)
⛔️مدل LucidFlux یک فریمورک ترمیم تصویر یونیورسال بر پایهی Diffusion Transformer است که روی عکسهای واقعی با کیفیت پایین (LQ) خروجیهای فوتورئالیستی میدهد و در انواع خرابیها (نویز، بلور، فشردگی، کمنور، آرتیفکتها و …) از مدلهای SOTA مبتنی بر دیفیوشن بهتر عمل میکند.
❌چرا مهمه؟
✅یک مدل برای چندین نوع خرابی (بهجای مدل جدا برای هر سناریو)
✅سازگاری با تصاویر دنیای واقعی، نه فقط دیتاستهای تمیز
✅کیفیت بازسازی بالا بدون ظاهر «بیشازحد صاف/پلاستیکی»
‼️نکات فنی کوتاه
❎معماری بزرگمقیاس Diffusion Transformer
❎آموزش چند-تخریبی (multi-degradation) برای تعمیم بهتر
❎لایسنس: استفاده غیرتجاری (حواستون به محدودیت مجوز باشه)
📄 Paper:
https://arxiv.org/pdf/2509.22414
🌐 Project:
https://w2genai-lab.github.io/LucidFlux/
💻 Code:
https://github.com/W2GenAI-Lab/LucidFlux
#ImageRestoration #Diffusion #Transformer #ComputerVision #LucidFlux #AIResearch
ترمیم همهکارهی تصویر (HKUSTGZ)
⛔️مدل LucidFlux یک فریمورک ترمیم تصویر یونیورسال بر پایهی Diffusion Transformer است که روی عکسهای واقعی با کیفیت پایین (LQ) خروجیهای فوتورئالیستی میدهد و در انواع خرابیها (نویز، بلور، فشردگی، کمنور، آرتیفکتها و …) از مدلهای SOTA مبتنی بر دیفیوشن بهتر عمل میکند.
❌چرا مهمه؟
✅یک مدل برای چندین نوع خرابی (بهجای مدل جدا برای هر سناریو)
✅سازگاری با تصاویر دنیای واقعی، نه فقط دیتاستهای تمیز
✅کیفیت بازسازی بالا بدون ظاهر «بیشازحد صاف/پلاستیکی»
‼️نکات فنی کوتاه
❎معماری بزرگمقیاس Diffusion Transformer
❎آموزش چند-تخریبی (multi-degradation) برای تعمیم بهتر
❎لایسنس: استفاده غیرتجاری (حواستون به محدودیت مجوز باشه)
📄 Paper:
https://arxiv.org/pdf/2509.22414
🌐 Project:
https://w2genai-lab.github.io/LucidFlux/
💻 Code:
https://github.com/W2GenAI-Lab/LucidFlux
#ImageRestoration #Diffusion #Transformer #ComputerVision #LucidFlux #AIResearch
👏4❤1👍1🙏1
🧠 LIMIT —
پژوهشی از Google DeepMind دربارهٔ مرزهای بازیابی اطلاعات با بردارهای تع嶼های (Embeddings)
⛔️محققان DeepMind با معرفی مجموعهدادهی LIMIT نشان دادهاند که حتی پیشرفتهترین مدلهای embedding نیز در بازیابی برخی اسناد شکست میخورند. این پروژه به بررسی محدودیتهای ذاتی روشهای مبتنی بر یک بردار منفرد برای نمایش معنا میپردازد.
🚀 نکات کلیدی:
✳️مجموعهدادهای برای ارزیابی عملکرد مدلهای embedding
✳️شامل ۵۰٬۰۰۰ سند و ۱٬۰۰۰ پرسوجو واقعی
✳️افشاگر محدودیتهای نظری در بازیابی مبتنی بر شباهت برداری
✳️همراه با کد کامل برای تولید دادهها و انجام آزمایشها
📌 سورسکد و دادهها در گیتهاب:
github.com/google-deepmind/limit
@rss_ai_ir
#هوش_مصنوعی #DeepMind #Embedding #Limit #AIResearch #InformationRetrieval
پژوهشی از Google DeepMind دربارهٔ مرزهای بازیابی اطلاعات با بردارهای تع嶼های (Embeddings)
⛔️محققان DeepMind با معرفی مجموعهدادهی LIMIT نشان دادهاند که حتی پیشرفتهترین مدلهای embedding نیز در بازیابی برخی اسناد شکست میخورند. این پروژه به بررسی محدودیتهای ذاتی روشهای مبتنی بر یک بردار منفرد برای نمایش معنا میپردازد.
🚀 نکات کلیدی:
✳️مجموعهدادهای برای ارزیابی عملکرد مدلهای embedding
✳️شامل ۵۰٬۰۰۰ سند و ۱٬۰۰۰ پرسوجو واقعی
✳️افشاگر محدودیتهای نظری در بازیابی مبتنی بر شباهت برداری
✳️همراه با کد کامل برای تولید دادهها و انجام آزمایشها
📌 سورسکد و دادهها در گیتهاب:
github.com/google-deepmind/limit
@rss_ai_ir
#هوش_مصنوعی #DeepMind #Embedding #Limit #AIResearch #InformationRetrieval
❤1
⚡️ گوگل سامانهای ساخت که خودش سازمان مییابد — و شاید مسیر ساخت مدلها را عوض کند!
پروژهای به نام TUMIX از تیم Google، بهگفتهی بسیاری، یکی از هیجانانگیزترین کارهای هوش مصنوعی امسال است.
---
💡 بهجای آموزش یک مدل غولپیکر دیگر، گوگل سیستمی ساخته که در آن چندین عامل هوشمند (AI agents) همزمان و هماهنگ کار میکنند.
هر کدام نقش مخصوص خود را دارند:
یکی کد مینویسد 💻
دیگری جستوجو میکند 🔍
سومی با زبان طبیعی استدلال میکند 🧠
همگی بهصورت مستقل روی یک مسئله کار میکنند، سپس پاسخها را با هم به اشتراک گذاشته، اصلاح کرده و به تصمیم نهایی جمعی میرسند.
---
📈 نتیجه:
مدل Gemini 2.5 + TUMIX در آزمونهای استدلالی تا 17.4٪ بهتر از همه سیستمهای دیگر عمل کرد،
در حالی که هزینهی استنتاج تقریباً نصف شد!
بدون دادهی جدید، بدون آموزش اضافی — فقط با هماهنگی هوشمند میان چند عامل.
---
✨ نکتهی جالب: راز موفقیت در بزرگی مدل نیست، بلکه در تنوع است.
گروهی از ۱۵ عامل متفاوت عملکردی بهتر از ۱۵ نسخهی یکسان از “بهترین مدل تکی” داشتند.
و وقتی خود Gemini عاملهای جدید طراحی کرد، سیستم حتی از قبل هم بهتر شد — یعنی خودتکاملی (self-evolution) در عمل!
---
🧩 این پژوهش نشان میدهد:
شاید گام بعدی در تکامل هوش مصنوعی، نه از «تریلیون پارامتر»، بلکه از شبکهای از مدلهای کوچک و هماهنگ بیاید که یاد میگیرند با هم فکر کنند.
📄 جزئیات کامل:
arxiv.org/pdf/2510.01279
@rss_ai_ir
#Google #TUMIX #AIagents #Gemini #AIresearch #Coordination #MultiAgent #ArtificialIntelligence
پروژهای به نام TUMIX از تیم Google، بهگفتهی بسیاری، یکی از هیجانانگیزترین کارهای هوش مصنوعی امسال است.
---
💡 بهجای آموزش یک مدل غولپیکر دیگر، گوگل سیستمی ساخته که در آن چندین عامل هوشمند (AI agents) همزمان و هماهنگ کار میکنند.
هر کدام نقش مخصوص خود را دارند:
یکی کد مینویسد 💻
دیگری جستوجو میکند 🔍
سومی با زبان طبیعی استدلال میکند 🧠
همگی بهصورت مستقل روی یک مسئله کار میکنند، سپس پاسخها را با هم به اشتراک گذاشته، اصلاح کرده و به تصمیم نهایی جمعی میرسند.
---
📈 نتیجه:
مدل Gemini 2.5 + TUMIX در آزمونهای استدلالی تا 17.4٪ بهتر از همه سیستمهای دیگر عمل کرد،
در حالی که هزینهی استنتاج تقریباً نصف شد!
بدون دادهی جدید، بدون آموزش اضافی — فقط با هماهنگی هوشمند میان چند عامل.
---
✨ نکتهی جالب: راز موفقیت در بزرگی مدل نیست، بلکه در تنوع است.
گروهی از ۱۵ عامل متفاوت عملکردی بهتر از ۱۵ نسخهی یکسان از “بهترین مدل تکی” داشتند.
و وقتی خود Gemini عاملهای جدید طراحی کرد، سیستم حتی از قبل هم بهتر شد — یعنی خودتکاملی (self-evolution) در عمل!
---
🧩 این پژوهش نشان میدهد:
شاید گام بعدی در تکامل هوش مصنوعی، نه از «تریلیون پارامتر»، بلکه از شبکهای از مدلهای کوچک و هماهنگ بیاید که یاد میگیرند با هم فکر کنند.
📄 جزئیات کامل:
arxiv.org/pdf/2510.01279
@rss_ai_ir
#Google #TUMIX #AIagents #Gemini #AIresearch #Coordination #MultiAgent #ArtificialIntelligence
❤3👏1👀1
👏 پژوهش فوقالعاده از NVIDIA و MIT
پژوهشگران دو مؤسسه NVIDIA و MIT روش جدیدی برای آموزش مدلهای زبانی بزرگ با یادگیری تقویتی ارائه کردهاند —
این روش با نام QeRL (Quantization-enhanced Reinforcement Learning) شناخته میشود.
💡 ایده اصلی:
استفاده از وزنهای ۴ بیتی و نویز تطبیقی (adaptive noise) در طول آموزش با یادگیری تقویتی،
که باعث میشود مدلها سریعتر و کمهزینهتر یاد بگیرند.
📈 نتیجه:
تا ۱.۵ برابر افزایش سرعت rolloutها
و امکان آموزش کامل یک مدل ۳۲ میلیارد پارامتری روی تنها یک کارت H100 (80GB)!
📘 توضیح کوتاه:
در یادگیری تقویتی، rollout یعنی اجرای کامل یک اپیزود — از شروع تا پایان — برای ارزیابی عملکرد مدل و تخصیص پاداش.
این مرحله معمولاً کند و پرمصرف است.
🔧 نوآوری QeRL:
♻️استفاده از وزنهای NVFP4 با کمک Marlin
♻️نگهداری LoRA فقط برای گرادیانها (صرفهجویی در حافظه)
♻️استفاده از یک نسخهی ۴ بیتی از سیاست (policy) برای هر دو مرحلهی rollout و scoring — بدون تکرار حافظه
🧠 مزیت کلیدی:
افزودن نویز تطبیقی به وزنهای کوانتیزهشده باعث افزایش تنوع (entropy) در خروجیها میشود —
مدل بهتر فضای پاسخ را کاوش میکند.
با کاهش تدریجی نویز، پایداری حفظ میشود و همه چیز با RMSNorm ادغام میگردد — بدون اضافه شدن پارامتر جدید.
📊 نتایج آزمایشی:
پاداشها سریعتر رشد میکنند
دقت برابر یا بالاتر از مدلهای LoRA و QLoRA با دقت ۱۶ بیت
⚡ خلاصه:
سریعتر، کمهزینهتر و بهینهتر از روشهای قبلی.
اکنون میتوان مدلهای بزرگ را واقعاً روی تنها یک GPU آموزش داد.
📄 متن کامل مقاله
#NVIDIA #MIT #QeRL #ReinforcementLearning #LLM #Quantization #AIResearch #MachineLearning #DeepLearning
پژوهشگران دو مؤسسه NVIDIA و MIT روش جدیدی برای آموزش مدلهای زبانی بزرگ با یادگیری تقویتی ارائه کردهاند —
این روش با نام QeRL (Quantization-enhanced Reinforcement Learning) شناخته میشود.
💡 ایده اصلی:
استفاده از وزنهای ۴ بیتی و نویز تطبیقی (adaptive noise) در طول آموزش با یادگیری تقویتی،
که باعث میشود مدلها سریعتر و کمهزینهتر یاد بگیرند.
📈 نتیجه:
تا ۱.۵ برابر افزایش سرعت rolloutها
و امکان آموزش کامل یک مدل ۳۲ میلیارد پارامتری روی تنها یک کارت H100 (80GB)!
📘 توضیح کوتاه:
در یادگیری تقویتی، rollout یعنی اجرای کامل یک اپیزود — از شروع تا پایان — برای ارزیابی عملکرد مدل و تخصیص پاداش.
این مرحله معمولاً کند و پرمصرف است.
🔧 نوآوری QeRL:
♻️استفاده از وزنهای NVFP4 با کمک Marlin
♻️نگهداری LoRA فقط برای گرادیانها (صرفهجویی در حافظه)
♻️استفاده از یک نسخهی ۴ بیتی از سیاست (policy) برای هر دو مرحلهی rollout و scoring — بدون تکرار حافظه
🧠 مزیت کلیدی:
افزودن نویز تطبیقی به وزنهای کوانتیزهشده باعث افزایش تنوع (entropy) در خروجیها میشود —
مدل بهتر فضای پاسخ را کاوش میکند.
با کاهش تدریجی نویز، پایداری حفظ میشود و همه چیز با RMSNorm ادغام میگردد — بدون اضافه شدن پارامتر جدید.
📊 نتایج آزمایشی:
پاداشها سریعتر رشد میکنند
دقت برابر یا بالاتر از مدلهای LoRA و QLoRA با دقت ۱۶ بیت
⚡ خلاصه:
سریعتر، کمهزینهتر و بهینهتر از روشهای قبلی.
اکنون میتوان مدلهای بزرگ را واقعاً روی تنها یک GPU آموزش داد.
📄 متن کامل مقاله
#NVIDIA #MIT #QeRL #ReinforcementLearning #LLM #Quantization #AIResearch #MachineLearning #DeepLearning
🌵 تشخیص نقاط کلیدی متراکم All-in-One 🌵
📍 مدل DeepDetect یک مدل نوآورانه است که بهعنوان یک تشخیصدهندهی نقاط کلیدی (Dense Keypoints Detector) طراحی شده و قدرت چندین الگوریتم کلاسیک مانند:
🔹 SIFT
🔹 ORB
🔹 BRISK
🔹 FAST
🔹 AGAST
🔹 Harris
🔹 Shi-Tomasi
🔹 Canny & Sobel
را در قالب یک شبکه عصبی واحد ترکیب میکند.
💬 نویسندگان میگویند: این مدل، بازآفرینی عاشقانهای از تمام تکنیکهای قدیمی در قالب یادگیری عمیق است — و نام آن هم واقعاً برازنده است: DeepDetect.
💙 مجوز: MIT License
🔗 لینکها:
👉 مقاله (arXiv)
👉 مخزن GitHub
#هوش_مصنوعی #بینایی_ماشین #DeepLearning #Keypoints #ComputerVision #SIFT #ORB #NeuralNetworks #AIResearch
📍 مدل DeepDetect یک مدل نوآورانه است که بهعنوان یک تشخیصدهندهی نقاط کلیدی (Dense Keypoints Detector) طراحی شده و قدرت چندین الگوریتم کلاسیک مانند:
🔹 SIFT
🔹 ORB
🔹 BRISK
🔹 FAST
🔹 AGAST
🔹 Harris
🔹 Shi-Tomasi
🔹 Canny & Sobel
را در قالب یک شبکه عصبی واحد ترکیب میکند.
💬 نویسندگان میگویند: این مدل، بازآفرینی عاشقانهای از تمام تکنیکهای قدیمی در قالب یادگیری عمیق است — و نام آن هم واقعاً برازنده است: DeepDetect.
💙 مجوز: MIT License
🔗 لینکها:
👉 مقاله (arXiv)
👉 مخزن GitHub
#هوش_مصنوعی #بینایی_ماشین #DeepLearning #Keypoints #ComputerVision #SIFT #ORB #NeuralNetworks #AIResearch
🧮 پیشرفت چشمگیر هوش مصنوعی در تحقیقات ریاضی
استاد Ryu از دانشگاه UCLA با کمک GPT-5 Pro توانست یک مسئله باز در حوزهی بهینهسازی محدب (Convex Optimization) را حل کند — مسئلهای که سالها بدون پاسخ مانده بود.
گرچه حدود ۸۰٪ از تلاشهای مدل در اثبات نادرست بودند، اما GPT-5 Pro توانست ایدههای نوآورانهای ارائه دهد که مسیر پژوهش را تغییر داد.
🧠 مشارکتهای کلیدی GPT-5 Pro:
♻️تولید استدلال نهایی برای اثبات مسئله
♻️تسریع روند جستجو با حذف سریع مسیرهای بنبست
این پژوهش نمونهای برجسته از همافزایی انسان و هوش مصنوعی در کشف دانش جدید است — جایی که AI نهتنها ابزار، بلکه شریک پژوهشی واقعی است.
@rss_ai_ir
#هوش_مصنوعی #GPT5 #ریاضیات #AIResearch #Optimization #Science
استاد Ryu از دانشگاه UCLA با کمک GPT-5 Pro توانست یک مسئله باز در حوزهی بهینهسازی محدب (Convex Optimization) را حل کند — مسئلهای که سالها بدون پاسخ مانده بود.
گرچه حدود ۸۰٪ از تلاشهای مدل در اثبات نادرست بودند، اما GPT-5 Pro توانست ایدههای نوآورانهای ارائه دهد که مسیر پژوهش را تغییر داد.
🧠 مشارکتهای کلیدی GPT-5 Pro:
♻️تولید استدلال نهایی برای اثبات مسئله
♻️تسریع روند جستجو با حذف سریع مسیرهای بنبست
این پژوهش نمونهای برجسته از همافزایی انسان و هوش مصنوعی در کشف دانش جدید است — جایی که AI نهتنها ابزار، بلکه شریک پژوهشی واقعی است.
@rss_ai_ir
#هوش_مصنوعی #GPT5 #ریاضیات #AIResearch #Optimization #Science
❤1