VIRSUN
6.14K subscribers
1.02K photos
585 videos
5 files
654 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
Media is too big
VIEW IN TELEGRAM
🎥 بررسی تخصصی ویدیوی
Score-based Diffusion Models | Generative AI Animated


---

مدل‌های انتشار (Diffusion) به یکی از دقیق‌ترین و پیشرفته‌ترین روش‌ها در تولید داده‌های مصنوعی با کیفیت بالا تبدیل شده‌اند. این ویدیو با زبان انیمیشنی مفاهیم مدل‌های Score-based Diffusion را به‌شکل حرفه‌ای و قابل فهم نمایش می‌دهد 🚀

---

🔍 مهم‌ترین نکات این مدل‌ها:
🧠 فرایند یادگیری با افزودن نویز به داده‌ها و سپس حذف نویز
🎯 کنترل دقیق‌تر نسبت به GAN در تولید محتوا
🖼 کاربرد در تولید تصویر، بازسازی داده، طراحی هوشمند

---

⚙️ مزایا:
✔️ کیفیت بالا در خروجی
✔️ پایداری بهتر نسبت به GAN
✔️ مناسب برای پروژه‌های دقیق و خلاقانه

⚠️ محدودیت‌ها:
🔸 زمان آموزش زیاد
🔸 نیازمند منابع سخت‌افزاری بالا
🔸 حساس به تنظیمات مدل

---

💡 اگر به Generative AI علاقه‌مند هستی یا پروژه‌ای در زمینه بازسازی تصویر، طراحی صنعتی یا تولید داده مصنوعی داری، این مدل‌ها یک انتخاب آینده‌دار و بسیار کاربردی هستن.
ویدیوی کامل رو از این لینک ببین:
📺 https://www.youtube.com/watch?v=lUljxdkolK8

♨️زیرنویس فارسی
---

#هوش_مصنوعی #یادگیری_عمیق #DiffusionModel #ScoreBased #GenerativeAI #مدل_انتشار #OpenAI #AIResearch #پردازش_تصویر #تولید_داده

📡 کانال تخصصی ما:
🔗 https://t.iss.one/rss_ai_ir
2🔥1🙏1
🚀 پیشرفت بزرگ در الگوریتم‌های گراف: روش جدیدی برای یافتن کوتاه‌ترین مسیرها سریع‌تر از دیکسترا

🧩 محققان دانشگاه‌های Tsinghua، استنفورد و Max Planck موفق به ارائه الگوریتمی قطعی برای مسئله‌ی SSSP (یافتن کوتاه‌ترین مسیر از یک رأس به تمام رأس‌های دیگر) در گراف‌های جهت‌دار با وزن‌های غیرمنفی شده‌اند که از «سد مرتب‌سازی» عبور می‌کند و از دیکسترا سریع‌تر عمل می‌کند.

🔍 ایده کلیدی، ترکیبی از دیکسترا و بلمن-فورد است:

✳️به جای نگه‌داری کامل مجموعه‌ی مرزی مرتب، الگوریتم در صورت بزرگ شدن این مجموعه، چند گام بلمن-فورد را روی رأس‌های آن اجرا می‌کند تا مسیرهای کوتاه سریعاً مشخص شوند.

✳️رأس‌هایی که مسیر طولانی‌تری دارند باید از «نقاط تکیه‌گاه» عبور کنند که تعدادشان به‌مراتب کمتر است.

✳️با روش تقسیم و حل (Divide & Conquer)، مسئله به سطوح کوچک‌تر شکسته می‌شود و پیچیدگی لگاریتمی به یک عامل آهسته‌تر کاهش می‌یابد.


📈 نتیجه: زمانی متناسب با تعداد یال‌ها × یک ضریب لگاریتمی کندتر از دیکسترا، که در عمل سرعت بالاتری به‌ویژه برای کاربردهایی مانند ناوبری، شبکه‌ها و برنامه‌ریزی دارد.

💡 اهمیت کشف:

♻️اثبات اینکه دیکسترا سقف نهایی سرعت نیست.
♻️بهبود قابل‌توجه در حل مسائل مسیرکوتاه در گراف‌های بزرگ.

لینک

#الگوریتم #هوش_مصنوعی #GraphTheory #SSSP #AIResearch
@rss_ai_ir
🥰23👏21🎉1615😁15👍11🔥9
📢 ShinkaEvolve
؛ جایگزین متن‌باز AlphaEvolve از Sakana AI

⛔️شرکت Sakana AI چارچوبی متن‌باز با نام ShinkaEvolve معرفی کرده که برای بهینه‌سازی و توسعه الگوریتم‌ها و معماری‌های پیچیده طراحی شده است. «Shinka» (進化) در ژاپنی به معنای تکامل است و این رویکرد هم بر پایه‌ی اصول تکاملی بنا شده.

🔹 چطور کار می‌کند؟
1️⃣ ورودی شامل یک Seed-program و یک Verifier (محاسبه متریک کیفیت/fitness) است. کدهای جدید در یک «آرشیو والدین» ذخیره می‌شوند.
2️⃣ همچنین LLM به عنوان اپراتور جهش عمل می‌کند: می‌تواند کد را با روش‌های مختلف تغییر دهد (diff-patch، بازنویسی کامل، crossover). انتخاب LLM بهینه توسط الگوریتم multi-armed bandit انجام می‌شود.
3️⃣ کاندیداها ابتدا از فیلتر novelty-rejection (بر اساس شباهت تع嵌 embeddings) عبور می‌کنند تا ایده‌های تکراری حذف شوند. سپس بهترین‌ها به آرشیو اضافه می‌شوند.
4️⃣ برای تنوع، از مفهوم «جزیره‌ها» (population‌های مستقل) استفاده شده و در مواقع بن‌بست، مهاجرت بین آنها انجام می‌شود.

🔹 نتایج تست‌ها
در بهینه‌سازی ریاضی: تنها با 150 نمونه، راه‌حل جدیدی برای مسئله‌ی Circle Packing پیدا کرد.
در طراحی ایجنت هوش مصنوعی: بعد از ~75 نسل، معماری سه‌بخشی جدیدی ایجاد کرد که baseline را در AIME شکست داد.
در برنامه‌نویسی رقابتی: با بهبودهای متعدد، به سطح مدال نقره رسید.
در آموزش LLM: پس از ~30 نسل، تابع خطای جدیدی برای MoE کشف شد که عملکردی بهتر از بسیاری روش‌های رایج داشت.

⚡️ تفاوت اصلی با AlphaEvolve این است که ShinkaEvolve همین حالا و رایگان قابل استفاده است. کافیست فایل evaluate.py را برای مسئله‌ی خود بازنویسی کنید، initial.py را آماده کرده و اجرا کنید:

shinka_launch variant=experiment_name

📎 کد و راهنمای کامل:
GitHub

#هوش_مصنوعی #الگوریتم_تکاملی #SakanaAI #ShinkaEvolve #AIResearch
This media is not supported in your browser
VIEW IN TELEGRAM
📹🤖 LONGLIVE از NVIDIA —
ویدئو‌سازی تعاملیِ بلادرنگ

مدل LONGLIVE یک چارچوب autoregressive در سطح فریم برای تولید ویدئوی طولانی به‌صورت Real-time است. حین تولید می‌توانید پشت‌سرهم پرامپت بدهید و مدل همان‌جا مسیر ویدئو را تغییر دهد.

چرا مهم است؟

⏱️ پاسخ‌دهی بلادرنگ؛ مناسب استریم و تجربه‌های تعاملی

🧠 تولید فریم‌به‌فریم = کنترل دقیق صحنه و تداوم داستان

🧩 پشتیبانی از پرامپت‌های پی‌در‌پی (sequential prompts)

🛠️ کد و مدل منتشر شده (لایسنس غیرتجاری)


لینک‌ها:

Paper: arxiv.org/pdf/2509.22622
Project: nvlabs.github.io/LongLive/
Code: github.com/NVlabs/LongLive
HF: huggingface.co/Efficient-Large-Model/LongLive-1.3B

#NVIDIA #LongLive #RealtimeVideo #InteractiveAI #GenerativeVideo #Autoregressive #AIResearch #OpenSource
👍4🔥1🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
👔 LucidFlux:
ترمیم همه‌کاره‌ی تصویر (HKUSTGZ)

⛔️مدل LucidFlux یک فریم‌ورک ترمیم تصویر یونیورسال بر پایه‌ی Diffusion Transformer است که روی عکس‌های واقعی با کیفیت پایین (LQ) خروجی‌های فوتورئالیستی می‌دهد و در انواع خرابی‌ها (نویز، بلور، فشردگی، کم‌نور، آرتیفکت‌ها و …) از مدل‌های SOTA مبتنی بر دیفیوشن بهتر عمل می‌کند.

چرا مهمه؟

یک مدل برای چندین نوع خرابی (به‌جای مدل جدا برای هر سناریو)
سازگاری با تصاویر دنیای واقعی، نه فقط دیتاست‌های تمیز
کیفیت بازسازی بالا بدون ظاهر «بیش‌ازحد صاف/پلاستیکی»

‼️نکات فنی کوتاه

معماری بزرگ‌مقیاس Diffusion Transformer
آموزش چند-تخریبی (multi-degradation) برای تعمیم بهتر

لایسنس: استفاده غیرتجاری (حواستون به محدودیت مجوز باشه)


📄 Paper:
https://arxiv.org/pdf/2509.22414

🌐 Project:
https://w2genai-lab.github.io/LucidFlux/

💻 Code:
https://github.com/W2GenAI-Lab/LucidFlux

#ImageRestoration #Diffusion #Transformer #ComputerVision #LucidFlux #AIResearch
👏41👍1🙏1
🧠 LIMIT —
پژوهشی از Google DeepMind دربارهٔ مرزهای بازیابی اطلاعات با بردارهای تع嶼ه‌ای (Embeddings)

⛔️محققان DeepMind با معرفی مجموعه‌داده‌ی LIMIT نشان داده‌اند که حتی پیشرفته‌ترین مدل‌های embedding نیز در بازیابی برخی اسناد شکست می‌خورند. این پروژه به بررسی محدودیت‌های ذاتی روش‌های مبتنی بر یک بردار منفرد برای نمایش معنا می‌پردازد.

🚀 نکات کلیدی:

✳️مجموعه‌داده‌ای برای ارزیابی عملکرد مدل‌های embedding

✳️شامل ۵۰٬۰۰۰ سند و ۱٬۰۰۰ پرس‌وجو واقعی

✳️افشاگر محدودیت‌های نظری در بازیابی مبتنی بر شباهت برداری

✳️همراه با کد کامل برای تولید داده‌ها و انجام آزمایش‌ها


📌 سورس‌کد و داده‌ها در گیت‌هاب:
github.com/google-deepmind/limit

@rss_ai_ir
#هوش_مصنوعی #DeepMind #Embedding #Limit #AIResearch #InformationRetrieval
1
⚡️ گوگل سامانه‌ای ساخت که خودش سازمان می‌یابد — و شاید مسیر ساخت مدل‌ها را عوض کند!

پروژه‌ای به نام TUMIX از تیم Google، به‌گفته‌ی بسیاری، یکی از هیجان‌انگیزترین کارهای هوش مصنوعی امسال است.


---

💡 به‌جای آموزش یک مدل غول‌پیکر دیگر، گوگل سیستمی ساخته که در آن چندین عامل هوشمند (AI agents) هم‌زمان و هماهنگ کار می‌کنند.
هر کدام نقش مخصوص خود را دارند:

یکی کد می‌نویسد 💻

دیگری جست‌وجو می‌کند 🔍

سومی با زبان طبیعی استدلال می‌کند 🧠


همگی به‌صورت مستقل روی یک مسئله کار می‌کنند، سپس پاسخ‌ها را با هم به اشتراک گذاشته، اصلاح کرده و به تصمیم نهایی جمعی می‌رسند.


---

📈 نتیجه:
مدل Gemini 2.5 + TUMIX در آزمون‌های استدلالی تا 17.4٪ بهتر از همه سیستم‌های دیگر عمل کرد،
در حالی که هزینه‌ی استنتاج تقریباً نصف شد!

بدون داده‌ی جدید، بدون آموزش اضافی — فقط با هماهنگی هوشمند میان چند عامل.


---

نکته‌ی جالب: راز موفقیت در بزرگی مدل نیست، بلکه در تنوع است.
گروهی از ۱۵ عامل متفاوت عملکردی بهتر از ۱۵ نسخه‌ی یکسان از “بهترین مدل تکی” داشتند.
و وقتی خود Gemini عامل‌های جدید طراحی کرد، سیستم حتی از قبل هم بهتر شد — یعنی خودتکاملی (self-evolution) در عمل!


---

🧩 این پژوهش نشان می‌دهد:
شاید گام بعدی در تکامل هوش مصنوعی، نه از «تریلیون پارامتر»، بلکه از شبکه‌ای از مدل‌های کوچک و هماهنگ بیاید که یاد می‌گیرند با هم فکر کنند.

📄 جزئیات کامل:
arxiv.org/pdf/2510.01279

@rss_ai_ir
#Google #TUMIX #AIagents #Gemini #AIresearch #Coordination #MultiAgent #ArtificialIntelligence
3👏1👀1
👏 پژوهش فوق‌العاده از NVIDIA و MIT

پژوهشگران دو مؤسسه NVIDIA و MIT روش جدیدی برای آموزش مدل‌های زبانی بزرگ با یادگیری تقویتی ارائه کرده‌اند —
این روش با نام QeRL (Quantization-enhanced Reinforcement Learning) شناخته می‌شود.

💡 ایده اصلی:
استفاده از وزن‌های ۴ بیتی و نویز تطبیقی (adaptive noise) در طول آموزش با یادگیری تقویتی،
که باعث می‌شود مدل‌ها سریع‌تر و کم‌هزینه‌تر یاد بگیرند.

📈 نتیجه:
تا ۱.۵ برابر افزایش سرعت rollout‌ها
و امکان آموزش کامل یک مدل ۳۲ میلیارد پارامتری روی تنها یک کارت H100 (80GB)!

📘 توضیح کوتاه:
در یادگیری تقویتی، rollout یعنی اجرای کامل یک اپیزود — از شروع تا پایان — برای ارزیابی عملکرد مدل و تخصیص پاداش.
این مرحله معمولاً کند و پرمصرف است.

🔧 نوآوری QeRL:

♻️استفاده از وزن‌های NVFP4 با کمک Marlin

♻️نگهداری LoRA فقط برای گرادیان‌ها (صرفه‌جویی در حافظه)

♻️استفاده از یک نسخه‌ی ۴ بیتی از سیاست (policy) برای هر دو مرحله‌ی rollout و scoring — بدون تکرار حافظه


🧠 مزیت کلیدی:
افزودن نویز تطبیقی به وزن‌های کوانتیزه‌شده باعث افزایش تنوع (entropy) در خروجی‌ها می‌شود —
مدل بهتر فضای پاسخ را کاوش می‌کند.
با کاهش تدریجی نویز، پایداری حفظ می‌شود و همه چیز با RMSNorm ادغام می‌گردد — بدون اضافه شدن پارامتر جدید.

📊 نتایج آزمایشی:

پاداش‌ها سریع‌تر رشد می‌کنند

دقت برابر یا بالاتر از مدل‌های LoRA و QLoRA با دقت ۱۶ بیت


خلاصه:
سریع‌تر، کم‌هزینه‌تر و بهینه‌تر از روش‌های قبلی.
اکنون می‌توان مدل‌های بزرگ را واقعاً روی تنها یک GPU آموزش داد.

📄 متن کامل مقاله

#NVIDIA #MIT #QeRL #ReinforcementLearning #LLM #Quantization #AIResearch #MachineLearning #DeepLearning
🌵 تشخیص نقاط کلیدی متراکم All-in-One 🌵

📍 مدل DeepDetect یک مدل نوآورانه است که به‌عنوان یک تشخیص‌دهنده‌ی نقاط کلیدی (Dense Keypoints Detector) طراحی شده و قدرت چندین الگوریتم کلاسیک مانند:

🔹 SIFT
🔹 ORB
🔹 BRISK
🔹 FAST
🔹 AGAST
🔹 Harris
🔹 Shi-Tomasi
🔹 Canny & Sobel

را در قالب یک شبکه عصبی واحد ترکیب می‌کند.

💬 نویسندگان می‌گویند: این مدل، بازآفرینی عاشقانه‌ای از تمام تکنیک‌های قدیمی در قالب یادگیری عمیق است — و نام آن هم واقعاً برازنده است: DeepDetect.

💙 مجوز: MIT License

🔗 لینک‌ها:
👉 مقاله (arXiv)
👉 مخزن GitHub

#هوش_مصنوعی #بینایی_ماشین #DeepLearning #Keypoints #ComputerVision #SIFT #ORB #NeuralNetworks #AIResearch
🧮 پیشرفت چشمگیر هوش مصنوعی در تحقیقات ریاضی

استاد Ryu از دانشگاه UCLA با کمک GPT-5 Pro توانست یک مسئله باز در حوزه‌ی بهینه‌سازی محدب (Convex Optimization) را حل کند — مسئله‌ای که سال‌ها بدون پاسخ مانده بود.

گرچه حدود ۸۰٪ از تلاش‌های مدل در اثبات نادرست بودند، اما GPT-5 Pro توانست ایده‌های نوآورانه‌ای ارائه دهد که مسیر پژوهش را تغییر داد.

🧠 مشارکت‌های کلیدی GPT-5 Pro:

♻️تولید استدلال نهایی برای اثبات مسئله

♻️تسریع روند جستجو با حذف سریع مسیرهای بن‌بست


این پژوهش نمونه‌ای برجسته از هم‌افزایی انسان و هوش مصنوعی در کشف دانش جدید است — جایی که AI نه‌تنها ابزار، بلکه شریک پژوهشی واقعی است.

@rss_ai_ir
#هوش_مصنوعی #GPT5 #ریاضیات #AIResearch #Optimization #Science
1