🧠 یان لوکُن دوباره برگشت: معرفی LeJEPA — نسل جدید یادگیری خودنظارتی
در مدلهای قبلی خانوادهٔ JEPA همیشه نیاز به ترفندهای پیچیده بود تا مدل دچار collapsing نشود:
مثل stop-gradient، معماری teacher–student یا هدهای پیشبینیکننده.
اما مدل جدید LeJEPA همهٔ این هکها را حذف کرده و فقط یک Regularizer جدید اضافه کرده:
✨ SIGReg — Sketched Isotropic Gaussian Regularization
🔍 مدل SIGReg چه میکند؟
بردارهای ویژگی را وادار میکند که بهطور یکنواخت در تمام جهتها پخش شوند؛ یعنی یک ابر ایزوتروپیک بسازند.
این ساختار هندسی باعث میشود مدل کمترین خطا را در وظایف آینده داشته باشد — نه بر اساس حدس، بلکه بر اساس تحلیل ریاضی.
📌 چرا مهم است؟
✳️آموزش بسیار پایدارتر و سادهتر میشود
✳️به راحتی مقیاسپذیر است (تست روی مدل ۱.۸ میلیارد پارامتری)
✳️نیازی به teacher-student نیست
✳️کیفیت مدل بدون برچسبگذاری قابل تخمین است — چون loss بهخوبی با دقت نهایی همبستگی دارد
✳️مناسبترین هندسه برای نمایش ویژگیها را ایجاد میکند
📈 نتیجه:
دقت 79٪ در ارزیابی linear probe روی ImageNet-1K با حداقل تنظیمات.
این کار یک گام مهم به سمت self-supervised learning قابلاعتماد، پایدار و مقیاسپذیر است.
📄 مقاله:
arxiv.org/abs/2511.08544
#AI #ML #SelfSupervised #LeJEPA #YannLeCun @rss_ai_ir
در مدلهای قبلی خانوادهٔ JEPA همیشه نیاز به ترفندهای پیچیده بود تا مدل دچار collapsing نشود:
مثل stop-gradient، معماری teacher–student یا هدهای پیشبینیکننده.
اما مدل جدید LeJEPA همهٔ این هکها را حذف کرده و فقط یک Regularizer جدید اضافه کرده:
✨ SIGReg — Sketched Isotropic Gaussian Regularization
🔍 مدل SIGReg چه میکند؟
بردارهای ویژگی را وادار میکند که بهطور یکنواخت در تمام جهتها پخش شوند؛ یعنی یک ابر ایزوتروپیک بسازند.
این ساختار هندسی باعث میشود مدل کمترین خطا را در وظایف آینده داشته باشد — نه بر اساس حدس، بلکه بر اساس تحلیل ریاضی.
📌 چرا مهم است؟
✳️آموزش بسیار پایدارتر و سادهتر میشود
✳️به راحتی مقیاسپذیر است (تست روی مدل ۱.۸ میلیارد پارامتری)
✳️نیازی به teacher-student نیست
✳️کیفیت مدل بدون برچسبگذاری قابل تخمین است — چون loss بهخوبی با دقت نهایی همبستگی دارد
✳️مناسبترین هندسه برای نمایش ویژگیها را ایجاد میکند
📈 نتیجه:
دقت 79٪ در ارزیابی linear probe روی ImageNet-1K با حداقل تنظیمات.
این کار یک گام مهم به سمت self-supervised learning قابلاعتماد، پایدار و مقیاسپذیر است.
📄 مقاله:
arxiv.org/abs/2511.08544
#AI #ML #SelfSupervised #LeJEPA #YannLeCun @rss_ai_ir
🧭 لینکدین موتور جستجوی جدید مبتنی بر هوش مصنوعی را برای ۱.۳ میلیارد کاربر فعال کرد
✳️این سیستم جدید، افراد را فقط بر اساس کلمات کلیدی پیدا نمیکند؛ بلکه مهارتها، تخصصها، شبکه ارتباطی و میزان دسترسپذیری آنها را هم تحلیل میکند.
✳️هوش مصنوعی لینکدین میتواند یک درخواست ساده مثل «درمان سرطان» را به مجموعهای از مهارتها و حوزههای مرتبط تبدیل کند و دقیقترین متخصصان را پیشنهاد دهد.
✳️در پشتصحنه، از مدلهای ۷ میلیاردی، ۱.۷ میلیاردی و یک رانکر ۲۲۰M استفاده شده که با فشردهسازی هوشمند و پردازش GPU، سرعت جستجو را تا ۱۰ برابر افزایش میدهد.
https://venturebeat.com/ai/inside-linkedins-generative-ai-cookbook-how-it-scaled-people-search-to-1-3
---
#هوش_مصنوعی #LinkedIn #جستجوی_هوشمند #LLM #شبکه_اجتماعی #AI #ML #مدل_زبانی #فناوری
✳️این سیستم جدید، افراد را فقط بر اساس کلمات کلیدی پیدا نمیکند؛ بلکه مهارتها، تخصصها، شبکه ارتباطی و میزان دسترسپذیری آنها را هم تحلیل میکند.
✳️هوش مصنوعی لینکدین میتواند یک درخواست ساده مثل «درمان سرطان» را به مجموعهای از مهارتها و حوزههای مرتبط تبدیل کند و دقیقترین متخصصان را پیشنهاد دهد.
✳️در پشتصحنه، از مدلهای ۷ میلیاردی، ۱.۷ میلیاردی و یک رانکر ۲۲۰M استفاده شده که با فشردهسازی هوشمند و پردازش GPU، سرعت جستجو را تا ۱۰ برابر افزایش میدهد.
https://venturebeat.com/ai/inside-linkedins-generative-ai-cookbook-how-it-scaled-people-search-to-1-3
---
#هوش_مصنوعی #LinkedIn #جستجوی_هوشمند #LLM #شبکه_اجتماعی #AI #ML #مدل_زبانی #فناوری
🤖 میخوای ایجنت هوش مصنوعی مخصوص خودت رو بسازی؟
این یک نفر همهچیز رو یکجا جمع کرده!
یک داکیومنت کامل شامل:
📺 ویدیوهای آموزشی
📚 کتابها و مقالات
🛠️ مخازن GitHub
🎓 دورههای Google، OpenAI، Anthropic و…
موضوعات پوششدادهشده:
♻️مدلهای زبانی LLM
♻️طراحی ایجنتها
♻️حافظه، کنترل و برنامهریزی (MCP)
💡 همهچیز رایگان و یکجا داخل یک Google Docs 👇
https://docs.google.com/document/d/1Z5SX89FV6bTy2KKnGGb61xCcS9iPg_fv2USQYi4Wc3g/mobilebasic
---
#هوش_مصنوعی #ایجنت #LLM #برنامهریزی #AI #ML #یادگیری_ماشین #مهندسی_پرامپت #Agents
این یک نفر همهچیز رو یکجا جمع کرده!
یک داکیومنت کامل شامل:
📺 ویدیوهای آموزشی
📚 کتابها و مقالات
🛠️ مخازن GitHub
🎓 دورههای Google، OpenAI، Anthropic و…
موضوعات پوششدادهشده:
♻️مدلهای زبانی LLM
♻️طراحی ایجنتها
♻️حافظه، کنترل و برنامهریزی (MCP)
💡 همهچیز رایگان و یکجا داخل یک Google Docs 👇
https://docs.google.com/document/d/1Z5SX89FV6bTy2KKnGGb61xCcS9iPg_fv2USQYi4Wc3g/mobilebasic
---
#هوش_مصنوعی #ایجنت #LLM #برنامهریزی #AI #ML #یادگیری_ماشین #مهندسی_پرامپت #Agents
❤2
⚡️ Lumine —
دستورالعملی باز برای ساخت ایجنتهای جنرالیست در دنیای سهبعدی
پروژهی Lumine یک چارچوب کاملاً متنباز ارائه میدهد که به محققان و توسعهدهندگان اجازه میدهد ایجنتهای هوش مصنوعی چندمنظوره را در محیطهای سهبعدی پیچیده بسازند و آموزش دهند.
ویژگیها:
🔹 یادگیری مهارتهای عمومی در جهانهای 3D
🔹 مناسب برای رباتیک، بازیها، شبیهسازی و تحقیق
🔹 مدلها و دیتاستها آزادانه در دسترس
🔹 معماری یکپارچه برای تعامل، ادراک و برنامهریزی
لینکها:
📄 Paper (arXiv):
https://arxiv.org/abs/2511.08892
📘 HF:
https://huggingface.co/papers/2511.08892
🌐 Project:
https://www.lumine-ai.org/
---
#هوش_مصنوعی #ایجنت #Lumine #AI #LLM #Agents #ML #سهبعدی #3D #OpenAI #HuggingFace
دستورالعملی باز برای ساخت ایجنتهای جنرالیست در دنیای سهبعدی
پروژهی Lumine یک چارچوب کاملاً متنباز ارائه میدهد که به محققان و توسعهدهندگان اجازه میدهد ایجنتهای هوش مصنوعی چندمنظوره را در محیطهای سهبعدی پیچیده بسازند و آموزش دهند.
ویژگیها:
🔹 یادگیری مهارتهای عمومی در جهانهای 3D
🔹 مناسب برای رباتیک، بازیها، شبیهسازی و تحقیق
🔹 مدلها و دیتاستها آزادانه در دسترس
🔹 معماری یکپارچه برای تعامل، ادراک و برنامهریزی
لینکها:
📄 Paper (arXiv):
https://arxiv.org/abs/2511.08892
📘 HF:
https://huggingface.co/papers/2511.08892
🌐 Project:
https://www.lumine-ai.org/
---
#هوش_مصنوعی #ایجنت #Lumine #AI #LLM #Agents #ML #سهبعدی #3D #OpenAI #HuggingFace
🤯 دیپمایند مدلهای بینایی را یک قدم به درک انسانی نزدیکتر کرد!
انسانها دنیا را بر اساس مفهوم دستهبندی میکنند —
میدانیم گربه و ستارهدریایی هر دو «حیوان» هستند، حتی اگر هیچ شباهت ظاهری نداشته باشند.
اما مدلهای بیناییِ هوش مصنوعی معمولاً این لایهٔ انتزاعی را درک نمیکنند.
حالا پژوهش تازهٔ Google DeepMind این شکاف را کم کرده:
مدلها را طوری آموزش دادهاند که دنیای بصری را شبیه انسانها سازماندهی کنند — با درک مفاهیم، نه فقط پیکسلها.
نتیجه؟
✔️ پایداری بیشتر
✔️ عمومیسازی دقیقتر
✔️ درک بهتر از دستهبندیهای واقعی جهان
جزئیات کامل پژوهش: goo.gle/4qX60dC
---
#هوش_مصنوعی #دیپ_مایند #بینایی_ماشین #یادگیری_عمیق #AI #ML #کامپیوتر_ویژن #DeepMind #GoogleAI
انسانها دنیا را بر اساس مفهوم دستهبندی میکنند —
میدانیم گربه و ستارهدریایی هر دو «حیوان» هستند، حتی اگر هیچ شباهت ظاهری نداشته باشند.
اما مدلهای بیناییِ هوش مصنوعی معمولاً این لایهٔ انتزاعی را درک نمیکنند.
حالا پژوهش تازهٔ Google DeepMind این شکاف را کم کرده:
مدلها را طوری آموزش دادهاند که دنیای بصری را شبیه انسانها سازماندهی کنند — با درک مفاهیم، نه فقط پیکسلها.
نتیجه؟
✔️ پایداری بیشتر
✔️ عمومیسازی دقیقتر
✔️ درک بهتر از دستهبندیهای واقعی جهان
جزئیات کامل پژوهش: goo.gle/4qX60dC
---
#هوش_مصنوعی #دیپ_مایند #بینایی_ماشین #یادگیری_عمیق #AI #ML #کامپیوتر_ویژن #DeepMind #GoogleAI
❤1👍1🔥1
🚀 یک موتور قدرتمند برای مدلهای چندمودالی (Multimodal Models)
اگر با مدلهای ترکیبی متن–تصویر–ویدیو کار میکنید، LMMs-Engine یکی از بهترین فریمورکهای جدید است.
این موتور فوقسبک و بسیار انعطافپذیر، مخصوص آموزش و توسعهی مدلهای چندمودالی طراحی شده و حتی در مقیاسهای بزرگ هم کارایی بسیار بالایی دارد.
💡 ویژگیهای برجسته:
🔥 پشتیبانی از ۱۹+ معماری مختلف برای متن، تصویر، ویدیو و مدلهای ترکیبی
⚙️ بهینهسازی برای آموزش توزیعشده با مصرف حافظه بسیار کم
🧩 شامل دهها نمونه آماده اجرا برای شروع سریع با مدلهای مختلف
⚡ مناسب برای پژوهشگران، توسعهدهندگان و کسانی که به دنبال ساخت LMM اختصاصی هستند
📌 گیتهاب:
https://github.com/EvolvingLMMs-Lab/lmms-engine
---
#AI #ML #Multimodal #LMM #DeepLearning #OpenSource #MachineLearning #AIDev #NeuralNetworks
@rss_ai_ir
اگر با مدلهای ترکیبی متن–تصویر–ویدیو کار میکنید، LMMs-Engine یکی از بهترین فریمورکهای جدید است.
این موتور فوقسبک و بسیار انعطافپذیر، مخصوص آموزش و توسعهی مدلهای چندمودالی طراحی شده و حتی در مقیاسهای بزرگ هم کارایی بسیار بالایی دارد.
💡 ویژگیهای برجسته:
🔥 پشتیبانی از ۱۹+ معماری مختلف برای متن، تصویر، ویدیو و مدلهای ترکیبی
⚙️ بهینهسازی برای آموزش توزیعشده با مصرف حافظه بسیار کم
🧩 شامل دهها نمونه آماده اجرا برای شروع سریع با مدلهای مختلف
⚡ مناسب برای پژوهشگران، توسعهدهندگان و کسانی که به دنبال ساخت LMM اختصاصی هستند
📌 گیتهاب:
https://github.com/EvolvingLMMs-Lab/lmms-engine
---
#AI #ML #Multimodal #LMM #DeepLearning #OpenSource #MachineLearning #AIDev #NeuralNetworks
@rss_ai_ir
😁19🔥17❤12🥰12🎉12👍10👏10🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 مجموعه Anthropic آزمایش کرد که آیا Claude میتواند به یک رباتسگ آموزش بدهد یا نه
در پروژهای به نام Project Fetch، شرکت Anthropic بررسی کرد که آیا مدل Claude میتواند به انسانها در آموزش ربات چهارپای Boston Dynamics Spot کمک کند یا خیر.
در این آزمایش:
دو تیم از کارکنانی که هیچ تجربهای در رباتیک نداشتند، باید Spot را طوری برنامهریزی میکردند که یک توپ ساحلی را پیدا کند و بیاورد — آن هم در سه مرحله با سختیِ افزایشی.
🔹 تیم اول با کمک Claude
🔹 تیم دوم بدون هیچ مدل هوش مصنوعی
🧠 نتیجه چه بود؟
✔️ تیم مجهز به Claude دو برابر سریعتر پیش رفت
✔️ وظایف بیشتری را تکمیل کرد
✔️ احساس اعتمادبهنفس بیشتری داشت
✔️ حتی توانست کنترل ربات را با زبان طبیعی امتحان کند
✔️ البته دوبار هم خراب کردند:
— سرعت حرکت ربات را اشتباه محاسبه کردند
— الگوریتم تشخیص توپ را اشتباه نوشتند
در مقابل، تیم بدون Claude:
❗ بیشتر دچار استرس، سردرگمی و اشتباهات انسانی شد
❗ مجبور بودند دائم از یکدیگر سؤال بپرسند
❗ روندشان کندتر و ناهموارتر بود
🎯 جمعبندی
همچنین Project Fetch اولین تلاش Anthropic برای بررسی تأثیر مدلهای زبانی در پروژههای واقعی R&D است.
نتایج نشان میدهد:
هوش مصنوعی سرعت و کارایی را چند برابر میکند، اما نظارت انسانی همچنان ضروری است.
🔜 گزارش کامل و ویدئوی مستند آن بهزودی در وبسایت Anthropic منتشر میشود.
https://www.anthropic.com/research/project-fetch-robot-dog
---
@rss_ai_ir
#هوش_مصنوعی #Claude #Anthropic #رباتیک #BostonDynamics #AI #ML #Robotics #Spot #ProjectFetch #RND #TechNews
در پروژهای به نام Project Fetch، شرکت Anthropic بررسی کرد که آیا مدل Claude میتواند به انسانها در آموزش ربات چهارپای Boston Dynamics Spot کمک کند یا خیر.
در این آزمایش:
دو تیم از کارکنانی که هیچ تجربهای در رباتیک نداشتند، باید Spot را طوری برنامهریزی میکردند که یک توپ ساحلی را پیدا کند و بیاورد — آن هم در سه مرحله با سختیِ افزایشی.
🔹 تیم اول با کمک Claude
🔹 تیم دوم بدون هیچ مدل هوش مصنوعی
🧠 نتیجه چه بود؟
✔️ تیم مجهز به Claude دو برابر سریعتر پیش رفت
✔️ وظایف بیشتری را تکمیل کرد
✔️ احساس اعتمادبهنفس بیشتری داشت
✔️ حتی توانست کنترل ربات را با زبان طبیعی امتحان کند
✔️ البته دوبار هم خراب کردند:
— سرعت حرکت ربات را اشتباه محاسبه کردند
— الگوریتم تشخیص توپ را اشتباه نوشتند
در مقابل، تیم بدون Claude:
❗ بیشتر دچار استرس، سردرگمی و اشتباهات انسانی شد
❗ مجبور بودند دائم از یکدیگر سؤال بپرسند
❗ روندشان کندتر و ناهموارتر بود
🎯 جمعبندی
همچنین Project Fetch اولین تلاش Anthropic برای بررسی تأثیر مدلهای زبانی در پروژههای واقعی R&D است.
نتایج نشان میدهد:
هوش مصنوعی سرعت و کارایی را چند برابر میکند، اما نظارت انسانی همچنان ضروری است.
🔜 گزارش کامل و ویدئوی مستند آن بهزودی در وبسایت Anthropic منتشر میشود.
https://www.anthropic.com/research/project-fetch-robot-dog
---
@rss_ai_ir
#هوش_مصنوعی #Claude #Anthropic #رباتیک #BostonDynamics #AI #ML #Robotics #Spot #ProjectFetch #RND #TechNews
👍18🥰17🎉17👏15😁15❤11🔥11🙏2
🚀 مدل Holo2 نسل تازهای از مدلهای چندرسانهای است که برای فهم رابطکاربری، ناوبری و استدلال در وب، دسکتاپ و موبایل طراحی شده است.
📈 نتایج چشمگیر در بنچمارکها Holo2 رکوردهای جدیدی ثبت کرده است:
🟩 امتیاز 66.1% در ScreenSpot-Pro (افزایش +۳٪)
🟩 امتیاز 76.1% در OSWorld-G (افزایش +۵٪)
این مدل بسیاری از رقبا را پشت سر گذاشته و تبدیل به یکی از بهترین گزینهها برای UI-grounding شده است.
🧠 معماری مدل
مبتنی بر Qwen3-VL
درک بسیار قوی از رابطکاربری و ناوبری دقیق
مناسب برای توسعه عاملهای هوشمند UI در نرمافزارها
🌐 قابل اجرا روی: مرورگر، Ubuntu و Android
🔀 همچنین Mixture of Experts نسخهی پرچمدار 30B-A3B فقط با فعالسازی ۳ میلیارد پارامتر در هر مرحله عملکردی در سطح مدل 30B ارائه میدهد اما با هزینه محاسبات کمتر.
🤖 مدل از reasoning-token ها برای بهبود دقت تصمیمگیری بهره میبرد و با Surfer 2 و ReAct کاملاً سازگار است.
⚙️ شیوه اجرا
سازگار با vLLM و تمام فریمورکهای هماهنگ با Qwen3-VL
📜 لایسنسها
نسخههای 4B و 8B → تحت Apache-2
نسخه 30B-A3B → فقط استفاده غیرتجاری
🔗 لینکها:
🌐 Blog: hcompany.ai/blog/holo2
🍳 Cookbook: github.com/hcompai/hai-cookbook/blob/main/holo2/holo_2_localization_huggingface.ipynb
🤗 HuggingFace: huggingface.co/collections/Hcompany/holo2
@rss_ai_ir
#هوش_مصنوعی #مدل_چندرسانهای #عامل_هوشمند #Qwen #Holo2 #AI #LLM #ML #رابط_کاربری #ui_grounding #qwen3_vl #vllm #surfer2 #react_ai
📈 نتایج چشمگیر در بنچمارکها Holo2 رکوردهای جدیدی ثبت کرده است:
🟩 امتیاز 66.1% در ScreenSpot-Pro (افزایش +۳٪)
🟩 امتیاز 76.1% در OSWorld-G (افزایش +۵٪)
این مدل بسیاری از رقبا را پشت سر گذاشته و تبدیل به یکی از بهترین گزینهها برای UI-grounding شده است.
🧠 معماری مدل
مبتنی بر Qwen3-VL
درک بسیار قوی از رابطکاربری و ناوبری دقیق
مناسب برای توسعه عاملهای هوشمند UI در نرمافزارها
🌐 قابل اجرا روی: مرورگر، Ubuntu و Android
🔀 همچنین Mixture of Experts نسخهی پرچمدار 30B-A3B فقط با فعالسازی ۳ میلیارد پارامتر در هر مرحله عملکردی در سطح مدل 30B ارائه میدهد اما با هزینه محاسبات کمتر.
🤖 مدل از reasoning-token ها برای بهبود دقت تصمیمگیری بهره میبرد و با Surfer 2 و ReAct کاملاً سازگار است.
⚙️ شیوه اجرا
سازگار با vLLM و تمام فریمورکهای هماهنگ با Qwen3-VL
📜 لایسنسها
نسخههای 4B و 8B → تحت Apache-2
نسخه 30B-A3B → فقط استفاده غیرتجاری
🔗 لینکها:
🌐 Blog: hcompany.ai/blog/holo2
🍳 Cookbook: github.com/hcompai/hai-cookbook/blob/main/holo2/holo_2_localization_huggingface.ipynb
🤗 HuggingFace: huggingface.co/collections/Hcompany/holo2
@rss_ai_ir
#هوش_مصنوعی #مدل_چندرسانهای #عامل_هوشمند #Qwen #Holo2 #AI #LLM #ML #رابط_کاربری #ui_grounding #qwen3_vl #vllm #surfer2 #react_ai
🥰10👍6🔥5❤4👏3😁2🎉2
🌟 فریمورک جدید RL برای آموزش مدلهای MoE از تیمی که Chatbot Arena را ساخته است
فریمورک Miles توسط گروه LMSYS ORG معرفی شد؛ همان تیمی که پروژهٔ معروف slime را ساخته بود. اگر توسعههای اپنسورس را دنبال میکنید، میدانید slime یک ابزار فوقسبک برای پستتریـن است—و حتی برای GLM-4.6 هم استفاده شد.
✅همچنین Miles همان مسیر را ادامه میدهد، اما این بار با تمرکز بر آموزش مقیاسبالا برای معماریهای MoE و پشتیبانی از بارهای سنگین در محیطهای سازمانی.
⚙️ نکات فنی
• معماری بر پایهٔ True On-Policy؛ یعنی صفر شدن فاصلهٔ رفتاری بین مدل در حالت آموزش و حالت اجرا
• استفاده از Flash Attention 3، کتابخانه DeepGEMM و هستههای Thinking Machines Lab در کنار torch.compile
• پشتیبانی از Speculative Decoding همراه با آموزش آنلاین مدل پیشنویس—رویکردی که باعث میشود مدل draft دقیقاً با سیاست مدل اصلی حرکت کند
• افزایش سرعت تولید متن تا ۲۵٪ در مراحل پایانی آموزش
🧩 پایداری سیستم
• جلوگیری از کرشهای غیرضروری OOM؛ اهمیت ویژه برای محیطهای سازمانی که «هر گیگابایت یعنی هزینه»
• اصلاح مشکلات مصرف حافظه در FSDP
• وعدهٔ پشتیبانی از آموزش چندمُدی، سازگاری با SGLang v2 و نسخهٔ پیشرفتهتر Speculative Decoding
📄 مقاله
🖥️ GitHub
@rss_ai_ir
#AI #ML #RL #MoE #LMSYS #Miles
فریمورک Miles توسط گروه LMSYS ORG معرفی شد؛ همان تیمی که پروژهٔ معروف slime را ساخته بود. اگر توسعههای اپنسورس را دنبال میکنید، میدانید slime یک ابزار فوقسبک برای پستتریـن است—و حتی برای GLM-4.6 هم استفاده شد.
✅همچنین Miles همان مسیر را ادامه میدهد، اما این بار با تمرکز بر آموزش مقیاسبالا برای معماریهای MoE و پشتیبانی از بارهای سنگین در محیطهای سازمانی.
⚙️ نکات فنی
• معماری بر پایهٔ True On-Policy؛ یعنی صفر شدن فاصلهٔ رفتاری بین مدل در حالت آموزش و حالت اجرا
• استفاده از Flash Attention 3، کتابخانه DeepGEMM و هستههای Thinking Machines Lab در کنار torch.compile
• پشتیبانی از Speculative Decoding همراه با آموزش آنلاین مدل پیشنویس—رویکردی که باعث میشود مدل draft دقیقاً با سیاست مدل اصلی حرکت کند
• افزایش سرعت تولید متن تا ۲۵٪ در مراحل پایانی آموزش
🧩 پایداری سیستم
• جلوگیری از کرشهای غیرضروری OOM؛ اهمیت ویژه برای محیطهای سازمانی که «هر گیگابایت یعنی هزینه»
• اصلاح مشکلات مصرف حافظه در FSDP
• وعدهٔ پشتیبانی از آموزش چندمُدی، سازگاری با SGLang v2 و نسخهٔ پیشرفتهتر Speculative Decoding
📄 مقاله
🖥️ GitHub
@rss_ai_ir
#AI #ML #RL #MoE #LMSYS #Miles
🌟 LLM Council:
وقتی یک «شورای مدلهای زبانی» به جای یک مدل به شما جواب میدهد!
آندری کارپاتی دوباره برگشته و اینبار با یک پروژه جالب به نام LLM Council — ایدهای که پاسخدهی را از سطح یک مدل، به سطح شورای مشورتی از مدلهای هوش مصنوعی ارتقا میدهد.
ایده ساده اما قدرتمند است:
بهجای اینکه سؤال شما فقط توسط یک مدل پاسخ داده شود، مجموعهای از مدلها پاسخ میدهند، یکدیگر را نقد میکنند و در نهایت یک مدل بهعنوان «رئیس شورا» پاسخ نهایی را میسازد.
🔹 روند کار چگونه است؟
🟢 مرحله ۱: جمعآوری نظرها
سؤال شما از طریق OpenRouter برای چندین مدل بهصورت جداگانه ارسال میشود.
هر مدل یک پاسخ مستقل تولید میکند و پاسخها در تبهای مجزا قابل مشاهدهاند.
🟢 مرحله ۲: ریتینگ و نقد علمی
هر مدل پاسخهای سایر مدلها را بررسی و بهصورت ناشناس ارزیابی میکند تا سوگیری ایجاد نشود.
مدلها پاسخها را از نظر دقت و عمق تحلیل رتبهبندی میکنند.
🟢 مرحله ۳: خروجی نهایی
یک «مدل رئیس شورا» همه نتایج را دریافت کرده و آنها را در قالب یک پاسخ واحد، دقیق و ترکیبی ارائه میدهد.
---
⚠️ برای استفاده از این سیستم نیاز به کلید API OpenRouter دارید.
مزیت خوبش این است که چند مدل رایگان هم در OpenRouter وجود دارد.
📌 Github:
https://github.com/karpathy/llm-council
@rss_ai_ir
---
🔖 هشتگها
#هوش_مصنوعی #مدل_زبانی #LLMCouncil #OpenRouter #AI #ML #کارپاتی #Github #LLM #هوش_تولیدی
وقتی یک «شورای مدلهای زبانی» به جای یک مدل به شما جواب میدهد!
آندری کارپاتی دوباره برگشته و اینبار با یک پروژه جالب به نام LLM Council — ایدهای که پاسخدهی را از سطح یک مدل، به سطح شورای مشورتی از مدلهای هوش مصنوعی ارتقا میدهد.
ایده ساده اما قدرتمند است:
بهجای اینکه سؤال شما فقط توسط یک مدل پاسخ داده شود، مجموعهای از مدلها پاسخ میدهند، یکدیگر را نقد میکنند و در نهایت یک مدل بهعنوان «رئیس شورا» پاسخ نهایی را میسازد.
🔹 روند کار چگونه است؟
🟢 مرحله ۱: جمعآوری نظرها
سؤال شما از طریق OpenRouter برای چندین مدل بهصورت جداگانه ارسال میشود.
هر مدل یک پاسخ مستقل تولید میکند و پاسخها در تبهای مجزا قابل مشاهدهاند.
🟢 مرحله ۲: ریتینگ و نقد علمی
هر مدل پاسخهای سایر مدلها را بررسی و بهصورت ناشناس ارزیابی میکند تا سوگیری ایجاد نشود.
مدلها پاسخها را از نظر دقت و عمق تحلیل رتبهبندی میکنند.
🟢 مرحله ۳: خروجی نهایی
یک «مدل رئیس شورا» همه نتایج را دریافت کرده و آنها را در قالب یک پاسخ واحد، دقیق و ترکیبی ارائه میدهد.
---
⚠️ برای استفاده از این سیستم نیاز به کلید API OpenRouter دارید.
مزیت خوبش این است که چند مدل رایگان هم در OpenRouter وجود دارد.
📌 Github:
https://github.com/karpathy/llm-council
@rss_ai_ir
---
🔖 هشتگها
#هوش_مصنوعی #مدل_زبانی #LLMCouncil #OpenRouter #AI #ML #کارپاتی #Github #LLM #هوش_تولیدی
👍2❤1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🧪 معرفی EfficientSAM3 – نسل تازه مدلهای سبک و قدرتمند در سگمنتیشن
دانشگاه بریستول خانوادهی EfficientSAM3 را معرفی کرده است؛ مجموعهای از مدلهای سبک و پرسرعت که با روش نوآورانهی Progressive Hierarchical Distillation (PHD) آموزش دیدهاند.
در این روش، تواناییهای مدل بزرگ SAM3 به مدلهای کوچکتر منتقل میشود؛ نتیجهی آن:
🔹 دقت بالا
🔹 سرعت بیشتر
🔹 مناسب برای دستگاههای کمقدرت و کاربردهای صنعتی
کد پروژه همزمان با انتشار رسمی SAM3 در راه است.
🔗 Paper: arxiv.org/pdf/2511.15833
🔗 Project: simonzeng7108.github.io/efficientsam3/
🔗 Repo: github.com/SimonZeng7108/efficientsam3
@rss_ai_ir
---
#هوش_مصنوعی #سگمنتیشن #ComputerVision
#EfficientSAM3 #SAM3 #دیپ_لرنینگ
#AI #ML #VisionModels #PHD
#مدل_سبک #مدل_کارا #پردازش_تصویر
دانشگاه بریستول خانوادهی EfficientSAM3 را معرفی کرده است؛ مجموعهای از مدلهای سبک و پرسرعت که با روش نوآورانهی Progressive Hierarchical Distillation (PHD) آموزش دیدهاند.
در این روش، تواناییهای مدل بزرگ SAM3 به مدلهای کوچکتر منتقل میشود؛ نتیجهی آن:
🔹 دقت بالا
🔹 سرعت بیشتر
🔹 مناسب برای دستگاههای کمقدرت و کاربردهای صنعتی
کد پروژه همزمان با انتشار رسمی SAM3 در راه است.
🔗 Paper: arxiv.org/pdf/2511.15833
🔗 Project: simonzeng7108.github.io/efficientsam3/
🔗 Repo: github.com/SimonZeng7108/efficientsam3
@rss_ai_ir
---
#هوش_مصنوعی #سگمنتیشن #ComputerVision
#EfficientSAM3 #SAM3 #دیپ_لرنینگ
#AI #ML #VisionModels #PHD
#مدل_سبک #مدل_کارا #پردازش_تصویر
🙏2❤1🕊1
✨ سینتتیک-دیتا که بهتر از دادههای واقعی آموزش میدهد!
✅پژوهشگران MIT یک نتیجه عجیب اما فوقالعاده مهم منتشر کردهاند:
گاهی چند تصویر کاملاً مصنوعی میتوانند linear probe ها را بهتر از هزاران تصویر واقعی آموزش دهند.
ایده با روش تازهای بهنام Linear Gradient Matching (LGM) اجرا شده است. روش کار چنین است:
1️⃣ مدل بینایی بزرگ (مثل DINO یا CLIP) را فریز میکنند.
2️⃣ بررسی میکنند که این مدل روی تصاویر واقعی چه گرادیانهایی تولید میکند.
3️⃣ مجموعهای از تصاویر سینتتیک تولید میکنند که دقیقاً همین گرادیانها را بازتولید کنند.
4️⃣ یک linear classifier روی این تصاویر آموزش میدهند — و نتیجه شگفتانگیز است:
عملکرد بهتر از آموزش روی دادههای واقعی!
🔍 چرا این مهم است؟
• سازگار میان مدلهاست: سینتتیکدیتا تولیدشده برای DINO در CLIP هم بهخوبی کار میکند.
• مخصوصاً روی classification های ظریف عملکرد فوقالعاده دارد.
• کمک میکند بفهمیم مدل واقعاً دنبال چه ویژگیهایی میگردد — کلاسترها، همبستگیهای انحرافی، ساختار embedding-space و …
این یافته، تعریف «داده خوب» را عوض میکند.
🟩 گذشته: «برای آموزش باید میلیونها تصویر جمع کنیم.»
🟩 اکنون: «کافی است چند تصویر درست و هدفمند بسازیم.»
@rss_ai_ir
لینک مقاله:
arxiv.org/abs/2511.16674
---
🏷 هشتگها
#داده #دیتاسینتتیک #هوش_مصنوعی #بینایی_ماشین #ML #CLIP #DINO #LGM #DeepLearning #AI
✅پژوهشگران MIT یک نتیجه عجیب اما فوقالعاده مهم منتشر کردهاند:
گاهی چند تصویر کاملاً مصنوعی میتوانند linear probe ها را بهتر از هزاران تصویر واقعی آموزش دهند.
ایده با روش تازهای بهنام Linear Gradient Matching (LGM) اجرا شده است. روش کار چنین است:
1️⃣ مدل بینایی بزرگ (مثل DINO یا CLIP) را فریز میکنند.
2️⃣ بررسی میکنند که این مدل روی تصاویر واقعی چه گرادیانهایی تولید میکند.
3️⃣ مجموعهای از تصاویر سینتتیک تولید میکنند که دقیقاً همین گرادیانها را بازتولید کنند.
4️⃣ یک linear classifier روی این تصاویر آموزش میدهند — و نتیجه شگفتانگیز است:
عملکرد بهتر از آموزش روی دادههای واقعی!
🔍 چرا این مهم است؟
• سازگار میان مدلهاست: سینتتیکدیتا تولیدشده برای DINO در CLIP هم بهخوبی کار میکند.
• مخصوصاً روی classification های ظریف عملکرد فوقالعاده دارد.
• کمک میکند بفهمیم مدل واقعاً دنبال چه ویژگیهایی میگردد — کلاسترها، همبستگیهای انحرافی، ساختار embedding-space و …
این یافته، تعریف «داده خوب» را عوض میکند.
🟩 گذشته: «برای آموزش باید میلیونها تصویر جمع کنیم.»
🟩 اکنون: «کافی است چند تصویر درست و هدفمند بسازیم.»
@rss_ai_ir
لینک مقاله:
arxiv.org/abs/2511.16674
---
🏷 هشتگها
#داده #دیتاسینتتیک #هوش_مصنوعی #بینایی_ماشین #ML #CLIP #DINO #LGM #DeepLearning #AI
👍2❤1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
✨ STARFlow-V:
نسل تازه مدلهای ویدئو با Normalizing Flow
@rss_ai_ir 🎥⚡
مدل STARFlow-V یک مدل کاملاً End-to-End برای تولید ویدئو است که بر پایهی Normalizing Flow ساخته شده — رویکردی که معمولاً کمتر در ویدئو استفاده میشود، اما حالا نتایج فوقالعادهای نشان داده است.
🔹 کیفیت بصری بالا + پیوستگی زمانی عالی
🔹 پیشبینی علّی (causal prediction) پایدار
🔹 معماری Global–Local Latent
🔹 استفاده از Flow-Score Matching
🔹 قدمی مهم برای ورود Flow Models به دنیای Video Gen
📄 Paper: arxiv.org/abs/2511.20462
🌐 Project: starflow-v.github.io
💻 Code: github.com/apple/ml-starflow
#VideoGeneration #NormalizingFlow #GenerativeAI #DeepLearning #ML @rss_ai_ir
نسل تازه مدلهای ویدئو با Normalizing Flow
@rss_ai_ir 🎥⚡
مدل STARFlow-V یک مدل کاملاً End-to-End برای تولید ویدئو است که بر پایهی Normalizing Flow ساخته شده — رویکردی که معمولاً کمتر در ویدئو استفاده میشود، اما حالا نتایج فوقالعادهای نشان داده است.
🔹 کیفیت بصری بالا + پیوستگی زمانی عالی
🔹 پیشبینی علّی (causal prediction) پایدار
🔹 معماری Global–Local Latent
🔹 استفاده از Flow-Score Matching
🔹 قدمی مهم برای ورود Flow Models به دنیای Video Gen
📄 Paper: arxiv.org/abs/2511.20462
🌐 Project: starflow-v.github.io
💻 Code: github.com/apple/ml-starflow
#VideoGeneration #NormalizingFlow #GenerativeAI #DeepLearning #ML @rss_ai_ir
🥰1
🔥 مدل جدید Z-Image منتشر شد — نسل تازهی مدلهای سریع و سبک T2I
تیم Tongyi-MAI یک معماری تازه در حوزه text-to-image معرفی کرده که با وجود فقط ۶ میلیارد پارامتر، کیفیتی در حد مدلهای سنگینتر ارائه میدهد.
✨ ویژگیهای کلیدی Z-Image:
🚀 سرعت خارقالعاده: مدل دِیستیلی شده و تنها با ۸ مرحله (NFE) خروجی میسازد
⚡ کمتر از یک ثانیه تأخیر روی کارتهای H800
🧩 اجرای محلی آسان: با فقط ۱۶GB VRAM روی 3090 / 4080 / 4090 قابل اجراست
🎨 فوتورئالیسم قوی، رعایت عالی دستورها و رندر دقیق متن روی تصویر
این مدل برای کسانی که سرعت، دقت و اجرای لوکال همزمان میخواهند— یک گزینهی جدی است.
🔗 دمو
https://modelscope.cn/aigc/imageGeneration
🔗 وِیتها (Turbo)
https://modelscope.cn/models/Tongyi-MAI/Z-Image-Turbo
@rss_ai_ir
#AI #GenAI #Tongyi #TextToImage #Prompting #ML
تیم Tongyi-MAI یک معماری تازه در حوزه text-to-image معرفی کرده که با وجود فقط ۶ میلیارد پارامتر، کیفیتی در حد مدلهای سنگینتر ارائه میدهد.
✨ ویژگیهای کلیدی Z-Image:
🚀 سرعت خارقالعاده: مدل دِیستیلی شده و تنها با ۸ مرحله (NFE) خروجی میسازد
⚡ کمتر از یک ثانیه تأخیر روی کارتهای H800
🧩 اجرای محلی آسان: با فقط ۱۶GB VRAM روی 3090 / 4080 / 4090 قابل اجراست
🎨 فوتورئالیسم قوی، رعایت عالی دستورها و رندر دقیق متن روی تصویر
این مدل برای کسانی که سرعت، دقت و اجرای لوکال همزمان میخواهند— یک گزینهی جدی است.
🔗 دمو
https://modelscope.cn/aigc/imageGeneration
🔗 وِیتها (Turbo)
https://modelscope.cn/models/Tongyi-MAI/Z-Image-Turbo
@rss_ai_ir
#AI #GenAI #Tongyi #TextToImage #Prompting #ML
❤5🔥2👏1
🔥 بهترین راهنمای فاینتیونینگ که امسال در arXiv میبینید!
اگر با مدلهای زبانی کار میکنید—چه مبتدی باشید چه حرفهای—این مقاله دقیقاً همان چیزی است که لازم دارید. یک راهنمای کامل، مرحلهبهمرحله و فوقالعاده منظم برای تسلط بر Fine-Tuning مدرن.
📘 مباحثی که پوشش میدهد:
🧠 مبانی NLP (برای اینکه بدانید زیرساخت مدل چه میگوید)
⚙️ روشهای PEFT / LoRA / QLoRA (تکنیکهای سبک برای آموزش مدلهای بزرگ روی GPUهای معمولی)
🔀اینکه Mixture of Experts (MoE) و نکات ریز مربوط به آموزش کارآمد
🧩 پایپلاین ۷ مرحلهای برای فاینتیونینگ حرفهای
🎯 توصیههای عملی، چکلیستها و اشتباهاتی که باید از آنها دوری کرد
📄 منبع:
https://arxiv.org/pdf/2408.13296v1
#AI #ML #FineTuning #LoRA #QLoRA #MoE #NLP #DeepLearning #arXiv
@rss_ai_ir
اگر با مدلهای زبانی کار میکنید—چه مبتدی باشید چه حرفهای—این مقاله دقیقاً همان چیزی است که لازم دارید. یک راهنمای کامل، مرحلهبهمرحله و فوقالعاده منظم برای تسلط بر Fine-Tuning مدرن.
📘 مباحثی که پوشش میدهد:
🧠 مبانی NLP (برای اینکه بدانید زیرساخت مدل چه میگوید)
⚙️ روشهای PEFT / LoRA / QLoRA (تکنیکهای سبک برای آموزش مدلهای بزرگ روی GPUهای معمولی)
🔀اینکه Mixture of Experts (MoE) و نکات ریز مربوط به آموزش کارآمد
🧩 پایپلاین ۷ مرحلهای برای فاینتیونینگ حرفهای
🎯 توصیههای عملی، چکلیستها و اشتباهاتی که باید از آنها دوری کرد
📄 منبع:
https://arxiv.org/pdf/2408.13296v1
#AI #ML #FineTuning #LoRA #QLoRA #MoE #NLP #DeepLearning #arXiv
@rss_ai_ir
👍2🔥1👏1
🤖 انفجار بیسروصدای انویدیا؛ مدل ۸ میلیارد پارامتری که از GPT-5 هم جلو زد!
دنیای هوش مصنوعی یک غافلگیری تازه تجربه کرده است. انویدیا quietly مدلی را معرفی کرده که نقش «مغزِ هماهنگکننده» برای ابزارها و مدلهای بزرگتر را بازی میکند: Orchestrator-8B.
این مدل کوچک تصمیم میگیرد چه زمانی خودش پاسخ دهد و چه زمانی سراغ ابزارهایی مثل جستجو، کدنویسی، API یا مدلهای بزرگتر برود. نتیجه؟
عملکردی شگفتانگیز:
🔥 امتیاز ۳۷.۱٪ در Humanity’s Last Exam
(در حالی که GPT-5 تنها ۳۵.۱٪ گرفته!)
⚡ و همزمان ۲.۵ برابر سریعتر و ارزانتر.
🎛️ چگونه کار میکند؟
مدل روی دیتاست عظیمی به نام ToolScale آموزش دیده که شامل:
✳️درخواست کاربر
✳️قیمت هر ابزار
✳️بهترین ترتیب فراخوانی ابزارها
✳️مدل Orchestrator-8B یاد میگیرد همیشه انتخابی هوشمندانه و اقتصادی انجام دهد، نه اینکه همه چیز را با brute force حل کند.
📊 نتایج کلیدی
در بنچمارکهایی مثل HLE، FRAMES و tau²:
♻️عملکرد بهتر از GPT-5 مجهز به ابزارها
♻️عملکرد بهتر از Claude Opus 4.1
♻️عملکرد بهتر از Qwen3-235B
♻️استفاده کمتر از ابزارهای گران
♻️سازگاری بالا با ابزارها و قیمتهای جدید
🔮 آینده چه میگوید؟
مسیر آینده AI Agents کاملاً واضح است:
عصر «ابزارمحور» بهجای «مدلمحور» آغاز شده.
https://huggingface.co/datasets/nvidia/ToolScale
---
#هوش_مصنوعی #NVIDIA #Orchestrator8B #ایجنت #مدل_زبانی #AI #ML
دنیای هوش مصنوعی یک غافلگیری تازه تجربه کرده است. انویدیا quietly مدلی را معرفی کرده که نقش «مغزِ هماهنگکننده» برای ابزارها و مدلهای بزرگتر را بازی میکند: Orchestrator-8B.
این مدل کوچک تصمیم میگیرد چه زمانی خودش پاسخ دهد و چه زمانی سراغ ابزارهایی مثل جستجو، کدنویسی، API یا مدلهای بزرگتر برود. نتیجه؟
عملکردی شگفتانگیز:
🔥 امتیاز ۳۷.۱٪ در Humanity’s Last Exam
(در حالی که GPT-5 تنها ۳۵.۱٪ گرفته!)
⚡ و همزمان ۲.۵ برابر سریعتر و ارزانتر.
🎛️ چگونه کار میکند؟
مدل روی دیتاست عظیمی به نام ToolScale آموزش دیده که شامل:
✳️درخواست کاربر
✳️قیمت هر ابزار
✳️بهترین ترتیب فراخوانی ابزارها
✳️مدل Orchestrator-8B یاد میگیرد همیشه انتخابی هوشمندانه و اقتصادی انجام دهد، نه اینکه همه چیز را با brute force حل کند.
📊 نتایج کلیدی
در بنچمارکهایی مثل HLE، FRAMES و tau²:
♻️عملکرد بهتر از GPT-5 مجهز به ابزارها
♻️عملکرد بهتر از Claude Opus 4.1
♻️عملکرد بهتر از Qwen3-235B
♻️استفاده کمتر از ابزارهای گران
♻️سازگاری بالا با ابزارها و قیمتهای جدید
🔮 آینده چه میگوید؟
مسیر آینده AI Agents کاملاً واضح است:
عصر «ابزارمحور» بهجای «مدلمحور» آغاز شده.
https://huggingface.co/datasets/nvidia/ToolScale
---
#هوش_مصنوعی #NVIDIA #Orchestrator8B #ایجنت #مدل_زبانی #AI #ML
🔥3❤1
✨ مایسترال ۳ معرفی شد — نسل تازهای از مدلهای متنباز که روی هر سختافزاری اجرا میشوند!
شرکت Mistral AI خانوادهی جدید مدلهای هوش مصنوعی خود را منتشر کرد؛ مدلهایی که از لپتاپ و موبایل تا سرورهای ابری و سیستمهای Edge بدون محدودیت قابل استفادهاند.
تمام نسخهها—چه Mistral Large 3 و چه مدلهای سبک Ministral—با لایسنس Apache 2.0 ارائه شدهاند، یعنی استفادهی تجاری کاملاً آزاد است.
🔥 نکات مهم:
♻️اینکه Mistral Small 3 به امتیاز بیش از ۸۱٪ در MMLU رسیده؛ برای یک مدل کوچک عددی فوقالعاده است.
♻️حال Mistral Medium 3.1 در LM Arena رتبههای برتر را کسب کرده:
♻️مقام اول در دسته English (بدون کنترل سبک)
♻️مقام دوم در رتبهبندی کلی
♻️حضور در جمع سه مدل برتر در کدنویسی و پردازش درخواستهای طولانی
♻️نسخه Medium به حدود ۹۰٪ کیفیت مدلهای سنگین میرسد، اما با مصرف سختافزاری بسیار کمتر — یکی از بهترین نسبتهای هزینه/کارایی در بازار فعلی.
📎 جزئیات بیشتر:
https://mistral.ai/news/mistral-3
@rss_ai_ir
#Mistral #هوش_مصنوعی #مدل_متن_باز #ML #AI #DeepLearning
شرکت Mistral AI خانوادهی جدید مدلهای هوش مصنوعی خود را منتشر کرد؛ مدلهایی که از لپتاپ و موبایل تا سرورهای ابری و سیستمهای Edge بدون محدودیت قابل استفادهاند.
تمام نسخهها—چه Mistral Large 3 و چه مدلهای سبک Ministral—با لایسنس Apache 2.0 ارائه شدهاند، یعنی استفادهی تجاری کاملاً آزاد است.
🔥 نکات مهم:
♻️اینکه Mistral Small 3 به امتیاز بیش از ۸۱٪ در MMLU رسیده؛ برای یک مدل کوچک عددی فوقالعاده است.
♻️حال Mistral Medium 3.1 در LM Arena رتبههای برتر را کسب کرده:
♻️مقام اول در دسته English (بدون کنترل سبک)
♻️مقام دوم در رتبهبندی کلی
♻️حضور در جمع سه مدل برتر در کدنویسی و پردازش درخواستهای طولانی
♻️نسخه Medium به حدود ۹۰٪ کیفیت مدلهای سنگین میرسد، اما با مصرف سختافزاری بسیار کمتر — یکی از بهترین نسبتهای هزینه/کارایی در بازار فعلی.
📎 جزئیات بیشتر:
https://mistral.ai/news/mistral-3
@rss_ai_ir
#Mistral #هوش_مصنوعی #مدل_متن_باز #ML #AI #DeepLearning
👍1
📌 خبر : OpenAGI مدل جدید Lux را منتشر کرد؛ یک جهش جدی در «کامپیوتریوز»
@rss_ai_ir
✨ در دنیای ایجنتهای کنترلکنندهٔ کامپیوتر، امروز یک اتفاق مهم افتاد:
استارتاپ OpenAGI مدل Lux را معرفی کرد؛ مدلی که طبق نتایج اولیه، از معادلهای گوگل، OpenAI و Anthropic یک نسل جلوتر عمل میکند — آن هم با هزینه بسیار کمتر.
🔍 چرا Lux مهم است؟
⚡️ سرعت بالا: هر اکشن در حدود ۱ ثانیه اجرا میشود؛ درحالیکه رقبا نزدیک ۳ ثانیه زمان نیاز دارند.
💸 هزینه بسیار پایین: پردازش هر توکن حدود ۱۰ برابر ارزانتر از سایر مدلهای کامپیوتریوز است.
🧠 معماری متفاوت: این مدل برخلاف ایجنتهایی که از یک LLM عمومی فاینتیون شدهاند، از ابتدا برای انجام اکشن آموزش دیده و نه گفتگو. همین باعث برتری ساختاری آن شده است.
🎓 پشتوانه علمی: حضور پژوهشگران MIT در تیم توسعه، اعتبار نتایج را بالا برده است.
🛠 اوپنسورس کامل: تمام زیرساخت آموزشی Lux نیز باز شده تا توسعهدهندگان بتوانند نحوهٔ ساخت این مدل را بررسی و ارتقا دهند.
🚀 اگر کارایی Lux در استفادهٔ واقعی هم تأیید شود، این مدل میتواند نخستین نقطهٔ جدی تغییر از «LLMهای چندمنظوره» به سمت مدلهای تخصصی برای انجام اکشن باشد — آیندهای که مدتها انتظارش میرفت.
#هوش_مصنوعی #ایجنت #کامپیوتر_یوز #OpenAGI #Lux #مدل_اکشنی #AI #ML
@rss_ai_ir
✨ در دنیای ایجنتهای کنترلکنندهٔ کامپیوتر، امروز یک اتفاق مهم افتاد:
استارتاپ OpenAGI مدل Lux را معرفی کرد؛ مدلی که طبق نتایج اولیه، از معادلهای گوگل، OpenAI و Anthropic یک نسل جلوتر عمل میکند — آن هم با هزینه بسیار کمتر.
🔍 چرا Lux مهم است؟
⚡️ سرعت بالا: هر اکشن در حدود ۱ ثانیه اجرا میشود؛ درحالیکه رقبا نزدیک ۳ ثانیه زمان نیاز دارند.
💸 هزینه بسیار پایین: پردازش هر توکن حدود ۱۰ برابر ارزانتر از سایر مدلهای کامپیوتریوز است.
🧠 معماری متفاوت: این مدل برخلاف ایجنتهایی که از یک LLM عمومی فاینتیون شدهاند، از ابتدا برای انجام اکشن آموزش دیده و نه گفتگو. همین باعث برتری ساختاری آن شده است.
🎓 پشتوانه علمی: حضور پژوهشگران MIT در تیم توسعه، اعتبار نتایج را بالا برده است.
🛠 اوپنسورس کامل: تمام زیرساخت آموزشی Lux نیز باز شده تا توسعهدهندگان بتوانند نحوهٔ ساخت این مدل را بررسی و ارتقا دهند.
🚀 اگر کارایی Lux در استفادهٔ واقعی هم تأیید شود، این مدل میتواند نخستین نقطهٔ جدی تغییر از «LLMهای چندمنظوره» به سمت مدلهای تخصصی برای انجام اکشن باشد — آیندهای که مدتها انتظارش میرفت.
#هوش_مصنوعی #ایجنت #کامپیوتر_یوز #OpenAGI #Lux #مدل_اکشنی #AI #ML
👍2🔥1👏1
📘 ۱۰ موضوع ضروری برای تسلط بر یادگیری ماشین
💡 اگر قصد داری مسیر یادگیری ماشین را جدی دنبال کنی، دانستن این ده محور اصلی مثل داشتن نقشهٔ راه است. این موارد همان پایههایی هستند که همهٔ متخصصان ML روی آنها ایستادهاند:
1️⃣ مبانی یادگیری ماشین
درک تفاوت میان ML، هوش مصنوعی و یادگیری عمیق و جایگاه هرکدام در اکوسیستم تکنولوژی.
2️⃣ انواع یادگیری ماشین
نظارتشده، بدوننظارت و تقویتی — سه ستون اصلی که تمام الگوریتمها روی آنها بنا میشوند.
3️⃣ کاربردهای واقعی ML
از تشخیص بیماری و کشف تقلب تا خودروهای خودران و سیستمهای پیشنهاددهنده.
4️⃣ جمعآوری و پاکسازی داده
حذف دادههای ناقص، رفع تناقضات، حذف دادههای تکراری — همان بخشی که ۷۰٪ زمان پروژه صرف آن میشود.
5️⃣ مهندسی ویژگی (Feature Engineering)
تبدیل دادهٔ خام به ویژگیهای قابل فهم برای مدل — یکی از مهمترین عوامل موفقیت.
6️⃣ پیشپردازش داده
نرمالسازی، استانداردسازی، کدگذاری دادهٔ دستهای و تقسیم دادهها به train/test.
7️⃣ الگوریتمهای یادگیری نظارتشده
رگرسیون خطی، KNN، SVM، Random Forest، XGBoost — ابزارهای اصلی برای طبقهبندی و رگرسیون.
8️⃣ شاخصهای ارزیابی مدل
ملاک های Accuracy، Precision، Recall، F1، ROC-AUC — معیارهایی که کیفیت مدل را میسنجند.
9️⃣ بیشبرازش و کمبرازش
شناخت اینکه مدل بیش از حد یاد گرفته یا کم — و کنترل آن با تکنیکهای منظمسازی.
🔟 اعتبارسنجی و استقرار مدل
سرویس K-Fold، Flask، Docker و سرویسهای ابری مثل AWS و GCP — مسیر گذار از تحقیق به محصول واقعی.
---
@rss_ai_ir
#یادگیری_ماشین #هوش_مصنوعی #یادگیری_عمیق #علم_داده #ML #AI #MachineLearning
💡 اگر قصد داری مسیر یادگیری ماشین را جدی دنبال کنی، دانستن این ده محور اصلی مثل داشتن نقشهٔ راه است. این موارد همان پایههایی هستند که همهٔ متخصصان ML روی آنها ایستادهاند:
1️⃣ مبانی یادگیری ماشین
درک تفاوت میان ML، هوش مصنوعی و یادگیری عمیق و جایگاه هرکدام در اکوسیستم تکنولوژی.
2️⃣ انواع یادگیری ماشین
نظارتشده، بدوننظارت و تقویتی — سه ستون اصلی که تمام الگوریتمها روی آنها بنا میشوند.
3️⃣ کاربردهای واقعی ML
از تشخیص بیماری و کشف تقلب تا خودروهای خودران و سیستمهای پیشنهاددهنده.
4️⃣ جمعآوری و پاکسازی داده
حذف دادههای ناقص، رفع تناقضات، حذف دادههای تکراری — همان بخشی که ۷۰٪ زمان پروژه صرف آن میشود.
5️⃣ مهندسی ویژگی (Feature Engineering)
تبدیل دادهٔ خام به ویژگیهای قابل فهم برای مدل — یکی از مهمترین عوامل موفقیت.
6️⃣ پیشپردازش داده
نرمالسازی، استانداردسازی، کدگذاری دادهٔ دستهای و تقسیم دادهها به train/test.
7️⃣ الگوریتمهای یادگیری نظارتشده
رگرسیون خطی، KNN، SVM، Random Forest، XGBoost — ابزارهای اصلی برای طبقهبندی و رگرسیون.
8️⃣ شاخصهای ارزیابی مدل
ملاک های Accuracy، Precision، Recall، F1، ROC-AUC — معیارهایی که کیفیت مدل را میسنجند.
9️⃣ بیشبرازش و کمبرازش
شناخت اینکه مدل بیش از حد یاد گرفته یا کم — و کنترل آن با تکنیکهای منظمسازی.
🔟 اعتبارسنجی و استقرار مدل
سرویس K-Fold، Flask، Docker و سرویسهای ابری مثل AWS و GCP — مسیر گذار از تحقیق به محصول واقعی.
---
@rss_ai_ir
#یادگیری_ماشین #هوش_مصنوعی #یادگیری_عمیق #علم_داده #ML #AI #MachineLearning
❤3🔥1👏1
🔥 نسخه Transformers v5 منتشر شد!
جامعهٔ هوش مصنوعی امروز شاهد یک جهش بزرگ بود. نسخهٔ جدید Transformers v5 از Hugging Face رسماً عرضه شد و حالا تبدیل به ستون اصلی اکوسیستم متنباز در مدلهای بزرگ شده است.
📈 رشد اکوسیستم در چند سال اخیر واقعاً خیرهکننده بوده:
📦 از ۲۰هزار به ۳ میلیون نصب روزانه
🧠 از ۴۰ معماری پشتیبانیشده به ۴۰۰+
🗃️ بیش از ۷۵۰هزار چکپوینت
🌍 بیش از ۱.۲ میلیارد نصب تجمعی
✨ مهمترین تغییرات نسخهٔ جدید:
♻️معماری کاملاً مبتنی بر PyTorch
♻️طراحی ماژولار و قابلگسترش
♻️رویکرد «quantization-first» برای کارایی بالاتر
♻️همچنین Transformers Serve سازگار با APIهای OpenAI
این نسخه آغاز یک مرحلهٔ تازه در آیندهٔ مدلهای متنباز است.
https://huggingface.co/blog/transformers-v5
#Transformers #HuggingFace #AI #DeepLearning #ML #PyTorch #LLM 🚀
جامعهٔ هوش مصنوعی امروز شاهد یک جهش بزرگ بود. نسخهٔ جدید Transformers v5 از Hugging Face رسماً عرضه شد و حالا تبدیل به ستون اصلی اکوسیستم متنباز در مدلهای بزرگ شده است.
📈 رشد اکوسیستم در چند سال اخیر واقعاً خیرهکننده بوده:
📦 از ۲۰هزار به ۳ میلیون نصب روزانه
🧠 از ۴۰ معماری پشتیبانیشده به ۴۰۰+
🗃️ بیش از ۷۵۰هزار چکپوینت
🌍 بیش از ۱.۲ میلیارد نصب تجمعی
✨ مهمترین تغییرات نسخهٔ جدید:
♻️معماری کاملاً مبتنی بر PyTorch
♻️طراحی ماژولار و قابلگسترش
♻️رویکرد «quantization-first» برای کارایی بالاتر
♻️همچنین Transformers Serve سازگار با APIهای OpenAI
این نسخه آغاز یک مرحلهٔ تازه در آیندهٔ مدلهای متنباز است.
https://huggingface.co/blog/transformers-v5
#Transformers #HuggingFace #AI #DeepLearning #ML #PyTorch #LLM 🚀
❤4👍2👏1