VIRSUN
7.45K subscribers
1.41K photos
804 videos
5 files
893 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
🧠 یان لوکُن دوباره برگشت: معرفی LeJEPA — نسل جدید یادگیری خودنظارتی

در مدل‌های قبلی خانوادهٔ JEPA همیشه نیاز به ترفندهای پیچیده بود تا مدل دچار collapsing نشود:
مثل stop-gradient،‌ معماری teacher–student یا هدهای پیش‌بینی‌کننده.

اما مدل جدید LeJEPA همهٔ این هک‌ها را حذف کرده و فقط یک Regularizer جدید اضافه کرده:
SIGReg — Sketched Isotropic Gaussian Regularization

🔍 مدل SIGReg چه می‌کند؟
بردارهای ویژگی را وادار می‌کند که به‌طور یکنواخت در تمام جهت‌ها پخش شوند؛ یعنی یک ابر ایزوتروپیک بسازند.
این ساختار هندسی باعث می‌شود مدل کمترین خطا را در وظایف آینده داشته باشد — نه بر اساس حدس، بلکه بر اساس تحلیل ریاضی.

📌 چرا مهم است؟

✳️آموزش بسیار پایدارتر و ساده‌تر می‌شود

✳️به راحتی مقیاس‌پذیر است (تست روی مدل ۱.۸ میلیارد پارامتری)

✳️نیازی به teacher-student نیست

✳️کیفیت مدل بدون برچسب‌گذاری قابل تخمین است — چون loss به‌خوبی با دقت نهایی همبستگی دارد

✳️مناسب‌ترین هندسه برای نمایش ویژگی‌ها را ایجاد می‌کند


📈 نتیجه:
دقت 79٪ در ارزیابی linear probe روی ImageNet-1K با حداقل تنظیمات.

این کار یک گام مهم به سمت self-supervised learning قابل‌اعتماد، پایدار و مقیاس‌پذیر است.

📄 مقاله:
arxiv.org/abs/2511.08544

#AI #ML #SelfSupervised #LeJEPA #YannLeCun @rss_ai_ir
🧭 لینکدین موتور جستجوی جدید مبتنی بر هوش مصنوعی را برای ۱.۳ میلیارد کاربر فعال کرد

✳️این سیستم جدید، افراد را فقط بر اساس کلمات کلیدی پیدا نمی‌کند؛ بلکه مهارت‌ها، تخصص‌ها، شبکه ارتباطی و میزان دسترس‌پذیری آن‌ها را هم تحلیل می‌کند.

✳️هوش مصنوعی لینکدین می‌تواند یک درخواست ساده مثل «درمان سرطان» را به مجموعه‌ای از مهارت‌ها و حوزه‌های مرتبط تبدیل کند و دقیق‌ترین متخصصان را پیشنهاد دهد.

✳️در پشت‌صحنه، از مدل‌های ۷ میلیاردی، ۱.۷ میلیاردی و یک رانکر ۲۲۰M استفاده شده که با فشرده‌سازی هوشمند و پردازش GPU، سرعت جستجو را تا ۱۰ برابر افزایش می‌دهد.

https://venturebeat.com/ai/inside-linkedins-generative-ai-cookbook-how-it-scaled-people-search-to-1-3

---

#هوش_مصنوعی #LinkedIn #جستجوی_هوشمند #LLM #شبکه_اجتماعی #AI #ML #مدل_زبانی #فناوری
🤖 می‌خوای ایجنت هوش مصنوعی مخصوص خودت رو بسازی؟
این یک نفر همه‌چیز رو یک‌جا جمع کرده!

یک داکیومنت کامل شامل:
📺 ویدیوهای آموزشی
📚 کتاب‌ها و مقالات
🛠️ مخازن GitHub
🎓 دوره‌های Google، OpenAI، Anthropic و…

موضوعات پوشش‌داده‌شده:
♻️مدل‌های زبانی LLM
♻️طراحی ایجنت‌ها
♻️حافظه، کنترل و برنامه‌ریزی (MCP)


💡 همه‌چیز رایگان و یک‌جا داخل یک Google Docs 👇
https://docs.google.com/document/d/1Z5SX89FV6bTy2KKnGGb61xCcS9iPg_fv2USQYi4Wc3g/mobilebasic


---

#هوش_مصنوعی #ایجنت #LLM #برنامه‌ریزی #AI #ML #یادگیری_ماشین #مهندسی_پرامپت #Agents
2
⚡️ Lumine —
دستورالعملی باز برای ساخت ایجنت‌های جنرالیست در دنیای سه‌بعدی

پروژه‌ی Lumine یک چارچوب کاملاً متن‌باز ارائه می‌دهد که به محققان و توسعه‌دهندگان اجازه می‌دهد ایجنت‌های هوش مصنوعی چندمنظوره را در محیط‌های سه‌بعدی پیچیده بسازند و آموزش دهند.

ویژگی‌ها:
🔹 یادگیری مهارت‌های عمومی در جهان‌های 3D
🔹 مناسب برای رباتیک، بازی‌ها، شبیه‌سازی و تحقیق
🔹 مدل‌ها و دیتاست‌ها آزادانه در دسترس
🔹 معماری یکپارچه برای تعامل، ادراک و برنامه‌ریزی

لینک‌ها:
📄 Paper (arXiv):
https://arxiv.org/abs/2511.08892
📘 HF:
https://huggingface.co/papers/2511.08892
🌐 Project:
https://www.lumine-ai.org/


---

#هوش_مصنوعی #ایجنت #Lumine #AI #LLM #Agents #ML #سه‌بعدی #3D #OpenAI #HuggingFace
🤯 دیپ‌مایند مدل‌های بینایی را یک قدم به درک انسانی نزدیک‌تر کرد!

انسان‌ها دنیا را بر اساس مفهوم دسته‌بندی می‌کنند —
می‌دانیم گربه و ستاره‌دریایی هر دو «حیوان» هستند، حتی اگر هیچ شباهت ظاهری نداشته باشند.

اما مدل‌های بیناییِ هوش مصنوعی معمولاً این لایهٔ انتزاعی را درک نمی‌کنند.

حالا پژوهش تازهٔ Google DeepMind این شکاف را کم کرده:
مدل‌ها را طوری آموزش داده‌اند که دنیای بصری را شبیه انسان‌ها سازمان‌دهی کنند — با درک مفاهیم، نه فقط پیکسل‌ها.

نتیجه؟
✔️ پایداری بیشتر
✔️ عمومی‌سازی دقیق‌تر
✔️ درک بهتر از دسته‌بندی‌های واقعی جهان

جزئیات کامل پژوهش: goo.gle/4qX60dC


---

#هوش_مصنوعی #دیپ_مایند #بینایی_ماشین #یادگیری_عمیق #AI #ML #کامپیوتر_ویژن #DeepMind #GoogleAI
1👍1🔥1
🚀 یک موتور قدرتمند برای مدل‌های چندمودالی (Multimodal Models)

اگر با مدل‌های ترکیبی متن–تصویر–ویدیو کار می‌کنید، LMMs-Engine یکی از بهترین فریم‌ورک‌های جدید است.
این موتور فوق‌سبک و بسیار انعطاف‌پذیر، مخصوص آموزش و توسعه‌ی مدل‌های چندمودالی طراحی شده و حتی در مقیاس‌های بزرگ هم کارایی بسیار بالایی دارد.

💡 ویژگی‌های برجسته:

🔥 پشتیبانی از ۱۹+ معماری مختلف برای متن، تصویر، ویدیو و مدل‌های ترکیبی

⚙️ بهینه‌سازی برای آموزش توزیع‌شده با مصرف حافظه بسیار کم

🧩 شامل ده‌ها نمونه آماده اجرا برای شروع سریع با مدل‌های مختلف

مناسب برای پژوهشگران، توسعه‌دهندگان و کسانی که به دنبال ساخت LMM اختصاصی هستند


📌 گیت‌هاب:
https://github.com/EvolvingLMMs-Lab/lmms-engine


---

#AI #ML #Multimodal #LMM #DeepLearning #OpenSource #MachineLearning #AIDev #NeuralNetworks
@rss_ai_ir
😁19🔥1712🥰12🎉12👍10👏10🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 مجموعه Anthropic آزمایش کرد که آیا Claude می‌تواند به یک ربات‌سگ آموزش بدهد یا نه

در پروژه‌ای به نام Project Fetch، شرکت Anthropic بررسی کرد که آیا مدل Claude می‌تواند به انسان‌ها در آموزش ربات چهارپای Boston Dynamics Spot کمک کند یا خیر.

در این آزمایش:
دو تیم از کارکنانی که هیچ تجربه‌ای در رباتیک نداشتند، باید Spot را طوری برنامه‌ریزی می‌کردند که یک توپ ساحلی را پیدا کند و بیاورد — آن هم در سه مرحله با سختیِ افزایشی.

🔹 تیم اول با کمک Claude
🔹 تیم دوم بدون هیچ مدل هوش مصنوعی

🧠 نتیجه چه بود؟

✔️ تیم مجهز به Claude دو برابر سریع‌تر پیش رفت
✔️ وظایف بیشتری را تکمیل کرد
✔️ احساس اعتمادبه‌نفس بیشتری داشت
✔️ حتی توانست کنترل ربات را با زبان طبیعی امتحان کند
✔️ البته دوبار هم خراب کردند:
— سرعت حرکت ربات را اشتباه محاسبه کردند
— الگوریتم تشخیص توپ را اشتباه نوشتند

در مقابل، تیم بدون Claude:
بیشتر دچار استرس، سردرگمی و اشتباهات انسانی شد
مجبور بودند دائم از یکدیگر سؤال بپرسند
روندشان کندتر و ناهموارتر بود

🎯 جمع‌بندی

همچنین Project Fetch اولین تلاش Anthropic برای بررسی تأثیر مدل‌های زبانی در پروژه‌های واقعی R&D است.
نتایج نشان می‌دهد:
هوش مصنوعی سرعت و کارایی را چند برابر می‌کند، اما نظارت انسانی همچنان ضروری است.

🔜 گزارش کامل و ویدئوی مستند آن به‌زودی در وب‌سایت Anthropic منتشر می‌شود.


https://www.anthropic.com/research/project-fetch-robot-dog
---

@rss_ai_ir

#هوش_مصنوعی #Claude #Anthropic #رباتیک #BostonDynamics #AI #ML #Robotics #Spot #ProjectFetch #RND #TechNews
👍18🥰17🎉17👏15😁1511🔥11🙏2
🚀 مدل Holo2 نسل تازه‌ای از مدل‌های چندرسانه‌ای است که برای فهم رابط‌کاربری، ناوبری و استدلال در وب، دسکتاپ و موبایل طراحی شده است.

📈 نتایج چشمگیر در بنچمارک‌ها Holo2 رکوردهای جدیدی ثبت کرده است:

🟩 امتیاز 66.1% در ScreenSpot-Pro (افزایش +۳٪)

🟩 امتیاز 76.1% در OSWorld-G (افزایش +۵٪)
این مدل بسیاری از رقبا را پشت سر گذاشته و تبدیل به یکی از بهترین گزینه‌ها برای UI-grounding شده است.


🧠 معماری مدل

مبتنی بر Qwen3-VL

درک بسیار قوی از رابط‌کاربری و ناوبری دقیق

مناسب برای توسعه عامل‌های هوشمند UI در نرم‌افزارها


🌐 قابل اجرا روی: مرورگر، Ubuntu و Android

🔀 همچنین Mixture of Experts نسخه‌ی پرچم‌دار 30B-A3B فقط با فعال‌سازی ۳ میلیارد پارامتر در هر مرحله عملکردی در سطح مدل 30B ارائه می‌دهد اما با هزینه محاسبات کمتر.

🤖 مدل از reasoning-token ها برای بهبود دقت تصمیم‌گیری بهره می‌برد و با Surfer 2 و ReAct کاملاً سازگار است.

⚙️ شیوه اجرا
سازگار با vLLM و تمام فریم‌ورک‌های هماهنگ با Qwen3-VL

📜 لایسنس‌ها

نسخه‌های 4B و 8B → تحت Apache-2

نسخه 30B-A3B → فقط استفاده غیرتجاری


🔗 لینک‌ها:
🌐 Blog: hcompany.ai/blog/holo2
🍳 Cookbook: github.com/hcompai/hai-cookbook/blob/main/holo2/holo_2_localization_huggingface.ipynb
🤗 HuggingFace: huggingface.co/collections/Hcompany/holo2

@rss_ai_ir

#هوش_مصنوعی #مدل_چندرسانه‌ای #عامل_هوشمند #Qwen #Holo2 #AI #LLM #ML #رابط_کاربری #ui_grounding #qwen3_vl #vllm #surfer2 #react_ai
🥰10👍6🔥54👏3😁2🎉2
🌟 فریم‌ورک جدید RL برای آموزش مدل‌های MoE از تیمی که Chatbot Arena را ساخته است

فریم‌ورک Miles توسط گروه LMSYS ORG معرفی شد؛ همان تیمی که پروژهٔ معروف slime را ساخته بود. اگر توسعه‌های اپن‌سورس را دنبال می‌کنید، می‌دانید slime یک ابزار فوق‌سبک برای پست‌تریـن است—و حتی برای GLM-4.6 هم استفاده شد.

همچنین Miles همان مسیر را ادامه می‌دهد، اما این بار با تمرکز بر آموزش مقیاس‌بالا برای معماری‌های MoE و پشتیبانی از بارهای سنگین در محیط‌های سازمانی.

⚙️ نکات فنی
• معماری بر پایهٔ True On-Policy؛ یعنی صفر شدن فاصلهٔ رفتاری بین مدل در حالت آموزش و حالت اجرا
• استفاده از Flash Attention 3، کتابخانه DeepGEMM و هسته‌های Thinking Machines Lab در کنار torch.compile
• پشتیبانی از Speculative Decoding همراه با آموزش آنلاین مدل پیش‌نویس—رویکردی که باعث می‌شود مدل draft دقیقاً با سیاست مدل اصلی حرکت کند
• افزایش سرعت تولید متن تا ۲۵٪ در مراحل پایانی آموزش

🧩 پایداری سیستم
• جلوگیری از کرش‌های غیرضروری OOM؛ اهمیت ویژه برای محیط‌های سازمانی که «هر گیگابایت یعنی هزینه»
• اصلاح مشکلات مصرف حافظه در FSDP
• وعدهٔ پشتیبانی از آموزش چندمُدی، سازگاری با SGLang v2 و نسخهٔ پیشرفته‌تر Speculative Decoding

📄 مقاله
🖥️ GitHub

@rss_ai_ir
#AI #ML #RL #MoE #LMSYS #Miles
🌟 LLM Council:
وقتی یک «شورای مدل‌های زبانی» به جای یک مدل به شما جواب می‌دهد!

آندری کارپاتی دوباره برگشته و این‌بار با یک پروژه جالب به نام LLM Council — ایده‌ای که پاسخ‌دهی را از سطح یک مدل، به سطح شورای مشورتی از مدل‌های هوش مصنوعی ارتقا می‌دهد.

ایده ساده اما قدرتمند است:
به‌جای این‌که سؤال شما فقط توسط یک مدل پاسخ داده شود، مجموعه‌ای از مدل‌ها پاسخ می‌دهند، یکدیگر را نقد می‌کنند و در نهایت یک مدل به‌عنوان «رئیس شورا» پاسخ نهایی را می‌سازد.

🔹 روند کار چگونه است؟

🟢 مرحله ۱: جمع‌آوری نظرها
سؤال شما از طریق OpenRouter برای چندین مدل به‌صورت جداگانه ارسال می‌شود.
هر مدل یک پاسخ مستقل تولید می‌کند و پاسخ‌ها در تب‌های مجزا قابل مشاهده‌اند.

🟢 مرحله ۲: ریتینگ و نقد علمی
هر مدل پاسخ‌های سایر مدل‌ها را بررسی و به‌صورت ناشناس ارزیابی می‌کند تا سوگیری ایجاد نشود.
مدل‌ها پاسخ‌ها را از نظر دقت و عمق تحلیل رتبه‌بندی می‌کنند.

🟢 مرحله ۳: خروجی نهایی
یک «مدل رئیس شورا» همه نتایج را دریافت کرده و آن‌ها را در قالب یک پاسخ واحد، دقیق و ترکیبی ارائه می‌دهد.


---

⚠️ برای استفاده از این سیستم نیاز به کلید API OpenRouter دارید.
مزیت خوبش این است که چند مدل رایگان هم در OpenRouter وجود دارد.

📌 Github:
https://github.com/karpathy/llm-council
@rss_ai_ir
---
🔖 هشتگ‌ها
#هوش_مصنوعی #مدل_زبانی #LLMCouncil #OpenRouter #AI #ML #کارپاتی #Github #LLM #هوش_تولیدی
👍21👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🧪 معرفی EfficientSAM3 – نسل تازه مدل‌های سبک و قدرتمند در سگمنتیشن

دانشگاه بریستول خانواده‌ی EfficientSAM3 را معرفی کرده است؛ مجموعه‌ای از مدل‌های سبک و پرسرعت که با روش نوآورانه‌ی Progressive Hierarchical Distillation (PHD) آموزش دیده‌اند.
در این روش، توانایی‌های مدل بزرگ SAM3 به مدل‌های کوچک‌تر منتقل می‌شود؛ نتیجه‌ی آن:
🔹 دقت بالا
🔹 سرعت بیشتر
🔹 مناسب برای دستگاه‌های کم‌قدرت و کاربردهای صنعتی

کد پروژه هم‌زمان با انتشار رسمی SAM3 در راه است.


🔗 Paper: arxiv.org/pdf/2511.15833
🔗 Project: simonzeng7108.github.io/efficientsam3/
🔗 Repo: github.com/SimonZeng7108/efficientsam3

@rss_ai_ir
---

#هوش_مصنوعی #سگمنتیشن #ComputerVision
#EfficientSAM3 #SAM3 #دیپ_لرنینگ
#AI #ML #VisionModels #PHD
#مدل_سبک #مدل_کارا #پردازش_تصویر
🙏21🕊1
سینتتیک‌-دیتا که بهتر از داده‌های واقعی آموزش می‌دهد!

پژوهشگران MIT یک نتیجه عجیب اما فوق‌العاده مهم منتشر کرده‌اند:
گاهی چند تصویر کاملاً مصنوعی می‌توانند linear probe‌ ها را بهتر از هزاران تصویر واقعی آموزش دهند.

ایده با روش تازه‌ای به‌نام Linear Gradient Matching (LGM) اجرا شده است. روش کار چنین است:

1️⃣ مدل بینایی بزرگ (مثل DINO یا CLIP) را فریز می‌کنند.
2️⃣ بررسی می‌کنند که این مدل روی تصاویر واقعی چه گرادیان‌هایی تولید می‌کند.
3️⃣ مجموعه‌ای از تصاویر سینتتیک تولید می‌کنند که دقیقاً همین گرادیان‌ها را بازتولید کنند.
4️⃣ یک linear classifier روی این تصاویر آموزش می‌دهند — و نتیجه شگفت‌انگیز است:
عملکرد بهتر از آموزش روی داده‌های واقعی!

🔍 چرا این مهم است؟
• سازگار میان مدل‌هاست: سینتتیک‌دیتا تولیدشده برای DINO در CLIP هم به‌خوبی کار می‌کند.
• مخصوصاً روی classification‌ های ظریف عملکرد فوق‌العاده دارد.
• کمک می‌کند بفهمیم مدل واقعاً دنبال چه ویژگی‌هایی می‌گردد — کلاسترها، همبستگی‌های انحرافی، ساختار embedding-space و …

این یافته، تعریف «داده خوب» را عوض می‌کند.
🟩 گذشته: «برای آموزش باید میلیون‌ها تصویر جمع کنیم.»
🟩 اکنون: «کافی است چند تصویر درست و هدفمند بسازیم.»

@rss_ai_ir

لینک مقاله:
arxiv.org/abs/2511.16674
---
🏷 هشتگ‌ها
#داده #دیتاسینتتیک #هوش_مصنوعی #بینایی_ماشین #ML #CLIP #DINO #LGM #DeepLearning #AI
👍21👏1
This media is not supported in your browser
VIEW IN TELEGRAM
STARFlow-V:
نسل تازه مدل‌های ویدئو با Normalizing Flow
@rss_ai_ir 🎥

مدل STARFlow-V یک مدل کاملاً End-to-End برای تولید ویدئو است که بر پایه‌ی Normalizing Flow ساخته شده — رویکردی که معمولاً کمتر در ویدئو استفاده می‌شود، اما حالا نتایج فوق‌العاده‌ای نشان داده است.

🔹 کیفیت بصری بالا + پیوستگی زمانی عالی
🔹 پیش‌بینی علّی (causal prediction) پایدار
🔹 معماری Global–Local Latent
🔹 استفاده از Flow-Score Matching
🔹 قدمی مهم برای ورود Flow Models به دنیای Video Gen

📄 Paper: arxiv.org/abs/2511.20462
🌐 Project: starflow-v.github.io
💻 Code: github.com/apple/ml-starflow

#VideoGeneration #NormalizingFlow #GenerativeAI #DeepLearning #ML @rss_ai_ir
🥰1
🔥 مدل جدید Z-Image منتشر شد — نسل تازه‌ی مدل‌های سریع و سبک T2I

تیم Tongyi-MAI یک معماری تازه در حوزه text-to-image معرفی کرده که با وجود فقط ۶ میلیارد پارامتر، کیفیتی در حد مدل‌های سنگین‌تر ارائه می‌دهد.

ویژگی‌های کلیدی Z-Image:

🚀 سرعت خارق‌العاده: مدل دِیستیلی شده و تنها با ۸ مرحله (NFE) خروجی می‌سازد

کمتر از یک ثانیه تأخیر روی کارت‌های H800

🧩 اجرای محلی آسان: با فقط ۱۶GB VRAM روی 3090 / 4080 / 4090 قابل اجراست

🎨 فوتورئالیسم قوی، رعایت عالی دستورها و رندر دقیق متن روی تصویر


این مدل برای کسانی که سرعت، دقت و اجرای لوکال هم‌زمان می‌خواهند— یک گزینه‌ی جدی است.

🔗 دمو
https://modelscope.cn/aigc/imageGeneration

🔗 وِیت‌ها (Turbo)
https://modelscope.cn/models/Tongyi-MAI/Z-Image-Turbo

@rss_ai_ir

#AI #GenAI #Tongyi #TextToImage #Prompting #ML
5🔥2👏1
🔥 بهترین راهنمای فاین‌تیونینگ که امسال در arXiv می‌بینید!

اگر با مدل‌های زبانی کار می‌کنید—چه مبتدی باشید چه حرفه‌ای—این مقاله دقیقاً همان چیزی است که لازم دارید. یک راهنمای کامل، مرحله‌به‌مرحله و فوق‌العاده منظم برای تسلط بر Fine-Tuning مدرن.

📘 مباحثی که پوشش می‌دهد:

🧠 مبانی NLP (برای اینکه بدانید زیرساخت مدل چه می‌گوید)

⚙️ روش‌های PEFT / LoRA / QLoRA (تکنیک‌های سبک برای آموزش مدل‌های بزرگ روی GPUهای معمولی)

🔀اینکه Mixture of Experts (MoE) و نکات ریز مربوط به آموزش کارآمد

🧩 پایپلاین ۷ مرحله‌ای برای فاین‌تیونینگ حرفه‌ای

🎯 توصیه‌های عملی، چک‌لیست‌ها و اشتباهاتی که باید از آن‌ها دوری کرد


📄 منبع:
https://arxiv.org/pdf/2408.13296v1

#AI #ML #FineTuning #LoRA #QLoRA #MoE #NLP #DeepLearning #arXiv

@rss_ai_ir
👍2🔥1👏1
🤖 انفجار بی‌سروصدای انویدیا؛ مدل ۸ میلیارد پارامتری که از GPT-5 هم جلو زد!

دنیای هوش مصنوعی یک غافلگیری تازه تجربه کرده است. انویدیا quietly مدلی را معرفی کرده که نقش «مغزِ هماهنگ‌کننده» برای ابزارها و مدل‌های بزرگ‌تر را بازی می‌کند: Orchestrator-8B.

این مدل کوچک تصمیم می‌گیرد چه زمانی خودش پاسخ دهد و چه زمانی سراغ ابزارهایی مثل جستجو، کدنویسی، API یا مدل‌های بزرگ‌تر برود. نتیجه؟
عملکردی شگفت‌انگیز:

🔥 امتیاز ۳۷.۱٪ در Humanity’s Last Exam
(در حالی که GPT-5 تنها ۳۵.۱٪ گرفته!)

و همزمان ۲.۵ برابر سریع‌تر و ارزان‌تر.

🎛️ چگونه کار می‌کند؟

مدل روی دیتاست عظیمی به نام ToolScale آموزش دیده که شامل:

✳️درخواست کاربر

✳️قیمت هر ابزار

✳️بهترین ترتیب فراخوانی ابزارها


✳️مدل Orchestrator-8B یاد می‌گیرد همیشه انتخابی هوشمندانه و اقتصادی انجام دهد، نه این‌که همه چیز را با brute force حل کند.

📊 نتایج کلیدی

در بنچمارک‌هایی مثل HLE، FRAMES و tau²:

♻️عملکرد بهتر از GPT-5 مجهز به ابزارها

♻️عملکرد بهتر از Claude Opus 4.1

♻️عملکرد بهتر از Qwen3-235B

♻️استفاده کمتر از ابزارهای گران

♻️سازگاری بالا با ابزارها و قیمت‌های جدید


🔮 آینده چه می‌گوید؟

مسیر آینده AI Agents کاملاً واضح است:
عصر «ابزارمحور» به‌جای «مدل‌محور» آغاز شده.

https://huggingface.co/datasets/nvidia/ToolScale
---

#هوش_مصنوعی #NVIDIA #Orchestrator8B #ایجنت #مدل_زبانی #AI #ML
🔥31
مایسترال ۳ معرفی شد — نسل تازه‌ای از مدل‌های متن‌باز که روی هر سخت‌افزاری اجرا می‌شوند!

شرکت Mistral AI خانواده‌ی جدید مدل‌های هوش مصنوعی خود را منتشر کرد؛ مدل‌هایی که از لپ‌تاپ و موبایل تا سرورهای ابری و سیستم‌های Edge بدون محدودیت قابل استفاده‌اند.

تمام نسخه‌ها—چه Mistral Large 3 و چه مدل‌های سبک Ministral—با لایسنس Apache 2.0 ارائه شده‌اند، یعنی استفاده‌ی تجاری کاملاً آزاد است.

🔥 نکات مهم:

♻️اینکه Mistral Small 3 به امتیاز بیش از ۸۱٪ در MMLU رسیده؛ برای یک مدل کوچک عددی فوق‌العاده است.

♻️حال Mistral Medium 3.1 در LM Arena رتبه‌های برتر را کسب کرده:

♻️مقام اول در دسته English (بدون کنترل سبک)

♻️مقام دوم در رتبه‌بندی کلی

♻️حضور در جمع سه مدل برتر در کدنویسی و پردازش درخواست‌های طولانی


♻️نسخه Medium به حدود ۹۰٪ کیفیت مدل‌های سنگین می‌رسد، اما با مصرف سخت‌افزاری بسیار کمتر — یکی از بهترین نسبت‌های هزینه/کارایی در بازار فعلی.


📎 جزئیات بیشتر:
https://mistral.ai/news/mistral-3

@rss_ai_ir

#Mistral #هوش_مصنوعی #مدل_متن_باز #ML #AI #DeepLearning
👍1
📌 خبر : OpenAGI مدل جدید Lux را منتشر کرد؛ یک جهش جدی در «کامپیوتر‌یوز»
@rss_ai_ir

در دنیای ایجنت‌های کنترل‌کنندهٔ کامپیوتر، امروز یک اتفاق مهم افتاد:
استارتاپ OpenAGI مدل Lux را معرفی کرد؛ مدلی که طبق نتایج اولیه، از معادل‌های گوگل، OpenAI و Anthropic یک نسل جلوتر عمل می‌کند — آن هم با هزینه بسیار کمتر.

🔍 چرا Lux مهم است؟

⚡️ سرعت بالا: هر اکشن در حدود ۱ ثانیه اجرا می‌شود؛ درحالی‌که رقبا نزدیک ۳ ثانیه زمان نیاز دارند.

💸 هزینه بسیار پایین: پردازش هر توکن حدود ۱۰ برابر ارزان‌تر از سایر مدل‌های کامپیوتر‌یوز است.

🧠 معماری متفاوت: این مدل برخلاف ایجنت‌هایی که از یک LLM عمومی فاین‌تیون شده‌اند، از ابتدا برای انجام اکشن آموزش دیده و نه گفتگو. همین باعث برتری ساختاری آن شده است.

🎓 پشتوانه علمی: حضور پژوهشگران MIT در تیم توسعه، اعتبار نتایج را بالا برده است.

🛠 اوپن‌سورس کامل: تمام زیرساخت آموزشی Lux نیز باز شده تا توسعه‌دهندگان بتوانند نحوهٔ ساخت این مدل را بررسی و ارتقا دهند.


🚀 اگر کارایی Lux در استفادهٔ واقعی هم تأیید شود، این مدل می‌تواند نخستین نقطهٔ جدی تغییر از «LLMهای چندمنظوره» به سمت مدل‌های تخصصی برای انجام اکشن باشد — آینده‌ای که مدت‌ها انتظارش می‌رفت.

#هوش_مصنوعی #ایجنت #کامپیوتر_یوز #OpenAGI #Lux #مدل_اکشنی #AI #ML
👍2🔥1👏1
📘 ۱۰ موضوع ضروری برای تسلط بر یادگیری ماشین

💡 اگر قصد داری مسیر یادگیری ماشین را جدی دنبال کنی، دانستن این ده محور اصلی مثل داشتن نقشهٔ راه است. این موارد همان پایه‌هایی هستند که همهٔ متخصصان ML روی آن‌ها ایستاده‌اند:

1️⃣ مبانی یادگیری ماشین
درک تفاوت میان ML، هوش مصنوعی و یادگیری عمیق و جایگاه هرکدام در اکوسیستم تکنولوژی.

2️⃣ انواع یادگیری ماشین
نظارت‌شده، بدون‌نظارت و تقویتی — سه ستون اصلی که تمام الگوریتم‌ها روی آن‌ها بنا می‌شوند.

3️⃣ کاربردهای واقعی ML
از تشخیص بیماری و کشف تقلب تا خودروهای خودران و سیستم‌های پیشنهاددهنده.

4️⃣ جمع‌آوری و پاک‌سازی داده
حذف داده‌های ناقص، رفع تناقضات، حذف داده‌های تکراری — همان بخشی که ۷۰٪ زمان پروژه صرف آن می‌شود.

5️⃣ مهندسی ویژگی (Feature Engineering)
تبدیل دادهٔ خام به ویژگی‌های قابل فهم برای مدل — یکی از مهم‌ترین عوامل موفقیت.

6️⃣ پیش‌پردازش داده
نرمال‌سازی، استانداردسازی، کدگذاری دادهٔ دسته‌ای و تقسیم داده‌ها به train/test.

7️⃣ الگوریتم‌های یادگیری نظارت‌شده
رگرسیون خطی، KNN، SVM، Random Forest، XGBoost — ابزارهای اصلی برای طبقه‌بندی و رگرسیون.

8️⃣ شاخص‌های ارزیابی مدل
ملاک های Accuracy، Precision، Recall، F1، ROC-AUC — معیارهایی که کیفیت مدل را می‌سنجند.

9️⃣ بیش‌برازش و کم‌برازش
شناخت این‌که مدل بیش از حد یاد گرفته یا کم — و کنترل آن با تکنیک‌های منظم‌سازی.

🔟 اعتبارسنجی و استقرار مدل
سرویس K-Fold، Flask، Docker و سرویس‌های ابری مثل AWS و GCP — مسیر گذار از تحقیق به محصول واقعی.


---

@rss_ai_ir
#یادگیری_ماشین #هوش_مصنوعی #یادگیری_عمیق #علم_داده #ML #AI #MachineLearning
3🔥1👏1
🔥 نسخه Transformers v5 منتشر شد!

جامعهٔ هوش مصنوعی امروز شاهد یک جهش بزرگ بود. نسخهٔ جدید Transformers v5 از Hugging Face رسماً عرضه شد و حالا تبدیل به ستون اصلی اکوسیستم متن‌باز در مدل‌های بزرگ شده است.

📈 رشد اکوسیستم در چند سال اخیر واقعاً خیره‌کننده بوده:

📦 از ۲۰هزار به ۳ میلیون نصب روزانه

🧠 از ۴۰ معماری پشتیبانی‌شده به ۴۰۰+

🗃️ بیش از ۷۵۰هزار چک‌پوینت

🌍 بیش از ۱.۲ میلیارد نصب تجمعی


مهم‌ترین تغییرات نسخهٔ جدید:

♻️معماری کاملاً مبتنی بر PyTorch
♻️طراحی ماژولار و قابل‌گسترش
♻️رویکرد «quantization-first» برای کارایی بالاتر
♻️همچنین Transformers Serve سازگار با APIهای OpenAI


این نسخه آغاز یک مرحلهٔ تازه در آیندهٔ مدل‌های متن‌باز است.
https://huggingface.co/blog/transformers-v5

#Transformers #HuggingFace #AI #DeepLearning #ML #PyTorch #LLM 🚀
4👍2👏1