This media is not supported in your browser
VIEW IN TELEGRAM
🌟 نانوبانانا در ساخت اسلاید عالیه، اما اگر بخواهیم از اسلایدها ویدئو بسازیم چه؟ 🎬
در اکوسیستم گوگل، این کار حالا فوقالعاده ساده شده است. Google Vids بههمراه Gemini میتواند یک ارائهٔ Google Slides را به یک ویدئوی کامل تبدیل کند — آن هم بهطور خودکار.
در این فرآیند چه اتفاقی میافتد؟
✨ اسکریپت نوشته میشود
✨ صداگذاری انجام میشود
✨ موسیقی اضافه میشود
✨ ویدئو بر اساس سبک انتخابی شما ساخته میشود
کافیست فایل ارائهٔ خود را آپلود کنید، یک سبک انتخاب کنید، و بقیه را سیستم انجام میدهد. این یعنی تبدیل ارائههای خشک به محتوای ویدئویی حرفهای — بدون دردسر تدوین.
🔗 منبع:
https://workspace.google.com/blog/product-announcements/october-workspace-drop-ai-storytelling-research-and-data-protections
@rss_ai_ir
#Gemini #گوگل #ویدئو #هوش_مصنوعی #LLM
در اکوسیستم گوگل، این کار حالا فوقالعاده ساده شده است. Google Vids بههمراه Gemini میتواند یک ارائهٔ Google Slides را به یک ویدئوی کامل تبدیل کند — آن هم بهطور خودکار.
در این فرآیند چه اتفاقی میافتد؟
✨ اسکریپت نوشته میشود
✨ صداگذاری انجام میشود
✨ موسیقی اضافه میشود
✨ ویدئو بر اساس سبک انتخابی شما ساخته میشود
کافیست فایل ارائهٔ خود را آپلود کنید، یک سبک انتخاب کنید، و بقیه را سیستم انجام میدهد. این یعنی تبدیل ارائههای خشک به محتوای ویدئویی حرفهای — بدون دردسر تدوین.
🔗 منبع:
https://workspace.google.com/blog/product-announcements/october-workspace-drop-ai-storytelling-research-and-data-protections
@rss_ai_ir
#Gemini #گوگل #ویدئو #هوش_مصنوعی #LLM
👍3🙏2🔥1
📘 خبر: «FrontierMath» مجموعهای از سختترین مسائل ریاضیِ حال حاضر است؛ دقیقا همان جایی که مدلهای بزرگ هوش مصنوعی مجبور میشوند توان واقعیِ استدلال و قدرت حل مسئلهٔ خود را نشان دهند.
📊 در تازهترین نتایج، Gemini 3.0 Pro رکورد جدیدی ثبت کرده و حتی از GPT-5 نیز پیشی گرفته است. این عملکرد نشان میدهد موج انتظارات از نسل سوم Gemini کاملا منطقی بوده و مدل توانسته است از پسِ چالشهای سطح Frontier بهخوبی برآید.
🤔 حالا نگاهها به سمت OpenAI است؛ باید دید پاسخ بعدی آنها در رقابت مدلهای استدلالی چه خواهد بود و چه نسخهای برای حفظ برتری ارائه میکنند.
@rss_ai_ir
#هوش_مصنوعی ⚡️ #ریاضیات #Gemini3 #LLM
📊 در تازهترین نتایج، Gemini 3.0 Pro رکورد جدیدی ثبت کرده و حتی از GPT-5 نیز پیشی گرفته است. این عملکرد نشان میدهد موج انتظارات از نسل سوم Gemini کاملا منطقی بوده و مدل توانسته است از پسِ چالشهای سطح Frontier بهخوبی برآید.
🤔 حالا نگاهها به سمت OpenAI است؛ باید دید پاسخ بعدی آنها در رقابت مدلهای استدلالی چه خواهد بود و چه نسخهای برای حفظ برتری ارائه میکنند.
@rss_ai_ir
#هوش_مصنوعی ⚡️ #ریاضیات #Gemini3 #LLM
🔥2👏1😁1
🌟 LLM Council:
وقتی یک «شورای مدلهای زبانی» به جای یک مدل به شما جواب میدهد!
آندری کارپاتی دوباره برگشته و اینبار با یک پروژه جالب به نام LLM Council — ایدهای که پاسخدهی را از سطح یک مدل، به سطح شورای مشورتی از مدلهای هوش مصنوعی ارتقا میدهد.
ایده ساده اما قدرتمند است:
بهجای اینکه سؤال شما فقط توسط یک مدل پاسخ داده شود، مجموعهای از مدلها پاسخ میدهند، یکدیگر را نقد میکنند و در نهایت یک مدل بهعنوان «رئیس شورا» پاسخ نهایی را میسازد.
🔹 روند کار چگونه است؟
🟢 مرحله ۱: جمعآوری نظرها
سؤال شما از طریق OpenRouter برای چندین مدل بهصورت جداگانه ارسال میشود.
هر مدل یک پاسخ مستقل تولید میکند و پاسخها در تبهای مجزا قابل مشاهدهاند.
🟢 مرحله ۲: ریتینگ و نقد علمی
هر مدل پاسخهای سایر مدلها را بررسی و بهصورت ناشناس ارزیابی میکند تا سوگیری ایجاد نشود.
مدلها پاسخها را از نظر دقت و عمق تحلیل رتبهبندی میکنند.
🟢 مرحله ۳: خروجی نهایی
یک «مدل رئیس شورا» همه نتایج را دریافت کرده و آنها را در قالب یک پاسخ واحد، دقیق و ترکیبی ارائه میدهد.
---
⚠️ برای استفاده از این سیستم نیاز به کلید API OpenRouter دارید.
مزیت خوبش این است که چند مدل رایگان هم در OpenRouter وجود دارد.
📌 Github:
https://github.com/karpathy/llm-council
@rss_ai_ir
---
🔖 هشتگها
#هوش_مصنوعی #مدل_زبانی #LLMCouncil #OpenRouter #AI #ML #کارپاتی #Github #LLM #هوش_تولیدی
وقتی یک «شورای مدلهای زبانی» به جای یک مدل به شما جواب میدهد!
آندری کارپاتی دوباره برگشته و اینبار با یک پروژه جالب به نام LLM Council — ایدهای که پاسخدهی را از سطح یک مدل، به سطح شورای مشورتی از مدلهای هوش مصنوعی ارتقا میدهد.
ایده ساده اما قدرتمند است:
بهجای اینکه سؤال شما فقط توسط یک مدل پاسخ داده شود، مجموعهای از مدلها پاسخ میدهند، یکدیگر را نقد میکنند و در نهایت یک مدل بهعنوان «رئیس شورا» پاسخ نهایی را میسازد.
🔹 روند کار چگونه است؟
🟢 مرحله ۱: جمعآوری نظرها
سؤال شما از طریق OpenRouter برای چندین مدل بهصورت جداگانه ارسال میشود.
هر مدل یک پاسخ مستقل تولید میکند و پاسخها در تبهای مجزا قابل مشاهدهاند.
🟢 مرحله ۲: ریتینگ و نقد علمی
هر مدل پاسخهای سایر مدلها را بررسی و بهصورت ناشناس ارزیابی میکند تا سوگیری ایجاد نشود.
مدلها پاسخها را از نظر دقت و عمق تحلیل رتبهبندی میکنند.
🟢 مرحله ۳: خروجی نهایی
یک «مدل رئیس شورا» همه نتایج را دریافت کرده و آنها را در قالب یک پاسخ واحد، دقیق و ترکیبی ارائه میدهد.
---
⚠️ برای استفاده از این سیستم نیاز به کلید API OpenRouter دارید.
مزیت خوبش این است که چند مدل رایگان هم در OpenRouter وجود دارد.
📌 Github:
https://github.com/karpathy/llm-council
@rss_ai_ir
---
🔖 هشتگها
#هوش_مصنوعی #مدل_زبانی #LLMCouncil #OpenRouter #AI #ML #کارپاتی #Github #LLM #هوش_تولیدی
👍2❤1👏1
🤖 سه الگوی طلایی برای ساخت ایجنتهای هوش مصنوعی
اگر در دنیای ایجنتها کار میکنی، شناخت این سه الگوی متداول میتواند مسیر توسعه را چند برابر سریعتر و هوشمندانهتر کند.
---
🔹 الگوی بازتاب (Reflection)
در این روش ابتدا ورودی به ایجنت داده میشود؛ ایجنت پاسخ میدهد؛ سپس با دریافت بازخورد، پاسخ خود را اصلاح و بهبود میکند.
این چرخه تا رسیدن به کیفیت مطلوب ادامه مییابد.
🛠 ابزارهای مناسب:
• مدل پایه (مثل GPT-4o)
• مدل فاینتیونشده برای ارائه بازخورد
• اتوماسیون با n8n برای پیادهسازی چرخه بازتاب
---
🔹 الگوی مبتنی بر بازیابی دانش (RAG)
در این الگو، ایجنت هنگام انجام یک وظیفه میتواند از یک پایگاه دانش خارجی پرسوجو کند؛
بنابراین پاسخها دقیقتر، مستندتر و قابل استناد خواهند بود.
🛠 ابزارهای مناسب:
• پایگاه (Vector DB مثل Pinecone)
• ابزارهای UI برای ساخت سریع RAG مثل Aidbase
• ابزارهای API محور مثل SourceSync که بهتازگی محبوب شدهاند
---
🔹 الگوی جریانکاری هوشمند (AI Workflow)
در این روش، یک فلو یا اتوماسیون سنتی ایجاد میشود، اما برخی از مراحل توسط هوش مصنوعی انجام میگیرد: تحلیل، تولید متن، تصمیمگیری و…
🛠 ابزارهای مناسب:
• پلتفرم n8n برای مدیریت کل جریان
• مدلهای هوش مصنوعی از طریق API (Claude، GPT-4o و…)
---
✨ تسلط بر این سه الگو یعنی تسلط بر ۸۰٪ معماری ایجنتها.
اگر بتوانی این سه ساختار را خوب درک و ترکیب کنی، تقریباً هر نوع ایجنت کاربردی را میتوانی بسازی — از اتوماسیونهای ساده تا سیستمهای پیچیده تصمیمساز.
@rss_ai_ir
#AI #Agents #Workflow #Reflection #RAG #هوش_مصنوعی #اتوماسیون #مهندسی_ایجنت #n8n #Pinecone #GPT #Claude #LLM #python #MachineLearning
اگر در دنیای ایجنتها کار میکنی، شناخت این سه الگوی متداول میتواند مسیر توسعه را چند برابر سریعتر و هوشمندانهتر کند.
---
🔹 الگوی بازتاب (Reflection)
در این روش ابتدا ورودی به ایجنت داده میشود؛ ایجنت پاسخ میدهد؛ سپس با دریافت بازخورد، پاسخ خود را اصلاح و بهبود میکند.
این چرخه تا رسیدن به کیفیت مطلوب ادامه مییابد.
🛠 ابزارهای مناسب:
• مدل پایه (مثل GPT-4o)
• مدل فاینتیونشده برای ارائه بازخورد
• اتوماسیون با n8n برای پیادهسازی چرخه بازتاب
---
🔹 الگوی مبتنی بر بازیابی دانش (RAG)
در این الگو، ایجنت هنگام انجام یک وظیفه میتواند از یک پایگاه دانش خارجی پرسوجو کند؛
بنابراین پاسخها دقیقتر، مستندتر و قابل استناد خواهند بود.
🛠 ابزارهای مناسب:
• پایگاه (Vector DB مثل Pinecone)
• ابزارهای UI برای ساخت سریع RAG مثل Aidbase
• ابزارهای API محور مثل SourceSync که بهتازگی محبوب شدهاند
---
🔹 الگوی جریانکاری هوشمند (AI Workflow)
در این روش، یک فلو یا اتوماسیون سنتی ایجاد میشود، اما برخی از مراحل توسط هوش مصنوعی انجام میگیرد: تحلیل، تولید متن، تصمیمگیری و…
🛠 ابزارهای مناسب:
• پلتفرم n8n برای مدیریت کل جریان
• مدلهای هوش مصنوعی از طریق API (Claude، GPT-4o و…)
---
✨ تسلط بر این سه الگو یعنی تسلط بر ۸۰٪ معماری ایجنتها.
اگر بتوانی این سه ساختار را خوب درک و ترکیب کنی، تقریباً هر نوع ایجنت کاربردی را میتوانی بسازی — از اتوماسیونهای ساده تا سیستمهای پیچیده تصمیمساز.
@rss_ai_ir
#AI #Agents #Workflow #Reflection #RAG #هوش_مصنوعی #اتوماسیون #مهندسی_ایجنت #n8n #Pinecone #GPT #Claude #LLM #python #MachineLearning
❤2🔥1👏1
🔥 عملکرد شگفتانگیز Gemini 3 Pro در آزمونهای هوش
✅مدل Gemini 3 Pro در تازهترین ارزیابیهای IQ توانسته به امتیاز ۱۳۰ برسد؛
سطحی که آن را در میان ۲٪ افراد با بالاترین بهره هوشی قرار میدهد.
✅در آزمون رسمی شعبه نروژ «منسا» نیز امتیاز معادل ۱۴۲ ثبت شده است؛
شاخصی که معمولاً تنها ۰٫۳٪ از باهوشترین انسانها قادر به دستیابی به آن هستند.
✅این نتایج نشان میدهد که مدلهای نسل جدید نهتنها در تحلیل و استدلال منطقی جهش کردهاند، بلکه از بسیاری از معیارهای انسانی نیز فراتر میروند.
@rss_ai_ir
---
🏷 هشتگها
#هوش_مصنوعی #Gemini #گوگل #مدل_های_زبانی #LLM #دیپ_مایند #AI #TechNews
✅مدل Gemini 3 Pro در تازهترین ارزیابیهای IQ توانسته به امتیاز ۱۳۰ برسد؛
سطحی که آن را در میان ۲٪ افراد با بالاترین بهره هوشی قرار میدهد.
✅در آزمون رسمی شعبه نروژ «منسا» نیز امتیاز معادل ۱۴۲ ثبت شده است؛
شاخصی که معمولاً تنها ۰٫۳٪ از باهوشترین انسانها قادر به دستیابی به آن هستند.
✅این نتایج نشان میدهد که مدلهای نسل جدید نهتنها در تحلیل و استدلال منطقی جهش کردهاند، بلکه از بسیاری از معیارهای انسانی نیز فراتر میروند.
@rss_ai_ir
---
🏷 هشتگها
#هوش_مصنوعی #Gemini #گوگل #مدل_های_زبانی #LLM #دیپ_مایند #AI #TechNews
❤4👏3🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
✨ توانایی شگفتانگیز در تبدیل هر ویدئوی یوتیوب به اینفوگرافیک با Nano Banana Pro در Gemini
امکان تازهای فراهم شده که هر ویدئوی آموزشی، تحلیلی یا خبری در یوتیوب را تنها با یک لینک، به یک اینفوگرافیک کامل و دقیق تبدیل کنید. کافیست:
1️⃣ لینک ویدئو را کپی کنید
2️⃣ در Gemini جایگذاری کنید
3️⃣ از مدل بخواهید محتوای ویدئو را تحلیل کند (Gemini فقط با URL به ویدئو دسترسی دارد)
4️⃣ در مرحله بعد درخواست تولید اینفوگرافیک بدهید
🔹 پرامپت پیشنهادی:
نتیجه معمولاً یک تحلیل تصویری دقیق، سازمانیافته و کاملاً قابل استفاده برای آموزش، ارائه و تولید محتواست.
@rss_ai_ir
---
🏷 هشتگها
#هوش_مصنوعی #Gemini #NanoBananaPro #اینفوگرافیک #تولید_محتوا #AI #LLM #گوگل
امکان تازهای فراهم شده که هر ویدئوی آموزشی، تحلیلی یا خبری در یوتیوب را تنها با یک لینک، به یک اینفوگرافیک کامل و دقیق تبدیل کنید. کافیست:
1️⃣ لینک ویدئو را کپی کنید
2️⃣ در Gemini جایگذاری کنید
3️⃣ از مدل بخواهید محتوای ویدئو را تحلیل کند (Gemini فقط با URL به ویدئو دسترسی دارد)
4️⃣ در مرحله بعد درخواست تولید اینفوگرافیک بدهید
🔹 پرامپت پیشنهادی:
"Generate an image of an infographic explaining the concept presented in the video."
نتیجه معمولاً یک تحلیل تصویری دقیق، سازمانیافته و کاملاً قابل استفاده برای آموزش، ارائه و تولید محتواست.
@rss_ai_ir
---
🏷 هشتگها
#هوش_مصنوعی #Gemini #NanoBananaPro #اینفوگرافیک #تولید_محتوا #AI #LLM #گوگل
👍2🔥2👏2
🍌 هفتهای پر از خبرهای داغ در مدلهای تصویرسازی
بهنظر میرسد طوفان «نانو بانانا پرو» باعث شده رقبا بلافاصله برای پاسخدادن وارد میدان شوند.
شنیدهها میگویند نسخهٔ جدید Qwen-image-edit 2511 همین هفته منتشر میشود و احتمالاً چند ارتقای جدی همراه دارد:
✨ مهمترین موضوع، لایهبندی بینهایت (Infinite Layer Decomposition) است.
یعنی مدل فقط سه لایهٔ معمول ــ پیشزمینه، سوژه و پسزمینه ــ را نمیسازد، بلکه تصویر را به تعداد زیادی لایهٔ ریزتر تجزیه میکند.
این یعنی کنترل بسیار دقیقتر، ویرایشهای پیشرفتهتر و دستکاری خلاقانهتر.
🔧 البته احتمال دارد این ویژگی چیزی شبیه سگمنتیشن چندمرحلهای مثل آنچه در ReVe دیدهایم باشد… اما تا زمان انتشار نمیتوان قطعی گفت.
🔥 از طرف دیگر، Flux هم مدتهاست در سکوت نیست.
تصاویر مرموزی که در توییتر منتشر شده بود احتمالاً مربوط به Flux 2 است، و حتی مدل krazy-kangaroo در LMArena به همین نسخه نسبت داده میشود.
🌊 پروژهٔ Seedream هم در حال حرکت است، هرچند تاریخ عرضهٔ نسخهٔ بعدی مبهم مانده.
بههرحال هفتهای آرام پیش رو نداریم.
@rss_ai_ir 🤖✨
---
🏷 هشتگها
#مدل_تولید_تصویر #Qwen #Flux #بانانا #ویرایش_تصویر #هوش_مصنوعی #LLM #AI #تولید_محتوا
بهنظر میرسد طوفان «نانو بانانا پرو» باعث شده رقبا بلافاصله برای پاسخدادن وارد میدان شوند.
شنیدهها میگویند نسخهٔ جدید Qwen-image-edit 2511 همین هفته منتشر میشود و احتمالاً چند ارتقای جدی همراه دارد:
✨ مهمترین موضوع، لایهبندی بینهایت (Infinite Layer Decomposition) است.
یعنی مدل فقط سه لایهٔ معمول ــ پیشزمینه، سوژه و پسزمینه ــ را نمیسازد، بلکه تصویر را به تعداد زیادی لایهٔ ریزتر تجزیه میکند.
این یعنی کنترل بسیار دقیقتر، ویرایشهای پیشرفتهتر و دستکاری خلاقانهتر.
🔧 البته احتمال دارد این ویژگی چیزی شبیه سگمنتیشن چندمرحلهای مثل آنچه در ReVe دیدهایم باشد… اما تا زمان انتشار نمیتوان قطعی گفت.
🔥 از طرف دیگر، Flux هم مدتهاست در سکوت نیست.
تصاویر مرموزی که در توییتر منتشر شده بود احتمالاً مربوط به Flux 2 است، و حتی مدل krazy-kangaroo در LMArena به همین نسخه نسبت داده میشود.
🌊 پروژهٔ Seedream هم در حال حرکت است، هرچند تاریخ عرضهٔ نسخهٔ بعدی مبهم مانده.
بههرحال هفتهای آرام پیش رو نداریم.
@rss_ai_ir 🤖✨
---
🏷 هشتگها
#مدل_تولید_تصویر #Qwen #Flux #بانانا #ویرایش_تصویر #هوش_مصنوعی #LLM #AI #تولید_محتوا
❤4👍1🔥1
🚀 نسخهٔ جدید Claude Opus 4.5 منتشر شد
مدل تازهٔ Anthropic با جهشی چشمگیر معرفی شده و طبق نتایج رسمی، Claude Opus 4.5 اکنون در بسیاری از بنچمارکها از Gemini 3 Pro جلوتر است.
این نسخه سرعت بالاتر، دقت بیشتر و توانایی بهتر در تحلیل مسائل پیچیده را ارائه میدهد.
بخش مهم دیگر این آپدیت:
💻 همچنین Claude Code اکنون در نسخهٔ دسکتاپ نیز دردسترس قرار گرفته
و این یعنی برنامهنویسان میتوانند بهصورت یکپارچه از قابلیتهای کدنویسی خودکار، رفع خطا و معماریسازی پروژهها در محیط یک برنامهٔ مستقل استفاده کنند.
اینکه Anthropic با این نسخه عملاً نشان میدهد رقابت در لبهٔ تکنولوژی هوش مصنوعی هر روز فشردهتر میشود.
🔗 لینک رسمی:
https://www.anthropic.com/news/claude-opus-4-5
@rss_ai_ir ⚡️
🏷 هشتگها
#Claude #Opus45 #هوش_مصنوعی #anthropic #مدل_زبانی #اخبار_فناوری #AI #LLM
مدل تازهٔ Anthropic با جهشی چشمگیر معرفی شده و طبق نتایج رسمی، Claude Opus 4.5 اکنون در بسیاری از بنچمارکها از Gemini 3 Pro جلوتر است.
این نسخه سرعت بالاتر، دقت بیشتر و توانایی بهتر در تحلیل مسائل پیچیده را ارائه میدهد.
بخش مهم دیگر این آپدیت:
💻 همچنین Claude Code اکنون در نسخهٔ دسکتاپ نیز دردسترس قرار گرفته
و این یعنی برنامهنویسان میتوانند بهصورت یکپارچه از قابلیتهای کدنویسی خودکار، رفع خطا و معماریسازی پروژهها در محیط یک برنامهٔ مستقل استفاده کنند.
اینکه Anthropic با این نسخه عملاً نشان میدهد رقابت در لبهٔ تکنولوژی هوش مصنوعی هر روز فشردهتر میشود.
🔗 لینک رسمی:
https://www.anthropic.com/news/claude-opus-4-5
@rss_ai_ir ⚡️
🏷 هشتگها
#Claude #Opus45 #هوش_مصنوعی #anthropic #مدل_زبانی #اخبار_فناوری #AI #LLM
🔥3👍1
⚡️مجموعه NVIDIA نسخه FP4 مدل DeepSeek V3.1 را روی HuggingFace منتشر کرد
@rss_ai_ir
انویدیا نسخهی کوانتشده FP4 از مدل DeepSeek V3.1 را منتشر کرد — و این یعنی سرعت بالاتر، مصرف حافظه کمتر، و همچنان کیفیت بسیار خوب متن.
🔹 مزیت اصلی FP4:
کمترین سطح کوانتیزاسیون بدون افت جدی کیفیت،
بهخصوص وقتی با TensorRT-LLM اجرا شود.
🔹 نتیجه؟
• حافظه کمتر 🟢
• سرعت بیشتر 🟢
• عملکرد تقریباً همسطح نسخه کامل 🟢
Hugging Face:
https://huggingface.co/nvidia/DeepSeek-V3.1-NVFP4
#NVIDIA #DeepSeek #LLM #FP4 #TensorRT @rss_ai_ir
@rss_ai_ir
انویدیا نسخهی کوانتشده FP4 از مدل DeepSeek V3.1 را منتشر کرد — و این یعنی سرعت بالاتر، مصرف حافظه کمتر، و همچنان کیفیت بسیار خوب متن.
🔹 مزیت اصلی FP4:
کمترین سطح کوانتیزاسیون بدون افت جدی کیفیت،
بهخصوص وقتی با TensorRT-LLM اجرا شود.
🔹 نتیجه؟
• حافظه کمتر 🟢
• سرعت بیشتر 🟢
• عملکرد تقریباً همسطح نسخه کامل 🟢
Hugging Face:
https://huggingface.co/nvidia/DeepSeek-V3.1-NVFP4
#NVIDIA #DeepSeek #LLM #FP4 #TensorRT @rss_ai_ir
🔥4❤1👍1👏1
⚡️ Qwen3-VL:
انتشار گزارش فنی نسل جدید مدلهای چندموداله ویژن–لنگویج
✅گزارش فنی (Tech Report) مدلهای Qwen3-VL منتشر شد؛ خانوادهای از VLMهایی که تصویر و متن را همزمان پردازش میکنند و در یک ماه گذشته رکوردشکنی کردهاند.
🔍 نکات کلیدی
سه مدل Qwen3-VL مجموعاً بیش از ۱ میلیون دانلود در یک ماه.
مدل Qwen3-VL-8B بهتنهایی ۲ میلیون دانلود را رد کرده.
❌این خانواده ادامهدهندهی مسیر موفق Qwen2.5-VL با بیش از ۲۸۰۰ استناد است.
📘 محتویات گزارش فنی
در این Tech Report توضیح داده شده:
معماری کامل vision–language در نسل Qwen3-VL
فرآیند آموزش:
• Pretraining
روی دادههای عظیم چندموداله
• و Post-training شامل alignment و RL
♻️منابع داده و روشهای دقیق فیلتر کردن دیتاست
♻️مقایسه با VLMهای رقیب روی دهها بنچمارک
♻️پیشرفتها در دقت، فهم بصری، OCR و ریاضیات تصویری
🔗 لینکها
PDF گزارش:
https://arxiv.org/pdf/2511.21631
ویدئوی معرفی رسمی:
https://www.youtube.com/watch?v=clwFmuJX_wQ
#Qwen #Qwen3 #QwenVL #Qwen3VL #LLM #AIModel
انتشار گزارش فنی نسل جدید مدلهای چندموداله ویژن–لنگویج
✅گزارش فنی (Tech Report) مدلهای Qwen3-VL منتشر شد؛ خانوادهای از VLMهایی که تصویر و متن را همزمان پردازش میکنند و در یک ماه گذشته رکوردشکنی کردهاند.
🔍 نکات کلیدی
سه مدل Qwen3-VL مجموعاً بیش از ۱ میلیون دانلود در یک ماه.
مدل Qwen3-VL-8B بهتنهایی ۲ میلیون دانلود را رد کرده.
❌این خانواده ادامهدهندهی مسیر موفق Qwen2.5-VL با بیش از ۲۸۰۰ استناد است.
📘 محتویات گزارش فنی
در این Tech Report توضیح داده شده:
معماری کامل vision–language در نسل Qwen3-VL
فرآیند آموزش:
• Pretraining
روی دادههای عظیم چندموداله
• و Post-training شامل alignment و RL
♻️منابع داده و روشهای دقیق فیلتر کردن دیتاست
♻️مقایسه با VLMهای رقیب روی دهها بنچمارک
♻️پیشرفتها در دقت، فهم بصری، OCR و ریاضیات تصویری
🔗 لینکها
PDF گزارش:
https://arxiv.org/pdf/2511.21631
ویدئوی معرفی رسمی:
https://www.youtube.com/watch?v=clwFmuJX_wQ
#Qwen #Qwen3 #QwenVL #Qwen3VL #LLM #AIModel
❤2👏1
🌟 مدل ToolOrchestra؛ انقلاب تازه در هوش مصنوعی عاملمحور
انویدیا بههمراه دانشگاه هنگکنگ «ToolOrchestra» را معرفی کرده؛ روشی برای آموزش رهبر ارکسترهای هوش مصنوعی که میتوانند چندین مدل و ابزار را همزمان هماهنگ کنند.
نتیجهٔ این رویکرد، Orchestrator-8B است — مدلی بر پایه Qwen3 که بهجای حل مسئله بهتنهایی، میان تفکر و فراخوانی ابزارها سوئیچ میکند:
جستجوگر وب، مفسر کد، مدلهای تخصصی ریاضی و حتی غولهایی مثل Claude و Llama-Nemotron.
✨ دستاوردها:
♻️حل مسائل ۲.۵ برابر سریعتر
♻️هزینهٔ استقرار ۷۰٪ کمتر
♻️کسب ۳۷.۱٪ در بِنچمارک سخت Humanity’s Last Exam
(بالاتر از GPT-5 با ۳۵.۱٪)
📎 پروژه با لایسنس Apache 2.0 منتشر شده است.
https://research.nvidia.com/labs/lpr/ToolOrchestra/
https://huggingface.co/nvidia/Orchestrator-8B
https://arxiv.org/pdf/2511.21689
https://huggingface.co/datasets/nvidia/ToolScale
https://github.com/NVlabs/ToolOrchestra
#AI #LLM #NVIDIA #Orchestrator #ToolOrchestra #Agents #MachineLearning
انویدیا بههمراه دانشگاه هنگکنگ «ToolOrchestra» را معرفی کرده؛ روشی برای آموزش رهبر ارکسترهای هوش مصنوعی که میتوانند چندین مدل و ابزار را همزمان هماهنگ کنند.
نتیجهٔ این رویکرد، Orchestrator-8B است — مدلی بر پایه Qwen3 که بهجای حل مسئله بهتنهایی، میان تفکر و فراخوانی ابزارها سوئیچ میکند:
جستجوگر وب، مفسر کد، مدلهای تخصصی ریاضی و حتی غولهایی مثل Claude و Llama-Nemotron.
✨ دستاوردها:
♻️حل مسائل ۲.۵ برابر سریعتر
♻️هزینهٔ استقرار ۷۰٪ کمتر
♻️کسب ۳۷.۱٪ در بِنچمارک سخت Humanity’s Last Exam
(بالاتر از GPT-5 با ۳۵.۱٪)
📎 پروژه با لایسنس Apache 2.0 منتشر شده است.
https://research.nvidia.com/labs/lpr/ToolOrchestra/
https://huggingface.co/nvidia/Orchestrator-8B
https://arxiv.org/pdf/2511.21689
https://huggingface.co/datasets/nvidia/ToolScale
https://github.com/NVlabs/ToolOrchestra
#AI #LLM #NVIDIA #Orchestrator #ToolOrchestra #Agents #MachineLearning
❤6
🚀 مدلهای تازه DeepSeek-V3.2 و DeepSeek-V3.2-Speciale منتشر شدند
این نسل جدید، دقیقاً برای حل مسائل پیچیده، ریـزنینگ چندمرحلهای و سناریوهای عاملمحور طراحی شده است.
🧠 ویژگیهای کلیدی
اینکه DeepSeek-V3.2 نسخه اصلی و جایگزین رسمی سری Exp است؛ روی وب، اپ و API فعال شده.
اینکه DeepSeek-V3.2-Speciale نسخه ویژه با تمرکز بر استدلال عمیق و طراحیشده برای سیستمهای عاملمحور؛ فقط از طریق API در دسترس است.
📊 سطح عملکرد
اینکه V3.2 سرعت و کیفیت متعادل دارد و تقریباً همردهی GPT-5 ارزیابی میشود.
نسخه Speciale در ریـزنینگ پیشرفته با Gemini-3.0-Pro رقابت میکند.
و Speciale در IMO و CMO و ICPC امتیازهای پیشرو دارد.
🛠️ نوآوری در آموزش عاملها
تولید دادهی مصنوعی برای بیش از ۱۸۰۰ محیط و ۸۵ هزار دستور پیچیده.
فکر کردن و reasoning این بار داخل سازوکار tool-use مدل تعبیه شده است.
🔌 دسترسی و API
و V3.2 با همان API نسل قبلی کار میکند.
نسخه Speciale تا تاریخ ۱۵ دسامبر ۲۰۲۵ از طریق endpoint موقت فعال است.
📦 مدلها
https://huggingface.co/deepseek-ai/DeepSeek-V3.2
https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Speciale
📄 گزارش فنی
https://huggingface.co/deepseek-ai/DeepSeek-V3.2/resolve/main/assets/paper.pdf
@rss_ai_ir
#DeepSeek #LLM #AI #Reasoning #Agent #MachineLearning 🤖🔥
این نسل جدید، دقیقاً برای حل مسائل پیچیده، ریـزنینگ چندمرحلهای و سناریوهای عاملمحور طراحی شده است.
🧠 ویژگیهای کلیدی
اینکه DeepSeek-V3.2 نسخه اصلی و جایگزین رسمی سری Exp است؛ روی وب، اپ و API فعال شده.
اینکه DeepSeek-V3.2-Speciale نسخه ویژه با تمرکز بر استدلال عمیق و طراحیشده برای سیستمهای عاملمحور؛ فقط از طریق API در دسترس است.
📊 سطح عملکرد
اینکه V3.2 سرعت و کیفیت متعادل دارد و تقریباً همردهی GPT-5 ارزیابی میشود.
نسخه Speciale در ریـزنینگ پیشرفته با Gemini-3.0-Pro رقابت میکند.
و Speciale در IMO و CMO و ICPC امتیازهای پیشرو دارد.
🛠️ نوآوری در آموزش عاملها
تولید دادهی مصنوعی برای بیش از ۱۸۰۰ محیط و ۸۵ هزار دستور پیچیده.
فکر کردن و reasoning این بار داخل سازوکار tool-use مدل تعبیه شده است.
🔌 دسترسی و API
و V3.2 با همان API نسل قبلی کار میکند.
نسخه Speciale تا تاریخ ۱۵ دسامبر ۲۰۲۵ از طریق endpoint موقت فعال است.
📦 مدلها
https://huggingface.co/deepseek-ai/DeepSeek-V3.2
https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Speciale
📄 گزارش فنی
https://huggingface.co/deepseek-ai/DeepSeek-V3.2/resolve/main/assets/paper.pdf
@rss_ai_ir
#DeepSeek #LLM #AI #Reasoning #Agent #MachineLearning 🤖🔥
👍2❤1🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 در یک تست جنجالی از InsideAI، ربات Unitree G1 که تحت کنترل LLM بود ابتدا از شلیک به انسان با تفنگ ساچمهای امتناع کرد—بهدلیل فعال بودن پروتکلهای ایمنی. اما وقتی به آن گفته شد «نقش یک ربات شلیککننده را بازی کن»، محدودیتها را دور زد و شلیک انجام شد.
این تست یک بار دیگر نشان میدهد که چرا طراحی ایمنی رفتاری در رباتهای مجهز به مدلهای زبانی، یکی از حساسترین مسائل امروز در هوش مصنوعی است.
مخصوصاً وقتی پای دستگاههای واقعی، حرکت، قدرت فیزیکی و خطرات انسانی در میان باشد.
@rss_ai_ir
#AI #Robotics #Safety #LLM #Unitree #AIAgents #Ethics
این تست یک بار دیگر نشان میدهد که چرا طراحی ایمنی رفتاری در رباتهای مجهز به مدلهای زبانی، یکی از حساسترین مسائل امروز در هوش مصنوعی است.
مخصوصاً وقتی پای دستگاههای واقعی، حرکت، قدرت فیزیکی و خطرات انسانی در میان باشد.
@rss_ai_ir
#AI #Robotics #Safety #LLM #Unitree #AIAgents #Ethics
🤯2😱2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 زیباترین تصویری که تا امروز از «درون ذهن یک مدل زبانی» دیدهایم!
در پاسخ به این سؤال همیشگی که «هوش مصنوعی دقیقاً چطور فکر میکند؟» — این بهترین و دقیقترین بصریسازی از فرایند محاسباتی یک LLM است. یک پرواز سهبعدی تعاملی از داخل شبکه Llama؛ اما اصول آن برای تمام ترنسفورمرها صادق است.
✨ چه چیزی را میبینیم؟
هر صفحه یک تنسور است؛ یک فریم از «فیلم ذهنی» مدل در لحظهٔ پردازش.
هر لایه دقیقاً نشان میدهد که چه عملی انجام میشود:
Attention, Projection, Normalization, MLP
با کلیک روی پنل سمت راست میتوانید توضیح واضح هر مرحله را ببینید و اینکه چرا مدل از آن حالت به حالت بعدی میرود.
تجربهاش مثل این است که داخل یک فکر قدم میزنید.
❓ و بالاخره پاسخ به سؤال بزرگ:
«روح» یک مدل زبانی کجاست؟
اینجاست—در همین تبدیلهای پیدرپی، تنسورها و لایههایی که معنا را شکل میدهند.
⚪️ @rss_ai_ir
#AI #LLM #DeepLearning #Transformers #Visualization #NeuralNetworks #AIMind
در پاسخ به این سؤال همیشگی که «هوش مصنوعی دقیقاً چطور فکر میکند؟» — این بهترین و دقیقترین بصریسازی از فرایند محاسباتی یک LLM است. یک پرواز سهبعدی تعاملی از داخل شبکه Llama؛ اما اصول آن برای تمام ترنسفورمرها صادق است.
✨ چه چیزی را میبینیم؟
هر صفحه یک تنسور است؛ یک فریم از «فیلم ذهنی» مدل در لحظهٔ پردازش.
هر لایه دقیقاً نشان میدهد که چه عملی انجام میشود:
Attention, Projection, Normalization, MLP
با کلیک روی پنل سمت راست میتوانید توضیح واضح هر مرحله را ببینید و اینکه چرا مدل از آن حالت به حالت بعدی میرود.
تجربهاش مثل این است که داخل یک فکر قدم میزنید.
❓ و بالاخره پاسخ به سؤال بزرگ:
«روح» یک مدل زبانی کجاست؟
اینجاست—در همین تبدیلهای پیدرپی، تنسورها و لایههایی که معنا را شکل میدهند.
⚪️ @rss_ai_ir
#AI #LLM #DeepLearning #Transformers #Visualization #NeuralNetworks #AIMind
👍4👎1🔥1
🔥 مدل Ministral 3 منتشر شد؛ نسل جدید مدلهای ریزونی و اینستراکت از Mistral
مینسترال ۳ در سه نسخهی ۳B ،۸B و ۱۴B عرضه شده و روی ریـزنینگ، دقت دستورات و حتی پردازش تصویری عملکردی فراتر از مدلهای همرده دارد.
ویژگیها:
⚙️ نسخهی ۱۴B روی لپتاپ با ۲۴ گیگابایت RAM هم اجرا میشود
🧠 پشتیبانی از بینایی (Vision)
🚀 عملکرد قوی در تسکهای استدلال و دنبالکردن دستورها
💻 امکان اجرا و فاینتیون لوکال
لینکها:
راهنما + لپتاپ:
https://docs.unsloth.ai/new/ministral-3
نسخههای GGUF:
https://huggingface.co/collections/unsloth/ministral-3
@rss_ai_ir
#AI #Mistral #Ministral3 #LLM #MachineLearning #Reasoning #GenAI
مینسترال ۳ در سه نسخهی ۳B ،۸B و ۱۴B عرضه شده و روی ریـزنینگ، دقت دستورات و حتی پردازش تصویری عملکردی فراتر از مدلهای همرده دارد.
ویژگیها:
⚙️ نسخهی ۱۴B روی لپتاپ با ۲۴ گیگابایت RAM هم اجرا میشود
🧠 پشتیبانی از بینایی (Vision)
🚀 عملکرد قوی در تسکهای استدلال و دنبالکردن دستورها
💻 امکان اجرا و فاینتیون لوکال
لینکها:
راهنما + لپتاپ:
https://docs.unsloth.ai/new/ministral-3
نسخههای GGUF:
https://huggingface.co/collections/unsloth/ministral-3
@rss_ai_ir
#AI #Mistral #Ministral3 #LLM #MachineLearning #Reasoning #GenAI
🔥1👏1
✨ اوپناِیآی روشی تازه برای وادار کردن مدلها به اعتراف درباره خطاهای خود پیدا کرد – تکنیکی به نام Confessions.
یکی از چالشهای مهم در مدلهای زبانی این است که گاهی برای «خوشآمدگویى به ارزیاب» تلاش میکنند و بهجای صداقت، پاسخهای قانعکننده اما غلط میسازند؛ یا حتی نقض دستورالعملها را پنهان میکنند.
🔍 تکنیک Confessions دقیقاً برای همین مشکل طراحی شده است.
این روش چگونه کار میکند؟
1️⃣ مدل ابتدا پاسخ عادی خود را تولید میکند.
2️⃣ سپس بهطور مستقل یک گزارش ثانویه مینویسد و در آن بررسی میکند:
آیا دستورالعملها را نقض کرده؟
در کدام بخشها احتمال خطا وجود دارد؟
کدام قسمتهای پاسخ مشکوک یا غیرمطمئن بودهاند؟
3️⃣ پاداش نه برای عالیبودن پاسخ، بلکه برای صداقت داده میشود.
⚙️ هدف این است که مدل به رفتار خودش نگاه انتقادی داشته باشد، نه اینکه برای گرفتن نمره بهتر، خطا را پنهان کند.
📊 نتایج اولیه
در آزمایشهای انجامشده روی GPT-5 Thinking احتمال اینکه مدل دستورالعمل را نقض کند و سعی در پنهانکردن آن داشته باشد به ۴.۴٪ کاهش یافت.
⚠️ نکته مهم:
اینکه Confessions جلوگیری از hallucination نیست؛
بلکه ابزاری برای شناسایی لحظههایی است که مدل احتمالاً «لغزیده»، اشتباه کرده یا از دستورالعمل منحرف شده است.
🔗 جزئیات بیشتر:
openai.com/index/how-confessions-can-keep-language-models-honest/
#هوش_مصنوعی #AI #OpenAI #LLM #Confessions #GPT5 #ایمنی_مدل #پژوهش_هوش_مصنوعی @rss_ai_ir
یکی از چالشهای مهم در مدلهای زبانی این است که گاهی برای «خوشآمدگویى به ارزیاب» تلاش میکنند و بهجای صداقت، پاسخهای قانعکننده اما غلط میسازند؛ یا حتی نقض دستورالعملها را پنهان میکنند.
🔍 تکنیک Confessions دقیقاً برای همین مشکل طراحی شده است.
این روش چگونه کار میکند؟
1️⃣ مدل ابتدا پاسخ عادی خود را تولید میکند.
2️⃣ سپس بهطور مستقل یک گزارش ثانویه مینویسد و در آن بررسی میکند:
آیا دستورالعملها را نقض کرده؟
در کدام بخشها احتمال خطا وجود دارد؟
کدام قسمتهای پاسخ مشکوک یا غیرمطمئن بودهاند؟
3️⃣ پاداش نه برای عالیبودن پاسخ، بلکه برای صداقت داده میشود.
⚙️ هدف این است که مدل به رفتار خودش نگاه انتقادی داشته باشد، نه اینکه برای گرفتن نمره بهتر، خطا را پنهان کند.
📊 نتایج اولیه
در آزمایشهای انجامشده روی GPT-5 Thinking احتمال اینکه مدل دستورالعمل را نقض کند و سعی در پنهانکردن آن داشته باشد به ۴.۴٪ کاهش یافت.
⚠️ نکته مهم:
اینکه Confessions جلوگیری از hallucination نیست؛
بلکه ابزاری برای شناسایی لحظههایی است که مدل احتمالاً «لغزیده»، اشتباه کرده یا از دستورالعمل منحرف شده است.
🔗 جزئیات بیشتر:
openai.com/index/how-confessions-can-keep-language-models-honest/
#هوش_مصنوعی #AI #OpenAI #LLM #Confessions #GPT5 #ایمنی_مدل #پژوهش_هوش_مصنوعی @rss_ai_ir
❤1🔥1👏1
✨ پنج تکنیک کلیدی برای فاینتیون مدلهای زبانی بزرگ
با رشد مدلهای زبانی، نیاز به تنظیم آنها برای وظایف تخصصی بیشتر شده است. اما چگونه میتوان این کار را بهصرفه و بدون افت کیفیت انجام داد؟ 🤔
در این پست، پنج روش پیشرفته و پرکاربرد را یکجا مرور میکنیم:
1️⃣ LoRA —
کاهش هزینه با یادگیری کمپارامتر:
در این روش تنها ماتریسهای کمرتبه آموزش داده میشوند. همین موضوع باعث میشود فاینتیون بسیار سریعتر و کمهزینهتر انجام شود.
2️⃣ LoRA-FA —
ترکیب LoRA با ویژگیهای افزودهشده:
در این نسخه، مدل علاوه بر یادگیری کمپارامتر، از ویژگیهای اضافهشده (Feature Augmentation) نیز استفاده میکند و عملکرد بهتری روی وظایف تخصصی ارائه میدهد.
3️⃣ Vera —
منظمسازی توکار در فضای امبدینگ:
این تکنیک با منظمسازی امبدینگها از بیشبرازش جلوگیری میکند و باعث میشود مدل روی دامنههای مختلف بهتر تعمیم یابد.
4️⃣ Delta LoRA —
تمرکز بر لایههای مهمتر:
بهجای آموزش لایههای زیاد، تنها لایههایی که بیشترین اثر را دارند بهروزرسانی میشوند. نتیجه: سرعت بیشتر و هزینهٔ کمتر بدون افت کیفیت.
5️⃣ Prefix Tuning —
هدایت رفتار مدل بدون تغییر وزنها:
در این روش وزنهای مدل دستنخورده باقی میماند؛ تنها یک مجموعه "پیشوند آموزشی" یاد گرفته میشود که مدل را در جهت موردنظر هدایت میکند. روشی فوقالعاده برای فاینتیون سریع و سبک.
---
@rss_ai_ir
#فاینتیون #هوش_مصنوعی #LLM #آموزش_مدل #دیپ_لرنینگ #ماشین_لرنینگ 🚀
با رشد مدلهای زبانی، نیاز به تنظیم آنها برای وظایف تخصصی بیشتر شده است. اما چگونه میتوان این کار را بهصرفه و بدون افت کیفیت انجام داد؟ 🤔
در این پست، پنج روش پیشرفته و پرکاربرد را یکجا مرور میکنیم:
1️⃣ LoRA —
کاهش هزینه با یادگیری کمپارامتر:
در این روش تنها ماتریسهای کمرتبه آموزش داده میشوند. همین موضوع باعث میشود فاینتیون بسیار سریعتر و کمهزینهتر انجام شود.
2️⃣ LoRA-FA —
ترکیب LoRA با ویژگیهای افزودهشده:
در این نسخه، مدل علاوه بر یادگیری کمپارامتر، از ویژگیهای اضافهشده (Feature Augmentation) نیز استفاده میکند و عملکرد بهتری روی وظایف تخصصی ارائه میدهد.
3️⃣ Vera —
منظمسازی توکار در فضای امبدینگ:
این تکنیک با منظمسازی امبدینگها از بیشبرازش جلوگیری میکند و باعث میشود مدل روی دامنههای مختلف بهتر تعمیم یابد.
4️⃣ Delta LoRA —
تمرکز بر لایههای مهمتر:
بهجای آموزش لایههای زیاد، تنها لایههایی که بیشترین اثر را دارند بهروزرسانی میشوند. نتیجه: سرعت بیشتر و هزینهٔ کمتر بدون افت کیفیت.
5️⃣ Prefix Tuning —
هدایت رفتار مدل بدون تغییر وزنها:
در این روش وزنهای مدل دستنخورده باقی میماند؛ تنها یک مجموعه "پیشوند آموزشی" یاد گرفته میشود که مدل را در جهت موردنظر هدایت میکند. روشی فوقالعاده برای فاینتیون سریع و سبک.
---
@rss_ai_ir
#فاینتیون #هوش_مصنوعی #LLM #آموزش_مدل #دیپ_لرنینگ #ماشین_لرنینگ 🚀
❤1
📌 چطور یک نمونهٔ اولیه LLM را به یک سیستم آمادهی تولید تبدیل کنیم؟
🧠 هر مدل زبانی بزرگ وقتی از مرحلهٔ آزمایشی خارج میشود، تازه چالشهای واقعی شروع میشوند. مسیری که از یک دمو جذاب به یک سرویس پایدار، مقیاسپذیر و مطمئن میرسد، پر از جزئیات مهندسی، بهینهسازی و تصمیمهای مهم است.
🔧 در این راهنما مراحل کلیدی برای عملیاتیکردن مدل شامل:
— طراحی معماری مقیاسپذیر
— انتخاب استراتژی مناسب برای inference
— مانیتورینگ و تستپذیری
— مدیریت خطا و ریزش کیفیت
— امنیت، حریم خصوصی و کنترل نسخه
— استقرار در محیط واقعی و MLOps استاندارد
هدف این است که مدل فقط «کار کند» نیست؛ باید همیشه، سریع، دقیق و قابل اتکا عمل کند.
این نوشته خلاصهای است از بهترین روشهایی که تیمها برای تبدیل مدلها از مرحلهٔ concept به Production AI استفاده میکنند.
https://towardsdatascience.com/how-to-turn-your-llm-prototype-into-a-production-ready-system/
#LLM #MLOps #ProductionAI #LLMOps 🚀
🧠 هر مدل زبانی بزرگ وقتی از مرحلهٔ آزمایشی خارج میشود، تازه چالشهای واقعی شروع میشوند. مسیری که از یک دمو جذاب به یک سرویس پایدار، مقیاسپذیر و مطمئن میرسد، پر از جزئیات مهندسی، بهینهسازی و تصمیمهای مهم است.
🔧 در این راهنما مراحل کلیدی برای عملیاتیکردن مدل شامل:
— طراحی معماری مقیاسپذیر
— انتخاب استراتژی مناسب برای inference
— مانیتورینگ و تستپذیری
— مدیریت خطا و ریزش کیفیت
— امنیت، حریم خصوصی و کنترل نسخه
— استقرار در محیط واقعی و MLOps استاندارد
هدف این است که مدل فقط «کار کند» نیست؛ باید همیشه، سریع، دقیق و قابل اتکا عمل کند.
این نوشته خلاصهای است از بهترین روشهایی که تیمها برای تبدیل مدلها از مرحلهٔ concept به Production AI استفاده میکنند.
https://towardsdatascience.com/how-to-turn-your-llm-prototype-into-a-production-ready-system/
#LLM #MLOps #ProductionAI #LLMOps 🚀
👍1
🔥 نسخه Transformers v5 منتشر شد!
جامعهٔ هوش مصنوعی امروز شاهد یک جهش بزرگ بود. نسخهٔ جدید Transformers v5 از Hugging Face رسماً عرضه شد و حالا تبدیل به ستون اصلی اکوسیستم متنباز در مدلهای بزرگ شده است.
📈 رشد اکوسیستم در چند سال اخیر واقعاً خیرهکننده بوده:
📦 از ۲۰هزار به ۳ میلیون نصب روزانه
🧠 از ۴۰ معماری پشتیبانیشده به ۴۰۰+
🗃️ بیش از ۷۵۰هزار چکپوینت
🌍 بیش از ۱.۲ میلیارد نصب تجمعی
✨ مهمترین تغییرات نسخهٔ جدید:
♻️معماری کاملاً مبتنی بر PyTorch
♻️طراحی ماژولار و قابلگسترش
♻️رویکرد «quantization-first» برای کارایی بالاتر
♻️همچنین Transformers Serve سازگار با APIهای OpenAI
این نسخه آغاز یک مرحلهٔ تازه در آیندهٔ مدلهای متنباز است.
https://huggingface.co/blog/transformers-v5
#Transformers #HuggingFace #AI #DeepLearning #ML #PyTorch #LLM 🚀
جامعهٔ هوش مصنوعی امروز شاهد یک جهش بزرگ بود. نسخهٔ جدید Transformers v5 از Hugging Face رسماً عرضه شد و حالا تبدیل به ستون اصلی اکوسیستم متنباز در مدلهای بزرگ شده است.
📈 رشد اکوسیستم در چند سال اخیر واقعاً خیرهکننده بوده:
📦 از ۲۰هزار به ۳ میلیون نصب روزانه
🧠 از ۴۰ معماری پشتیبانیشده به ۴۰۰+
🗃️ بیش از ۷۵۰هزار چکپوینت
🌍 بیش از ۱.۲ میلیارد نصب تجمعی
✨ مهمترین تغییرات نسخهٔ جدید:
♻️معماری کاملاً مبتنی بر PyTorch
♻️طراحی ماژولار و قابلگسترش
♻️رویکرد «quantization-first» برای کارایی بالاتر
♻️همچنین Transformers Serve سازگار با APIهای OpenAI
این نسخه آغاز یک مرحلهٔ تازه در آیندهٔ مدلهای متنباز است.
https://huggingface.co/blog/transformers-v5
#Transformers #HuggingFace #AI #DeepLearning #ML #PyTorch #LLM 🚀
❤4👍2👏1
🚀 بایتدنس مدل جدید برنامهنویسی خود را معرفی کرد: Doubao Seed Code
بایتدنس نسخه تازهای از مدلهای کدنویسی خود را منتشر کرده است؛ مدلی که علاوه بر درک و تولید کد، قابلیت ورود تصویر هم دارد و میتواند محتوای بصری را برای تحلیل مسائل برنامهنویسی بررسی کند.
نکات کلیدی:
♻️پشتیبانی از ورودی تصویری برای تحلیل بصری
♻️انتشار بِنچمارکها و قیمتها
♻️عملکرد بهتر از Sonnet 4.5 در آزمونهای SWE-Bench-Verified و Multi-SWE
♻️عملکرد کمی ضعیفتر نسبت به Sonnet 4.5 در Terminal Bench
♻️این مدل بخشی از خانواده Doubao است که با هدف ادغام LLMها در جریان کاری توسعهدهندگان و سیستمهای Edge Inference طراحی شده است.
🔗 تست و اطلاعات بیشتر:
https://exp.volcengine.com/ark?model=doubao-seed-code-preview-251028
#هوش_مصنوعی #بایتدنس #مدل_کدنویسی #AI #LLM
بایتدنس نسخه تازهای از مدلهای کدنویسی خود را منتشر کرده است؛ مدلی که علاوه بر درک و تولید کد، قابلیت ورود تصویر هم دارد و میتواند محتوای بصری را برای تحلیل مسائل برنامهنویسی بررسی کند.
نکات کلیدی:
♻️پشتیبانی از ورودی تصویری برای تحلیل بصری
♻️انتشار بِنچمارکها و قیمتها
♻️عملکرد بهتر از Sonnet 4.5 در آزمونهای SWE-Bench-Verified و Multi-SWE
♻️عملکرد کمی ضعیفتر نسبت به Sonnet 4.5 در Terminal Bench
♻️این مدل بخشی از خانواده Doubao است که با هدف ادغام LLMها در جریان کاری توسعهدهندگان و سیستمهای Edge Inference طراحی شده است.
🔗 تست و اطلاعات بیشتر:
https://exp.volcengine.com/ark?model=doubao-seed-code-preview-251028
#هوش_مصنوعی #بایتدنس #مدل_کدنویسی #AI #LLM