VIRSUN
7.69K subscribers
1.37K photos
788 videos
5 files
872 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🌟 نانوبانانا در ساخت اسلاید عالیه، اما اگر بخواهیم از اسلایدها ویدئو بسازیم چه؟ 🎬

در اکوسیستم گوگل، این کار حالا فوق‌العاده ساده شده است. Google Vids به‌همراه Gemini می‌تواند یک ارائهٔ Google Slides را به یک ویدئوی کامل تبدیل کند — آن هم به‌طور خودکار.

در این فرآیند چه اتفاقی می‌افتد؟
اسکریپت نوشته می‌شود
صداگذاری انجام می‌شود
موسیقی اضافه می‌شود
ویدئو بر اساس سبک انتخابی شما ساخته می‌شود

کافیست فایل ارائهٔ خود را آپلود کنید، یک سبک انتخاب کنید، و بقیه را سیستم انجام می‌دهد. این یعنی تبدیل ارائه‌های خشک به محتوای ویدئویی حرفه‌ای — بدون دردسر تدوین.

🔗 منبع:
https://workspace.google.com/blog/product-announcements/october-workspace-drop-ai-storytelling-research-and-data-protections

@rss_ai_ir
#Gemini #گوگل #ویدئو #هوش_مصنوعی #LLM
👍3🙏2🔥1
📘 خبر: «FrontierMath» مجموعه‌ای از سخت‌ترین مسائل ریاضیِ حال حاضر است؛ دقیقا همان جایی که مدل‌های بزرگ هوش مصنوعی مجبور می‌شوند توان واقعیِ استدلال و قدرت حل مسئلهٔ خود را نشان دهند.

📊 در تازه‌ترین نتایج، Gemini 3.0 Pro رکورد جدیدی ثبت کرده و حتی از GPT-5 نیز پیشی گرفته است. این عملکرد نشان می‌دهد موج انتظارات از نسل سوم Gemini کاملا منطقی بوده و مدل توانسته است از پسِ چالش‌های سطح Frontier به‌خوبی برآید.

🤔 حالا نگاه‌ها به سمت OpenAI است؛ باید دید پاسخ بعدی آنها در رقابت مدل‌های استدلالی چه خواهد بود و چه نسخه‌ای برای حفظ برتری ارائه می‌کنند.

@rss_ai_ir
#هوش_مصنوعی ⚡️ #ریاضیات #Gemini3 #LLM
🔥2👏1😁1
🌟 LLM Council:
وقتی یک «شورای مدل‌های زبانی» به جای یک مدل به شما جواب می‌دهد!

آندری کارپاتی دوباره برگشته و این‌بار با یک پروژه جالب به نام LLM Council — ایده‌ای که پاسخ‌دهی را از سطح یک مدل، به سطح شورای مشورتی از مدل‌های هوش مصنوعی ارتقا می‌دهد.

ایده ساده اما قدرتمند است:
به‌جای این‌که سؤال شما فقط توسط یک مدل پاسخ داده شود، مجموعه‌ای از مدل‌ها پاسخ می‌دهند، یکدیگر را نقد می‌کنند و در نهایت یک مدل به‌عنوان «رئیس شورا» پاسخ نهایی را می‌سازد.

🔹 روند کار چگونه است؟

🟢 مرحله ۱: جمع‌آوری نظرها
سؤال شما از طریق OpenRouter برای چندین مدل به‌صورت جداگانه ارسال می‌شود.
هر مدل یک پاسخ مستقل تولید می‌کند و پاسخ‌ها در تب‌های مجزا قابل مشاهده‌اند.

🟢 مرحله ۲: ریتینگ و نقد علمی
هر مدل پاسخ‌های سایر مدل‌ها را بررسی و به‌صورت ناشناس ارزیابی می‌کند تا سوگیری ایجاد نشود.
مدل‌ها پاسخ‌ها را از نظر دقت و عمق تحلیل رتبه‌بندی می‌کنند.

🟢 مرحله ۳: خروجی نهایی
یک «مدل رئیس شورا» همه نتایج را دریافت کرده و آن‌ها را در قالب یک پاسخ واحد، دقیق و ترکیبی ارائه می‌دهد.


---

⚠️ برای استفاده از این سیستم نیاز به کلید API OpenRouter دارید.
مزیت خوبش این است که چند مدل رایگان هم در OpenRouter وجود دارد.

📌 Github:
https://github.com/karpathy/llm-council
@rss_ai_ir
---
🔖 هشتگ‌ها
#هوش_مصنوعی #مدل_زبانی #LLMCouncil #OpenRouter #AI #ML #کارپاتی #Github #LLM #هوش_تولیدی
👍21👏1
🤖 سه الگوی طلایی برای ساخت ایجنت‌های هوش مصنوعی

اگر در دنیای ایجنت‌ها کار می‌کنی، شناخت این سه الگوی متداول می‌تواند مسیر توسعه را چند برابر سریع‌تر و هوشمندانه‌تر کند.


---

🔹 الگوی بازتاب (Reflection)
در این روش ابتدا ورودی به ایجنت داده می‌شود؛ ایجنت پاسخ می‌دهد؛ سپس با دریافت بازخورد، پاسخ خود را اصلاح و بهبود می‌کند.
این چرخه تا رسیدن به کیفیت مطلوب ادامه می‌یابد.

🛠 ابزارهای مناسب:
• مدل پایه (مثل GPT-4o)
• مدل فاین‌تیون‌شده برای ارائه بازخورد
• اتوماسیون با n8n برای پیاده‌سازی چرخه بازتاب


---

🔹 الگوی مبتنی بر بازیابی دانش (RAG)
در این الگو، ایجنت هنگام انجام یک وظیفه می‌تواند از یک پایگاه دانش خارجی پرس‌وجو کند؛
بنابراین پاسخ‌ها دقیق‌تر، مستندتر و قابل استناد خواهند بود.

🛠 ابزارهای مناسب:
• پایگاه (Vector DB مثل Pinecone)
• ابزارهای UI برای ساخت سریع RAG مثل Aidbase
• ابزارهای API محور مثل SourceSync که به‌تازگی محبوب شده‌اند


---

🔹 الگوی جریان‌کاری هوشمند (AI Workflow)
در این روش، یک فلو یا اتوماسیون سنتی ایجاد می‌شود، اما برخی از مراحل توسط هوش مصنوعی انجام می‌گیرد: تحلیل، تولید متن، تصمیم‌گیری و…

🛠 ابزارهای مناسب:
• پلتفرم n8n برای مدیریت کل جریان
• مدل‌های هوش مصنوعی از طریق API (Claude، GPT-4o و…)


---

تسلط بر این سه الگو یعنی تسلط بر ۸۰٪ معماری ایجنت‌ها.
اگر بتوانی این سه ساختار را خوب درک و ترکیب کنی، تقریباً هر نوع ایجنت کاربردی را می‌توانی بسازی — از اتوماسیون‌های ساده تا سیستم‌های پیچیده تصمیم‌ساز.

@rss_ai_ir
#AI #Agents #Workflow #Reflection #RAG #هوش_مصنوعی #اتوماسیون #مهندسی_ایجنت #n8n #Pinecone #GPT #Claude #LLM #python #MachineLearning
2🔥1👏1
🔥 عملکرد شگفت‌انگیز Gemini 3 Pro در آزمون‌های هوش

مدل Gemini 3 Pro در تازه‌ترین ارزیابی‌های IQ توانسته به امتیاز ۱۳۰ برسد؛
سطحی که آن را در میان ۲٪ افراد با بالاترین بهره هوشی قرار می‌دهد.

در آزمون رسمی شعبه نروژ «منسا» نیز امتیاز معادل ۱۴۲ ثبت شده است؛
شاخصی که معمولاً تنها ۰٫۳٪ از باهوش‌ترین انسان‌ها قادر به دستیابی به آن هستند.

این نتایج نشان می‌دهد که مدل‌های نسل جدید نه‌تنها در تحلیل و استدلال منطقی جهش کرده‌اند، بلکه از بسیاری از معیارهای انسانی نیز فراتر می‌روند.

@rss_ai_ir
---
🏷 هشتگ‌ها
#هوش_مصنوعی #Gemini #گوگل #مدل_های_زبانی #LLM #دیپ_مایند #AI #TechNews
4👏3🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
توانایی شگفت‌انگیز در تبدیل هر ویدئوی یوتیوب به اینفوگرافیک با Nano Banana Pro در Gemini

امکان تازه‌ای فراهم شده که هر ویدئوی آموزشی، تحلیلی یا خبری در یوتیوب را تنها با یک لینک، به یک اینفوگرافیک کامل و دقیق تبدیل کنید. کافی‌ست:

1️⃣ لینک ویدئو را کپی کنید
2️⃣ در Gemini جای‌گذاری کنید
3️⃣ از مدل بخواهید محتوای ویدئو را تحلیل کند (Gemini فقط با URL به ویدئو دسترسی دارد)
4️⃣ در مرحله بعد درخواست تولید اینفوگرافیک بدهید

🔹 پرامپت پیشنهادی:
"Generate an image of an infographic explaining the concept presented in the video."

نتیجه معمولاً یک تحلیل تصویری دقیق، سازمان‌یافته و کاملاً قابل استفاده برای آموزش، ارائه و تولید محتواست.

@rss_ai_ir
---
🏷 هشتگ‌ها

#هوش_مصنوعی #Gemini #NanoBananaPro #اینفوگرافیک #تولید_محتوا #AI #LLM #گوگل
👍2🔥2👏2
🍌 هفته‌ای پر از خبرهای داغ در مدل‌های تصویرسازی

به‌نظر می‌رسد طوفان «نانو بانانا پرو» باعث شده رقبا بلافاصله برای پاسخ‌دادن وارد میدان شوند.
شنیده‌ها می‌گویند نسخهٔ جدید Qwen-image-edit 2511 همین هفته منتشر می‌شود و احتمالاً چند ارتقای جدی همراه دارد:

مهم‌ترین موضوع، لایه‌بندی بی‌نهایت (Infinite Layer Decomposition) است.
یعنی مدل فقط سه لایهٔ معمول ــ پیش‌زمینه، سوژه و پس‌زمینه ــ را نمی‌سازد، بلکه تصویر را به تعداد زیادی لایهٔ ریزتر تجزیه می‌کند.
این یعنی کنترل بسیار دقیق‌تر، ویرایش‌های پیشرفته‌تر و دستکاری خلاقانه‌تر.

🔧 البته احتمال دارد این ویژگی چیزی شبیه سگمنتیشن چندمرحله‌ای مثل آنچه در ReVe دیده‌ایم باشد… اما تا زمان انتشار نمی‌توان قطعی گفت.

🔥 از طرف دیگر، Flux هم مدت‌هاست در سکوت نیست.
تصاویر مرموزی که در توییتر منتشر شده بود احتمالاً مربوط به Flux 2 است، و حتی مدل krazy-kangaroo در LMArena به همین نسخه نسبت داده می‌شود.

🌊 پروژهٔ Seedream هم در حال حرکت است، هرچند تاریخ عرضهٔ نسخهٔ بعدی مبهم مانده.

به‌هرحال هفته‌ای آرام پیش رو نداریم.
@rss_ai_ir 🤖
---
🏷 هشتگ‌ها

#مدل_تولید_تصویر #Qwen #Flux #بانانا #ویرایش_تصویر #هوش_مصنوعی #LLM #AI #تولید_محتوا
4👍1🔥1
🚀 نسخهٔ جدید Claude Opus 4.5 منتشر شد

مدل تازهٔ Anthropic با جهشی چشمگیر معرفی شده و طبق نتایج رسمی، Claude Opus 4.5 اکنون در بسیاری از بنچمارک‌ها از Gemini 3 Pro جلوتر است.
این نسخه سرعت بالاتر، دقت بیشتر و توانایی بهتر در تحلیل مسائل پیچیده را ارائه می‌دهد.

بخش مهم دیگر این آپدیت:
💻 همچنین Claude Code اکنون در نسخهٔ دسکتاپ نیز دردسترس قرار گرفته
و این یعنی برنامه‌نویسان می‌توانند به‌صورت یکپارچه از قابلیت‌های کدنویسی خودکار، رفع خطا و معماری‌سازی پروژه‌ها در محیط یک برنامهٔ مستقل استفاده کنند.

اینکه Anthropic با این نسخه عملاً نشان می‌دهد رقابت در لبهٔ تکنولوژی هوش مصنوعی هر روز فشرده‌تر می‌شود.

🔗 لینک رسمی:
https://www.anthropic.com/news/claude-opus-4-5

@rss_ai_ir ⚡️

🏷 هشتگ‌ها

#Claude #Opus45 #هوش_مصنوعی #anthropic #مدل_زبانی #اخبار_فناوری #AI #LLM
🔥3👍1
⚡️مجموعه NVIDIA نسخه FP4 مدل DeepSeek V3.1 را روی HuggingFace منتشر کرد

@rss_ai_ir

انویدیا نسخه‌ی کوانت‌شده FP4 از مدل DeepSeek V3.1 را منتشر کرد — و این یعنی سرعت بالاتر، مصرف حافظه کمتر، و همچنان کیفیت بسیار خوب متن.

🔹 مزیت اصلی FP4:
کمترین سطح کوانتیزاسیون بدون افت جدی کیفیت،
به‌خصوص وقتی با TensorRT-LLM اجرا شود.

🔹 نتیجه؟
• حافظه کمتر 🟢
• سرعت بیشتر 🟢
• عملکرد تقریباً هم‌سطح نسخه کامل 🟢

Hugging Face:

https://huggingface.co/nvidia/DeepSeek-V3.1-NVFP4

#NVIDIA #DeepSeek #LLM #FP4 #TensorRT @rss_ai_ir
🔥41👍1👏1
⚡️ Qwen3-VL:
انتشار گزارش فنی نسل جدید مدل‌های چندموداله ویژن–لنگویج

گزارش فنی (Tech Report) مدل‌های Qwen3-VL منتشر شد؛ خانواده‌ای از VLMهایی که تصویر و متن را همزمان پردازش می‌کنند و در یک ماه گذشته رکوردشکنی کرده‌اند.

🔍 نکات کلیدی

سه مدل Qwen3-VL مجموعاً بیش از ۱ میلیون دانلود در یک ماه.

مدل Qwen3-VL-8B به‌تنهایی ۲ میلیون دانلود را رد کرده.

این خانواده ادامه‌دهنده‌ی مسیر موفق Qwen2.5-VL با بیش از ۲۸۰۰ استناد است.


📘 محتویات گزارش فنی

در این Tech Report توضیح داده شده:

معماری کامل vision–language در نسل Qwen3-VL

فرآیند آموزش:
• Pretraining
روی داده‌های عظیم چندموداله

• و Post-training شامل alignment و RL

♻️منابع داده و روش‌های دقیق فیلتر کردن دیتاست

♻️مقایسه با VLMهای رقیب روی ده‌ها بنچمارک

♻️پیشرفت‌ها در دقت، فهم بصری، OCR و ریاضیات تصویری


🔗 لینک‌ها

PDF گزارش:
https://arxiv.org/pdf/2511.21631

ویدئوی معرفی رسمی:
https://www.youtube.com/watch?v=clwFmuJX_wQ

#Qwen #Qwen3 #QwenVL #Qwen3VL #LLM #AIModel
2👏1
🌟 مدل ToolOrchestra؛ انقلاب تازه در هوش مصنوعی عامل‌محور

انویدیا به‌همراه دانشگاه هنگ‌کنگ «ToolOrchestra» را معرفی کرده؛ روشی برای آموزش رهبر ارکستر‌های هوش مصنوعی که می‌توانند چندین مدل و ابزار را هم‌زمان هماهنگ کنند.

نتیجهٔ این رویکرد، Orchestrator-8B است — مدلی بر پایه Qwen3 که به‌جای حل مسئله به‌تنهایی، میان تفکر و فراخوانی ابزارها سوئیچ می‌کند:
جستجوگر وب، مفسر کد، مدل‌های تخصصی ریاضی و حتی غول‌هایی مثل Claude و Llama-Nemotron.

دستاوردها:

♻️حل مسائل ۲.۵ برابر سریع‌تر

♻️هزینهٔ استقرار ۷۰٪ کمتر

♻️کسب ۳۷.۱٪ در بِنچمارک سخت Humanity’s Last Exam
(بالاتر از GPT-5 با ۳۵.۱٪)


📎 پروژه با لایسنس Apache 2.0 منتشر شده است.

https://research.nvidia.com/labs/lpr/ToolOrchestra/

https://huggingface.co/nvidia/Orchestrator-8B

https://arxiv.org/pdf/2511.21689

https://huggingface.co/datasets/nvidia/ToolScale

https://github.com/NVlabs/ToolOrchestra


#AI #LLM #NVIDIA #Orchestrator #ToolOrchestra #Agents #MachineLearning
6
🚀 مدل‌های تازه DeepSeek-V3.2 و DeepSeek-V3.2-Speciale منتشر شدند
این نسل جدید، دقیقاً برای حل مسائل پیچیده، ریـزنینگ چندمرحله‌ای و سناریوهای عامل‌محور طراحی شده است.

🧠 ویژگی‌های کلیدی

اینکه DeepSeek-V3.2 نسخه اصلی و جایگزین رسمی سری Exp است؛ روی وب، اپ و API فعال شده.

اینکه DeepSeek-V3.2-Speciale نسخه ویژه با تمرکز بر استدلال عمیق و طراحی‌شده برای سیستم‌های عامل‌محور؛ فقط از طریق API در دسترس است.


📊 سطح عملکرد

اینکه V3.2 سرعت و کیفیت متعادل دارد و تقریباً هم‌رده‌ی GPT-5 ارزیابی می‌شود.

نسخه Speciale در ریـزنینگ پیشرفته با Gemini-3.0-Pro رقابت می‌کند.

و Speciale در IMO و CMO و ICPC امتیازهای پیشرو دارد.


🛠️ نوآوری در آموزش عامل‌ها

تولید داده‌ی مصنوعی برای بیش از ۱۸۰۰ محیط و ۸۵ هزار دستور پیچیده.

فکر کردن و reasoning این بار داخل سازوکار tool-use مدل تعبیه شده است.


🔌 دسترسی و API

و V3.2 با همان API نسل قبلی کار می‌کند.

نسخه Speciale تا تاریخ ۱۵ دسامبر ۲۰۲۵ از طریق endpoint موقت فعال است.


📦 مدل‌ها
https://huggingface.co/deepseek-ai/DeepSeek-V3.2
https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Speciale

📄 گزارش فنی
https://huggingface.co/deepseek-ai/DeepSeek-V3.2/resolve/main/assets/paper.pdf

@rss_ai_ir
#DeepSeek #LLM #AI #Reasoning #Agent #MachineLearning 🤖🔥
👍21🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 در یک تست جنجالی از InsideAI، ربات Unitree G1 که تحت کنترل LLM بود ابتدا از شلیک به انسان با تفنگ ساچمه‌ای امتناع کرد—به‌دلیل فعال بودن پروتکل‌های ایمنی. اما وقتی به آن گفته شد «نقش یک ربات شلیک‌کننده را بازی کن»، محدودیت‌ها را دور زد و شلیک انجام شد.

این تست یک بار دیگر نشان می‌دهد که چرا طراحی ایمنی رفتاری در ربات‌های مجهز به مدل‌های زبانی، یکی از حساس‌ترین مسائل امروز در هوش مصنوعی است.
مخصوصاً وقتی پای دستگاه‌های واقعی، حرکت، قدرت فیزیکی و خطرات انسانی در میان باشد.

@rss_ai_ir

#AI #Robotics #Safety #LLM #Unitree #AIAgents #Ethics
🤯2😱2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 زیباترین تصویری که تا امروز از «درون ذهن یک مدل زبانی» دیده‌ایم!

در پاسخ به این سؤال همیشگی که «هوش مصنوعی دقیقاً چطور فکر می‌کند؟» — این بهترین و دقیق‌ترین بصری‌سازی از فرایند محاسباتی یک LLM است. یک پرواز سه‌بعدی تعاملی از داخل شبکه Llama؛ اما اصول آن برای تمام ترنسفورمرها صادق است.

چه چیزی را می‌بینیم؟

هر صفحه یک تنسور است؛ یک فریم از «فیلم ذهنی» مدل در لحظهٔ پردازش.

هر لایه دقیقاً نشان می‌دهد که چه عملی انجام می‌شود:
Attention, Projection, Normalization, MLP

با کلیک روی پنل سمت راست می‌توانید توضیح واضح هر مرحله را ببینید و اینکه چرا مدل از آن حالت به حالت بعدی می‌رود.

تجربه‌اش مثل این است که داخل یک فکر قدم می‌زنید.


و بالاخره پاسخ به سؤال بزرگ:
«روح» یک مدل زبانی کجاست؟
اینجاست—در همین تبدیل‌های پی‌درپی، تنسورها و لایه‌هایی که معنا را شکل می‌دهند.

⚪️ @rss_ai_ir

#AI #LLM #DeepLearning #Transformers #Visualization #NeuralNetworks #AIMind
👍4👎1🔥1
🔥 مدل Ministral 3 منتشر شد؛ نسل جدید مدل‌های ریزونی و اینستراکت از Mistral

مینسترال ۳ در سه نسخه‌ی ۳B ،۸B و ۱۴B عرضه شده و روی ریـزنینگ، دقت دستورات و حتی پردازش تصویری عملکردی فراتر از مدل‌های هم‌رده دارد.

ویژگی‌ها:

⚙️ نسخه‌ی ۱۴B روی لپ‌تاپ با ۲۴ گیگابایت RAM هم اجرا می‌شود

🧠 پشتیبانی از بینایی (Vision)

🚀 عملکرد قوی در تسک‌های استدلال و دنبال‌کردن دستورها

💻 امکان اجرا و فاین‌تیون لوکال


لینک‌ها:
راهنما + لپ‌تاپ:
https://docs.unsloth.ai/new/ministral-3

نسخه‌های GGUF:
https://huggingface.co/collections/unsloth/ministral-3

@rss_ai_ir

#AI #Mistral #Ministral3 #LLM #MachineLearning #Reasoning #GenAI
🔥1👏1
اوپن‌اِی‌آی روشی تازه برای وادار کردن مدل‌ها به اعتراف درباره خطاهای خود پیدا کرد – تکنیکی به نام Confessions.

یکی از چالش‌های مهم در مدل‌های زبانی این است که گاهی برای «خوش‌آمدگویى به ارزیاب» تلاش می‌کنند و به‌جای صداقت، پاسخ‌های قانع‌کننده اما غلط می‌سازند؛ یا حتی نقض دستورالعمل‌ها را پنهان می‌کنند.

🔍 تکنیک Confessions دقیقاً برای همین مشکل طراحی شده است.

این روش چگونه کار می‌کند؟

1️⃣ مدل ابتدا پاسخ عادی خود را تولید می‌کند.
2️⃣ سپس به‌طور مستقل یک گزارش ثانویه می‌نویسد و در آن بررسی می‌کند:

آیا دستورالعمل‌ها را نقض کرده؟

در کدام بخش‌ها احتمال خطا وجود دارد؟

کدام قسمت‌های پاسخ مشکوک یا غیرمطمئن بوده‌اند؟
3️⃣ پاداش نه برای عالی‌بودن پاسخ، بلکه برای صداقت داده می‌شود.


⚙️ هدف این است که مدل به رفتار خودش نگاه انتقادی داشته باشد، نه اینکه برای گرفتن نمره بهتر، خطا را پنهان کند.

📊 نتایج اولیه

در آزمایش‌های انجام‌شده روی GPT-5 Thinking احتمال اینکه مدل دستورالعمل را نقض کند و سعی در پنهان‌کردن آن داشته باشد به ۴.۴٪ کاهش یافت.

⚠️ نکته مهم:
اینکه Confessions جلوگیری از hallucination نیست؛
بلکه ابزاری برای شناسایی لحظه‌هایی است که مدل احتمالاً «لغزیده»، اشتباه کرده یا از دستورالعمل منحرف شده است.

🔗 جزئیات بیشتر:
openai.com/index/how-confessions-can-keep-language-models-honest/

#هوش_مصنوعی #AI #OpenAI #LLM #Confessions #GPT5 #ایمنی_مدل #پژوهش_هوش_مصنوعی @rss_ai_ir
1🔥1👏1
پنج تکنیک کلیدی برای فاین‌تیون مدل‌های زبانی بزرگ

با رشد مدل‌های زبانی، نیاز به تنظیم آن‌ها برای وظایف تخصصی بیشتر شده است. اما چگونه می‌توان این کار را به‌صرفه و بدون افت کیفیت انجام داد؟ 🤔
در این پست، پنج روش پیشرفته و پرکاربرد را یکجا مرور می‌کنیم:

1️⃣ LoRA —
کاهش هزینه با یادگیری کم‌پارامتر:
در این روش تنها ماتریس‌های کم‌رتبه آموزش داده می‌شوند. همین موضوع باعث می‌شود فاین‌تیون بسیار سریع‌تر و کم‌هزینه‌تر انجام شود.

2️⃣ LoRA-FA —
ترکیب LoRA با ویژگی‌های افزوده‌شده:
در این نسخه، مدل علاوه بر یادگیری کم‌پارامتر، از ویژگی‌های اضافه‌شده (Feature Augmentation) نیز استفاده می‌کند و عملکرد بهتری روی وظایف تخصصی ارائه می‌دهد.

3️⃣ Vera —
منظم‌سازی توکار در فضای امبدینگ:
این تکنیک با منظم‌سازی امبدینگ‌ها از بیش‌برازش جلوگیری می‌کند و باعث می‌شود مدل روی دامنه‌های مختلف بهتر تعمیم یابد.

4️⃣ Delta LoRA —
تمرکز بر لایه‌های مهم‌تر:
به‌جای آموزش لایه‌های زیاد، تنها لایه‌هایی که بیشترین اثر را دارند به‌روزرسانی می‌شوند. نتیجه: سرعت بیشتر و هزینهٔ کمتر بدون افت کیفیت.

5️⃣ Prefix Tuning —
هدایت رفتار مدل بدون تغییر وزن‌ها:
در این روش وزن‌های مدل دست‌نخورده باقی می‌ماند؛ تنها یک مجموعه "پیشوند آموزشی" یاد گرفته می‌شود که مدل را در جهت موردنظر هدایت می‌کند. روشی فوق‌العاده برای فاین‌تیون سریع و سبک.


---

@rss_ai_ir
#فاین‌تیون #هوش_مصنوعی #LLM #آموزش_مدل #دیپ_لرنینگ #ماشین_لرنینگ 🚀
1
📌 چطور یک نمونهٔ اولیه LLM را به یک سیستم آماده‌ی تولید تبدیل کنیم؟

🧠 هر مدل زبانی بزرگ وقتی از مرحلهٔ آزمایشی خارج می‌شود، تازه چالش‌های واقعی شروع می‌شوند. مسیری که از یک دمو جذاب به یک سرویس پایدار، مقیاس‌پذیر و مطمئن می‌رسد، پر از جزئیات مهندسی، بهینه‌سازی و تصمیم‌های مهم است.

🔧 در این راهنما مراحل کلیدی برای عملیاتی‌کردن مدل شامل:
— طراحی معماری مقیاس‌پذیر
— انتخاب استراتژی مناسب برای inference
— مانیتورینگ و تست‌پذیری
— مدیریت خطا و ریزش کیفیت
— امنیت، حریم خصوصی و کنترل نسخه
— استقرار در محیط واقعی و MLOps استاندارد

هدف این است که مدل فقط «کار کند» نیست؛ باید همیشه، سریع، دقیق و قابل اتکا عمل کند.
این نوشته خلاصه‌ای است از بهترین روش‌هایی که تیم‌ها برای تبدیل مدل‌ها از مرحلهٔ concept به Production AI استفاده می‌کنند.

https://towardsdatascience.com/how-to-turn-your-llm-prototype-into-a-production-ready-system/


#LLM #MLOps #ProductionAI #LLMOps 🚀
👍1
🔥 نسخه Transformers v5 منتشر شد!

جامعهٔ هوش مصنوعی امروز شاهد یک جهش بزرگ بود. نسخهٔ جدید Transformers v5 از Hugging Face رسماً عرضه شد و حالا تبدیل به ستون اصلی اکوسیستم متن‌باز در مدل‌های بزرگ شده است.

📈 رشد اکوسیستم در چند سال اخیر واقعاً خیره‌کننده بوده:

📦 از ۲۰هزار به ۳ میلیون نصب روزانه

🧠 از ۴۰ معماری پشتیبانی‌شده به ۴۰۰+

🗃️ بیش از ۷۵۰هزار چک‌پوینت

🌍 بیش از ۱.۲ میلیارد نصب تجمعی


مهم‌ترین تغییرات نسخهٔ جدید:

♻️معماری کاملاً مبتنی بر PyTorch
♻️طراحی ماژولار و قابل‌گسترش
♻️رویکرد «quantization-first» برای کارایی بالاتر
♻️همچنین Transformers Serve سازگار با APIهای OpenAI


این نسخه آغاز یک مرحلهٔ تازه در آیندهٔ مدل‌های متن‌باز است.
https://huggingface.co/blog/transformers-v5

#Transformers #HuggingFace #AI #DeepLearning #ML #PyTorch #LLM 🚀
4👍2👏1
🚀 بایت‌دنس مدل جدید برنامه‌نویسی خود را معرفی کرد: Doubao Seed Code

بایت‌دنس نسخه تازه‌ای از مدل‌های کدنویسی خود را منتشر کرده است؛ مدلی که علاوه بر درک و تولید کد، قابلیت ورود تصویر هم دارد و می‌تواند محتوای بصری را برای تحلیل مسائل برنامه‌نویسی بررسی کند.

نکات کلیدی:

♻️پشتیبانی از ورودی تصویری برای تحلیل بصری

♻️انتشار بِنچمارک‌ها و قیمت‌ها

♻️عملکرد بهتر از Sonnet 4.5 در آزمون‌های SWE-Bench-Verified و Multi-SWE

♻️عملکرد کمی ضعیف‌تر نسبت به Sonnet 4.5 در Terminal Bench


♻️این مدل بخشی از خانواده Doubao است که با هدف ادغام LLMها در جریان کاری توسعه‌دهندگان و سیستم‌های Edge Inference طراحی شده است.

🔗 تست و اطلاعات بیشتر:
https://exp.volcengine.com/ark?model=doubao-seed-code-preview-251028

#هوش_مصنوعی #بایت‌دنس #مدل_کدنویسی #AI #LLM