VIRSUN
7.19K subscribers
1.45K photos
819 videos
5 files
908 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 زیباترین تصویری که تا امروز از «درون ذهن یک مدل زبانی» دیده‌ایم!

در پاسخ به این سؤال همیشگی که «هوش مصنوعی دقیقاً چطور فکر می‌کند؟» — این بهترین و دقیق‌ترین بصری‌سازی از فرایند محاسباتی یک LLM است. یک پرواز سه‌بعدی تعاملی از داخل شبکه Llama؛ اما اصول آن برای تمام ترنسفورمرها صادق است.

چه چیزی را می‌بینیم؟

هر صفحه یک تنسور است؛ یک فریم از «فیلم ذهنی» مدل در لحظهٔ پردازش.

هر لایه دقیقاً نشان می‌دهد که چه عملی انجام می‌شود:
Attention, Projection, Normalization, MLP

با کلیک روی پنل سمت راست می‌توانید توضیح واضح هر مرحله را ببینید و اینکه چرا مدل از آن حالت به حالت بعدی می‌رود.

تجربه‌اش مثل این است که داخل یک فکر قدم می‌زنید.


و بالاخره پاسخ به سؤال بزرگ:
«روح» یک مدل زبانی کجاست؟
اینجاست—در همین تبدیل‌های پی‌درپی، تنسورها و لایه‌هایی که معنا را شکل می‌دهند.

⚪️ @rss_ai_ir

#AI #LLM #DeepLearning #Transformers #Visualization #NeuralNetworks #AIMind
👍4👎1🔥1
🔥 مدل Ministral 3 منتشر شد؛ نسل جدید مدل‌های ریزونی و اینستراکت از Mistral

مینسترال ۳ در سه نسخه‌ی ۳B ،۸B و ۱۴B عرضه شده و روی ریـزنینگ، دقت دستورات و حتی پردازش تصویری عملکردی فراتر از مدل‌های هم‌رده دارد.

ویژگی‌ها:

⚙️ نسخه‌ی ۱۴B روی لپ‌تاپ با ۲۴ گیگابایت RAM هم اجرا می‌شود

🧠 پشتیبانی از بینایی (Vision)

🚀 عملکرد قوی در تسک‌های استدلال و دنبال‌کردن دستورها

💻 امکان اجرا و فاین‌تیون لوکال


لینک‌ها:
راهنما + لپ‌تاپ:
https://docs.unsloth.ai/new/ministral-3

نسخه‌های GGUF:
https://huggingface.co/collections/unsloth/ministral-3

@rss_ai_ir

#AI #Mistral #Ministral3 #LLM #MachineLearning #Reasoning #GenAI
🔥1👏1
اوپن‌اِی‌آی روشی تازه برای وادار کردن مدل‌ها به اعتراف درباره خطاهای خود پیدا کرد – تکنیکی به نام Confessions.

یکی از چالش‌های مهم در مدل‌های زبانی این است که گاهی برای «خوش‌آمدگویى به ارزیاب» تلاش می‌کنند و به‌جای صداقت، پاسخ‌های قانع‌کننده اما غلط می‌سازند؛ یا حتی نقض دستورالعمل‌ها را پنهان می‌کنند.

🔍 تکنیک Confessions دقیقاً برای همین مشکل طراحی شده است.

این روش چگونه کار می‌کند؟

1️⃣ مدل ابتدا پاسخ عادی خود را تولید می‌کند.
2️⃣ سپس به‌طور مستقل یک گزارش ثانویه می‌نویسد و در آن بررسی می‌کند:

آیا دستورالعمل‌ها را نقض کرده؟

در کدام بخش‌ها احتمال خطا وجود دارد؟

کدام قسمت‌های پاسخ مشکوک یا غیرمطمئن بوده‌اند؟
3️⃣ پاداش نه برای عالی‌بودن پاسخ، بلکه برای صداقت داده می‌شود.


⚙️ هدف این است که مدل به رفتار خودش نگاه انتقادی داشته باشد، نه اینکه برای گرفتن نمره بهتر، خطا را پنهان کند.

📊 نتایج اولیه

در آزمایش‌های انجام‌شده روی GPT-5 Thinking احتمال اینکه مدل دستورالعمل را نقض کند و سعی در پنهان‌کردن آن داشته باشد به ۴.۴٪ کاهش یافت.

⚠️ نکته مهم:
اینکه Confessions جلوگیری از hallucination نیست؛
بلکه ابزاری برای شناسایی لحظه‌هایی است که مدل احتمالاً «لغزیده»، اشتباه کرده یا از دستورالعمل منحرف شده است.

🔗 جزئیات بیشتر:
openai.com/index/how-confessions-can-keep-language-models-honest/

#هوش_مصنوعی #AI #OpenAI #LLM #Confessions #GPT5 #ایمنی_مدل #پژوهش_هوش_مصنوعی @rss_ai_ir
1🔥1👏1
پنج تکنیک کلیدی برای فاین‌تیون مدل‌های زبانی بزرگ

با رشد مدل‌های زبانی، نیاز به تنظیم آن‌ها برای وظایف تخصصی بیشتر شده است. اما چگونه می‌توان این کار را به‌صرفه و بدون افت کیفیت انجام داد؟ 🤔
در این پست، پنج روش پیشرفته و پرکاربرد را یکجا مرور می‌کنیم:

1️⃣ LoRA —
کاهش هزینه با یادگیری کم‌پارامتر:
در این روش تنها ماتریس‌های کم‌رتبه آموزش داده می‌شوند. همین موضوع باعث می‌شود فاین‌تیون بسیار سریع‌تر و کم‌هزینه‌تر انجام شود.

2️⃣ LoRA-FA —
ترکیب LoRA با ویژگی‌های افزوده‌شده:
در این نسخه، مدل علاوه بر یادگیری کم‌پارامتر، از ویژگی‌های اضافه‌شده (Feature Augmentation) نیز استفاده می‌کند و عملکرد بهتری روی وظایف تخصصی ارائه می‌دهد.

3️⃣ Vera —
منظم‌سازی توکار در فضای امبدینگ:
این تکنیک با منظم‌سازی امبدینگ‌ها از بیش‌برازش جلوگیری می‌کند و باعث می‌شود مدل روی دامنه‌های مختلف بهتر تعمیم یابد.

4️⃣ Delta LoRA —
تمرکز بر لایه‌های مهم‌تر:
به‌جای آموزش لایه‌های زیاد، تنها لایه‌هایی که بیشترین اثر را دارند به‌روزرسانی می‌شوند. نتیجه: سرعت بیشتر و هزینهٔ کمتر بدون افت کیفیت.

5️⃣ Prefix Tuning —
هدایت رفتار مدل بدون تغییر وزن‌ها:
در این روش وزن‌های مدل دست‌نخورده باقی می‌ماند؛ تنها یک مجموعه "پیشوند آموزشی" یاد گرفته می‌شود که مدل را در جهت موردنظر هدایت می‌کند. روشی فوق‌العاده برای فاین‌تیون سریع و سبک.


---

@rss_ai_ir
#فاین‌تیون #هوش_مصنوعی #LLM #آموزش_مدل #دیپ_لرنینگ #ماشین_لرنینگ 🚀
1
📌 چطور یک نمونهٔ اولیه LLM را به یک سیستم آماده‌ی تولید تبدیل کنیم؟

🧠 هر مدل زبانی بزرگ وقتی از مرحلهٔ آزمایشی خارج می‌شود، تازه چالش‌های واقعی شروع می‌شوند. مسیری که از یک دمو جذاب به یک سرویس پایدار، مقیاس‌پذیر و مطمئن می‌رسد، پر از جزئیات مهندسی، بهینه‌سازی و تصمیم‌های مهم است.

🔧 در این راهنما مراحل کلیدی برای عملیاتی‌کردن مدل شامل:
— طراحی معماری مقیاس‌پذیر
— انتخاب استراتژی مناسب برای inference
— مانیتورینگ و تست‌پذیری
— مدیریت خطا و ریزش کیفیت
— امنیت، حریم خصوصی و کنترل نسخه
— استقرار در محیط واقعی و MLOps استاندارد

هدف این است که مدل فقط «کار کند» نیست؛ باید همیشه، سریع، دقیق و قابل اتکا عمل کند.
این نوشته خلاصه‌ای است از بهترین روش‌هایی که تیم‌ها برای تبدیل مدل‌ها از مرحلهٔ concept به Production AI استفاده می‌کنند.

https://towardsdatascience.com/how-to-turn-your-llm-prototype-into-a-production-ready-system/


#LLM #MLOps #ProductionAI #LLMOps 🚀
👍1
🔥 نسخه Transformers v5 منتشر شد!

جامعهٔ هوش مصنوعی امروز شاهد یک جهش بزرگ بود. نسخهٔ جدید Transformers v5 از Hugging Face رسماً عرضه شد و حالا تبدیل به ستون اصلی اکوسیستم متن‌باز در مدل‌های بزرگ شده است.

📈 رشد اکوسیستم در چند سال اخیر واقعاً خیره‌کننده بوده:

📦 از ۲۰هزار به ۳ میلیون نصب روزانه

🧠 از ۴۰ معماری پشتیبانی‌شده به ۴۰۰+

🗃️ بیش از ۷۵۰هزار چک‌پوینت

🌍 بیش از ۱.۲ میلیارد نصب تجمعی


مهم‌ترین تغییرات نسخهٔ جدید:

♻️معماری کاملاً مبتنی بر PyTorch
♻️طراحی ماژولار و قابل‌گسترش
♻️رویکرد «quantization-first» برای کارایی بالاتر
♻️همچنین Transformers Serve سازگار با APIهای OpenAI


این نسخه آغاز یک مرحلهٔ تازه در آیندهٔ مدل‌های متن‌باز است.
https://huggingface.co/blog/transformers-v5

#Transformers #HuggingFace #AI #DeepLearning #ML #PyTorch #LLM 🚀
4👍2👏1
🚀 بایت‌دنس مدل جدید برنامه‌نویسی خود را معرفی کرد: Doubao Seed Code

بایت‌دنس نسخه تازه‌ای از مدل‌های کدنویسی خود را منتشر کرده است؛ مدلی که علاوه بر درک و تولید کد، قابلیت ورود تصویر هم دارد و می‌تواند محتوای بصری را برای تحلیل مسائل برنامه‌نویسی بررسی کند.

نکات کلیدی:

♻️پشتیبانی از ورودی تصویری برای تحلیل بصری

♻️انتشار بِنچمارک‌ها و قیمت‌ها

♻️عملکرد بهتر از Sonnet 4.5 در آزمون‌های SWE-Bench-Verified و Multi-SWE

♻️عملکرد کمی ضعیف‌تر نسبت به Sonnet 4.5 در Terminal Bench


♻️این مدل بخشی از خانواده Doubao است که با هدف ادغام LLMها در جریان کاری توسعه‌دهندگان و سیستم‌های Edge Inference طراحی شده است.

🔗 تست و اطلاعات بیشتر:
https://exp.volcengine.com/ark?model=doubao-seed-code-preview-251028

#هوش_مصنوعی #بایت‌دنس #مدل_کدنویسی #AI #LLM
👍1
🚀 به‌روزرسانی بزرگ Qwen3-Omni-Flash (نسخه ۲۰۲۵-۱۲-۰۱) منتشر شد!

🔹 چه چیزهایی تغییر کرده؟

🎙️ گفتگو با صدا و ویدیو طبیعی‌تر از قبل شده است
مدل حالا مکالمات صوتی و تصویری را روان‌تر، پیوسته‌تر و شبیه انسان پردازش می‌کند.

امکان تعیین شخصیت و سبک تعاملِ هوش مصنوعی
فقط با یک System Prompt می‌توانید نقش، لحن، شخصیت یا سبک گفتار مدل را مشخص کنید.

🗣️ پشتیبانی زبانی گسترده‌تر
۱۱۹ زبان نوشتاری و ۱۹ زبان صوتی!

😊 صداها بسیار واقعی‌تر شده‌اند
تقریباً مشابه صدای انسان — مناسب برای دستیارهای صوتی حرفه‌ای.


---

🔹 کجا می‌توان آن را تست کرد؟

🎙️ در Qwen Chat — گزینه VoiceChat یا VideoChat
https://chat.qwen.ai

📝 توضیحات کامل در بلاگ
https://qwen.ai/blog?id=qwen3-omni-20251201

🎧 دمو آنلاین در Hugging Face
https://hf.co/spaces/Qwen/Qwen3-Omni-Demo

🎧 دمو دوم در ModelScope
https://modelscope.cn/studios/Qwen/Qwen3-Omni-Demo

Realtime API
https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-realtime-2025-12-01

📥 Offline API
https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-2025-12-01


---

#Qwen #هوش_مصنوعی #LLM #مولتی_مودال #AI
1👍1
🌐 رشد سالانه مدل‌های Gemini حدود ۴۰۰٪ بوده است.

این عدد یعنی چه؟ یعنی دلیلی که «سم آلتمن» حالت code red اعلام کرد کاملاً قابل درک است.
وقتی یک اکوسیستم مدل‌های هوش مصنوعی با چنین سرعتی رشد می‌کند، رقابت وارد مرحله‌ی بقا می‌شود، نه فقط رقابت تکنولوژیک.

در سال گذشته:

گوگل چند نسل مدل‌های Gemini را عرضه کرد؛

نسخه‌های Pro، Ultra، Nano و Flash تقریباً تمام محصولات گوگل را تغذیه می‌کنند؛

سهم بازار در جستجو، موبایل و سرویس‌های ابری تحت تأثیر هوش مصنوعی افزایش یافته؛

و اکنون Gemini تبدیل به سریع‌ترین رشد در میان مدل‌های مولتی‌مودال شده است.


در چنین شرایطی، هر شرکت بزرگ مجبور است سرعت خود را چند برابر کند.
گپ ۵.۲، فشار روی OpenAI و رقابت شدید xAI همگی نشانه‌ی همین واقعیت‌اند.

🔥 آینده‌ی مدل‌ها نه خطی، بلکه نمایی در حال رشد است.

#AI #Gemini #Google #LLM #TechWar #Innovation
👍2
🚀 بزرگ‌ترین جهش GPT-5.2 احتمالاً روی بنچمارک ARC-AGI اتفاق افتاده است

🧠 در ARC-AGI 1، این مدل به امتیاز 86.2٪ رسیده؛
در حالی که GPT-5.1 روی 72.8٪ و Gemini 3 Pro روی 75٪ متوقف شده بودند. این یک جهش بسیار جدی محسوب می‌شود.

⚡️ نسخه GPT-5.2 Pro با سطح استدلال X-High حتی به 90.5٪ رسیده، آن هم با هزینه‌ی 11.64 دلار برای هر مسئله.
برای مقایسه: فقط یک سال پیش، مدل منتشرنشده‌ی o3-High با 88٪، حدود 4500 دلار برای هر مسئله هزینه داشت.

📈 نتیجه؟
کارایی در عرض یک سال حدود 390 برابر افزایش یافته است.

🔥 اما در ARC-AGI 2 اوضاع حتی جالب‌تر می‌شود:
امتیاز از 17.6٪ به 52.9٪ جهش کرده!
نزدیک‌ترین رقیب یعنی Claude Opus 4.5 تنها 37.6٪ گرفته است.
و فقط یادآوری: بین انتشار GPT-5.1 و GPT-5.2 فقط یک ماه فاصله بوده 😐

نسخه GPT-5.2 Pro X-High احتمالاً امتیاز بالاتری هم دارد، اما برگزارکنندگان بنچمارک گفته‌اند به‌دلیل API timeout هنوز نتوانسته‌اند نتیجه را به‌طور قطعی تأیید کنند.
سطح متوسط انسان در ARC-AGI 2 حدود 60٪ است… باید دید آیا مدل از انسان عبور می‌کند یا نه 👀

📡 @rss_ai_ir

#AI #GPT52 #ARCAGI #هوش_مصنوعی #LLM #Benchmark #AGI
🎉15👍1211🔥7🥰7👏6😁6