VIRSUN
6.19K subscribers
886 photos
519 videos
4 files
565 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
🚀 مدل Grok 2.5 حالا روی سیستم‌ شخصی هم قابل اجراست!

🔹 تیم Unsloth نسخه‌ای بهینه‌شده از مدل را منتشر کرده که اجرای محلی را ممکن می‌کند:

270 میلیارد پارامتر روی یک مک معمولی با 128GB RAM (حدود ۵ توکن در ثانیه)
حجم مدل از 539GB به 118GB کاهش یافته (۸۰٪ کمتر)
لایه‌های کلیدی در فرمت 8-bit و سایر بخش‌ها با فشرده‌سازی 3-bit GGUF ذخیره شده‌اند.

📘 راهنما: docs.unsloth.ai/basics/grok-2
📥 مدل GGUF: huggingface.co/unsloth/grok-2-GGUF

@rss_ai_ir

#هوش_مصنوعی #xAI #Grok2 #مدل_زبانی #OpenSource #MachineLearning #DeepLearning
👍23🥰20🎉2016💯14😁12🔥11🤩8👏7😍7❤‍🔥7
🎯 ۷ گام تا تسلط بر مدل‌های زبانی بزرگ (LLM)

تسلط بر LLMها یک مسیر تدریجی است، نه یک مقصد. این اینفوگرافیک نقشه‌ی راه را نشان می‌دهد؛ از مبانی اولیه تا ساخت اپلیکیشن‌های واقعی:

1️⃣ درک مبانی LLM
🔹 پردازش زبان طبیعی (NLP)
🔹 یادگیری عمیق (Deep Learning)
🔹 ترنسفورمرها (Transformers)

2️⃣ بررسی معماری‌های LLM
🔹معماری BERT
🔹 معماری GPT
🔹معماری XLNet

3️⃣ پیش‌تمرین مدل‌ها
🔹 پیش‌بینی جمله‌ی بعدی
🔹 پیش‌تمرین متضاد زبان–تصویر (Contrastive Pre-training)

4️⃣ فاین‌تیونینگ LLMها
🔹 توابع زیان اختصاصی (Task-specific Loss)
🔹 افزایش داده (Data Augmentation)
🔹 توقف زودهنگام (Early Stopping)

5️⃣ تنظیم و پس‌آموزش
🔹 کاهش سوگیری (Bias Mitigation)
🔹 ارزیابی عدالت (Fairness Evaluation)
🔹 قابلیت توضیح‌پذیری (Explainability)

6️⃣ ارزیابی مدل
🔹 دقت (Accuracy)
🔹 روانی متن (Fluency)
🔹 مرتبط بودن پاسخ‌ها (Relevancy)

7️⃣ ساخت اپلیکیشن‌های LLM
🔹 چت‌بات‌ها
🔹 تولید محتوا
🔹 ترجمه‌ی زبان


---

🌟 اگر این مسیر را دنبال کنید، می‌توانید از درک مبانی تا پیاده‌سازی اپلیکیشن‌های پیشرفته مبتنی بر LLM حرکت کنید.

#هوش_مصنوعی #LLM #یادگیری_ماشین #مدل_زبان #دیپ_لرنینگ #NLP #AI #MachineLearning #DeepLearning #Chatbot #GenerativeAI

@rss_ai_ir
😁9👍8🔥8👏8🎉85🥰4🙏1
📊 استک اورفلو زنده است، اما در حال تغییر!

با ورود ChatGPT، فعالیت‌ها در استک اورفلو کاهش پیدا کرده، اما ماهیت پرسش‌ها عوض شده است:

🔹 تعداد سؤال‌ها کمتر شده، اما طولانی‌تر و پیچیده‌تر هستند.
🔹 مثال‌های کدنویسی بیشتر شده‌اند، به‌ویژه در پایتون (+۲۱٪).
🔹 پاسخ‌ها هم طولانی‌تر و مفصل‌تر شده‌اند.

📈 نتایج تحقیق دو ساله:

✳️تعداد کل سؤال‌ها همچنان در حال کاهش است.
✳️سؤال‌های ساده کمتر شده‌اند.
✳️سؤال‌های سطح متوسط افزایش یافته‌اند.
✳️سؤال‌های سخت تقریبا ثابت مانده‌اند.


👉 منطق ماجرا ساده است:

♻️کاربران برای پرسش‌های ساده سراغ ChatGPT می‌روند.
♻️استک اورفلو تبدیل شده به محل طرح مسائل پیچیده و نیازمند تجربه انسانی.


بنابراین استک اورفلو نمی‌میرد، بلکه دارد به پلتفرمی برای بحث‌های فنی عمیق تبدیل می‌شود؛ در حالی که رفع سریع مشکلات روزمره به سمت هوش مصنوعی رفته است.

📖 جزئیات کامل تحقیق:
arxiv.org/abs/2509.05879

@rss_ai_ir

#AI #StackOverflow #ChatGPT #MachineLearning #BigData #Programming #Python
😁21🥰20👍15🔥15🎉1412👏5😍3❤‍🔥3💯3🤩1
🚀 Ring-mini-2.0
؛ مدل کوچک اما فوق‌العاده قدرتمند!

💡 این مدل با 16B-A1B پارامتر و بهره‌گیری از استراتژی‌های Stable RLVR + RLHF آموزش دیده و کیفیتی پایدار و متعادل در طیف وسیعی از وظایف ارائه می‌دهد.
🧠 در منطق و استدلال، از مدل‌های Dense با همین اندازه عملکرد بهتری دارد.
سرعت پردازش: بیش از ۳۰۰ توکن در ثانیه (۷ برابر سریع‌تر از مدل‌های Dense مشابه).

🔥 نمونه‌ای دیگر از اینکه چگونه مدل‌های کوچک‌تر «Thinking Models» روزبه‌روز باهوش‌تر و سریع‌تر می‌شوند!

🔗 مشاهده در HuggingFace
@rss_ai_ir

#AI #LLM #RingMini #DeepLearning #OpenSource #MachineLearning #ThinkingModels
👍1🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
در این ویدیو، مفاهیم کلیدی یادگیری ماشین به‌صورت بصری نمایش داده می‌شوند. 📊
از جمله:
🔹 نحوه تغییر وزن‌ها در طول آموزش

🔹 روند بهبود Accuracy در هر Epoch
این نوع ویژوال‌سازی‌ها باعث می‌شوند درک مفاهیم پیچیده‌ی یادگیری ماشین ساده‌تر و عمیق‌تر شود.
@rss_ai_ir

#MachineLearning #DeepLearning #DataScience #AI #Visualization
😁12🎉12👍119🔥8🥰7👏4
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 تشخیص چهره با هوش مصنوعی

الگوریتم‌های Face Recognition با استفاده از شبکه‌های عصبی کانولوشنی (CNN) می‌توانند ویژگی‌های منحصر به فرد چهره را استخراج و با یکدیگر مقایسه کنند.

📌 همانطور که در این ویدیو می‌بینید:

تصاویر مختلف از یک فرد (مثلاً در شرایط نوری یا حالات متفاوت) وارد شبکه می‌شوند.

مدل CNN Encoder ویژگی‌های کلیدی چهره را به بردار عددی تبدیل می‌کند.

در نهایت، این بردارها با هم مقایسه شده و مشخص می‌شود که هر دو تصویر متعلق به یک فرد هستند یا خیر.


این تکنیک امروز در کاربردهایی مثل امنیت، کنترل دسترسی، گوشی‌های هوشمند و حتی شبکه‌های اجتماعی استفاده می‌شود.

👁‍🗨 آینده سیستم‌های بینایی ماشین بدون شک با چنین الگوریتم‌هایی گره خورده است.

@rss_ai_ir

#AI #FaceRecognition #DeepLearning #ComputerVision #MachineLearning
🥰1211🔥11🎉10👏8👍7😁6
🔗 نقشه راه یادگیری ماشین (Machine Learning Roadmap)

اگر تازه شروع کرده‌اید یا می‌خواهید مهارت‌های خود را ارتقا دهید، این نقشه راه هر مرحله را برایتان شفاف می‌کند:

1️⃣ پایه محکم در ریاضی و آمار بسازید.
2️⃣ با الگوریتم‌های یادگیری ماشین مثل رگرسیون خطی، SVM و خوشه‌بندی آشنا شوید.
3️⃣ مسیر تخصصی خود را انتخاب کنید: یادگیری نظارت‌شده، بدون نظارت یا سیستم‌های توصیه‌گر.
4️⃣ کتابخانه‌های پرکاربرد مثل PyTorch، TensorFlow و Scikit-learn را یاد بگیرید.
5️⃣ تجربه عملی کسب کنید: پروژه‌های واقعی، کارآموزی یا پروژه‌های جانبی.

این مسیر از پایه تا پیشرفته شما را آماده ورود به دنیای حرفه‌ای یادگیری ماشین می‌کند. 🚀

@rss_ai_ir
#یادگیری_ماشین #هوش_مصنوعی #MachineLearning
🔥17🥰1715👍15👏14🎉10😁8
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 تمرین تعادل ربات‌های انسان‌نما


#هوش_مصنوعی #رباتیک #ربات_انسان_نما #AI #Robotics #FutureTech #MachineLearning
😁21🥰18👍1312🔥12👏12🎉7
این تصویر ۹ اصل کلیدی برای بهبود عملکرد سیستم‌های RAG را نشون میده:

1️⃣ Chunking
تقسیم بهینه اسناد (۵۱۲–۱۰۲۴ توکن) و استفاده از پنجره‌های لغزان برای پوشش بهتر محتوا.

2️⃣ Embeddings
استفاده از مدل‌های بردار پیشرفته مثل BAAI یا MPNET برای دقت بالا.

3️⃣ Vector Store
انتخاب دیتابیس مناسب (مثل Milvus, Weaviate, Pinecone) بر اساس مقیاس و سرعت.

4️⃣ Query Processing
استفاده از تکنیک‌های HYDE و hybrid search برای بهبود بازیابی.

5️⃣ Reranking
اعمال مدل‌های بازچینش مثل MonoBERT یا TILDE برای افزایش دقت.

6️⃣ Summarization
ترکیب رویکردهای extractive و abstractive برای خلاصه‌سازی جامع.

7️⃣ Fine-tuning
تنظیم دقیق مدل برای بهبود عملکرد در دامنه‌های خاص.

8️⃣ Evaluation
پایش متریک‌های عمومی و دامنه‌ای برای بهبود مستمر سیستم.

9️⃣ LLM Integration
ادغام هوشمند مدل‌های زبانی بزرگ با retrieval.

🔟 Repacking
پیاده‌سازی استراتژی‌های sides, forward, reverse برای بسته‌بندی بهینه محتوا.


#هوش_مصنوعی #RAG #LLM #یادگیری_ماشین #AI #MachineLearning #GenerativeAI
🔥21👏16🎉1512🥰12👍11😁11
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 Reinforcement Learning in DeepSeek-R1 | توضیح تصویری

⛔️در این ویدیو به شکل ساده و کاملاً بصری می‌بینید که الگوریتم یادگیری تقویتی (Reinforcement Learning) چطور در مدل DeepSeek-R1 استفاده می‌شود.
📌 نمایش تعامل عامل (Agent) با محیط، دریافت پاداش و اصلاح رفتار برای رسیدن به بهترین نتیجه.

👨‍💻 مناسب برای:

✳️دانشجویان و علاقه‌مندان به یادگیری ماشین
✳️کسانی که می‌خواهند درک عمیق‌تری از RL داشته باشند
✳️پژوهشگران حوزه هوش مصنوعی و مدل‌های DeepSeek

@rss_ai_ir

---

#DeepSeek #ReinforcementLearning #AI #MachineLearning #یادگیری_ماشین #هوش_مصنوعی #RL #DeepSeekR1
18🔥17🎉15😁12🥰11👏11👍9
🚀 در ByteDance Seed تکنیک جدیدی برای آموزش LLM معرفی شد: Knapsack RL

🔍 مشکل در RL کلاسیک:

در کارهای ساده همیشه موفقیت → بدون گرادیان
در کارهای سخت همیشه شکست → باز هم بدون گرادیان


💡 راهکار:
به جای توزیع یکنواخت rolloutها، بودجه محاسباتی مثل یک مسئله کوله‌پشتی (Knapsack) روی مواردی صرف می‌شود که واقعاً سیگنال آموزشی می‌دهند.

نتایج:

🔼 ‌+20–40% گرادیان‌های غیرصفر بیشتر
🧮 تا 93 rollout برای مسائل سخت (بدون هزینه اضافه)
📈 ‌+2–4 امتیاز میانگین، تا +9 در ریاضیات
💰 ‌حدوداً دو برابر ارزان‌تر از روش توزیع یکنواخت


📄 جزییات بیشتر:
huggingface.co/papers/2509.25849

@rss_ai_ir 🤖

#هوش_مصنوعی #یادگیری_تقویتی #LLM #KnapsackRL #ByteDance #ماشین_لرنینگ #یادگیری_عمیق #AI #RLHF #MachineLearning
🎓 استنفورد مجموعه‌ای جدید از درس‌های رایگان هوش مصنوعی با تدریس اندرو اِن‌جی منتشر کرد

⛔️دانشگاه Stanford مجموعه‌ای تازه از درس‌های آزاد (Open Lectures) در زمینه هوش مصنوعی و یادگیری ماشین را با تدریس مستقیم Andrew Ng — بنیان‌گذار Coursera و از پیشگامان آموزش مدرن هوش مصنوعی — منتشر کرده است. 🤖📚

---

🧠 محتوای دوره:

✳️آموزش شبکه‌های عصبی و اصول آموزش مدل‌های AI
✳️طراحی و ساخت عامل‌های هوشمند (AI Agents)
✳️نکات حرفه‌ای برای پیشرفت شغلی در حوزه هوش مصنوعی
✳️تمرین‌های عملی با فریم‌ورک‌های مدرن AI (مثل PyTorch و TensorFlow)
✳️مناسب برای مبتدیان تا متخصصان حرفه‌ای
---

💡 این دوره بخشی از برنامه جهانی دانشگاه استنفورد برای دسترسی همگانی به آموزش‌های AI است و به‌صورت کاملاً رایگان منتشر می‌شود.

📘 لینک دوره:
Stanford AI Lectures – Andrew Ng

https://www.youtube.com/watch?v=_NLHFoVNlbg

👨‍🏫 اندرو اِن‌جی همچنان همان کاری را انجام می‌دهد که مدل‌های هوش مصنوعی از آن ناتوان‌اند:
آموزش انسان‌ها برای تفکر مانند ماشین‌ها. 💬

#AI #MachineLearning #Stanford #AndrewNg #Education #Coursera #DeepLearning @rss_ai_ir
👍2
🔥 پژوهشی تازه نشان می‌دهد که GPT-6 ممکن است نه فقط هوشمندتر، بلکه از نظر محاسباتی «زنده» باشد!

🧠 مقاله‌ای با عنوان SEAL (Self-Adapting Language Models) در arXiv:2506.10943 منتشر شده که توضیح می‌دهد چگونه یک مدل زبانی می‌تواند پس از استقرار در دنیای واقعی، به یادگیری مداوم ادامه دهد — بدون نیاز به بازآموزی (retraining).

چند نفر از نویسندگان SEAL اکنون در OpenAI فعالیت می‌کنند 👀 و احتمال زیادی وجود دارد که این فناوری در GPT-6 به کار گرفته شود.

ویژگی‌های کلیدی SEAL:

📚 یادگیری از داده‌های جدید در زمان واقعی

🔧 ترمیم خودکار دانش تخریب‌شده

🧩 ایجاد حافظه‌های پایدار در میان جلسات مختلف


اگر GPT-6 این معماری را بپذیرد، دیگر صرفاً از داده‌ها استفاده نخواهد کرد — بلکه آن‌ها را جذب می‌کند.
مدلی که با تغییر جهان، خودش هم تغییر می‌کند و هر روز بهتر می‌شود.

📈 این می‌تواند آغاز عصر یادگیری پیوسته باشد — پایانی بر دوره‌ی مدل‌های ثابت و منجمد.
به فصل جدید خوش آمدید.

https://arxiv.org/abs/2506.10943

@rss_ai_ir
#GPT6 #OpenAI #SEAL #AI #ContinuousLearning #MachineLearning
👍1👏1
🤗 چه کسانی واقعاً محرک هوش مصنوعی متن‌باز هستند؟
تحلیل ۵۰ مدل برتر از نظر دانلود در Hugging Face

---
📊 مطالعه‌ی جدید نشان می‌دهد که کدام سازمان‌ها و چه نوع مدل‌هایی ستون فقرات اکوسیستم open-source AI را تشکیل می‌دهند.
---
🔥 نتایج کلیدی:
📦 تنها ۵۰ مدل (۳.۴٪ از کل مدل‌ها) بیش از ۸۰٪ از ۴۵ میلیارد دانلود را به خود اختصاص داده‌اند.
یعنی بیشتر فعالیت‌ها حول محور گروه کوچکی از رهبران می‌چرخد — همان‌هایی که چهره‌ی اصلی AI متن‌باز را می‌سازند.


---

📉 اندازه مهم است (کوچک‌تر = بهتر):

♻️۹۲.۵٪ دانلودها مربوط به مدل‌هایی با کمتر از ۱ میلیارد پارامتر
♻️۸۶.۳٪ < ۵۰۰ میلیون
♻️۷۰٪ < ۲۰۰ میلیون
♻️۴۰٪ < ۱۰۰ میلیون


نتیجه واضح است: در دنیای open-source، مدل‌های سبک، سریع و قابل اجرا روی دستگاه‌های محلی برنده‌اند.
---

🧠 محبوب‌ترین حوزه‌ها:

♻️مدل NLP (پردازش زبان طبیعی) — ۵۸.۱٪
♻️بینایی کامپیوتر — ۲۱.۲٪
♻️صوت — ۱۵.۱٪
♻️چندوجهی — ۳.۳٪
♻️داده‌های زمانی — ۱.۷٪
---

🏢 چه کسانی این مدل‌ها را می‌سازند؟

♻️شرکت‌ها — ۶۳.۲٪ (گوگل پیشتاز است)
♻️دانشگاه‌ها — ۲۰.۷٪
♻️توسعه‌دهندگان مستقل — ۱۲.۱٪
♻️سازمان‌های غیرانتفاعی — ۳.۸٪
♻️آزمایشگاه‌های دیگر — ۰.۳٪
---

⚙️ چه نوع مدل‌هایی محبوب‌ترند؟

♻️مدل Encoderهای متنی — ۴۵٪ از کل دانلودها
♻️مدل Decoderها — ۹.۵٪
♻️مدل Encoder-Decoderها — ۳٪

📌 بر خلاف هیاهوی رسانه‌ای پیرامون LLMها، کاربران عمدتاً مدل‌های کاربردی و کوچک را دانلود می‌کنند که به راحتی در محصولات واقعی ادغام می‌شوند.

---

🌍 پراکندگی جغرافیایی:
ایالات متحده با اختلاف پیشتاز است:

♻️۱۸ بار در میان ۵۰ مدل برتر دیده می‌شود.
♻️۵۶.۴٪ از کل دانلودها از مدل‌های ساخت آمریکا هستند.
---
💡 نتیجه نهایی:
هوش مصنوعی متن‌باز نه به لطف غول‌هایی با تریلیون پارامتر، بلکه به کمک مدل‌های فشرده، سریع و کاربردی زنده است — همان‌هایی که واقعاً در پروژه‌ها و محصولات استفاده می‌شوند.

---

📖 منبع کامل: Hugging Face Blog
@rss_ai_ir

#AI #HuggingFace #OpenSource #MachineLearning #LLM #AITrends