🚀 مدل Grok 2.5 حالا روی سیستم شخصی هم قابل اجراست!
🔹 تیم Unsloth نسخهای بهینهشده از مدل را منتشر کرده که اجرای محلی را ممکن میکند:
✅ 270 میلیارد پارامتر روی یک مک معمولی با 128GB RAM (حدود ۵ توکن در ثانیه)
✅ حجم مدل از 539GB به 118GB کاهش یافته (۸۰٪ کمتر)
✅ لایههای کلیدی در فرمت 8-bit و سایر بخشها با فشردهسازی 3-bit GGUF ذخیره شدهاند.
📘 راهنما: docs.unsloth.ai/basics/grok-2
📥 مدل GGUF: huggingface.co/unsloth/grok-2-GGUF
@rss_ai_ir
#هوش_مصنوعی #xAI #Grok2 #مدل_زبانی #OpenSource #MachineLearning #DeepLearning
🔹 تیم Unsloth نسخهای بهینهشده از مدل را منتشر کرده که اجرای محلی را ممکن میکند:
✅ 270 میلیارد پارامتر روی یک مک معمولی با 128GB RAM (حدود ۵ توکن در ثانیه)
✅ حجم مدل از 539GB به 118GB کاهش یافته (۸۰٪ کمتر)
✅ لایههای کلیدی در فرمت 8-bit و سایر بخشها با فشردهسازی 3-bit GGUF ذخیره شدهاند.
📘 راهنما: docs.unsloth.ai/basics/grok-2
📥 مدل GGUF: huggingface.co/unsloth/grok-2-GGUF
@rss_ai_ir
#هوش_مصنوعی #xAI #Grok2 #مدل_زبانی #OpenSource #MachineLearning #DeepLearning
👍23🥰20🎉20❤16💯14😁12🔥11🤩8👏7😍7❤🔥7
🎯 ۷ گام تا تسلط بر مدلهای زبانی بزرگ (LLM)
تسلط بر LLMها یک مسیر تدریجی است، نه یک مقصد. این اینفوگرافیک نقشهی راه را نشان میدهد؛ از مبانی اولیه تا ساخت اپلیکیشنهای واقعی:
1️⃣ درک مبانی LLM
🔹 پردازش زبان طبیعی (NLP)
🔹 یادگیری عمیق (Deep Learning)
🔹 ترنسفورمرها (Transformers)
2️⃣ بررسی معماریهای LLM
🔹معماری BERT
🔹 معماری GPT
🔹معماری XLNet
3️⃣ پیشتمرین مدلها
🔹 پیشبینی جملهی بعدی
🔹 پیشتمرین متضاد زبان–تصویر (Contrastive Pre-training)
4️⃣ فاینتیونینگ LLMها
🔹 توابع زیان اختصاصی (Task-specific Loss)
🔹 افزایش داده (Data Augmentation)
🔹 توقف زودهنگام (Early Stopping)
5️⃣ تنظیم و پسآموزش
🔹 کاهش سوگیری (Bias Mitigation)
🔹 ارزیابی عدالت (Fairness Evaluation)
🔹 قابلیت توضیحپذیری (Explainability)
6️⃣ ارزیابی مدل
🔹 دقت (Accuracy)
🔹 روانی متن (Fluency)
🔹 مرتبط بودن پاسخها (Relevancy)
7️⃣ ساخت اپلیکیشنهای LLM
🔹 چتباتها
🔹 تولید محتوا
🔹 ترجمهی زبان
---
🌟 اگر این مسیر را دنبال کنید، میتوانید از درک مبانی تا پیادهسازی اپلیکیشنهای پیشرفته مبتنی بر LLM حرکت کنید.
#هوش_مصنوعی #LLM #یادگیری_ماشین #مدل_زبان #دیپ_لرنینگ #NLP #AI #MachineLearning #DeepLearning #Chatbot #GenerativeAI
@rss_ai_ir
تسلط بر LLMها یک مسیر تدریجی است، نه یک مقصد. این اینفوگرافیک نقشهی راه را نشان میدهد؛ از مبانی اولیه تا ساخت اپلیکیشنهای واقعی:
1️⃣ درک مبانی LLM
🔹 پردازش زبان طبیعی (NLP)
🔹 یادگیری عمیق (Deep Learning)
🔹 ترنسفورمرها (Transformers)
2️⃣ بررسی معماریهای LLM
🔹معماری BERT
🔹 معماری GPT
🔹معماری XLNet
3️⃣ پیشتمرین مدلها
🔹 پیشبینی جملهی بعدی
🔹 پیشتمرین متضاد زبان–تصویر (Contrastive Pre-training)
4️⃣ فاینتیونینگ LLMها
🔹 توابع زیان اختصاصی (Task-specific Loss)
🔹 افزایش داده (Data Augmentation)
🔹 توقف زودهنگام (Early Stopping)
5️⃣ تنظیم و پسآموزش
🔹 کاهش سوگیری (Bias Mitigation)
🔹 ارزیابی عدالت (Fairness Evaluation)
🔹 قابلیت توضیحپذیری (Explainability)
6️⃣ ارزیابی مدل
🔹 دقت (Accuracy)
🔹 روانی متن (Fluency)
🔹 مرتبط بودن پاسخها (Relevancy)
7️⃣ ساخت اپلیکیشنهای LLM
🔹 چتباتها
🔹 تولید محتوا
🔹 ترجمهی زبان
---
🌟 اگر این مسیر را دنبال کنید، میتوانید از درک مبانی تا پیادهسازی اپلیکیشنهای پیشرفته مبتنی بر LLM حرکت کنید.
#هوش_مصنوعی #LLM #یادگیری_ماشین #مدل_زبان #دیپ_لرنینگ #NLP #AI #MachineLearning #DeepLearning #Chatbot #GenerativeAI
@rss_ai_ir
😁9👍8🔥8👏8🎉8❤5🥰4🙏1
📊 استک اورفلو زنده است، اما در حال تغییر!
با ورود ChatGPT، فعالیتها در استک اورفلو کاهش پیدا کرده، اما ماهیت پرسشها عوض شده است:
🔹 تعداد سؤالها کمتر شده، اما طولانیتر و پیچیدهتر هستند.
🔹 مثالهای کدنویسی بیشتر شدهاند، بهویژه در پایتون (+۲۱٪).
🔹 پاسخها هم طولانیتر و مفصلتر شدهاند.
📈 نتایج تحقیق دو ساله:
✳️تعداد کل سؤالها همچنان در حال کاهش است.
✳️سؤالهای ساده کمتر شدهاند.
✳️سؤالهای سطح متوسط افزایش یافتهاند.
✳️سؤالهای سخت تقریبا ثابت ماندهاند.
👉 منطق ماجرا ساده است:
♻️کاربران برای پرسشهای ساده سراغ ChatGPT میروند.
♻️استک اورفلو تبدیل شده به محل طرح مسائل پیچیده و نیازمند تجربه انسانی.
❌بنابراین استک اورفلو نمیمیرد، بلکه دارد به پلتفرمی برای بحثهای فنی عمیق تبدیل میشود؛ در حالی که رفع سریع مشکلات روزمره به سمت هوش مصنوعی رفته است.
📖 جزئیات کامل تحقیق:
arxiv.org/abs/2509.05879
@rss_ai_ir
#AI #StackOverflow #ChatGPT #MachineLearning #BigData #Programming #Python
با ورود ChatGPT، فعالیتها در استک اورفلو کاهش پیدا کرده، اما ماهیت پرسشها عوض شده است:
🔹 تعداد سؤالها کمتر شده، اما طولانیتر و پیچیدهتر هستند.
🔹 مثالهای کدنویسی بیشتر شدهاند، بهویژه در پایتون (+۲۱٪).
🔹 پاسخها هم طولانیتر و مفصلتر شدهاند.
📈 نتایج تحقیق دو ساله:
✳️تعداد کل سؤالها همچنان در حال کاهش است.
✳️سؤالهای ساده کمتر شدهاند.
✳️سؤالهای سطح متوسط افزایش یافتهاند.
✳️سؤالهای سخت تقریبا ثابت ماندهاند.
👉 منطق ماجرا ساده است:
♻️کاربران برای پرسشهای ساده سراغ ChatGPT میروند.
♻️استک اورفلو تبدیل شده به محل طرح مسائل پیچیده و نیازمند تجربه انسانی.
❌بنابراین استک اورفلو نمیمیرد، بلکه دارد به پلتفرمی برای بحثهای فنی عمیق تبدیل میشود؛ در حالی که رفع سریع مشکلات روزمره به سمت هوش مصنوعی رفته است.
📖 جزئیات کامل تحقیق:
arxiv.org/abs/2509.05879
@rss_ai_ir
#AI #StackOverflow #ChatGPT #MachineLearning #BigData #Programming #Python
😁21🥰20👍15🔥15🎉14❤12👏5😍3❤🔥3💯3🤩1
🚀 Ring-mini-2.0
؛ مدل کوچک اما فوقالعاده قدرتمند!
💡 این مدل با 16B-A1B پارامتر و بهرهگیری از استراتژیهای Stable RLVR + RLHF آموزش دیده و کیفیتی پایدار و متعادل در طیف وسیعی از وظایف ارائه میدهد.
🧠 در منطق و استدلال، از مدلهای Dense با همین اندازه عملکرد بهتری دارد.
⚡ سرعت پردازش: بیش از ۳۰۰ توکن در ثانیه (۷ برابر سریعتر از مدلهای Dense مشابه).
🔥 نمونهای دیگر از اینکه چگونه مدلهای کوچکتر «Thinking Models» روزبهروز باهوشتر و سریعتر میشوند!
🔗 مشاهده در HuggingFace
@rss_ai_ir
#AI #LLM #RingMini #DeepLearning #OpenSource #MachineLearning #ThinkingModels
؛ مدل کوچک اما فوقالعاده قدرتمند!
💡 این مدل با 16B-A1B پارامتر و بهرهگیری از استراتژیهای Stable RLVR + RLHF آموزش دیده و کیفیتی پایدار و متعادل در طیف وسیعی از وظایف ارائه میدهد.
🧠 در منطق و استدلال، از مدلهای Dense با همین اندازه عملکرد بهتری دارد.
⚡ سرعت پردازش: بیش از ۳۰۰ توکن در ثانیه (۷ برابر سریعتر از مدلهای Dense مشابه).
🔥 نمونهای دیگر از اینکه چگونه مدلهای کوچکتر «Thinking Models» روزبهروز باهوشتر و سریعتر میشوند!
🔗 مشاهده در HuggingFace
@rss_ai_ir
#AI #LLM #RingMini #DeepLearning #OpenSource #MachineLearning #ThinkingModels
👍1🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
در این ویدیو، مفاهیم کلیدی یادگیری ماشین بهصورت بصری نمایش داده میشوند. 📊
از جمله:
🔹 نحوه تغییر وزنها در طول آموزش
🔹 روند بهبود Accuracy در هر Epoch
این نوع ویژوالسازیها باعث میشوند درک مفاهیم پیچیدهی یادگیری ماشین سادهتر و عمیقتر شود.
@rss_ai_ir
#MachineLearning #DeepLearning #DataScience #AI #Visualization
از جمله:
🔹 نحوه تغییر وزنها در طول آموزش
🔹 روند بهبود Accuracy در هر Epoch
این نوع ویژوالسازیها باعث میشوند درک مفاهیم پیچیدهی یادگیری ماشین سادهتر و عمیقتر شود.
@rss_ai_ir
#MachineLearning #DeepLearning #DataScience #AI #Visualization
😁12🎉12👍11❤9🔥8🥰7👏4
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 تشخیص چهره با هوش مصنوعی
الگوریتمهای Face Recognition با استفاده از شبکههای عصبی کانولوشنی (CNN) میتوانند ویژگیهای منحصر به فرد چهره را استخراج و با یکدیگر مقایسه کنند.
📌 همانطور که در این ویدیو میبینید:
✅تصاویر مختلف از یک فرد (مثلاً در شرایط نوری یا حالات متفاوت) وارد شبکه میشوند.
✅مدل CNN Encoder ویژگیهای کلیدی چهره را به بردار عددی تبدیل میکند.
✅در نهایت، این بردارها با هم مقایسه شده و مشخص میشود که هر دو تصویر متعلق به یک فرد هستند یا خیر.
این تکنیک امروز در کاربردهایی مثل امنیت، کنترل دسترسی، گوشیهای هوشمند و حتی شبکههای اجتماعی استفاده میشود.
👁🗨 آینده سیستمهای بینایی ماشین بدون شک با چنین الگوریتمهایی گره خورده است.
@rss_ai_ir
#AI #FaceRecognition #DeepLearning #ComputerVision #MachineLearning
الگوریتمهای Face Recognition با استفاده از شبکههای عصبی کانولوشنی (CNN) میتوانند ویژگیهای منحصر به فرد چهره را استخراج و با یکدیگر مقایسه کنند.
📌 همانطور که در این ویدیو میبینید:
✅تصاویر مختلف از یک فرد (مثلاً در شرایط نوری یا حالات متفاوت) وارد شبکه میشوند.
✅مدل CNN Encoder ویژگیهای کلیدی چهره را به بردار عددی تبدیل میکند.
✅در نهایت، این بردارها با هم مقایسه شده و مشخص میشود که هر دو تصویر متعلق به یک فرد هستند یا خیر.
این تکنیک امروز در کاربردهایی مثل امنیت، کنترل دسترسی، گوشیهای هوشمند و حتی شبکههای اجتماعی استفاده میشود.
👁🗨 آینده سیستمهای بینایی ماشین بدون شک با چنین الگوریتمهایی گره خورده است.
@rss_ai_ir
#AI #FaceRecognition #DeepLearning #ComputerVision #MachineLearning
🥰12❤11🔥11🎉10👏8👍7😁6
🔗 نقشه راه یادگیری ماشین (Machine Learning Roadmap)
اگر تازه شروع کردهاید یا میخواهید مهارتهای خود را ارتقا دهید، این نقشه راه هر مرحله را برایتان شفاف میکند:
1️⃣ پایه محکم در ریاضی و آمار بسازید.
2️⃣ با الگوریتمهای یادگیری ماشین مثل رگرسیون خطی، SVM و خوشهبندی آشنا شوید.
3️⃣ مسیر تخصصی خود را انتخاب کنید: یادگیری نظارتشده، بدون نظارت یا سیستمهای توصیهگر.
4️⃣ کتابخانههای پرکاربرد مثل PyTorch، TensorFlow و Scikit-learn را یاد بگیرید.
5️⃣ تجربه عملی کسب کنید: پروژههای واقعی، کارآموزی یا پروژههای جانبی.
این مسیر از پایه تا پیشرفته شما را آماده ورود به دنیای حرفهای یادگیری ماشین میکند. 🚀
@rss_ai_ir
#یادگیری_ماشین #هوش_مصنوعی #MachineLearning
اگر تازه شروع کردهاید یا میخواهید مهارتهای خود را ارتقا دهید، این نقشه راه هر مرحله را برایتان شفاف میکند:
1️⃣ پایه محکم در ریاضی و آمار بسازید.
2️⃣ با الگوریتمهای یادگیری ماشین مثل رگرسیون خطی، SVM و خوشهبندی آشنا شوید.
3️⃣ مسیر تخصصی خود را انتخاب کنید: یادگیری نظارتشده، بدون نظارت یا سیستمهای توصیهگر.
4️⃣ کتابخانههای پرکاربرد مثل PyTorch، TensorFlow و Scikit-learn را یاد بگیرید.
5️⃣ تجربه عملی کسب کنید: پروژههای واقعی، کارآموزی یا پروژههای جانبی.
این مسیر از پایه تا پیشرفته شما را آماده ورود به دنیای حرفهای یادگیری ماشین میکند. 🚀
@rss_ai_ir
#یادگیری_ماشین #هوش_مصنوعی #MachineLearning
🔥17🥰17❤15👍15👏14🎉10😁8
This media is not supported in your browser
VIEW IN TELEGRAM
🤖✨ تمرین تعادل رباتهای انساننما
#هوش_مصنوعی #رباتیک #ربات_انسان_نما #AI #Robotics #FutureTech #MachineLearning
#هوش_مصنوعی #رباتیک #ربات_انسان_نما #AI #Robotics #FutureTech #MachineLearning
😁21🥰18👍13❤12🔥12👏12🎉7
این تصویر ۹ اصل کلیدی برای بهبود عملکرد سیستمهای RAG را نشون میده:
1️⃣ Chunking –
تقسیم بهینه اسناد (۵۱۲–۱۰۲۴ توکن) و استفاده از پنجرههای لغزان برای پوشش بهتر محتوا.
2️⃣ Embeddings –
استفاده از مدلهای بردار پیشرفته مثل BAAI یا MPNET برای دقت بالا.
3️⃣ Vector Store –
انتخاب دیتابیس مناسب (مثل Milvus, Weaviate, Pinecone) بر اساس مقیاس و سرعت.
4️⃣ Query Processing –
استفاده از تکنیکهای HYDE و hybrid search برای بهبود بازیابی.
5️⃣ Reranking –
اعمال مدلهای بازچینش مثل MonoBERT یا TILDE برای افزایش دقت.
6️⃣ Summarization –
ترکیب رویکردهای extractive و abstractive برای خلاصهسازی جامع.
7️⃣ Fine-tuning –
تنظیم دقیق مدل برای بهبود عملکرد در دامنههای خاص.
8️⃣ Evaluation –
پایش متریکهای عمومی و دامنهای برای بهبود مستمر سیستم.
9️⃣ LLM Integration –
ادغام هوشمند مدلهای زبانی بزرگ با retrieval.
🔟 Repacking –
پیادهسازی استراتژیهای sides, forward, reverse برای بستهبندی بهینه محتوا.
#هوش_مصنوعی #RAG #LLM #یادگیری_ماشین #AI #MachineLearning #GenerativeAI
1️⃣ Chunking –
تقسیم بهینه اسناد (۵۱۲–۱۰۲۴ توکن) و استفاده از پنجرههای لغزان برای پوشش بهتر محتوا.
2️⃣ Embeddings –
استفاده از مدلهای بردار پیشرفته مثل BAAI یا MPNET برای دقت بالا.
3️⃣ Vector Store –
انتخاب دیتابیس مناسب (مثل Milvus, Weaviate, Pinecone) بر اساس مقیاس و سرعت.
4️⃣ Query Processing –
استفاده از تکنیکهای HYDE و hybrid search برای بهبود بازیابی.
5️⃣ Reranking –
اعمال مدلهای بازچینش مثل MonoBERT یا TILDE برای افزایش دقت.
6️⃣ Summarization –
ترکیب رویکردهای extractive و abstractive برای خلاصهسازی جامع.
7️⃣ Fine-tuning –
تنظیم دقیق مدل برای بهبود عملکرد در دامنههای خاص.
8️⃣ Evaluation –
پایش متریکهای عمومی و دامنهای برای بهبود مستمر سیستم.
9️⃣ LLM Integration –
ادغام هوشمند مدلهای زبانی بزرگ با retrieval.
🔟 Repacking –
پیادهسازی استراتژیهای sides, forward, reverse برای بستهبندی بهینه محتوا.
#هوش_مصنوعی #RAG #LLM #یادگیری_ماشین #AI #MachineLearning #GenerativeAI
🔥21👏16🎉15❤12🥰12👍11😁11
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 Reinforcement Learning in DeepSeek-R1 | توضیح تصویری
⛔️در این ویدیو به شکل ساده و کاملاً بصری میبینید که الگوریتم یادگیری تقویتی (Reinforcement Learning) چطور در مدل DeepSeek-R1 استفاده میشود.
📌 نمایش تعامل عامل (Agent) با محیط، دریافت پاداش و اصلاح رفتار برای رسیدن به بهترین نتیجه.
👨💻 مناسب برای:
✳️دانشجویان و علاقهمندان به یادگیری ماشین
✳️کسانی که میخواهند درک عمیقتری از RL داشته باشند
✳️پژوهشگران حوزه هوش مصنوعی و مدلهای DeepSeek
@rss_ai_ir
---
#DeepSeek #ReinforcementLearning #AI #MachineLearning #یادگیری_ماشین #هوش_مصنوعی #RL #DeepSeekR1
⛔️در این ویدیو به شکل ساده و کاملاً بصری میبینید که الگوریتم یادگیری تقویتی (Reinforcement Learning) چطور در مدل DeepSeek-R1 استفاده میشود.
📌 نمایش تعامل عامل (Agent) با محیط، دریافت پاداش و اصلاح رفتار برای رسیدن به بهترین نتیجه.
👨💻 مناسب برای:
✳️دانشجویان و علاقهمندان به یادگیری ماشین
✳️کسانی که میخواهند درک عمیقتری از RL داشته باشند
✳️پژوهشگران حوزه هوش مصنوعی و مدلهای DeepSeek
@rss_ai_ir
---
#DeepSeek #ReinforcementLearning #AI #MachineLearning #یادگیری_ماشین #هوش_مصنوعی #RL #DeepSeekR1
❤18🔥17🎉15😁12🥰11👏11👍9
🚀 در ByteDance Seed تکنیک جدیدی برای آموزش LLM معرفی شد: Knapsack RL
🔍 مشکل در RL کلاسیک:
در کارهای ساده همیشه موفقیت → بدون گرادیان
در کارهای سخت همیشه شکست → باز هم بدون گرادیان
💡 راهکار:
به جای توزیع یکنواخت rolloutها، بودجه محاسباتی مثل یک مسئله کولهپشتی (Knapsack) روی مواردی صرف میشود که واقعاً سیگنال آموزشی میدهند.
✨ نتایج:
🔼 +20–40% گرادیانهای غیرصفر بیشتر
🧮 تا 93 rollout برای مسائل سخت (بدون هزینه اضافه)
📈 +2–4 امتیاز میانگین، تا +9 در ریاضیات
💰 حدوداً دو برابر ارزانتر از روش توزیع یکنواخت
📄 جزییات بیشتر:
huggingface.co/papers/2509.25849
@rss_ai_ir 🤖
#هوش_مصنوعی #یادگیری_تقویتی #LLM #KnapsackRL #ByteDance #ماشین_لرنینگ #یادگیری_عمیق #AI #RLHF #MachineLearning
🔍 مشکل در RL کلاسیک:
در کارهای ساده همیشه موفقیت → بدون گرادیان
در کارهای سخت همیشه شکست → باز هم بدون گرادیان
💡 راهکار:
به جای توزیع یکنواخت rolloutها، بودجه محاسباتی مثل یک مسئله کولهپشتی (Knapsack) روی مواردی صرف میشود که واقعاً سیگنال آموزشی میدهند.
✨ نتایج:
🔼 +20–40% گرادیانهای غیرصفر بیشتر
🧮 تا 93 rollout برای مسائل سخت (بدون هزینه اضافه)
📈 +2–4 امتیاز میانگین، تا +9 در ریاضیات
💰 حدوداً دو برابر ارزانتر از روش توزیع یکنواخت
📄 جزییات بیشتر:
huggingface.co/papers/2509.25849
@rss_ai_ir 🤖
#هوش_مصنوعی #یادگیری_تقویتی #LLM #KnapsackRL #ByteDance #ماشین_لرنینگ #یادگیری_عمیق #AI #RLHF #MachineLearning
🎓 استنفورد مجموعهای جدید از درسهای رایگان هوش مصنوعی با تدریس اندرو اِنجی منتشر کرد
⛔️دانشگاه Stanford مجموعهای تازه از درسهای آزاد (Open Lectures) در زمینه هوش مصنوعی و یادگیری ماشین را با تدریس مستقیم Andrew Ng — بنیانگذار Coursera و از پیشگامان آموزش مدرن هوش مصنوعی — منتشر کرده است. 🤖📚
---
🧠 محتوای دوره:
✳️آموزش شبکههای عصبی و اصول آموزش مدلهای AI
✳️طراحی و ساخت عاملهای هوشمند (AI Agents)
✳️نکات حرفهای برای پیشرفت شغلی در حوزه هوش مصنوعی
✳️تمرینهای عملی با فریمورکهای مدرن AI (مثل PyTorch و TensorFlow)
✳️مناسب برای مبتدیان تا متخصصان حرفهای
---
💡 این دوره بخشی از برنامه جهانی دانشگاه استنفورد برای دسترسی همگانی به آموزشهای AI است و بهصورت کاملاً رایگان منتشر میشود.
📘 لینک دوره:
Stanford AI Lectures – Andrew Ng
https://www.youtube.com/watch?v=_NLHFoVNlbg
👨🏫 اندرو اِنجی همچنان همان کاری را انجام میدهد که مدلهای هوش مصنوعی از آن ناتواناند:
آموزش انسانها برای تفکر مانند ماشینها. 💬
#AI #MachineLearning #Stanford #AndrewNg #Education #Coursera #DeepLearning @rss_ai_ir
⛔️دانشگاه Stanford مجموعهای تازه از درسهای آزاد (Open Lectures) در زمینه هوش مصنوعی و یادگیری ماشین را با تدریس مستقیم Andrew Ng — بنیانگذار Coursera و از پیشگامان آموزش مدرن هوش مصنوعی — منتشر کرده است. 🤖📚
---
🧠 محتوای دوره:
✳️آموزش شبکههای عصبی و اصول آموزش مدلهای AI
✳️طراحی و ساخت عاملهای هوشمند (AI Agents)
✳️نکات حرفهای برای پیشرفت شغلی در حوزه هوش مصنوعی
✳️تمرینهای عملی با فریمورکهای مدرن AI (مثل PyTorch و TensorFlow)
✳️مناسب برای مبتدیان تا متخصصان حرفهای
---
💡 این دوره بخشی از برنامه جهانی دانشگاه استنفورد برای دسترسی همگانی به آموزشهای AI است و بهصورت کاملاً رایگان منتشر میشود.
📘 لینک دوره:
Stanford AI Lectures – Andrew Ng
https://www.youtube.com/watch?v=_NLHFoVNlbg
👨🏫 اندرو اِنجی همچنان همان کاری را انجام میدهد که مدلهای هوش مصنوعی از آن ناتواناند:
آموزش انسانها برای تفکر مانند ماشینها. 💬
#AI #MachineLearning #Stanford #AndrewNg #Education #Coursera #DeepLearning @rss_ai_ir
👍2
🔥 پژوهشی تازه نشان میدهد که GPT-6 ممکن است نه فقط هوشمندتر، بلکه از نظر محاسباتی «زنده» باشد!
🧠 مقالهای با عنوان SEAL (Self-Adapting Language Models) در arXiv:2506.10943 منتشر شده که توضیح میدهد چگونه یک مدل زبانی میتواند پس از استقرار در دنیای واقعی، به یادگیری مداوم ادامه دهد — بدون نیاز به بازآموزی (retraining).
چند نفر از نویسندگان SEAL اکنون در OpenAI فعالیت میکنند 👀 و احتمال زیادی وجود دارد که این فناوری در GPT-6 به کار گرفته شود.
ویژگیهای کلیدی SEAL:
📚 یادگیری از دادههای جدید در زمان واقعی
🔧 ترمیم خودکار دانش تخریبشده
🧩 ایجاد حافظههای پایدار در میان جلسات مختلف
اگر GPT-6 این معماری را بپذیرد، دیگر صرفاً از دادهها استفاده نخواهد کرد — بلکه آنها را جذب میکند.
مدلی که با تغییر جهان، خودش هم تغییر میکند و هر روز بهتر میشود.
📈 این میتواند آغاز عصر یادگیری پیوسته باشد — پایانی بر دورهی مدلهای ثابت و منجمد.
به فصل جدید خوش آمدید.
https://arxiv.org/abs/2506.10943
@rss_ai_ir
#GPT6 #OpenAI #SEAL #AI #ContinuousLearning #MachineLearning
🧠 مقالهای با عنوان SEAL (Self-Adapting Language Models) در arXiv:2506.10943 منتشر شده که توضیح میدهد چگونه یک مدل زبانی میتواند پس از استقرار در دنیای واقعی، به یادگیری مداوم ادامه دهد — بدون نیاز به بازآموزی (retraining).
چند نفر از نویسندگان SEAL اکنون در OpenAI فعالیت میکنند 👀 و احتمال زیادی وجود دارد که این فناوری در GPT-6 به کار گرفته شود.
ویژگیهای کلیدی SEAL:
📚 یادگیری از دادههای جدید در زمان واقعی
🔧 ترمیم خودکار دانش تخریبشده
🧩 ایجاد حافظههای پایدار در میان جلسات مختلف
اگر GPT-6 این معماری را بپذیرد، دیگر صرفاً از دادهها استفاده نخواهد کرد — بلکه آنها را جذب میکند.
مدلی که با تغییر جهان، خودش هم تغییر میکند و هر روز بهتر میشود.
📈 این میتواند آغاز عصر یادگیری پیوسته باشد — پایانی بر دورهی مدلهای ثابت و منجمد.
به فصل جدید خوش آمدید.
https://arxiv.org/abs/2506.10943
@rss_ai_ir
#GPT6 #OpenAI #SEAL #AI #ContinuousLearning #MachineLearning
👍1👏1
🤗 چه کسانی واقعاً محرک هوش مصنوعی متنباز هستند؟
تحلیل ۵۰ مدل برتر از نظر دانلود در Hugging Face
---
📊 مطالعهی جدید نشان میدهد که کدام سازمانها و چه نوع مدلهایی ستون فقرات اکوسیستم open-source AI را تشکیل میدهند.
---
🔥 نتایج کلیدی:
📦 تنها ۵۰ مدل (۳.۴٪ از کل مدلها) بیش از ۸۰٪ از ۴۵ میلیارد دانلود را به خود اختصاص دادهاند.
یعنی بیشتر فعالیتها حول محور گروه کوچکی از رهبران میچرخد — همانهایی که چهرهی اصلی AI متنباز را میسازند.
---
📉 اندازه مهم است (کوچکتر = بهتر):
♻️۹۲.۵٪ دانلودها مربوط به مدلهایی با کمتر از ۱ میلیارد پارامتر
♻️۸۶.۳٪ < ۵۰۰ میلیون
♻️۷۰٪ < ۲۰۰ میلیون
♻️۴۰٪ < ۱۰۰ میلیون
✅ نتیجه واضح است: در دنیای open-source، مدلهای سبک، سریع و قابل اجرا روی دستگاههای محلی برندهاند.
---
🧠 محبوبترین حوزهها:
♻️مدل NLP (پردازش زبان طبیعی) — ۵۸.۱٪
♻️بینایی کامپیوتر — ۲۱.۲٪
♻️صوت — ۱۵.۱٪
♻️چندوجهی — ۳.۳٪
♻️دادههای زمانی — ۱.۷٪
---
🏢 چه کسانی این مدلها را میسازند؟
♻️شرکتها — ۶۳.۲٪ (گوگل پیشتاز است)
♻️دانشگاهها — ۲۰.۷٪
♻️توسعهدهندگان مستقل — ۱۲.۱٪
♻️سازمانهای غیرانتفاعی — ۳.۸٪
♻️آزمایشگاههای دیگر — ۰.۳٪
---
⚙️ چه نوع مدلهایی محبوبترند؟
♻️مدل Encoderهای متنی — ۴۵٪ از کل دانلودها
♻️مدل Decoderها — ۹.۵٪
♻️مدل Encoder-Decoderها — ۳٪
📌 بر خلاف هیاهوی رسانهای پیرامون LLMها، کاربران عمدتاً مدلهای کاربردی و کوچک را دانلود میکنند که به راحتی در محصولات واقعی ادغام میشوند.
---
🌍 پراکندگی جغرافیایی:
ایالات متحده با اختلاف پیشتاز است:
♻️۱۸ بار در میان ۵۰ مدل برتر دیده میشود.
♻️۵۶.۴٪ از کل دانلودها از مدلهای ساخت آمریکا هستند.
---
💡 نتیجه نهایی:
هوش مصنوعی متنباز نه به لطف غولهایی با تریلیون پارامتر، بلکه به کمک مدلهای فشرده، سریع و کاربردی زنده است — همانهایی که واقعاً در پروژهها و محصولات استفاده میشوند.
---
📖 منبع کامل: Hugging Face Blog
@rss_ai_ir
#AI #HuggingFace #OpenSource #MachineLearning #LLM #AITrends
تحلیل ۵۰ مدل برتر از نظر دانلود در Hugging Face
---
📊 مطالعهی جدید نشان میدهد که کدام سازمانها و چه نوع مدلهایی ستون فقرات اکوسیستم open-source AI را تشکیل میدهند.
---
🔥 نتایج کلیدی:
📦 تنها ۵۰ مدل (۳.۴٪ از کل مدلها) بیش از ۸۰٪ از ۴۵ میلیارد دانلود را به خود اختصاص دادهاند.
یعنی بیشتر فعالیتها حول محور گروه کوچکی از رهبران میچرخد — همانهایی که چهرهی اصلی AI متنباز را میسازند.
---
📉 اندازه مهم است (کوچکتر = بهتر):
♻️۹۲.۵٪ دانلودها مربوط به مدلهایی با کمتر از ۱ میلیارد پارامتر
♻️۸۶.۳٪ < ۵۰۰ میلیون
♻️۷۰٪ < ۲۰۰ میلیون
♻️۴۰٪ < ۱۰۰ میلیون
✅ نتیجه واضح است: در دنیای open-source، مدلهای سبک، سریع و قابل اجرا روی دستگاههای محلی برندهاند.
---
🧠 محبوبترین حوزهها:
♻️مدل NLP (پردازش زبان طبیعی) — ۵۸.۱٪
♻️بینایی کامپیوتر — ۲۱.۲٪
♻️صوت — ۱۵.۱٪
♻️چندوجهی — ۳.۳٪
♻️دادههای زمانی — ۱.۷٪
---
🏢 چه کسانی این مدلها را میسازند؟
♻️شرکتها — ۶۳.۲٪ (گوگل پیشتاز است)
♻️دانشگاهها — ۲۰.۷٪
♻️توسعهدهندگان مستقل — ۱۲.۱٪
♻️سازمانهای غیرانتفاعی — ۳.۸٪
♻️آزمایشگاههای دیگر — ۰.۳٪
---
⚙️ چه نوع مدلهایی محبوبترند؟
♻️مدل Encoderهای متنی — ۴۵٪ از کل دانلودها
♻️مدل Decoderها — ۹.۵٪
♻️مدل Encoder-Decoderها — ۳٪
📌 بر خلاف هیاهوی رسانهای پیرامون LLMها، کاربران عمدتاً مدلهای کاربردی و کوچک را دانلود میکنند که به راحتی در محصولات واقعی ادغام میشوند.
---
🌍 پراکندگی جغرافیایی:
ایالات متحده با اختلاف پیشتاز است:
♻️۱۸ بار در میان ۵۰ مدل برتر دیده میشود.
♻️۵۶.۴٪ از کل دانلودها از مدلهای ساخت آمریکا هستند.
---
💡 نتیجه نهایی:
هوش مصنوعی متنباز نه به لطف غولهایی با تریلیون پارامتر، بلکه به کمک مدلهای فشرده، سریع و کاربردی زنده است — همانهایی که واقعاً در پروژهها و محصولات استفاده میشوند.
---
📖 منبع کامل: Hugging Face Blog
@rss_ai_ir
#AI #HuggingFace #OpenSource #MachineLearning #LLM #AITrends