VIRSUN
7.45K subscribers
792 photos
461 videos
3 files
507 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
📚🤖 RAG؛ نسل ترکیبی از بازیابی و تولید متن

یکی از قدرتمندترین روش‌های ترکیبی در حوزه NLP روش RAG (Retrieval-Augmented Generation)است که از دو دنیای متفاوت استفاده می‌کند:

🔹 🔍 بازیابی اطلاعات (Retrieval):
مدل ابتدا از یک پایگاه داده یا اسناد بیرونی، مرتبط‌ترین متون را پیدا می‌کند.

🔹 🧠 تولید متن (Generation):
سپس با کمک یک مدل زبان (مثل T5 یا BART)، براساس متن‌های بازیابی‌شده، پاسخ دقیق و طبیعی تولید می‌شود.

---

ویژگی‌ها و مزایا:

* اتصال مدل زبان به حافظه خارجی (external knowledge)
* کاهش hallucination در مدل‌های بزرگ
* پاسخ‌دهی دقیق‌تر در سیستم‌های پرسش‌وپاسخ (QA)
* کاربردی در چت‌بات‌ها، جستجو، و تولید گزارش‌های تخصصی

---

📌 ساختار کلی RAG:

پرسش → جستجوی متون مرتبط → ترکیب → تولید پاسخ نهایی


📎 پروژه‌های متن‌باز معروف:
🟢 [Haystack (by deepset)](https://github.com/deepset-ai/haystack)
🟢 [Facebook RAG (Hugging Face)](https://huggingface.co/facebook/rag-token-base)

---

\#RAG #RetrievalAugmentedGeneration #NLP #هوش\_مصنوعی #مدل\_زبان #LLM #پرسش\_و\_پاسخ

📍 @rss_ai_ir
1🤯1🙏1
🚦 آموزش تصویری و ساده شبکه‌های ترنسفورمر (Transformer Networks)

🧠 ترنسفورمرها پایه‌ی مدل‌های پیشرفته‌ای مثل ChatGPT، BERT و T5 هستند، اما فهمیدن ساختار درونی‌شون همیشه کار راحتی نیست...
تا حالا! 👇

📌 با استفاده از ابزار تعاملی Transformer Explainer از تیم PoloClub، می‌تونی ساختار داخلی ترنسفورمرها رو مرحله‌به‌مرحله و کاملاً بصری ببینی:

🔍 چه اتفاقی در Attention می‌افته؟
🔁 چطور لایه‌ها با هم کار می‌کنن؟
🔡 وزن‌ها چطور بین کلمات توزیع می‌شن؟
🎯 چطور می‌تونیم ببینیم مدل چه چیزی رو “توجه” می‌کنه؟

این ابزار برای یادگیری مفهومی معماری ترنسفورمر عالیه، چه مبتدی باشی چه پیشرفته!

📎 امتحانش کن 👇
🔗 Transformer Explainer

#هوش_مصنوعی #ترنسفورمر #یادگیری_عمیق #توضیح_بصری #Transformer #AI #DeepLearning #NLP #شبکه_عصبی #پرامپتینگ

@rss_ai_ir
2👍2🙏2
Media is too big
VIEW IN TELEGRAM
📌 ویدیوی آموزشی: درک مکانیزم Attention در ترنسفورمرها

اگر به دنبال درکی عمیق و بصری از نحوه کار «attention» در ترنسفورمرها هستید، این ویدیو از 3Blue1Brown دقیقاً همینه!

🔍 در این ویدیو خواهید دید:

چطور ماتریس‌های Key و Query شباهت بین توکن‌ها (کلمات یا پچ‌های تصویر) را محاسبه می‌کنند
چطور ماتریس Value آمیخته با وزن‌های attention به ایجاد Embedding های غنی کمک می‌کند
چرا attention اساس قدرت مدل‌های LLM و Vision Transformer است

♨️ این آموزش فوق‌العاده مناسب کسانیه که:

❇️ ساختار توجه (Self-Attention) رو بصری یاد بگیرن
❇️ درک بهتری از نقش Q، K و V در هر Head داشته باشن
❇️ مسیر فکری ترنسفورمرها (از جمله GPT و BERT) رو فرا بگیرن

♨️زیرنویس فارسی

#هوش_مصنوعی #ترنسفورمر #Attention #DeepLearning #3Blue1Brown #NLP #VL #آموزش_بصری
@rss_ai_ir
👍2👏1🙏1
🌀 آینده مدل‌های زبانی در مسیر DiffusionLM؟

♻️مدل‌های زبانی مبتنی بر انتشار یا DiffusionLM به‌عنوان نسل جدید معماری‌های تولید متن، توجه محققان را به‌خود جلب کرده‌اند؛ به‌ویژه در شرایطی که داده‌های آموزشی محدود هستند و نیاز به استدلال عمیق‌تری وجود دارد.

♻️در معماری Diffusion، برخلاف مدل‌های اتورگرسیو (AR) که متن را به‌صورت گام‌به‌گام پیش‌بینی می‌کنند، فرآیند تولید شامل افزودن نویز به داده و سپس بازسازی آن به‌صورت تدریجی است. این ساختار امکان استفاده چندباره از داده (تا صدها بار) را فراهم می‌سازد، در حالی‌که مدل‌های AR معمولاً پس از چند ایپاک به اشباع می‌رسند.

📌 مزایای کلیدی DiffusionLM:

✳️توانایی استخراج اطلاعات عمیق‌تر از داده‌های محدود
✳️انعطاف بالا در کنترل ساختار و محتوای خروجی
✳️کارایی بهتر در سناریوهای reasoning و پاسخ به پرسش‌های ترکیبی
✳️قابلیت تعمیم بهتر به وظایف جدید با داده کم


♻️از منظر عملکرد، در سناریوهایی که داده‌ کم ولی منابع محاسباتی کافی هستند، مدل‌های Diffusion برتری محسوسی نسبت به مدل‌های سنتی AR دارند. اگرچه سرعت تولید متن در Diffusion پایین‌تر است، اما کیفیت و قابلیت هدایت‌پذیری خروجی به‌ویژه برای کاربردهایی مانند agentهای زبانی یا تولید محتوای دقیق‌تر، بسیار بالاست.

📚 مطالعهٔ کامل پژوهش:
🔗 arXiv:2507.15857 - DiffusionLM vs AR

——
@rss_ai_ir
#هوش_مصنوعی #مدل_زبانی #NLP #DiffusionLM #LLM #یادگیری_عمیق #Reasoning #AI
👍2🔥2👏1
⚡️ تنسنت مدل‌های متن‌باز Hunyuan-MT را معرفی کرد؛ نسل جدید سیستم‌های قدرتمند ترجمه ماشینی 🌍

📦 شامل:

♻️Hunyuan-MT-7B و Hunyuan-MT-Chimera-7B
♻️پشتیبانی از ۳۳ زبان
♻️مدل Chimera-7B به‌عنوان نخستین مدل ensemble متن‌باز در صنعت شناخته می‌شود


🏆 دستاوردها:

✳️رتبه نخست در ۳۰ از ۳۱ بخش رقابت بین‌المللی WMT25 (بزرگ‌ترین کنفرانس ترجمه ماشینی جهان)

✳️همچنین Hunyuan-MT-7B بهترین عملکرد را در میان مدل‌های هم‌سایز خود دارد


🟠 مدل‌ها در HuggingFace
🟠 مخزن کد در GitHub
🟠 دمو

@rss_ai_ir 🤖

#هوش_مصنوعی #NLP #ترجمه #Tencent #Hunyuan #WMT25
🔥5🎉5👏4👍3🥰32😁2
🚀 گوگل از EmbeddingGemma رونمایی کرد؛ یک مدل سبک و اوپن‌سورس برای ایجاد امبدینگ‌های متنی.

📌 ویژگی مهم: این مدل را می‌توان مستقیم روی موبایل یا لپ‌تاپ اجرا کرد، بدون نیاز به اینترنت و با حفظ کامل حریم خصوصی.

🟢 چه چیزی داخلش هست؟

✳️308 میلیون پارامتر، اما از همه مدل‌های زیر 500M در کیفیت بهتر عمل می‌کند (طبق MTEB)

✳️سرعت بسیار بالا: کمتر از 15 میلی‌ثانیه روی EdgeTPU (برای 256 توکن)

✳️پشتیبانی از بیش از 100 زبان

✳️امکان کاهش ابعاد امبدینگ از 768 → 128 بدون افت کیفیت

✳️پشتیبانی از کانتکست تا 2000 توکن

✳️سازگار با Sentence-Transformers، LangChain، llama.cpp، transformers.js، Weaviate و دیگر ابزارهای محبوب


🟠 وبلاگ: https://developers.googleblog.com/en/introducing-embeddinggemma/
🟠 مدل‌ها: https://huggingface.co/collections/google/embeddinggemma-68b9ae3a72a82f0562a80dc4

@rss_ai_ir

#AI #Google #Gemma #EmbeddingGemma #ML #DeepLearning #LLM #NLP
19🔥19👍18😁17🎉14🥰13👏13🙏1
🎯 ۷ گام تا تسلط بر مدل‌های زبانی بزرگ (LLM)

تسلط بر LLMها یک مسیر تدریجی است، نه یک مقصد. این اینفوگرافیک نقشه‌ی راه را نشان می‌دهد؛ از مبانی اولیه تا ساخت اپلیکیشن‌های واقعی:

1️⃣ درک مبانی LLM
🔹 پردازش زبان طبیعی (NLP)
🔹 یادگیری عمیق (Deep Learning)
🔹 ترنسفورمرها (Transformers)

2️⃣ بررسی معماری‌های LLM
🔹معماری BERT
🔹 معماری GPT
🔹معماری XLNet

3️⃣ پیش‌تمرین مدل‌ها
🔹 پیش‌بینی جمله‌ی بعدی
🔹 پیش‌تمرین متضاد زبان–تصویر (Contrastive Pre-training)

4️⃣ فاین‌تیونینگ LLMها
🔹 توابع زیان اختصاصی (Task-specific Loss)
🔹 افزایش داده (Data Augmentation)
🔹 توقف زودهنگام (Early Stopping)

5️⃣ تنظیم و پس‌آموزش
🔹 کاهش سوگیری (Bias Mitigation)
🔹 ارزیابی عدالت (Fairness Evaluation)
🔹 قابلیت توضیح‌پذیری (Explainability)

6️⃣ ارزیابی مدل
🔹 دقت (Accuracy)
🔹 روانی متن (Fluency)
🔹 مرتبط بودن پاسخ‌ها (Relevancy)

7️⃣ ساخت اپلیکیشن‌های LLM
🔹 چت‌بات‌ها
🔹 تولید محتوا
🔹 ترجمه‌ی زبان


---

🌟 اگر این مسیر را دنبال کنید، می‌توانید از درک مبانی تا پیاده‌سازی اپلیکیشن‌های پیشرفته مبتنی بر LLM حرکت کنید.

#هوش_مصنوعی #LLM #یادگیری_ماشین #مدل_زبان #دیپ_لرنینگ #NLP #AI #MachineLearning #DeepLearning #Chatbot #GenerativeAI

@rss_ai_ir
😁9👍8🔥8👏8🎉85🥰4🙏1
📢 دیتاست تازه برای پژوهش‌های گفتار و NLP

📌 OleSpeech-IV-2025-EN-AR-100
(صد ساعت)

🎤 گفت‌وگوهای واقعی و بدون سناریو به زبان انگلیسی
🗂️ متن‌نویسی انسانی با برچسب‌گذاری گویندگان
🔎 دارای برچسب زمانی و هم‌پوشانی دیالوگ‌ها
📂 فایل‌های صوتی خام و بدون فشرده‌سازی

🔧 مناسب برای وظایف ASR، سیستم‌های مکالمه و تحلیل گفتار

🔗 لینک دیتاست

#NLP #هوش_مصنوعی #پردازش_گفتار #ASR

@rss_ai_ir
🔥14🎉11🥰10👏9👍8😁86
🚀 گوگل دیپ‌مایند معرفی کرد: EmbeddingGemma

⛔️مدلی فشرده برای تبدیل متن به بردار (Embedding) با تنها 308M پارامتر که کیفیتی در حد بهترین مدل‌های تا 500M پارامتر دارد، اما سریع‌تر و سبک‌تر است.

🔑 چطور کار می‌کند:

♻️بر پایه نسخه ساده‌شده Gemma 3 (فقط بخش Encoder باقی مانده)

♻️آموزش با distillation: دانش‌آموز خروجی‌های مدل معلم را کپی می‌کند

♻️همچنین Regularizer باعث توزیع یکنواخت بردارها می‌شود → بهبود جستجو و پایداری در کوانتیزاسیون

♻️دو مرحله آموزش: اول روی داده‌های پرسش–پاسخ نویزی، سپس روی داده‌های تمیز با «منفی‌های سخت» و پرامپت‌ها

♻️خروجی نهایی با میانگین چند چک‌پوینت بهینه‌شده ساخته می‌شود


📊 نتایج:

✳️بهترین عملکرد در بین مدل‌های زیر 500M پارامتر

✳️قوی در وظایف چندزبانه، انگلیسی و حتی کدنویسی

✳️پشتیبانی از وزن‌های 4-bit و بردارهای 128 بُعدی → قابل اجرا روی دستگاه‌های سبک


📄 مقاله:
arxiv.org/abs/2509.20354

#Google #DeepMind #EmbeddingGemma #AI #NLP #هوش_مصنوعی

@rss_ai_ir
2👏1🙏1