🚦 آموزش تصویری و ساده شبکههای ترنسفورمر (Transformer Networks)
🧠 ترنسفورمرها پایهی مدلهای پیشرفتهای مثل ChatGPT، BERT و T5 هستند، اما فهمیدن ساختار درونیشون همیشه کار راحتی نیست...
تا حالا! 👇
📌 با استفاده از ابزار تعاملی Transformer Explainer از تیم PoloClub، میتونی ساختار داخلی ترنسفورمرها رو مرحلهبهمرحله و کاملاً بصری ببینی:
🔍 چه اتفاقی در Attention میافته؟
🔁 چطور لایهها با هم کار میکنن؟
🔡 وزنها چطور بین کلمات توزیع میشن؟
🎯 چطور میتونیم ببینیم مدل چه چیزی رو “توجه” میکنه؟
✅ این ابزار برای یادگیری مفهومی معماری ترنسفورمر عالیه، چه مبتدی باشی چه پیشرفته!
📎 امتحانش کن 👇
🔗 Transformer Explainer
#هوش_مصنوعی #ترنسفورمر #یادگیری_عمیق #توضیح_بصری #Transformer #AI #DeepLearning #NLP #شبکه_عصبی #پرامپتینگ
@rss_ai_ir
🧠 ترنسفورمرها پایهی مدلهای پیشرفتهای مثل ChatGPT، BERT و T5 هستند، اما فهمیدن ساختار درونیشون همیشه کار راحتی نیست...
تا حالا! 👇
📌 با استفاده از ابزار تعاملی Transformer Explainer از تیم PoloClub، میتونی ساختار داخلی ترنسفورمرها رو مرحلهبهمرحله و کاملاً بصری ببینی:
🔍 چه اتفاقی در Attention میافته؟
🔁 چطور لایهها با هم کار میکنن؟
🔡 وزنها چطور بین کلمات توزیع میشن؟
🎯 چطور میتونیم ببینیم مدل چه چیزی رو “توجه” میکنه؟
✅ این ابزار برای یادگیری مفهومی معماری ترنسفورمر عالیه، چه مبتدی باشی چه پیشرفته!
📎 امتحانش کن 👇
🔗 Transformer Explainer
#هوش_مصنوعی #ترنسفورمر #یادگیری_عمیق #توضیح_بصری #Transformer #AI #DeepLearning #NLP #شبکه_عصبی #پرامپتینگ
@rss_ai_ir
❤2👍2🙏2
This media is not supported in your browser
VIEW IN TELEGRAM
👔 LucidFlux:
ترمیم همهکارهی تصویر (HKUSTGZ)
⛔️مدل LucidFlux یک فریمورک ترمیم تصویر یونیورسال بر پایهی Diffusion Transformer است که روی عکسهای واقعی با کیفیت پایین (LQ) خروجیهای فوتورئالیستی میدهد و در انواع خرابیها (نویز، بلور، فشردگی، کمنور، آرتیفکتها و …) از مدلهای SOTA مبتنی بر دیفیوشن بهتر عمل میکند.
❌چرا مهمه؟
✅یک مدل برای چندین نوع خرابی (بهجای مدل جدا برای هر سناریو)
✅سازگاری با تصاویر دنیای واقعی، نه فقط دیتاستهای تمیز
✅کیفیت بازسازی بالا بدون ظاهر «بیشازحد صاف/پلاستیکی»
‼️نکات فنی کوتاه
❎معماری بزرگمقیاس Diffusion Transformer
❎آموزش چند-تخریبی (multi-degradation) برای تعمیم بهتر
❎لایسنس: استفاده غیرتجاری (حواستون به محدودیت مجوز باشه)
📄 Paper:
https://arxiv.org/pdf/2509.22414
🌐 Project:
https://w2genai-lab.github.io/LucidFlux/
💻 Code:
https://github.com/W2GenAI-Lab/LucidFlux
#ImageRestoration #Diffusion #Transformer #ComputerVision #LucidFlux #AIResearch
ترمیم همهکارهی تصویر (HKUSTGZ)
⛔️مدل LucidFlux یک فریمورک ترمیم تصویر یونیورسال بر پایهی Diffusion Transformer است که روی عکسهای واقعی با کیفیت پایین (LQ) خروجیهای فوتورئالیستی میدهد و در انواع خرابیها (نویز، بلور، فشردگی، کمنور، آرتیفکتها و …) از مدلهای SOTA مبتنی بر دیفیوشن بهتر عمل میکند.
❌چرا مهمه؟
✅یک مدل برای چندین نوع خرابی (بهجای مدل جدا برای هر سناریو)
✅سازگاری با تصاویر دنیای واقعی، نه فقط دیتاستهای تمیز
✅کیفیت بازسازی بالا بدون ظاهر «بیشازحد صاف/پلاستیکی»
‼️نکات فنی کوتاه
❎معماری بزرگمقیاس Diffusion Transformer
❎آموزش چند-تخریبی (multi-degradation) برای تعمیم بهتر
❎لایسنس: استفاده غیرتجاری (حواستون به محدودیت مجوز باشه)
📄 Paper:
https://arxiv.org/pdf/2509.22414
🌐 Project:
https://w2genai-lab.github.io/LucidFlux/
💻 Code:
https://github.com/W2GenAI-Lab/LucidFlux
#ImageRestoration #Diffusion #Transformer #ComputerVision #LucidFlux #AIResearch
👏4❤1👍1🙏1
🎓🤖 دوره جدید دانشگاه استنفورد: Transformers & Large Language Models
دانشگاه Stanford دورهای تازه با عنوان
«Transformers & Large Language Models»
منتشر کرده است
— تدریس توسط برادران Amidi، و سه جلسهی اول آن بهصورت رایگان در YouTube در دسترس است 🎥💡
این دوره یکی از منسجمترین و بهروزترین منابع برای درک سیستماتیک مدلهای زبانی بزرگ (LLM) به شمار میآید.
📘 سرفصلها:
• مبانی Transformer: توکنسازی، تعبیهها (Embeddings)، Attention و معماری کلی
• مفاهیم اصلی LLM: Mixture of Experts، انواع روشهای دیکدینگ
• آموزش و فاینتیون: SFT، RLHF، LoRA
• ارزیابی مدلها: LLM/VLM-as-a-judge و بهترین روشهای سنجش
• ترفندها و بهینهسازیها: RoPE، تقریب attention، کوانتیزهسازی
• استدلال و مقیاسپذیری در آموزش و استنتاج
• رویکردهای Agentic: RAG و Tool Calling
🧠 اگر از قبل با مدلهای زبانی آشنا هستید، این دوره فرصت عالی برای مرور عمیق و پیادهسازی از صفر است.
🔗 cme295.stanford.edu/syllabus
📡 @rss_ai_ir
#هوش_مصنوعی #استنفورد #LLM #Transformer #آموزش #DeepLearning #RAG #LoRA #RLHF #AI
دانشگاه Stanford دورهای تازه با عنوان
«Transformers & Large Language Models»
منتشر کرده است
— تدریس توسط برادران Amidi، و سه جلسهی اول آن بهصورت رایگان در YouTube در دسترس است 🎥💡
این دوره یکی از منسجمترین و بهروزترین منابع برای درک سیستماتیک مدلهای زبانی بزرگ (LLM) به شمار میآید.
📘 سرفصلها:
• مبانی Transformer: توکنسازی، تعبیهها (Embeddings)، Attention و معماری کلی
• مفاهیم اصلی LLM: Mixture of Experts، انواع روشهای دیکدینگ
• آموزش و فاینتیون: SFT، RLHF، LoRA
• ارزیابی مدلها: LLM/VLM-as-a-judge و بهترین روشهای سنجش
• ترفندها و بهینهسازیها: RoPE، تقریب attention، کوانتیزهسازی
• استدلال و مقیاسپذیری در آموزش و استنتاج
• رویکردهای Agentic: RAG و Tool Calling
🧠 اگر از قبل با مدلهای زبانی آشنا هستید، این دوره فرصت عالی برای مرور عمیق و پیادهسازی از صفر است.
🔗 cme295.stanford.edu/syllabus
📡 @rss_ai_ir
#هوش_مصنوعی #استنفورد #LLM #Transformer #آموزش #DeepLearning #RAG #LoRA #RLHF #AI
🧨 مدل جدید Kimi معرفی شد — Kimi-Linear-48B-A3B-Base
مدل تازهی Kimi با معماری Linear Attention آمده تا نشان دهد میشود با مصرف کمتر حافظه، همان سطح عملکرد مدلهای بزرگ LLM را در متنهای طولانی بهدست آورد ⚡📜
---
💡 ویژگیهای کلیدی:
• تا ۷۵٪ مصرف کمتر حافظهی KV-cache
• تا ۶.۳ برابر سرعت بیشتر در decode طولانیها
• معماری Hybrid: Kimi Delta Attention + MLA
• بهینهشده برای context طولانی و توان عبور بالا (throughput)
---
📊 نتایج بنچمارک:
در آزمونهای reasoning، تولید طولانی (long-RL) و وظایف متنی با context بالا،
مدل Kimi-Linear-48B-A3B-Base از مدلهای MLA و GDN-H پیشی گرفته است 🚀
این مدل نمونهای از روندی است که در آن معماریهای attention خطی نهتنها از نظر سرعت، بلکه از نظر کیفیت و دقت نیز به سطح مدلهای کلاسیک نزدیک شدهاند — یا حتی از آنها جلو زدهاند 🧠💬
---
🟠 GitHub:
github.com/MoonshotAI/Kimi-Linear
🟠 HuggingFace:
huggingface.co/moonshotai/Kimi-Linear-48B-A3B-Instruct
📡 @rss_ai_ir
#هوش_مصنوعی #Kimi #LLM #Transformer #Attention #AI #DeepLearning #MachineLearning
مدل تازهی Kimi با معماری Linear Attention آمده تا نشان دهد میشود با مصرف کمتر حافظه، همان سطح عملکرد مدلهای بزرگ LLM را در متنهای طولانی بهدست آورد ⚡📜
---
💡 ویژگیهای کلیدی:
• تا ۷۵٪ مصرف کمتر حافظهی KV-cache
• تا ۶.۳ برابر سرعت بیشتر در decode طولانیها
• معماری Hybrid: Kimi Delta Attention + MLA
• بهینهشده برای context طولانی و توان عبور بالا (throughput)
---
📊 نتایج بنچمارک:
در آزمونهای reasoning، تولید طولانی (long-RL) و وظایف متنی با context بالا،
مدل Kimi-Linear-48B-A3B-Base از مدلهای MLA و GDN-H پیشی گرفته است 🚀
این مدل نمونهای از روندی است که در آن معماریهای attention خطی نهتنها از نظر سرعت، بلکه از نظر کیفیت و دقت نیز به سطح مدلهای کلاسیک نزدیک شدهاند — یا حتی از آنها جلو زدهاند 🧠💬
---
🟠 GitHub:
github.com/MoonshotAI/Kimi-Linear
🟠 HuggingFace:
huggingface.co/moonshotai/Kimi-Linear-48B-A3B-Instruct
📡 @rss_ai_ir
#هوش_مصنوعی #Kimi #LLM #Transformer #Attention #AI #DeepLearning #MachineLearning
❤2👏1🙏1