آموزش LLM
1.38K subscribers
13 photos
13 videos
10 files
40 links
آموزش تخصصی LLM و Hugging face

گروه مباحثه:

@llm_group
Download Telegram
کد تخفیف 70 درصدی تست شده

فقط موقع استفاده حتما تیک دسترسی کامل را بردارید، اگر قبلا در سبد خرید بوده حذف کرده و مجدد با برداشتن این تیک به سبد خرد خود اضافه کنید.

COUPON-c4cd3

https://mktb.me/e3gx/
4
فرق پرامپت‌نویسی با مهندسی کانتکست؟

پرامپت = چی می‌گی
کانتکست = مدل چی می‌بینه

و چیزی که مدل می‌بینه مهم‌تره!
ایجنت‌های قوی همه‌چی رو تو کانتکست نمی‌ریزن. اون‌ها:
فقط چیزای مفید رو نگه می‌دارن
قدیمی‌ها رو خلاصه می‌کنن
هر وقت لازمه اطلاعات میارن
یادداشت می‌نویسن
بعضی کارها رو می‌سپارن به ساب‌اجنت‌ها
🔑 مهارت آینده برای ساخت ایجنت‌های هوش مصنوعی = Context Engineering

منبع:
https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents?trk=public_post_comment-text
6👍2🔥1
آینده هوش مصنوعی چندوجهی اینجاست!

مدل‌های چندوجهی (Multimodal AI) در سال ۲۰۲۵ دنیا رو متحول کردن. حالا دیگه هوش مصنوعی می‌تونه تصویر، متن و حتی صدا رو با هم ترکیب کنه و دقیق‌تر از همیشه جهان رو درک کنه.
مدل‌های متن-تصویر متن‌باز مثل Qwen2.5-VL، Gemini و Llama-4 امروز همه‌جا هستن: از دستیارهای هوشمند گرفته تا پزشکی، تحلیل اسناد و هزاران کاربرد واقعی.

اما سؤال اینه:
🔹 چطور می‌شه این مدل‌ها رو یاد گرفت و توی پروژه‌های واقعی استفاده کرد؟
اینجاست که کورس تخصصی ما وارد می‌شه! 🎓

در این دوره‌ی Vision-Language Models (VLMs) یاد می‌گیری:
چطور مدل‌های پیشرفته رو با Hugging Face بارگذاری و تست کنی
قابلیت‌ها و محدودیت‌های VLMها رو بشناسی
روی پروژه‌های واقعی ازشون استفاده کنی
این فرصت فوق‌العاده‌ایه برای کسایی که می‌خوان یک قدم جلوتر از بقیه باشن و آینده‌ی هوش مصنوعی رو بسازن! 🌍

📌 جزئیات دوره و ثبت‌نام
10
امروز نسخه سبکتر Qwen3-VL رو منتشر شد!

امروز، ۴ اکتبر ۲۰۲۵، تیم Qwen دو مدل جدید از خانواده Qwen3-VL رو منتشر کرد:
مدل Qwen3-VL-30B-A3B-Instruct
و Qwen3-VL-30B-A3B-Thinking
به‌همراه نسخه‌ی FP8 برای هر دو مدل که حجم و مصرف حافظه رو به‌طور قابل‌توجهی پایین میاره.

تا قبل از این، Qwen3-VL فقط مدل‌های خیلی سنگین داشت و عملاً نسخه‌ای سبک یا بهینه برای استفاده عمومی نداشت. حالا با این نسخه FP8 و تنظیمات جدید، بالاخره میشه مدل‌های Qwen3-VL رو راحت‌تر روی GPUهای معمولی هم بالا آورد.

🔹 نسخه Instruct بیشتر برای کارهای گفت‌وگومحور و دستورمحور طراحی شده.
🔹 نسخه Thinking روی استدلال پیچیده و فهم عمیق‌تر تصویر و ویدیو تمرکز داره.

هر دو مدل از فهم متن و تصویر پشتیبانی می‌کنن، OCR قوی دارن (تا ۳۲ زبان)، و حتی می‌تونن از روی تصویر کد HTML یا JS بسازن!
پشتیبانی از context طولانی (تا ۱ میلیون توکن) هم داره — چیزی که برای پروژه‌های چندرسانه‌ای واقعاً غنیمته.

📦 https://github.com/QwenLM/Qwen3-VL
👍4🔥2