کد تخفیف 70 درصدی تست شده
فقط موقع استفاده حتما تیک دسترسی کامل را بردارید، اگر قبلا در سبد خرید بوده حذف کرده و مجدد با برداشتن این تیک به سبد خرد خود اضافه کنید.
https://mktb.me/e3gx/
فقط موقع استفاده حتما تیک دسترسی کامل را بردارید، اگر قبلا در سبد خرید بوده حذف کرده و مجدد با برداشتن این تیک به سبد خرد خود اضافه کنید.
COUPON-c4cd3
https://mktb.me/e3gx/
❤4
فرق پرامپتنویسی با مهندسی کانتکست؟
✅پرامپت = چی میگی
✅کانتکست = مدل چی میبینه
و چیزی که مدل میبینه مهمتره!
ایجنتهای قوی همهچی رو تو کانتکست نمیریزن. اونها:
✅ فقط چیزای مفید رو نگه میدارن
✅ قدیمیها رو خلاصه میکنن
✅ هر وقت لازمه اطلاعات میارن
✅ یادداشت مینویسن
✅ بعضی کارها رو میسپارن به ساباجنتها
🔑 مهارت آینده برای ساخت ایجنتهای هوش مصنوعی = Context Engineering
منبع:
https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents?trk=public_post_comment-text
✅پرامپت = چی میگی
✅کانتکست = مدل چی میبینه
و چیزی که مدل میبینه مهمتره!
ایجنتهای قوی همهچی رو تو کانتکست نمیریزن. اونها:
✅ فقط چیزای مفید رو نگه میدارن
✅ قدیمیها رو خلاصه میکنن
✅ هر وقت لازمه اطلاعات میارن
✅ یادداشت مینویسن
✅ بعضی کارها رو میسپارن به ساباجنتها
🔑 مهارت آینده برای ساخت ایجنتهای هوش مصنوعی = Context Engineering
منبع:
https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents?trk=public_post_comment-text
❤6👍2🔥1
آینده هوش مصنوعی چندوجهی اینجاست!
مدلهای چندوجهی (Multimodal AI) در سال ۲۰۲۵ دنیا رو متحول کردن. حالا دیگه هوش مصنوعی میتونه تصویر، متن و حتی صدا رو با هم ترکیب کنه و دقیقتر از همیشه جهان رو درک کنه. ✨
مدلهای متن-تصویر متنباز مثل Qwen2.5-VL، Gemini و Llama-4 امروز همهجا هستن: از دستیارهای هوشمند گرفته تا پزشکی، تحلیل اسناد و هزاران کاربرد واقعی.
اما سؤال اینه:
🔹 چطور میشه این مدلها رو یاد گرفت و توی پروژههای واقعی استفاده کرد؟
اینجاست که کورس تخصصی ما وارد میشه! 🎓
در این دورهی Vision-Language Models (VLMs) یاد میگیری:
چطور مدلهای پیشرفته رو با Hugging Face بارگذاری و تست کنی
قابلیتها و محدودیتهای VLMها رو بشناسی
روی پروژههای واقعی ازشون استفاده کنی
این فرصت فوقالعادهایه برای کسایی که میخوان یک قدم جلوتر از بقیه باشن و آیندهی هوش مصنوعی رو بسازن! 🌍
📌 جزئیات دوره و ثبتنام
مدلهای چندوجهی (Multimodal AI) در سال ۲۰۲۵ دنیا رو متحول کردن. حالا دیگه هوش مصنوعی میتونه تصویر، متن و حتی صدا رو با هم ترکیب کنه و دقیقتر از همیشه جهان رو درک کنه. ✨
مدلهای متن-تصویر متنباز مثل Qwen2.5-VL، Gemini و Llama-4 امروز همهجا هستن: از دستیارهای هوشمند گرفته تا پزشکی، تحلیل اسناد و هزاران کاربرد واقعی.
اما سؤال اینه:
🔹 چطور میشه این مدلها رو یاد گرفت و توی پروژههای واقعی استفاده کرد؟
اینجاست که کورس تخصصی ما وارد میشه! 🎓
در این دورهی Vision-Language Models (VLMs) یاد میگیری:
چطور مدلهای پیشرفته رو با Hugging Face بارگذاری و تست کنی
قابلیتها و محدودیتهای VLMها رو بشناسی
روی پروژههای واقعی ازشون استفاده کنی
این فرصت فوقالعادهایه برای کسایی که میخوان یک قدم جلوتر از بقیه باشن و آیندهی هوش مصنوعی رو بسازن! 🌍
📌 جزئیات دوره و ثبتنام
مکتبخونه
آموزش مدلهای زبانی-تصویری (VLM): از درک تصویر و ویدیو تا فاینتیون پیشرفته
هدف دوره این است که شما نه تنها مفاهیم را یاد بگیرید، بلکه بتوانید بلافاصله آنها را در پروژههای واقعی پیادهسازی کنید. دوره شامل 15 نوتبوک عملی (Jupyter Notebook) آماده اجراست – بدون نیاز به نصب پیچیده است.
❤10
امروز نسخه سبکتر Qwen3-VL رو منتشر شد!
امروز، ۴ اکتبر ۲۰۲۵، تیم Qwen دو مدل جدید از خانواده Qwen3-VL رو منتشر کرد:
مدل Qwen3-VL-30B-A3B-Instruct
و Qwen3-VL-30B-A3B-Thinking
بههمراه نسخهی FP8 برای هر دو مدل که حجم و مصرف حافظه رو بهطور قابلتوجهی پایین میاره.
تا قبل از این، Qwen3-VL فقط مدلهای خیلی سنگین داشت و عملاً نسخهای سبک یا بهینه برای استفاده عمومی نداشت. حالا با این نسخه FP8 و تنظیمات جدید، بالاخره میشه مدلهای Qwen3-VL رو راحتتر روی GPUهای معمولی هم بالا آورد.
🔹 نسخه Instruct بیشتر برای کارهای گفتوگومحور و دستورمحور طراحی شده.
🔹 نسخه Thinking روی استدلال پیچیده و فهم عمیقتر تصویر و ویدیو تمرکز داره.
هر دو مدل از فهم متن و تصویر پشتیبانی میکنن، OCR قوی دارن (تا ۳۲ زبان)، و حتی میتونن از روی تصویر کد HTML یا JS بسازن!
پشتیبانی از context طولانی (تا ۱ میلیون توکن) هم داره — چیزی که برای پروژههای چندرسانهای واقعاً غنیمته.
📦 https://github.com/QwenLM/Qwen3-VL
امروز، ۴ اکتبر ۲۰۲۵، تیم Qwen دو مدل جدید از خانواده Qwen3-VL رو منتشر کرد:
مدل Qwen3-VL-30B-A3B-Instruct
و Qwen3-VL-30B-A3B-Thinking
بههمراه نسخهی FP8 برای هر دو مدل که حجم و مصرف حافظه رو بهطور قابلتوجهی پایین میاره.
تا قبل از این، Qwen3-VL فقط مدلهای خیلی سنگین داشت و عملاً نسخهای سبک یا بهینه برای استفاده عمومی نداشت. حالا با این نسخه FP8 و تنظیمات جدید، بالاخره میشه مدلهای Qwen3-VL رو راحتتر روی GPUهای معمولی هم بالا آورد.
🔹 نسخه Instruct بیشتر برای کارهای گفتوگومحور و دستورمحور طراحی شده.
🔹 نسخه Thinking روی استدلال پیچیده و فهم عمیقتر تصویر و ویدیو تمرکز داره.
هر دو مدل از فهم متن و تصویر پشتیبانی میکنن، OCR قوی دارن (تا ۳۲ زبان)، و حتی میتونن از روی تصویر کد HTML یا JS بسازن!
پشتیبانی از context طولانی (تا ۱ میلیون توکن) هم داره — چیزی که برای پروژههای چندرسانهای واقعاً غنیمته.
📦 https://github.com/QwenLM/Qwen3-VL
👍4🔥2