⚡ محققان گوگل روشی تازه برای سریعتر و ارزانتر کردن مدلهای زبانی بزرگ (LLM) معرفی کردهاند: Speculative Cascades.
🔹 کاسکید (Cascade): مدل کوچک ابتدا پاسخ میدهد و اگر پیچیده بود، مدل بزرگ وارد عمل میشود. سریعتر است اما کیفیت متغیر میشود.
🔹 Speculative decoding:
مدل کوچک چند کلمه جلوتر حدس میزند و مدل بزرگ فقط بررسی و تأیید میکند. کیفیت خوب است ولی همچنان پرهزینه.
🟢 Speculative Cascades:
ترکیب دو روش. مدل کوچک گاهی خودش پاسخ کامل میدهد، گاهی هم بهعنوان شتابدهنده مدل بزرگ عمل میکند.
🔥 نتایج روی Gemma و T5:
✳️سریعتر از speculative decoding
✳️ارزانتر و باکیفیتتر از cascades
✳️امکان تنظیم بهتر بین سرعت ↔ کیفیت
✳️در مسائل استدلال ریاضی، سرعت بالاتر همراه با حفظ یا بهبود کیفیت
📌 اهمیت: برای جستجو، چتباتها و دستیارهای هوشمند، سرعت و هزینه پایین حیاتی است. این روش بهینهسازی میتواند استفاده از LLMها را عملیتر و گستردهتر کند.
🔗 جزئیات بیشتر: Google Research
@rss_ai_ir
#هوش_مصنوعی #مدل_زبانی #گوگل #LLM #بهینهسازی #SpeculativeDecoding #Cascades
🔹 کاسکید (Cascade): مدل کوچک ابتدا پاسخ میدهد و اگر پیچیده بود، مدل بزرگ وارد عمل میشود. سریعتر است اما کیفیت متغیر میشود.
🔹 Speculative decoding:
مدل کوچک چند کلمه جلوتر حدس میزند و مدل بزرگ فقط بررسی و تأیید میکند. کیفیت خوب است ولی همچنان پرهزینه.
🟢 Speculative Cascades:
ترکیب دو روش. مدل کوچک گاهی خودش پاسخ کامل میدهد، گاهی هم بهعنوان شتابدهنده مدل بزرگ عمل میکند.
🔥 نتایج روی Gemma و T5:
✳️سریعتر از speculative decoding
✳️ارزانتر و باکیفیتتر از cascades
✳️امکان تنظیم بهتر بین سرعت ↔ کیفیت
✳️در مسائل استدلال ریاضی، سرعت بالاتر همراه با حفظ یا بهبود کیفیت
📌 اهمیت: برای جستجو، چتباتها و دستیارهای هوشمند، سرعت و هزینه پایین حیاتی است. این روش بهینهسازی میتواند استفاده از LLMها را عملیتر و گستردهتر کند.
🔗 جزئیات بیشتر: Google Research
@rss_ai_ir
#هوش_مصنوعی #مدل_زبانی #گوگل #LLM #بهینهسازی #SpeculativeDecoding #Cascades
❤7🎉6👍4🔥4😁3