کمپانی فرانسوی Mistral نسخه جدید مدل زبانی خود را با نام Mixtral 8×22B منتشر کرد. این مدل از معماری MoE استفاده کرده و دارای Context Window به سایز ۶۵ هزار توکن است (هر توکن را معادل یک لغت در نظر بگیرید). تعداد پارامترهای این مدل ۱۷۶ میلیارد بوده و دارای سایز ۲۸۱ گیگابایت است. اطلاعات دانلود این مدل از تورنت در اینجا منتشر شده است.
#mistral
#moe
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
#mistral
#moe
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
دسترسی به مدلهای Mistral
برای دسترسی رایگان به مدلهای Mistral و مدل جدید Codestral وارد اینجا شده و در پایین باکس ورودی نوع مدل را خود را انتخاب کنید.
#codestral
#mistral
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
برای دسترسی رایگان به مدلهای Mistral و مدل جدید Codestral وارد اینجا شده و در پایین باکس ورودی نوع مدل را خود را انتخاب کنید.
#codestral
#mistral
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
شرکت فرانسوی Mistral دو مدل جدید زبانی را معرفی کرد.
مدل Codestral Mamba با ۷ میلیارد پارامتر مخصوص کد نویسی است. این مدل از نمونههای اپنسورس مشابه نظیر CodeGemma و CodeLlama عملکرد بهتری دارد. سایز Context آن نیز ۲۵۶ کیلوبایت است.
مدل Mathstral نیز دارای ۷ میلیارد پارامتر بوده و مخصوص حل مسائل استنتاجی و ریاضی است. این مدل در بنچمارک MATH عملکرد ۵۶.۶ درصدی و در بنچمارک MMLU عملکرد ۶۳.۴۷ درصدی داشته است. هر دو مدل به صورت اپنسورس تحت لایسنس Apache 2.0 منتشر شدهاند.
#mistral
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
مدل Codestral Mamba با ۷ میلیارد پارامتر مخصوص کد نویسی است. این مدل از نمونههای اپنسورس مشابه نظیر CodeGemma و CodeLlama عملکرد بهتری دارد. سایز Context آن نیز ۲۵۶ کیلوبایت است.
مدل Mathstral نیز دارای ۷ میلیارد پارامتر بوده و مخصوص حل مسائل استنتاجی و ریاضی است. این مدل در بنچمارک MATH عملکرد ۵۶.۶ درصدی و در بنچمارک MMLU عملکرد ۶۳.۴۷ درصدی داشته است. هر دو مدل به صورت اپنسورس تحت لایسنس Apache 2.0 منتشر شدهاند.
#mistral
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
❤2
این چند وقت شرکت Mistral خیلی فعال بود! بعد از انتشار چند مدل کوچک زبانی اکنون یکی از بزرگترین مدلهای زبانی خود را با نام Mistral Large 2 به صورت اپنسورس منتشر کرد. سایز Context Window در این مدل ۱۲۸ هزار توکن است. Mistral Large 2 دوازده زبان رایج دنیا و بیش از ۸۰ زبان برنامهنویسی را ساپورت میکند. این مدل حدودا یک سوم Llama 3.1 405B بوده ولی در حوزههای برنامهنویسی و ریاضی عملکرد بهتری از خود نشان داده است.
👈 مطالعه جزئیات بیشتر
#mistral
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
👈 مطالعه جزئیات بیشتر
#mistral
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
شرکت Mistral مجموعه مدلهای جدیدی را با نام Les Ministraux معرفی کرد. در حال حاضر این مجموعه شامل دو مدل زبانی Ministral 3B و Ministral 8B است. برای مطالعه جزئیات بیشتر اینجا را بخوانید.
#mistral
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
#mistral
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
🔥5👍1
استارتاپ فرانسوی Mistral مدل زبانی ۱۲۴ میلیارد پارامتری Pixtral Large را معرفی کرد.
برای دسترسی به این مدل و جزئیات فنی اینجا را بخوانید.
در این جدول مقایسه این مدل با مدلهای مشابه در بنچمارکهای مختلف نمایش داده شده است.
#mistral
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
برای دسترسی به این مدل و جزئیات فنی اینجا را بخوانید.
در این جدول مقایسه این مدل با مدلهای مشابه در بنچمارکهای مختلف نمایش داده شده است.
#mistral
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
👍1