This media is not supported in your browser
VIEW IN TELEGRAM
🔥 زیباترین تصویری که تا امروز از «درون ذهن یک مدل زبانی» دیدهایم!
در پاسخ به این سؤال همیشگی که «هوش مصنوعی دقیقاً چطور فکر میکند؟» — این بهترین و دقیقترین بصریسازی از فرایند محاسباتی یک LLM است. یک پرواز سهبعدی تعاملی از داخل شبکه Llama؛ اما اصول آن برای تمام ترنسفورمرها صادق است.
✨ چه چیزی را میبینیم؟
هر صفحه یک تنسور است؛ یک فریم از «فیلم ذهنی» مدل در لحظهٔ پردازش.
هر لایه دقیقاً نشان میدهد که چه عملی انجام میشود:
Attention, Projection, Normalization, MLP
با کلیک روی پنل سمت راست میتوانید توضیح واضح هر مرحله را ببینید و اینکه چرا مدل از آن حالت به حالت بعدی میرود.
تجربهاش مثل این است که داخل یک فکر قدم میزنید.
❓ و بالاخره پاسخ به سؤال بزرگ:
«روح» یک مدل زبانی کجاست؟
اینجاست—در همین تبدیلهای پیدرپی، تنسورها و لایههایی که معنا را شکل میدهند.
⚪️ @rss_ai_ir
#AI #LLM #DeepLearning #Transformers #Visualization #NeuralNetworks #AIMind
در پاسخ به این سؤال همیشگی که «هوش مصنوعی دقیقاً چطور فکر میکند؟» — این بهترین و دقیقترین بصریسازی از فرایند محاسباتی یک LLM است. یک پرواز سهبعدی تعاملی از داخل شبکه Llama؛ اما اصول آن برای تمام ترنسفورمرها صادق است.
✨ چه چیزی را میبینیم؟
هر صفحه یک تنسور است؛ یک فریم از «فیلم ذهنی» مدل در لحظهٔ پردازش.
هر لایه دقیقاً نشان میدهد که چه عملی انجام میشود:
Attention, Projection, Normalization, MLP
با کلیک روی پنل سمت راست میتوانید توضیح واضح هر مرحله را ببینید و اینکه چرا مدل از آن حالت به حالت بعدی میرود.
تجربهاش مثل این است که داخل یک فکر قدم میزنید.
❓ و بالاخره پاسخ به سؤال بزرگ:
«روح» یک مدل زبانی کجاست؟
اینجاست—در همین تبدیلهای پیدرپی، تنسورها و لایههایی که معنا را شکل میدهند.
⚪️ @rss_ai_ir
#AI #LLM #DeepLearning #Transformers #Visualization #NeuralNetworks #AIMind
👍4👎1🔥1
🔥 مدل Ministral 3 منتشر شد؛ نسل جدید مدلهای ریزونی و اینستراکت از Mistral
مینسترال ۳ در سه نسخهی ۳B ،۸B و ۱۴B عرضه شده و روی ریـزنینگ، دقت دستورات و حتی پردازش تصویری عملکردی فراتر از مدلهای همرده دارد.
ویژگیها:
⚙️ نسخهی ۱۴B روی لپتاپ با ۲۴ گیگابایت RAM هم اجرا میشود
🧠 پشتیبانی از بینایی (Vision)
🚀 عملکرد قوی در تسکهای استدلال و دنبالکردن دستورها
💻 امکان اجرا و فاینتیون لوکال
لینکها:
راهنما + لپتاپ:
https://docs.unsloth.ai/new/ministral-3
نسخههای GGUF:
https://huggingface.co/collections/unsloth/ministral-3
@rss_ai_ir
#AI #Mistral #Ministral3 #LLM #MachineLearning #Reasoning #GenAI
مینسترال ۳ در سه نسخهی ۳B ،۸B و ۱۴B عرضه شده و روی ریـزنینگ، دقت دستورات و حتی پردازش تصویری عملکردی فراتر از مدلهای همرده دارد.
ویژگیها:
⚙️ نسخهی ۱۴B روی لپتاپ با ۲۴ گیگابایت RAM هم اجرا میشود
🧠 پشتیبانی از بینایی (Vision)
🚀 عملکرد قوی در تسکهای استدلال و دنبالکردن دستورها
💻 امکان اجرا و فاینتیون لوکال
لینکها:
راهنما + لپتاپ:
https://docs.unsloth.ai/new/ministral-3
نسخههای GGUF:
https://huggingface.co/collections/unsloth/ministral-3
@rss_ai_ir
#AI #Mistral #Ministral3 #LLM #MachineLearning #Reasoning #GenAI
🔥1👏1
✨ اوپناِیآی روشی تازه برای وادار کردن مدلها به اعتراف درباره خطاهای خود پیدا کرد – تکنیکی به نام Confessions.
یکی از چالشهای مهم در مدلهای زبانی این است که گاهی برای «خوشآمدگویى به ارزیاب» تلاش میکنند و بهجای صداقت، پاسخهای قانعکننده اما غلط میسازند؛ یا حتی نقض دستورالعملها را پنهان میکنند.
🔍 تکنیک Confessions دقیقاً برای همین مشکل طراحی شده است.
این روش چگونه کار میکند؟
1️⃣ مدل ابتدا پاسخ عادی خود را تولید میکند.
2️⃣ سپس بهطور مستقل یک گزارش ثانویه مینویسد و در آن بررسی میکند:
آیا دستورالعملها را نقض کرده؟
در کدام بخشها احتمال خطا وجود دارد؟
کدام قسمتهای پاسخ مشکوک یا غیرمطمئن بودهاند؟
3️⃣ پاداش نه برای عالیبودن پاسخ، بلکه برای صداقت داده میشود.
⚙️ هدف این است که مدل به رفتار خودش نگاه انتقادی داشته باشد، نه اینکه برای گرفتن نمره بهتر، خطا را پنهان کند.
📊 نتایج اولیه
در آزمایشهای انجامشده روی GPT-5 Thinking احتمال اینکه مدل دستورالعمل را نقض کند و سعی در پنهانکردن آن داشته باشد به ۴.۴٪ کاهش یافت.
⚠️ نکته مهم:
اینکه Confessions جلوگیری از hallucination نیست؛
بلکه ابزاری برای شناسایی لحظههایی است که مدل احتمالاً «لغزیده»، اشتباه کرده یا از دستورالعمل منحرف شده است.
🔗 جزئیات بیشتر:
openai.com/index/how-confessions-can-keep-language-models-honest/
#هوش_مصنوعی #AI #OpenAI #LLM #Confessions #GPT5 #ایمنی_مدل #پژوهش_هوش_مصنوعی @rss_ai_ir
یکی از چالشهای مهم در مدلهای زبانی این است که گاهی برای «خوشآمدگویى به ارزیاب» تلاش میکنند و بهجای صداقت، پاسخهای قانعکننده اما غلط میسازند؛ یا حتی نقض دستورالعملها را پنهان میکنند.
🔍 تکنیک Confessions دقیقاً برای همین مشکل طراحی شده است.
این روش چگونه کار میکند؟
1️⃣ مدل ابتدا پاسخ عادی خود را تولید میکند.
2️⃣ سپس بهطور مستقل یک گزارش ثانویه مینویسد و در آن بررسی میکند:
آیا دستورالعملها را نقض کرده؟
در کدام بخشها احتمال خطا وجود دارد؟
کدام قسمتهای پاسخ مشکوک یا غیرمطمئن بودهاند؟
3️⃣ پاداش نه برای عالیبودن پاسخ، بلکه برای صداقت داده میشود.
⚙️ هدف این است که مدل به رفتار خودش نگاه انتقادی داشته باشد، نه اینکه برای گرفتن نمره بهتر، خطا را پنهان کند.
📊 نتایج اولیه
در آزمایشهای انجامشده روی GPT-5 Thinking احتمال اینکه مدل دستورالعمل را نقض کند و سعی در پنهانکردن آن داشته باشد به ۴.۴٪ کاهش یافت.
⚠️ نکته مهم:
اینکه Confessions جلوگیری از hallucination نیست؛
بلکه ابزاری برای شناسایی لحظههایی است که مدل احتمالاً «لغزیده»، اشتباه کرده یا از دستورالعمل منحرف شده است.
🔗 جزئیات بیشتر:
openai.com/index/how-confessions-can-keep-language-models-honest/
#هوش_مصنوعی #AI #OpenAI #LLM #Confessions #GPT5 #ایمنی_مدل #پژوهش_هوش_مصنوعی @rss_ai_ir
❤1🔥1👏1
✨ پنج تکنیک کلیدی برای فاینتیون مدلهای زبانی بزرگ
با رشد مدلهای زبانی، نیاز به تنظیم آنها برای وظایف تخصصی بیشتر شده است. اما چگونه میتوان این کار را بهصرفه و بدون افت کیفیت انجام داد؟ 🤔
در این پست، پنج روش پیشرفته و پرکاربرد را یکجا مرور میکنیم:
1️⃣ LoRA —
کاهش هزینه با یادگیری کمپارامتر:
در این روش تنها ماتریسهای کمرتبه آموزش داده میشوند. همین موضوع باعث میشود فاینتیون بسیار سریعتر و کمهزینهتر انجام شود.
2️⃣ LoRA-FA —
ترکیب LoRA با ویژگیهای افزودهشده:
در این نسخه، مدل علاوه بر یادگیری کمپارامتر، از ویژگیهای اضافهشده (Feature Augmentation) نیز استفاده میکند و عملکرد بهتری روی وظایف تخصصی ارائه میدهد.
3️⃣ Vera —
منظمسازی توکار در فضای امبدینگ:
این تکنیک با منظمسازی امبدینگها از بیشبرازش جلوگیری میکند و باعث میشود مدل روی دامنههای مختلف بهتر تعمیم یابد.
4️⃣ Delta LoRA —
تمرکز بر لایههای مهمتر:
بهجای آموزش لایههای زیاد، تنها لایههایی که بیشترین اثر را دارند بهروزرسانی میشوند. نتیجه: سرعت بیشتر و هزینهٔ کمتر بدون افت کیفیت.
5️⃣ Prefix Tuning —
هدایت رفتار مدل بدون تغییر وزنها:
در این روش وزنهای مدل دستنخورده باقی میماند؛ تنها یک مجموعه "پیشوند آموزشی" یاد گرفته میشود که مدل را در جهت موردنظر هدایت میکند. روشی فوقالعاده برای فاینتیون سریع و سبک.
---
@rss_ai_ir
#فاینتیون #هوش_مصنوعی #LLM #آموزش_مدل #دیپ_لرنینگ #ماشین_لرنینگ 🚀
با رشد مدلهای زبانی، نیاز به تنظیم آنها برای وظایف تخصصی بیشتر شده است. اما چگونه میتوان این کار را بهصرفه و بدون افت کیفیت انجام داد؟ 🤔
در این پست، پنج روش پیشرفته و پرکاربرد را یکجا مرور میکنیم:
1️⃣ LoRA —
کاهش هزینه با یادگیری کمپارامتر:
در این روش تنها ماتریسهای کمرتبه آموزش داده میشوند. همین موضوع باعث میشود فاینتیون بسیار سریعتر و کمهزینهتر انجام شود.
2️⃣ LoRA-FA —
ترکیب LoRA با ویژگیهای افزودهشده:
در این نسخه، مدل علاوه بر یادگیری کمپارامتر، از ویژگیهای اضافهشده (Feature Augmentation) نیز استفاده میکند و عملکرد بهتری روی وظایف تخصصی ارائه میدهد.
3️⃣ Vera —
منظمسازی توکار در فضای امبدینگ:
این تکنیک با منظمسازی امبدینگها از بیشبرازش جلوگیری میکند و باعث میشود مدل روی دامنههای مختلف بهتر تعمیم یابد.
4️⃣ Delta LoRA —
تمرکز بر لایههای مهمتر:
بهجای آموزش لایههای زیاد، تنها لایههایی که بیشترین اثر را دارند بهروزرسانی میشوند. نتیجه: سرعت بیشتر و هزینهٔ کمتر بدون افت کیفیت.
5️⃣ Prefix Tuning —
هدایت رفتار مدل بدون تغییر وزنها:
در این روش وزنهای مدل دستنخورده باقی میماند؛ تنها یک مجموعه "پیشوند آموزشی" یاد گرفته میشود که مدل را در جهت موردنظر هدایت میکند. روشی فوقالعاده برای فاینتیون سریع و سبک.
---
@rss_ai_ir
#فاینتیون #هوش_مصنوعی #LLM #آموزش_مدل #دیپ_لرنینگ #ماشین_لرنینگ 🚀
❤1
📌 چطور یک نمونهٔ اولیه LLM را به یک سیستم آمادهی تولید تبدیل کنیم؟
🧠 هر مدل زبانی بزرگ وقتی از مرحلهٔ آزمایشی خارج میشود، تازه چالشهای واقعی شروع میشوند. مسیری که از یک دمو جذاب به یک سرویس پایدار، مقیاسپذیر و مطمئن میرسد، پر از جزئیات مهندسی، بهینهسازی و تصمیمهای مهم است.
🔧 در این راهنما مراحل کلیدی برای عملیاتیکردن مدل شامل:
— طراحی معماری مقیاسپذیر
— انتخاب استراتژی مناسب برای inference
— مانیتورینگ و تستپذیری
— مدیریت خطا و ریزش کیفیت
— امنیت، حریم خصوصی و کنترل نسخه
— استقرار در محیط واقعی و MLOps استاندارد
هدف این است که مدل فقط «کار کند» نیست؛ باید همیشه، سریع، دقیق و قابل اتکا عمل کند.
این نوشته خلاصهای است از بهترین روشهایی که تیمها برای تبدیل مدلها از مرحلهٔ concept به Production AI استفاده میکنند.
https://towardsdatascience.com/how-to-turn-your-llm-prototype-into-a-production-ready-system/
#LLM #MLOps #ProductionAI #LLMOps 🚀
🧠 هر مدل زبانی بزرگ وقتی از مرحلهٔ آزمایشی خارج میشود، تازه چالشهای واقعی شروع میشوند. مسیری که از یک دمو جذاب به یک سرویس پایدار، مقیاسپذیر و مطمئن میرسد، پر از جزئیات مهندسی، بهینهسازی و تصمیمهای مهم است.
🔧 در این راهنما مراحل کلیدی برای عملیاتیکردن مدل شامل:
— طراحی معماری مقیاسپذیر
— انتخاب استراتژی مناسب برای inference
— مانیتورینگ و تستپذیری
— مدیریت خطا و ریزش کیفیت
— امنیت، حریم خصوصی و کنترل نسخه
— استقرار در محیط واقعی و MLOps استاندارد
هدف این است که مدل فقط «کار کند» نیست؛ باید همیشه، سریع، دقیق و قابل اتکا عمل کند.
این نوشته خلاصهای است از بهترین روشهایی که تیمها برای تبدیل مدلها از مرحلهٔ concept به Production AI استفاده میکنند.
https://towardsdatascience.com/how-to-turn-your-llm-prototype-into-a-production-ready-system/
#LLM #MLOps #ProductionAI #LLMOps 🚀
👍1
🔥 نسخه Transformers v5 منتشر شد!
جامعهٔ هوش مصنوعی امروز شاهد یک جهش بزرگ بود. نسخهٔ جدید Transformers v5 از Hugging Face رسماً عرضه شد و حالا تبدیل به ستون اصلی اکوسیستم متنباز در مدلهای بزرگ شده است.
📈 رشد اکوسیستم در چند سال اخیر واقعاً خیرهکننده بوده:
📦 از ۲۰هزار به ۳ میلیون نصب روزانه
🧠 از ۴۰ معماری پشتیبانیشده به ۴۰۰+
🗃️ بیش از ۷۵۰هزار چکپوینت
🌍 بیش از ۱.۲ میلیارد نصب تجمعی
✨ مهمترین تغییرات نسخهٔ جدید:
♻️معماری کاملاً مبتنی بر PyTorch
♻️طراحی ماژولار و قابلگسترش
♻️رویکرد «quantization-first» برای کارایی بالاتر
♻️همچنین Transformers Serve سازگار با APIهای OpenAI
این نسخه آغاز یک مرحلهٔ تازه در آیندهٔ مدلهای متنباز است.
https://huggingface.co/blog/transformers-v5
#Transformers #HuggingFace #AI #DeepLearning #ML #PyTorch #LLM 🚀
جامعهٔ هوش مصنوعی امروز شاهد یک جهش بزرگ بود. نسخهٔ جدید Transformers v5 از Hugging Face رسماً عرضه شد و حالا تبدیل به ستون اصلی اکوسیستم متنباز در مدلهای بزرگ شده است.
📈 رشد اکوسیستم در چند سال اخیر واقعاً خیرهکننده بوده:
📦 از ۲۰هزار به ۳ میلیون نصب روزانه
🧠 از ۴۰ معماری پشتیبانیشده به ۴۰۰+
🗃️ بیش از ۷۵۰هزار چکپوینت
🌍 بیش از ۱.۲ میلیارد نصب تجمعی
✨ مهمترین تغییرات نسخهٔ جدید:
♻️معماری کاملاً مبتنی بر PyTorch
♻️طراحی ماژولار و قابلگسترش
♻️رویکرد «quantization-first» برای کارایی بالاتر
♻️همچنین Transformers Serve سازگار با APIهای OpenAI
این نسخه آغاز یک مرحلهٔ تازه در آیندهٔ مدلهای متنباز است.
https://huggingface.co/blog/transformers-v5
#Transformers #HuggingFace #AI #DeepLearning #ML #PyTorch #LLM 🚀
❤4👍2👏1
🚀 بایتدنس مدل جدید برنامهنویسی خود را معرفی کرد: Doubao Seed Code
بایتدنس نسخه تازهای از مدلهای کدنویسی خود را منتشر کرده است؛ مدلی که علاوه بر درک و تولید کد، قابلیت ورود تصویر هم دارد و میتواند محتوای بصری را برای تحلیل مسائل برنامهنویسی بررسی کند.
نکات کلیدی:
♻️پشتیبانی از ورودی تصویری برای تحلیل بصری
♻️انتشار بِنچمارکها و قیمتها
♻️عملکرد بهتر از Sonnet 4.5 در آزمونهای SWE-Bench-Verified و Multi-SWE
♻️عملکرد کمی ضعیفتر نسبت به Sonnet 4.5 در Terminal Bench
♻️این مدل بخشی از خانواده Doubao است که با هدف ادغام LLMها در جریان کاری توسعهدهندگان و سیستمهای Edge Inference طراحی شده است.
🔗 تست و اطلاعات بیشتر:
https://exp.volcengine.com/ark?model=doubao-seed-code-preview-251028
#هوش_مصنوعی #بایتدنس #مدل_کدنویسی #AI #LLM
بایتدنس نسخه تازهای از مدلهای کدنویسی خود را منتشر کرده است؛ مدلی که علاوه بر درک و تولید کد، قابلیت ورود تصویر هم دارد و میتواند محتوای بصری را برای تحلیل مسائل برنامهنویسی بررسی کند.
نکات کلیدی:
♻️پشتیبانی از ورودی تصویری برای تحلیل بصری
♻️انتشار بِنچمارکها و قیمتها
♻️عملکرد بهتر از Sonnet 4.5 در آزمونهای SWE-Bench-Verified و Multi-SWE
♻️عملکرد کمی ضعیفتر نسبت به Sonnet 4.5 در Terminal Bench
♻️این مدل بخشی از خانواده Doubao است که با هدف ادغام LLMها در جریان کاری توسعهدهندگان و سیستمهای Edge Inference طراحی شده است.
🔗 تست و اطلاعات بیشتر:
https://exp.volcengine.com/ark?model=doubao-seed-code-preview-251028
#هوش_مصنوعی #بایتدنس #مدل_کدنویسی #AI #LLM
👍1
🚀 بهروزرسانی بزرگ Qwen3-Omni-Flash (نسخه ۲۰۲۵-۱۲-۰۱) منتشر شد!
🔹 چه چیزهایی تغییر کرده؟
🎙️ گفتگو با صدا و ویدیو طبیعیتر از قبل شده است
مدل حالا مکالمات صوتی و تصویری را روانتر، پیوستهتر و شبیه انسان پردازش میکند.
✨ امکان تعیین شخصیت و سبک تعاملِ هوش مصنوعی
فقط با یک System Prompt میتوانید نقش، لحن، شخصیت یا سبک گفتار مدل را مشخص کنید.
🗣️ پشتیبانی زبانی گستردهتر
۱۱۹ زبان نوشتاری و ۱۹ زبان صوتی!
😊 صداها بسیار واقعیتر شدهاند
تقریباً مشابه صدای انسان — مناسب برای دستیارهای صوتی حرفهای.
---
🔹 کجا میتوان آن را تست کرد؟
🎙️ در Qwen Chat — گزینه VoiceChat یا VideoChat
https://chat.qwen.ai
📝 توضیحات کامل در بلاگ
https://qwen.ai/blog?id=qwen3-omni-20251201
🎧 دمو آنلاین در Hugging Face
https://hf.co/spaces/Qwen/Qwen3-Omni-Demo
🎧 دمو دوم در ModelScope
https://modelscope.cn/studios/Qwen/Qwen3-Omni-Demo
⚡ Realtime API
https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-realtime-2025-12-01
📥 Offline API
https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-2025-12-01
---
#Qwen #هوش_مصنوعی #LLM #مولتی_مودال #AI
🔹 چه چیزهایی تغییر کرده؟
🎙️ گفتگو با صدا و ویدیو طبیعیتر از قبل شده است
مدل حالا مکالمات صوتی و تصویری را روانتر، پیوستهتر و شبیه انسان پردازش میکند.
✨ امکان تعیین شخصیت و سبک تعاملِ هوش مصنوعی
فقط با یک System Prompt میتوانید نقش، لحن، شخصیت یا سبک گفتار مدل را مشخص کنید.
🗣️ پشتیبانی زبانی گستردهتر
۱۱۹ زبان نوشتاری و ۱۹ زبان صوتی!
😊 صداها بسیار واقعیتر شدهاند
تقریباً مشابه صدای انسان — مناسب برای دستیارهای صوتی حرفهای.
---
🔹 کجا میتوان آن را تست کرد؟
🎙️ در Qwen Chat — گزینه VoiceChat یا VideoChat
https://chat.qwen.ai
📝 توضیحات کامل در بلاگ
https://qwen.ai/blog?id=qwen3-omni-20251201
🎧 دمو آنلاین در Hugging Face
https://hf.co/spaces/Qwen/Qwen3-Omni-Demo
🎧 دمو دوم در ModelScope
https://modelscope.cn/studios/Qwen/Qwen3-Omni-Demo
⚡ Realtime API
https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-realtime-2025-12-01
📥 Offline API
https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-2025-12-01
---
#Qwen #هوش_مصنوعی #LLM #مولتی_مودال #AI
❤1👍1
🌐 رشد سالانه مدلهای Gemini حدود ۴۰۰٪ بوده است.
این عدد یعنی چه؟ یعنی دلیلی که «سم آلتمن» حالت code red اعلام کرد کاملاً قابل درک است.
وقتی یک اکوسیستم مدلهای هوش مصنوعی با چنین سرعتی رشد میکند، رقابت وارد مرحلهی بقا میشود، نه فقط رقابت تکنولوژیک.
در سال گذشته:
گوگل چند نسل مدلهای Gemini را عرضه کرد؛
نسخههای Pro، Ultra، Nano و Flash تقریباً تمام محصولات گوگل را تغذیه میکنند؛
سهم بازار در جستجو، موبایل و سرویسهای ابری تحت تأثیر هوش مصنوعی افزایش یافته؛
و اکنون Gemini تبدیل به سریعترین رشد در میان مدلهای مولتیمودال شده است.
در چنین شرایطی، هر شرکت بزرگ مجبور است سرعت خود را چند برابر کند.
گپ ۵.۲، فشار روی OpenAI و رقابت شدید xAI همگی نشانهی همین واقعیتاند.
🔥 آیندهی مدلها نه خطی، بلکه نمایی در حال رشد است.
#AI #Gemini #Google #LLM #TechWar #Innovation
این عدد یعنی چه؟ یعنی دلیلی که «سم آلتمن» حالت code red اعلام کرد کاملاً قابل درک است.
وقتی یک اکوسیستم مدلهای هوش مصنوعی با چنین سرعتی رشد میکند، رقابت وارد مرحلهی بقا میشود، نه فقط رقابت تکنولوژیک.
در سال گذشته:
گوگل چند نسل مدلهای Gemini را عرضه کرد؛
نسخههای Pro، Ultra، Nano و Flash تقریباً تمام محصولات گوگل را تغذیه میکنند؛
سهم بازار در جستجو، موبایل و سرویسهای ابری تحت تأثیر هوش مصنوعی افزایش یافته؛
و اکنون Gemini تبدیل به سریعترین رشد در میان مدلهای مولتیمودال شده است.
در چنین شرایطی، هر شرکت بزرگ مجبور است سرعت خود را چند برابر کند.
گپ ۵.۲، فشار روی OpenAI و رقابت شدید xAI همگی نشانهی همین واقعیتاند.
🔥 آیندهی مدلها نه خطی، بلکه نمایی در حال رشد است.
#AI #Gemini #Google #LLM #TechWar #Innovation
👍2
🚀 بزرگترین جهش GPT-5.2 احتمالاً روی بنچمارک ARC-AGI اتفاق افتاده است
🧠 در ARC-AGI 1، این مدل به امتیاز 86.2٪ رسیده؛
در حالی که GPT-5.1 روی 72.8٪ و Gemini 3 Pro روی 75٪ متوقف شده بودند. این یک جهش بسیار جدی محسوب میشود.
⚡️ نسخه GPT-5.2 Pro با سطح استدلال X-High حتی به 90.5٪ رسیده، آن هم با هزینهی 11.64 دلار برای هر مسئله.
برای مقایسه: فقط یک سال پیش، مدل منتشرنشدهی o3-High با 88٪، حدود 4500 دلار برای هر مسئله هزینه داشت.
📈 نتیجه؟
کارایی در عرض یک سال حدود 390 برابر افزایش یافته است.
🔥 اما در ARC-AGI 2 اوضاع حتی جالبتر میشود:
امتیاز از 17.6٪ به 52.9٪ جهش کرده!
نزدیکترین رقیب یعنی Claude Opus 4.5 تنها 37.6٪ گرفته است.
و فقط یادآوری: بین انتشار GPT-5.1 و GPT-5.2 فقط یک ماه فاصله بوده 😐
⏳ نسخه GPT-5.2 Pro X-High احتمالاً امتیاز بالاتری هم دارد، اما برگزارکنندگان بنچمارک گفتهاند بهدلیل API timeout هنوز نتوانستهاند نتیجه را بهطور قطعی تأیید کنند.
سطح متوسط انسان در ARC-AGI 2 حدود 60٪ است… باید دید آیا مدل از انسان عبور میکند یا نه 👀
📡 @rss_ai_ir
#AI #GPT52 #ARCAGI #هوش_مصنوعی #LLM #Benchmark #AGI
🧠 در ARC-AGI 1، این مدل به امتیاز 86.2٪ رسیده؛
در حالی که GPT-5.1 روی 72.8٪ و Gemini 3 Pro روی 75٪ متوقف شده بودند. این یک جهش بسیار جدی محسوب میشود.
⚡️ نسخه GPT-5.2 Pro با سطح استدلال X-High حتی به 90.5٪ رسیده، آن هم با هزینهی 11.64 دلار برای هر مسئله.
برای مقایسه: فقط یک سال پیش، مدل منتشرنشدهی o3-High با 88٪، حدود 4500 دلار برای هر مسئله هزینه داشت.
📈 نتیجه؟
کارایی در عرض یک سال حدود 390 برابر افزایش یافته است.
🔥 اما در ARC-AGI 2 اوضاع حتی جالبتر میشود:
امتیاز از 17.6٪ به 52.9٪ جهش کرده!
نزدیکترین رقیب یعنی Claude Opus 4.5 تنها 37.6٪ گرفته است.
و فقط یادآوری: بین انتشار GPT-5.1 و GPT-5.2 فقط یک ماه فاصله بوده 😐
⏳ نسخه GPT-5.2 Pro X-High احتمالاً امتیاز بالاتری هم دارد، اما برگزارکنندگان بنچمارک گفتهاند بهدلیل API timeout هنوز نتوانستهاند نتیجه را بهطور قطعی تأیید کنند.
سطح متوسط انسان در ARC-AGI 2 حدود 60٪ است… باید دید آیا مدل از انسان عبور میکند یا نه 👀
📡 @rss_ai_ir
#AI #GPT52 #ARCAGI #هوش_مصنوعی #LLM #Benchmark #AGI
🎉15👍12❤11🔥7🥰7👏6😁6