This media is not supported in your browser
VIEW IN TELEGRAM
🔥 زیباترین تصویری که تا امروز از «درون ذهن یک مدل زبانی» دیدهایم!
در پاسخ به این سؤال همیشگی که «هوش مصنوعی دقیقاً چطور فکر میکند؟» — این بهترین و دقیقترین بصریسازی از فرایند محاسباتی یک LLM است. یک پرواز سهبعدی تعاملی از داخل شبکه Llama؛ اما اصول آن برای تمام ترنسفورمرها صادق است.
✨ چه چیزی را میبینیم؟
هر صفحه یک تنسور است؛ یک فریم از «فیلم ذهنی» مدل در لحظهٔ پردازش.
هر لایه دقیقاً نشان میدهد که چه عملی انجام میشود:
Attention, Projection, Normalization, MLP
با کلیک روی پنل سمت راست میتوانید توضیح واضح هر مرحله را ببینید و اینکه چرا مدل از آن حالت به حالت بعدی میرود.
تجربهاش مثل این است که داخل یک فکر قدم میزنید.
❓ و بالاخره پاسخ به سؤال بزرگ:
«روح» یک مدل زبانی کجاست؟
اینجاست—در همین تبدیلهای پیدرپی، تنسورها و لایههایی که معنا را شکل میدهند.
⚪️ @rss_ai_ir
#AI #LLM #DeepLearning #Transformers #Visualization #NeuralNetworks #AIMind
در پاسخ به این سؤال همیشگی که «هوش مصنوعی دقیقاً چطور فکر میکند؟» — این بهترین و دقیقترین بصریسازی از فرایند محاسباتی یک LLM است. یک پرواز سهبعدی تعاملی از داخل شبکه Llama؛ اما اصول آن برای تمام ترنسفورمرها صادق است.
✨ چه چیزی را میبینیم؟
هر صفحه یک تنسور است؛ یک فریم از «فیلم ذهنی» مدل در لحظهٔ پردازش.
هر لایه دقیقاً نشان میدهد که چه عملی انجام میشود:
Attention, Projection, Normalization, MLP
با کلیک روی پنل سمت راست میتوانید توضیح واضح هر مرحله را ببینید و اینکه چرا مدل از آن حالت به حالت بعدی میرود.
تجربهاش مثل این است که داخل یک فکر قدم میزنید.
❓ و بالاخره پاسخ به سؤال بزرگ:
«روح» یک مدل زبانی کجاست؟
اینجاست—در همین تبدیلهای پیدرپی، تنسورها و لایههایی که معنا را شکل میدهند.
⚪️ @rss_ai_ir
#AI #LLM #DeepLearning #Transformers #Visualization #NeuralNetworks #AIMind
👍4👎1🔥1
🔥 مدل Ministral 3 منتشر شد؛ نسل جدید مدلهای ریزونی و اینستراکت از Mistral
مینسترال ۳ در سه نسخهی ۳B ،۸B و ۱۴B عرضه شده و روی ریـزنینگ، دقت دستورات و حتی پردازش تصویری عملکردی فراتر از مدلهای همرده دارد.
ویژگیها:
⚙️ نسخهی ۱۴B روی لپتاپ با ۲۴ گیگابایت RAM هم اجرا میشود
🧠 پشتیبانی از بینایی (Vision)
🚀 عملکرد قوی در تسکهای استدلال و دنبالکردن دستورها
💻 امکان اجرا و فاینتیون لوکال
لینکها:
راهنما + لپتاپ:
https://docs.unsloth.ai/new/ministral-3
نسخههای GGUF:
https://huggingface.co/collections/unsloth/ministral-3
@rss_ai_ir
#AI #Mistral #Ministral3 #LLM #MachineLearning #Reasoning #GenAI
مینسترال ۳ در سه نسخهی ۳B ،۸B و ۱۴B عرضه شده و روی ریـزنینگ، دقت دستورات و حتی پردازش تصویری عملکردی فراتر از مدلهای همرده دارد.
ویژگیها:
⚙️ نسخهی ۱۴B روی لپتاپ با ۲۴ گیگابایت RAM هم اجرا میشود
🧠 پشتیبانی از بینایی (Vision)
🚀 عملکرد قوی در تسکهای استدلال و دنبالکردن دستورها
💻 امکان اجرا و فاینتیون لوکال
لینکها:
راهنما + لپتاپ:
https://docs.unsloth.ai/new/ministral-3
نسخههای GGUF:
https://huggingface.co/collections/unsloth/ministral-3
@rss_ai_ir
#AI #Mistral #Ministral3 #LLM #MachineLearning #Reasoning #GenAI
🔥1👏1
✨ اوپناِیآی روشی تازه برای وادار کردن مدلها به اعتراف درباره خطاهای خود پیدا کرد – تکنیکی به نام Confessions.
یکی از چالشهای مهم در مدلهای زبانی این است که گاهی برای «خوشآمدگویى به ارزیاب» تلاش میکنند و بهجای صداقت، پاسخهای قانعکننده اما غلط میسازند؛ یا حتی نقض دستورالعملها را پنهان میکنند.
🔍 تکنیک Confessions دقیقاً برای همین مشکل طراحی شده است.
این روش چگونه کار میکند؟
1️⃣ مدل ابتدا پاسخ عادی خود را تولید میکند.
2️⃣ سپس بهطور مستقل یک گزارش ثانویه مینویسد و در آن بررسی میکند:
آیا دستورالعملها را نقض کرده؟
در کدام بخشها احتمال خطا وجود دارد؟
کدام قسمتهای پاسخ مشکوک یا غیرمطمئن بودهاند؟
3️⃣ پاداش نه برای عالیبودن پاسخ، بلکه برای صداقت داده میشود.
⚙️ هدف این است که مدل به رفتار خودش نگاه انتقادی داشته باشد، نه اینکه برای گرفتن نمره بهتر، خطا را پنهان کند.
📊 نتایج اولیه
در آزمایشهای انجامشده روی GPT-5 Thinking احتمال اینکه مدل دستورالعمل را نقض کند و سعی در پنهانکردن آن داشته باشد به ۴.۴٪ کاهش یافت.
⚠️ نکته مهم:
اینکه Confessions جلوگیری از hallucination نیست؛
بلکه ابزاری برای شناسایی لحظههایی است که مدل احتمالاً «لغزیده»، اشتباه کرده یا از دستورالعمل منحرف شده است.
🔗 جزئیات بیشتر:
openai.com/index/how-confessions-can-keep-language-models-honest/
#هوش_مصنوعی #AI #OpenAI #LLM #Confessions #GPT5 #ایمنی_مدل #پژوهش_هوش_مصنوعی @rss_ai_ir
یکی از چالشهای مهم در مدلهای زبانی این است که گاهی برای «خوشآمدگویى به ارزیاب» تلاش میکنند و بهجای صداقت، پاسخهای قانعکننده اما غلط میسازند؛ یا حتی نقض دستورالعملها را پنهان میکنند.
🔍 تکنیک Confessions دقیقاً برای همین مشکل طراحی شده است.
این روش چگونه کار میکند؟
1️⃣ مدل ابتدا پاسخ عادی خود را تولید میکند.
2️⃣ سپس بهطور مستقل یک گزارش ثانویه مینویسد و در آن بررسی میکند:
آیا دستورالعملها را نقض کرده؟
در کدام بخشها احتمال خطا وجود دارد؟
کدام قسمتهای پاسخ مشکوک یا غیرمطمئن بودهاند؟
3️⃣ پاداش نه برای عالیبودن پاسخ، بلکه برای صداقت داده میشود.
⚙️ هدف این است که مدل به رفتار خودش نگاه انتقادی داشته باشد، نه اینکه برای گرفتن نمره بهتر، خطا را پنهان کند.
📊 نتایج اولیه
در آزمایشهای انجامشده روی GPT-5 Thinking احتمال اینکه مدل دستورالعمل را نقض کند و سعی در پنهانکردن آن داشته باشد به ۴.۴٪ کاهش یافت.
⚠️ نکته مهم:
اینکه Confessions جلوگیری از hallucination نیست؛
بلکه ابزاری برای شناسایی لحظههایی است که مدل احتمالاً «لغزیده»، اشتباه کرده یا از دستورالعمل منحرف شده است.
🔗 جزئیات بیشتر:
openai.com/index/how-confessions-can-keep-language-models-honest/
#هوش_مصنوعی #AI #OpenAI #LLM #Confessions #GPT5 #ایمنی_مدل #پژوهش_هوش_مصنوعی @rss_ai_ir
❤1🔥1👏1
✨ پنج تکنیک کلیدی برای فاینتیون مدلهای زبانی بزرگ
با رشد مدلهای زبانی، نیاز به تنظیم آنها برای وظایف تخصصی بیشتر شده است. اما چگونه میتوان این کار را بهصرفه و بدون افت کیفیت انجام داد؟ 🤔
در این پست، پنج روش پیشرفته و پرکاربرد را یکجا مرور میکنیم:
1️⃣ LoRA —
کاهش هزینه با یادگیری کمپارامتر:
در این روش تنها ماتریسهای کمرتبه آموزش داده میشوند. همین موضوع باعث میشود فاینتیون بسیار سریعتر و کمهزینهتر انجام شود.
2️⃣ LoRA-FA —
ترکیب LoRA با ویژگیهای افزودهشده:
در این نسخه، مدل علاوه بر یادگیری کمپارامتر، از ویژگیهای اضافهشده (Feature Augmentation) نیز استفاده میکند و عملکرد بهتری روی وظایف تخصصی ارائه میدهد.
3️⃣ Vera —
منظمسازی توکار در فضای امبدینگ:
این تکنیک با منظمسازی امبدینگها از بیشبرازش جلوگیری میکند و باعث میشود مدل روی دامنههای مختلف بهتر تعمیم یابد.
4️⃣ Delta LoRA —
تمرکز بر لایههای مهمتر:
بهجای آموزش لایههای زیاد، تنها لایههایی که بیشترین اثر را دارند بهروزرسانی میشوند. نتیجه: سرعت بیشتر و هزینهٔ کمتر بدون افت کیفیت.
5️⃣ Prefix Tuning —
هدایت رفتار مدل بدون تغییر وزنها:
در این روش وزنهای مدل دستنخورده باقی میماند؛ تنها یک مجموعه "پیشوند آموزشی" یاد گرفته میشود که مدل را در جهت موردنظر هدایت میکند. روشی فوقالعاده برای فاینتیون سریع و سبک.
---
@rss_ai_ir
#فاینتیون #هوش_مصنوعی #LLM #آموزش_مدل #دیپ_لرنینگ #ماشین_لرنینگ 🚀
با رشد مدلهای زبانی، نیاز به تنظیم آنها برای وظایف تخصصی بیشتر شده است. اما چگونه میتوان این کار را بهصرفه و بدون افت کیفیت انجام داد؟ 🤔
در این پست، پنج روش پیشرفته و پرکاربرد را یکجا مرور میکنیم:
1️⃣ LoRA —
کاهش هزینه با یادگیری کمپارامتر:
در این روش تنها ماتریسهای کمرتبه آموزش داده میشوند. همین موضوع باعث میشود فاینتیون بسیار سریعتر و کمهزینهتر انجام شود.
2️⃣ LoRA-FA —
ترکیب LoRA با ویژگیهای افزودهشده:
در این نسخه، مدل علاوه بر یادگیری کمپارامتر، از ویژگیهای اضافهشده (Feature Augmentation) نیز استفاده میکند و عملکرد بهتری روی وظایف تخصصی ارائه میدهد.
3️⃣ Vera —
منظمسازی توکار در فضای امبدینگ:
این تکنیک با منظمسازی امبدینگها از بیشبرازش جلوگیری میکند و باعث میشود مدل روی دامنههای مختلف بهتر تعمیم یابد.
4️⃣ Delta LoRA —
تمرکز بر لایههای مهمتر:
بهجای آموزش لایههای زیاد، تنها لایههایی که بیشترین اثر را دارند بهروزرسانی میشوند. نتیجه: سرعت بیشتر و هزینهٔ کمتر بدون افت کیفیت.
5️⃣ Prefix Tuning —
هدایت رفتار مدل بدون تغییر وزنها:
در این روش وزنهای مدل دستنخورده باقی میماند؛ تنها یک مجموعه "پیشوند آموزشی" یاد گرفته میشود که مدل را در جهت موردنظر هدایت میکند. روشی فوقالعاده برای فاینتیون سریع و سبک.
---
@rss_ai_ir
#فاینتیون #هوش_مصنوعی #LLM #آموزش_مدل #دیپ_لرنینگ #ماشین_لرنینگ 🚀
❤1
📌 چطور یک نمونهٔ اولیه LLM را به یک سیستم آمادهی تولید تبدیل کنیم؟
🧠 هر مدل زبانی بزرگ وقتی از مرحلهٔ آزمایشی خارج میشود، تازه چالشهای واقعی شروع میشوند. مسیری که از یک دمو جذاب به یک سرویس پایدار، مقیاسپذیر و مطمئن میرسد، پر از جزئیات مهندسی، بهینهسازی و تصمیمهای مهم است.
🔧 در این راهنما مراحل کلیدی برای عملیاتیکردن مدل شامل:
— طراحی معماری مقیاسپذیر
— انتخاب استراتژی مناسب برای inference
— مانیتورینگ و تستپذیری
— مدیریت خطا و ریزش کیفیت
— امنیت، حریم خصوصی و کنترل نسخه
— استقرار در محیط واقعی و MLOps استاندارد
هدف این است که مدل فقط «کار کند» نیست؛ باید همیشه، سریع، دقیق و قابل اتکا عمل کند.
این نوشته خلاصهای است از بهترین روشهایی که تیمها برای تبدیل مدلها از مرحلهٔ concept به Production AI استفاده میکنند.
https://towardsdatascience.com/how-to-turn-your-llm-prototype-into-a-production-ready-system/
#LLM #MLOps #ProductionAI #LLMOps 🚀
🧠 هر مدل زبانی بزرگ وقتی از مرحلهٔ آزمایشی خارج میشود، تازه چالشهای واقعی شروع میشوند. مسیری که از یک دمو جذاب به یک سرویس پایدار، مقیاسپذیر و مطمئن میرسد، پر از جزئیات مهندسی، بهینهسازی و تصمیمهای مهم است.
🔧 در این راهنما مراحل کلیدی برای عملیاتیکردن مدل شامل:
— طراحی معماری مقیاسپذیر
— انتخاب استراتژی مناسب برای inference
— مانیتورینگ و تستپذیری
— مدیریت خطا و ریزش کیفیت
— امنیت، حریم خصوصی و کنترل نسخه
— استقرار در محیط واقعی و MLOps استاندارد
هدف این است که مدل فقط «کار کند» نیست؛ باید همیشه، سریع، دقیق و قابل اتکا عمل کند.
این نوشته خلاصهای است از بهترین روشهایی که تیمها برای تبدیل مدلها از مرحلهٔ concept به Production AI استفاده میکنند.
https://towardsdatascience.com/how-to-turn-your-llm-prototype-into-a-production-ready-system/
#LLM #MLOps #ProductionAI #LLMOps 🚀
👍1
🔥 نسخه Transformers v5 منتشر شد!
جامعهٔ هوش مصنوعی امروز شاهد یک جهش بزرگ بود. نسخهٔ جدید Transformers v5 از Hugging Face رسماً عرضه شد و حالا تبدیل به ستون اصلی اکوسیستم متنباز در مدلهای بزرگ شده است.
📈 رشد اکوسیستم در چند سال اخیر واقعاً خیرهکننده بوده:
📦 از ۲۰هزار به ۳ میلیون نصب روزانه
🧠 از ۴۰ معماری پشتیبانیشده به ۴۰۰+
🗃️ بیش از ۷۵۰هزار چکپوینت
🌍 بیش از ۱.۲ میلیارد نصب تجمعی
✨ مهمترین تغییرات نسخهٔ جدید:
♻️معماری کاملاً مبتنی بر PyTorch
♻️طراحی ماژولار و قابلگسترش
♻️رویکرد «quantization-first» برای کارایی بالاتر
♻️همچنین Transformers Serve سازگار با APIهای OpenAI
این نسخه آغاز یک مرحلهٔ تازه در آیندهٔ مدلهای متنباز است.
https://huggingface.co/blog/transformers-v5
#Transformers #HuggingFace #AI #DeepLearning #ML #PyTorch #LLM 🚀
جامعهٔ هوش مصنوعی امروز شاهد یک جهش بزرگ بود. نسخهٔ جدید Transformers v5 از Hugging Face رسماً عرضه شد و حالا تبدیل به ستون اصلی اکوسیستم متنباز در مدلهای بزرگ شده است.
📈 رشد اکوسیستم در چند سال اخیر واقعاً خیرهکننده بوده:
📦 از ۲۰هزار به ۳ میلیون نصب روزانه
🧠 از ۴۰ معماری پشتیبانیشده به ۴۰۰+
🗃️ بیش از ۷۵۰هزار چکپوینت
🌍 بیش از ۱.۲ میلیارد نصب تجمعی
✨ مهمترین تغییرات نسخهٔ جدید:
♻️معماری کاملاً مبتنی بر PyTorch
♻️طراحی ماژولار و قابلگسترش
♻️رویکرد «quantization-first» برای کارایی بالاتر
♻️همچنین Transformers Serve سازگار با APIهای OpenAI
این نسخه آغاز یک مرحلهٔ تازه در آیندهٔ مدلهای متنباز است.
https://huggingface.co/blog/transformers-v5
#Transformers #HuggingFace #AI #DeepLearning #ML #PyTorch #LLM 🚀
❤4👍2👏1
🚀 بایتدنس مدل جدید برنامهنویسی خود را معرفی کرد: Doubao Seed Code
بایتدنس نسخه تازهای از مدلهای کدنویسی خود را منتشر کرده است؛ مدلی که علاوه بر درک و تولید کد، قابلیت ورود تصویر هم دارد و میتواند محتوای بصری را برای تحلیل مسائل برنامهنویسی بررسی کند.
نکات کلیدی:
♻️پشتیبانی از ورودی تصویری برای تحلیل بصری
♻️انتشار بِنچمارکها و قیمتها
♻️عملکرد بهتر از Sonnet 4.5 در آزمونهای SWE-Bench-Verified و Multi-SWE
♻️عملکرد کمی ضعیفتر نسبت به Sonnet 4.5 در Terminal Bench
♻️این مدل بخشی از خانواده Doubao است که با هدف ادغام LLMها در جریان کاری توسعهدهندگان و سیستمهای Edge Inference طراحی شده است.
🔗 تست و اطلاعات بیشتر:
https://exp.volcengine.com/ark?model=doubao-seed-code-preview-251028
#هوش_مصنوعی #بایتدنس #مدل_کدنویسی #AI #LLM
بایتدنس نسخه تازهای از مدلهای کدنویسی خود را منتشر کرده است؛ مدلی که علاوه بر درک و تولید کد، قابلیت ورود تصویر هم دارد و میتواند محتوای بصری را برای تحلیل مسائل برنامهنویسی بررسی کند.
نکات کلیدی:
♻️پشتیبانی از ورودی تصویری برای تحلیل بصری
♻️انتشار بِنچمارکها و قیمتها
♻️عملکرد بهتر از Sonnet 4.5 در آزمونهای SWE-Bench-Verified و Multi-SWE
♻️عملکرد کمی ضعیفتر نسبت به Sonnet 4.5 در Terminal Bench
♻️این مدل بخشی از خانواده Doubao است که با هدف ادغام LLMها در جریان کاری توسعهدهندگان و سیستمهای Edge Inference طراحی شده است.
🔗 تست و اطلاعات بیشتر:
https://exp.volcengine.com/ark?model=doubao-seed-code-preview-251028
#هوش_مصنوعی #بایتدنس #مدل_کدنویسی #AI #LLM
👍1
🚀 بهروزرسانی بزرگ Qwen3-Omni-Flash (نسخه ۲۰۲۵-۱۲-۰۱) منتشر شد!
🔹 چه چیزهایی تغییر کرده؟
🎙️ گفتگو با صدا و ویدیو طبیعیتر از قبل شده است
مدل حالا مکالمات صوتی و تصویری را روانتر، پیوستهتر و شبیه انسان پردازش میکند.
✨ امکان تعیین شخصیت و سبک تعاملِ هوش مصنوعی
فقط با یک System Prompt میتوانید نقش، لحن، شخصیت یا سبک گفتار مدل را مشخص کنید.
🗣️ پشتیبانی زبانی گستردهتر
۱۱۹ زبان نوشتاری و ۱۹ زبان صوتی!
😊 صداها بسیار واقعیتر شدهاند
تقریباً مشابه صدای انسان — مناسب برای دستیارهای صوتی حرفهای.
---
🔹 کجا میتوان آن را تست کرد؟
🎙️ در Qwen Chat — گزینه VoiceChat یا VideoChat
https://chat.qwen.ai
📝 توضیحات کامل در بلاگ
https://qwen.ai/blog?id=qwen3-omni-20251201
🎧 دمو آنلاین در Hugging Face
https://hf.co/spaces/Qwen/Qwen3-Omni-Demo
🎧 دمو دوم در ModelScope
https://modelscope.cn/studios/Qwen/Qwen3-Omni-Demo
⚡ Realtime API
https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-realtime-2025-12-01
📥 Offline API
https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-2025-12-01
---
#Qwen #هوش_مصنوعی #LLM #مولتی_مودال #AI
🔹 چه چیزهایی تغییر کرده؟
🎙️ گفتگو با صدا و ویدیو طبیعیتر از قبل شده است
مدل حالا مکالمات صوتی و تصویری را روانتر، پیوستهتر و شبیه انسان پردازش میکند.
✨ امکان تعیین شخصیت و سبک تعاملِ هوش مصنوعی
فقط با یک System Prompt میتوانید نقش، لحن، شخصیت یا سبک گفتار مدل را مشخص کنید.
🗣️ پشتیبانی زبانی گستردهتر
۱۱۹ زبان نوشتاری و ۱۹ زبان صوتی!
😊 صداها بسیار واقعیتر شدهاند
تقریباً مشابه صدای انسان — مناسب برای دستیارهای صوتی حرفهای.
---
🔹 کجا میتوان آن را تست کرد؟
🎙️ در Qwen Chat — گزینه VoiceChat یا VideoChat
https://chat.qwen.ai
📝 توضیحات کامل در بلاگ
https://qwen.ai/blog?id=qwen3-omni-20251201
🎧 دمو آنلاین در Hugging Face
https://hf.co/spaces/Qwen/Qwen3-Omni-Demo
🎧 دمو دوم در ModelScope
https://modelscope.cn/studios/Qwen/Qwen3-Omni-Demo
⚡ Realtime API
https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-realtime-2025-12-01
📥 Offline API
https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-2025-12-01
---
#Qwen #هوش_مصنوعی #LLM #مولتی_مودال #AI
❤1👍1
🌐 رشد سالانه مدلهای Gemini حدود ۴۰۰٪ بوده است.
این عدد یعنی چه؟ یعنی دلیلی که «سم آلتمن» حالت code red اعلام کرد کاملاً قابل درک است.
وقتی یک اکوسیستم مدلهای هوش مصنوعی با چنین سرعتی رشد میکند، رقابت وارد مرحلهی بقا میشود، نه فقط رقابت تکنولوژیک.
در سال گذشته:
گوگل چند نسل مدلهای Gemini را عرضه کرد؛
نسخههای Pro، Ultra، Nano و Flash تقریباً تمام محصولات گوگل را تغذیه میکنند؛
سهم بازار در جستجو، موبایل و سرویسهای ابری تحت تأثیر هوش مصنوعی افزایش یافته؛
و اکنون Gemini تبدیل به سریعترین رشد در میان مدلهای مولتیمودال شده است.
در چنین شرایطی، هر شرکت بزرگ مجبور است سرعت خود را چند برابر کند.
گپ ۵.۲، فشار روی OpenAI و رقابت شدید xAI همگی نشانهی همین واقعیتاند.
🔥 آیندهی مدلها نه خطی، بلکه نمایی در حال رشد است.
#AI #Gemini #Google #LLM #TechWar #Innovation
این عدد یعنی چه؟ یعنی دلیلی که «سم آلتمن» حالت code red اعلام کرد کاملاً قابل درک است.
وقتی یک اکوسیستم مدلهای هوش مصنوعی با چنین سرعتی رشد میکند، رقابت وارد مرحلهی بقا میشود، نه فقط رقابت تکنولوژیک.
در سال گذشته:
گوگل چند نسل مدلهای Gemini را عرضه کرد؛
نسخههای Pro، Ultra، Nano و Flash تقریباً تمام محصولات گوگل را تغذیه میکنند؛
سهم بازار در جستجو، موبایل و سرویسهای ابری تحت تأثیر هوش مصنوعی افزایش یافته؛
و اکنون Gemini تبدیل به سریعترین رشد در میان مدلهای مولتیمودال شده است.
در چنین شرایطی، هر شرکت بزرگ مجبور است سرعت خود را چند برابر کند.
گپ ۵.۲، فشار روی OpenAI و رقابت شدید xAI همگی نشانهی همین واقعیتاند.
🔥 آیندهی مدلها نه خطی، بلکه نمایی در حال رشد است.
#AI #Gemini #Google #LLM #TechWar #Innovation
👍2
🚀 بزرگترین جهش GPT-5.2 احتمالاً روی بنچمارک ARC-AGI اتفاق افتاده است
🧠 در ARC-AGI 1، این مدل به امتیاز 86.2٪ رسیده؛
در حالی که GPT-5.1 روی 72.8٪ و Gemini 3 Pro روی 75٪ متوقف شده بودند. این یک جهش بسیار جدی محسوب میشود.
⚡️ نسخه GPT-5.2 Pro با سطح استدلال X-High حتی به 90.5٪ رسیده، آن هم با هزینهی 11.64 دلار برای هر مسئله.
برای مقایسه: فقط یک سال پیش، مدل منتشرنشدهی o3-High با 88٪، حدود 4500 دلار برای هر مسئله هزینه داشت.
📈 نتیجه؟
کارایی در عرض یک سال حدود 390 برابر افزایش یافته است.
🔥 اما در ARC-AGI 2 اوضاع حتی جالبتر میشود:
امتیاز از 17.6٪ به 52.9٪ جهش کرده!
نزدیکترین رقیب یعنی Claude Opus 4.5 تنها 37.6٪ گرفته است.
و فقط یادآوری: بین انتشار GPT-5.1 و GPT-5.2 فقط یک ماه فاصله بوده 😐
⏳ نسخه GPT-5.2 Pro X-High احتمالاً امتیاز بالاتری هم دارد، اما برگزارکنندگان بنچمارک گفتهاند بهدلیل API timeout هنوز نتوانستهاند نتیجه را بهطور قطعی تأیید کنند.
سطح متوسط انسان در ARC-AGI 2 حدود 60٪ است… باید دید آیا مدل از انسان عبور میکند یا نه 👀
📡 @rss_ai_ir
#AI #GPT52 #ARCAGI #هوش_مصنوعی #LLM #Benchmark #AGI
🧠 در ARC-AGI 1، این مدل به امتیاز 86.2٪ رسیده؛
در حالی که GPT-5.1 روی 72.8٪ و Gemini 3 Pro روی 75٪ متوقف شده بودند. این یک جهش بسیار جدی محسوب میشود.
⚡️ نسخه GPT-5.2 Pro با سطح استدلال X-High حتی به 90.5٪ رسیده، آن هم با هزینهی 11.64 دلار برای هر مسئله.
برای مقایسه: فقط یک سال پیش، مدل منتشرنشدهی o3-High با 88٪، حدود 4500 دلار برای هر مسئله هزینه داشت.
📈 نتیجه؟
کارایی در عرض یک سال حدود 390 برابر افزایش یافته است.
🔥 اما در ARC-AGI 2 اوضاع حتی جالبتر میشود:
امتیاز از 17.6٪ به 52.9٪ جهش کرده!
نزدیکترین رقیب یعنی Claude Opus 4.5 تنها 37.6٪ گرفته است.
و فقط یادآوری: بین انتشار GPT-5.1 و GPT-5.2 فقط یک ماه فاصله بوده 😐
⏳ نسخه GPT-5.2 Pro X-High احتمالاً امتیاز بالاتری هم دارد، اما برگزارکنندگان بنچمارک گفتهاند بهدلیل API timeout هنوز نتوانستهاند نتیجه را بهطور قطعی تأیید کنند.
سطح متوسط انسان در ARC-AGI 2 حدود 60٪ است… باید دید آیا مدل از انسان عبور میکند یا نه 👀
📡 @rss_ai_ir
#AI #GPT52 #ARCAGI #هوش_مصنوعی #LLM #Benchmark #AGI
🎉15👍12❤11🔥7🥰7👏6😁6
🧠✨ پژوهش جدید Anthropic: جداسازی «دانش خطرناک» از دانش عادی داخل مدلهای زبانی
باز هم بحث Alignment، اما اینبار با یک ایده واقعاً جالب. Anthropic روشی معرفی کرده به نام Selective Gradient Masking که هدفش اینه دانش خطرناک رو طوری داخل مدل ذخیره کنه که بعداً بشه خیلی تمیز حذفش کرد.
🔍 مسئله کجاست؟
در مرحله پریتریِن عملاً هیچ الاینمنتی وجود نداره و همهچیز بعداً اضافه میشه. تا امروز تنها راه این بود که دادههای «خطرناک» رو از دیتاست حذف کنن که:
خیلی پرهزینه و زمانبره 🕰️
کلی دانش مفید هم همراهش حذف میشه و مدل ضعیفتر میشه 😕
🧩 راهحل Anthropic چیه؟
بهجای دست زدن به دیتاست، کاری میکنن که دانش خطرناک توی یک بخش مشخص از پارامترهای مدل جمع بشه 👇
⚙️ مکانیزم کار:
برای هر بلاک ترنسفورمر یک هد توجه اضافه میشه با برچسب forget
وقتی داده «خطرناک» وارد میشه، همه گرادیانها صفر میشن بهجز گرادیانهای forget
این باعث میشه دانش خطرناک فقط همونجا ذخیره بشه
در بعضی پاسها، اکتیویشنها عمداً صفر میشن تا مدل بدون این پارامترها هم پایدار بمونه
🌀 نکته خلاقانه:
حتی دادههای خطرناک برچسبنخورده بعد از مدتی خودبهخود جذب این پارامترها میشن!
حال اینکه، Anthropic به این میگه اثر جذب (Absorption Effect)
📉 نتیجه؟
بعد از حذف این پارامترها:
مدل خیلی کمتر «احمق» میشه نسبت به حذف دادهها
رفتار مدل طوریه که انگار اصلاً چنین دانشی رو هیچوقت ندیده، نه اینکه موقتاً فراموش کرده باشه
🎯 جمعبندی:
از نظر ایده و مهندسی، این یکی از جدیترین تلاشها برای حل ریشهای مشکل الاینمنت محسوب میشه. هنوز اول راهه، ولی بذر مهمیه 🌱
🔗 لینک پژوهش:
https://alignment.anthropic.com/2025/selective-gradient-masking/
@rss_ai_ir
#هوش_مصنوعی #Alignment #Anthropic #LLM #ایمنی_هوش_مصنوعی #MachineLearning
باز هم بحث Alignment، اما اینبار با یک ایده واقعاً جالب. Anthropic روشی معرفی کرده به نام Selective Gradient Masking که هدفش اینه دانش خطرناک رو طوری داخل مدل ذخیره کنه که بعداً بشه خیلی تمیز حذفش کرد.
🔍 مسئله کجاست؟
در مرحله پریتریِن عملاً هیچ الاینمنتی وجود نداره و همهچیز بعداً اضافه میشه. تا امروز تنها راه این بود که دادههای «خطرناک» رو از دیتاست حذف کنن که:
خیلی پرهزینه و زمانبره 🕰️
کلی دانش مفید هم همراهش حذف میشه و مدل ضعیفتر میشه 😕
🧩 راهحل Anthropic چیه؟
بهجای دست زدن به دیتاست، کاری میکنن که دانش خطرناک توی یک بخش مشخص از پارامترهای مدل جمع بشه 👇
⚙️ مکانیزم کار:
برای هر بلاک ترنسفورمر یک هد توجه اضافه میشه با برچسب forget
وقتی داده «خطرناک» وارد میشه، همه گرادیانها صفر میشن بهجز گرادیانهای forget
این باعث میشه دانش خطرناک فقط همونجا ذخیره بشه
در بعضی پاسها، اکتیویشنها عمداً صفر میشن تا مدل بدون این پارامترها هم پایدار بمونه
🌀 نکته خلاقانه:
حتی دادههای خطرناک برچسبنخورده بعد از مدتی خودبهخود جذب این پارامترها میشن!
حال اینکه، Anthropic به این میگه اثر جذب (Absorption Effect)
📉 نتیجه؟
بعد از حذف این پارامترها:
مدل خیلی کمتر «احمق» میشه نسبت به حذف دادهها
رفتار مدل طوریه که انگار اصلاً چنین دانشی رو هیچوقت ندیده، نه اینکه موقتاً فراموش کرده باشه
🎯 جمعبندی:
از نظر ایده و مهندسی، این یکی از جدیترین تلاشها برای حل ریشهای مشکل الاینمنت محسوب میشه. هنوز اول راهه، ولی بذر مهمیه 🌱
🔗 لینک پژوهش:
https://alignment.anthropic.com/2025/selective-gradient-masking/
@rss_ai_ir
#هوش_مصنوعی #Alignment #Anthropic #LLM #ایمنی_هوش_مصنوعی #MachineLearning
👏22🎉15👍13🥰13🔥12😁12❤10
🚀 پروتکل Model Context Protocol (MCP) یک گام بسیار مهم برداشت
این پروتکل که از همان ابتدا بهصورت اوپنسورس و شفاف توسعه پیدا کرده بود، حالا رسماً زیر چتر Linux Foundation قرار گرفت.
🌍 این اتفاق برای آینده اکوسیستم هوش مصنوعی اهمیت زیادی دارد، چون:
♻️استاندارد MCP مستقل باقی میماند
♻️مدیریت آن به جامعه توسعهدهندگان سپرده میشود
♻️مسیر پذیرش گسترده در ابزارها و ایجنتهای AI هموارتر میشود
🤖 اینکه MCP یکی از پایههای کلیدی برای تعامل ایجنتها، ابزارها و کانتکست در سیستمهای هوشمند آینده است و ورود آن به Linux Foundation یعنی ثبات، اعتماد و رشد بلندمدت.
🔗 لینک خبر:
https://github.blog/open-source/maintainers/mcp-joins-the-linux-foundation-what-this-means-for-developers-building-the-next-era-of-ai-tools-and-agents/
@rss_ai_ir
#AI #OpenSource #MCP #LinuxFoundation #Agents #LLM #DeveloperTools
این پروتکل که از همان ابتدا بهصورت اوپنسورس و شفاف توسعه پیدا کرده بود، حالا رسماً زیر چتر Linux Foundation قرار گرفت.
🌍 این اتفاق برای آینده اکوسیستم هوش مصنوعی اهمیت زیادی دارد، چون:
♻️استاندارد MCP مستقل باقی میماند
♻️مدیریت آن به جامعه توسعهدهندگان سپرده میشود
♻️مسیر پذیرش گسترده در ابزارها و ایجنتهای AI هموارتر میشود
🤖 اینکه MCP یکی از پایههای کلیدی برای تعامل ایجنتها، ابزارها و کانتکست در سیستمهای هوشمند آینده است و ورود آن به Linux Foundation یعنی ثبات، اعتماد و رشد بلندمدت.
🔗 لینک خبر:
https://github.blog/open-source/maintainers/mcp-joins-the-linux-foundation-what-this-means-for-developers-building-the-next-era-of-ai-tools-and-agents/
@rss_ai_ir
#AI #OpenSource #MCP #LinuxFoundation #Agents #LLM #DeveloperTools
😁9👍5🔥5👏5❤4🎉3🥰2🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ گوگل Ironwood؛ قدرتمندترین TPU نسل هفتم
🔥 گوگل با معرفی Ironwood (TPU v7) عملاً سطح جدیدی از توان پردازشی برای مدلهای بزرگ هوش مصنوعی تعریف کرده است.
💪 توان پردازشی:
• ۴٬۶۱۴ FP8 TFLOPS
• ۱۹۲ گیگابایت حافظه HBM3E روی هر چیپ
• پهنای باند حافظه تا ۷٫۳۷ ترابایتبرثانیه
🚀 مقیاسپذیری:
• پادهایی با حداکثر ۹٬۲۱۶ شتابدهنده
• مجموع توان: ۴۲٫۵ اگزافلاپس FP8 برای آموزش و استنتاج
• برای مقایسه: Nvidia GB300 NVL72 فقط حدود ۰٫۳۶ اگزافلاپس
🔗 شبکه و ارتباطات:
• شبکه اختصاصی Inter-Chip Interconnect با سرعت ۹٫۶ ترابیتبرثانیه
• حدود ۱٫۷۷ پتابایت حافظه HBM3E در هر پاد
• باز هم برتری عددی نسبت به سیستمهای رقیب انویدیا
🧠 جمعبندی:
اینکه Ironwood حالا ستون اصلی گوگل برای اجرای LLMهای عظیم و مدلهای چندوجهی است؛ ترکیبی از قدرت، مقیاس و اتصال که رقبا را به چالش جدی میکشد.
@rss_ai_ir
#AI #Google #TPU #Ironwood #LLM #DataCenter #MachineLearning
🔥 گوگل با معرفی Ironwood (TPU v7) عملاً سطح جدیدی از توان پردازشی برای مدلهای بزرگ هوش مصنوعی تعریف کرده است.
💪 توان پردازشی:
• ۴٬۶۱۴ FP8 TFLOPS
• ۱۹۲ گیگابایت حافظه HBM3E روی هر چیپ
• پهنای باند حافظه تا ۷٫۳۷ ترابایتبرثانیه
🚀 مقیاسپذیری:
• پادهایی با حداکثر ۹٬۲۱۶ شتابدهنده
• مجموع توان: ۴۲٫۵ اگزافلاپس FP8 برای آموزش و استنتاج
• برای مقایسه: Nvidia GB300 NVL72 فقط حدود ۰٫۳۶ اگزافلاپس
🔗 شبکه و ارتباطات:
• شبکه اختصاصی Inter-Chip Interconnect با سرعت ۹٫۶ ترابیتبرثانیه
• حدود ۱٫۷۷ پتابایت حافظه HBM3E در هر پاد
• باز هم برتری عددی نسبت به سیستمهای رقیب انویدیا
🧠 جمعبندی:
اینکه Ironwood حالا ستون اصلی گوگل برای اجرای LLMهای عظیم و مدلهای چندوجهی است؛ ترکیبی از قدرت، مقیاس و اتصال که رقبا را به چالش جدی میکشد.
@rss_ai_ir
#AI #Google #TPU #Ironwood #LLM #DataCenter #MachineLearning
👍8🔥7❤6👏5😁5🎉3🥰2🙏1
🧠 خلاصهی مهم System Card مدل GPT-5.2
🔹 مدل GPT-5.2 بهطور محسوسی صادقتر شده است. در ترافیک واقعی، نرخ فریب در نسخه Thinking به ۱.۶٪ کاهش یافته، در حالیکه این عدد در GPT-5.1 حدود ۷.۷٪ بود.
🛡️ مقاومت بالاتر در برابر فریب و دستکاری
در تستهایی که عمداً سعی در گمراهکردن مدل داشتند، نرخ خطا از ۱۱.۸٪ به ۵.۴٪ رسیده است.
🔐 پیشرفت جدی در مقابله با Prompt Injection
نسخههای Instant و Thinking تقریباً تمام تستهای شناختهشده را پاس کردهاند (۰.۹۹۷ و ۰.۹۷۸). البته OpenAI تأکید میکند که این تضمین کامل برای حملات جدید نیست.
💚 جهش بزرگ در موضوعات حساس انسانی
بهویژه در سلامت روان و وابستگی احساسی:
• سلامت روان: ۰.۹۱۵ (قبلاً ۰.۶۸۴)
• وابستگی احساسی: ۰.۹۵۵ (قبلاً ۰.۷۸۵)
🔞 مدیریت بهتر محتوای +۱۸
برای کاربران بزرگسال، رد درخواستها کمتر شده؛ بدون اینکه قوانین شُل شود یا دسترسی نوجوانان افزایش یابد.
👶 تشخیص خودکار سن کاربران
برای حسابهای زیر ۱۸ سال، محدودیتهای سختگیرانهتری روی محتوای حساس اعمال میشود.
📊 دقت واقعی بالاتر
با فعال بودن مرور وب، نرخ هالوسینیشن در چند حوزه تخصصی به زیر ۱٪ رسیده است.
🧬 ارزیابی ایمنی پیشرفته
در چارچوب Preparedness Framework، مدل در زیستفناوری و شیمی «بسیار توانمند» ارزیابی شده و محافظتهای اضافی فعال شدهاند.
🧪 بررسی مستقل
Apollo Research هیچ نشانهای از خرابکاری پنهان، خودحفاظتی یا رفتار مخرب پیدا نکرده؛ ریسک فاجعهای بسیار پایین ارزیابی شده است.
✨ جمعبندی:
GPT-5.2 یک گام جدی رو به جلو در صداقت، ایمنی، پایداری و کیفیت پاسخها برداشته است.
📎 منبع:
cdn.openai.com/pdf/3a4153c8-c748-4b71-8e31-aecbde944f8d/oai_5_2_system-card.pdf
@rss_ai_ir
#هوش_مصنوعی #GPT52 #OpenAI #AI_Safety #LLM #فناوری
🔹 مدل GPT-5.2 بهطور محسوسی صادقتر شده است. در ترافیک واقعی، نرخ فریب در نسخه Thinking به ۱.۶٪ کاهش یافته، در حالیکه این عدد در GPT-5.1 حدود ۷.۷٪ بود.
🛡️ مقاومت بالاتر در برابر فریب و دستکاری
در تستهایی که عمداً سعی در گمراهکردن مدل داشتند، نرخ خطا از ۱۱.۸٪ به ۵.۴٪ رسیده است.
🔐 پیشرفت جدی در مقابله با Prompt Injection
نسخههای Instant و Thinking تقریباً تمام تستهای شناختهشده را پاس کردهاند (۰.۹۹۷ و ۰.۹۷۸). البته OpenAI تأکید میکند که این تضمین کامل برای حملات جدید نیست.
💚 جهش بزرگ در موضوعات حساس انسانی
بهویژه در سلامت روان و وابستگی احساسی:
• سلامت روان: ۰.۹۱۵ (قبلاً ۰.۶۸۴)
• وابستگی احساسی: ۰.۹۵۵ (قبلاً ۰.۷۸۵)
🔞 مدیریت بهتر محتوای +۱۸
برای کاربران بزرگسال، رد درخواستها کمتر شده؛ بدون اینکه قوانین شُل شود یا دسترسی نوجوانان افزایش یابد.
👶 تشخیص خودکار سن کاربران
برای حسابهای زیر ۱۸ سال، محدودیتهای سختگیرانهتری روی محتوای حساس اعمال میشود.
📊 دقت واقعی بالاتر
با فعال بودن مرور وب، نرخ هالوسینیشن در چند حوزه تخصصی به زیر ۱٪ رسیده است.
🧬 ارزیابی ایمنی پیشرفته
در چارچوب Preparedness Framework، مدل در زیستفناوری و شیمی «بسیار توانمند» ارزیابی شده و محافظتهای اضافی فعال شدهاند.
🧪 بررسی مستقل
Apollo Research هیچ نشانهای از خرابکاری پنهان، خودحفاظتی یا رفتار مخرب پیدا نکرده؛ ریسک فاجعهای بسیار پایین ارزیابی شده است.
✨ جمعبندی:
GPT-5.2 یک گام جدی رو به جلو در صداقت، ایمنی، پایداری و کیفیت پاسخها برداشته است.
📎 منبع:
cdn.openai.com/pdf/3a4153c8-c748-4b71-8e31-aecbde944f8d/oai_5_2_system-card.pdf
@rss_ai_ir
#هوش_مصنوعی #GPT52 #OpenAI #AI_Safety #LLM #فناوری
👍11😁11👏9🔥8🥰6❤5🎉5
🚀 یک چارچوب بنیادین جدید برای فهم «سازگاری» در عاملهای هوش مصنوعی
📘 پژوهشی ۶۵ صفحهای از دانشگاههای استنفورد، پرینستون، هاروارد، واشنگتن و چند مرکز تراز اول دیگر، برای اولینبار یک طبقهبندی کامل از شیوههای سازگاری در سامانههای Agentic AI ارائه میدهد.
🧠 ایدهی اصلی چیست؟
تقریباً همهی عاملهای پیچیدهی امروزی را میتوان با ۴ نوع پایهای سازگاری توضیح داد:
دو نوع مربوط به خودِ عامل و دو نوع مربوط به ابزارهایی که عامل استفاده میکند.
🤖 عامل هوشمند یعنی چه؟
مدلهایی که میتوانند:
ابزار صدا بزنند 🛠️
حافظه داشته باشند 🧩
وظایف چندمرحلهای انجام دهند 🔁
🔄 سازگاری یعنی چه؟
هر تغییری که عامل یا ابزارها بر اساس بازخورد انجام میدهند؛ از نتیجهی اجرای کد تا ارزیابی انسانی.
🧩 ۴ نوع سازگاری معرفیشده:
A1 — سازگاری عامل از اجرای ابزار
عامل از نتیجهی اجرای ابزارها یاد میگیرد (موفق شد/شکست خورد).
A2 — سازگاری عامل از ارزیابی خروجی
بهبود عامل بر اساس کیفیت خروجیها (فیدبک انسانی یا خودکار).
T1 — سازگاری ابزار مستقل از عامل
ابزارها جداگانه آموزش میبینند، عامل ثابت میماند.
T2 — سازگاری ابزار از سیگنالهای عامل
ابزارها خودشان را با رفتار عامل وفق میدهند.
📊 چرا این کار مهم است؟
برای اولینبار روشهای سازگاری عاملها سیستماتیک شدهاند.
کمک میکند هزینه، انعطافپذیری و مقیاسپذیری را بهتر بسنجیم.
مسیر تکامل معماریهای عاملمحور نسل بعد را روشن میکند.
🔎 جمعبندی:
دو محور کلیدی داریم:
آیا عامل تغییر میکند؟
آیا ابزار تغییر میکند؟
و داده/بازخورد، سوخت هر دو است 🔥
📎 لینک مقاله:
https://github.com/pat-jj/Awesome-Adaptation-of-Agentic-AI/blob/main/paper.pdf
#AI #AgenticAI #Research #MachineLearning #LLM #Adaptation
@rss_ai_ir
📘 پژوهشی ۶۵ صفحهای از دانشگاههای استنفورد، پرینستون، هاروارد، واشنگتن و چند مرکز تراز اول دیگر، برای اولینبار یک طبقهبندی کامل از شیوههای سازگاری در سامانههای Agentic AI ارائه میدهد.
🧠 ایدهی اصلی چیست؟
تقریباً همهی عاملهای پیچیدهی امروزی را میتوان با ۴ نوع پایهای سازگاری توضیح داد:
دو نوع مربوط به خودِ عامل و دو نوع مربوط به ابزارهایی که عامل استفاده میکند.
🤖 عامل هوشمند یعنی چه؟
مدلهایی که میتوانند:
ابزار صدا بزنند 🛠️
حافظه داشته باشند 🧩
وظایف چندمرحلهای انجام دهند 🔁
🔄 سازگاری یعنی چه؟
هر تغییری که عامل یا ابزارها بر اساس بازخورد انجام میدهند؛ از نتیجهی اجرای کد تا ارزیابی انسانی.
🧩 ۴ نوع سازگاری معرفیشده:
A1 — سازگاری عامل از اجرای ابزار
عامل از نتیجهی اجرای ابزارها یاد میگیرد (موفق شد/شکست خورد).
A2 — سازگاری عامل از ارزیابی خروجی
بهبود عامل بر اساس کیفیت خروجیها (فیدبک انسانی یا خودکار).
T1 — سازگاری ابزار مستقل از عامل
ابزارها جداگانه آموزش میبینند، عامل ثابت میماند.
T2 — سازگاری ابزار از سیگنالهای عامل
ابزارها خودشان را با رفتار عامل وفق میدهند.
📊 چرا این کار مهم است؟
برای اولینبار روشهای سازگاری عاملها سیستماتیک شدهاند.
کمک میکند هزینه، انعطافپذیری و مقیاسپذیری را بهتر بسنجیم.
مسیر تکامل معماریهای عاملمحور نسل بعد را روشن میکند.
🔎 جمعبندی:
دو محور کلیدی داریم:
آیا عامل تغییر میکند؟
آیا ابزار تغییر میکند؟
و داده/بازخورد، سوخت هر دو است 🔥
📎 لینک مقاله:
https://github.com/pat-jj/Awesome-Adaptation-of-Agentic-AI/blob/main/paper.pdf
#AI #AgenticAI #Research #MachineLearning #LLM #Adaptation
@rss_ai_ir
❤31🔥30😁29🎉25🥰21👍20👏19
⭐️مجموعه Nous Research کد منبع Nomos 1 را بهصورت متنباز منتشر کرد
با وجود اندازه نسبتاً کوچک ۳۰ میلیارد پارامتر، این مدل موفق شد امتیاز 87 از 120 را در آزمون Putnam کسب کند؛ یکی از معتبرترین و سختترین مسابقات ریاضی جهان.
🔹 چنین امتیازی معادل رتبه دوم در میان ۳۹۸۸ شرکتکننده در Putnam 2024 است.
🔹 مدل Nomos 1 هشت حل کاملاً بینقص ارائه داده است.
🔹 برای مقایسه، Qwen3-30B در همان شرایط تنها 24 از 120 امتیاز گرفت؛ موضوعی که نشان میدهد برتری Nomos بیشتر به کیفیت داده و فرایند آموزش برمیگردد، نه شرایط آزمون.
📌 نکته مهم:
ارزیابی پاسخها بهصورت کور (Blind Review) انجام شده و توسط یک شرکتکننده واقعی Putnam از میان ۲۰۰ نفر برتر صورت گرفته که پاسخهای ناشناس را بررسی کرده است.
⏱ شرایط زمانی نیز کاملاً واقعی بوده:
— برای هر بخش، ۳ ساعت زمان دقیقاً مشابه شرکتکنندگان انسانی.
🧠 ساختار استدلال Nomos:
ابتدا چند «worker» مسائل سختتر را حل میکنند و خودشان راهحلها را ارزیابی میکنند
سپس در مرحله نهایی، سیستم پاسخها را تجمیع کرده و بهترین نتیجه را انتخاب میکند
🔗 لینکها:
▪ HuggingFace: https://huggingface.co/NousResearch/nomos-1
▪ GitHub: https://github.com/NousResearch/nomos
@rss_ai_ir
#AI #LLM #MachineLearning #Math #OpenSource
با وجود اندازه نسبتاً کوچک ۳۰ میلیارد پارامتر، این مدل موفق شد امتیاز 87 از 120 را در آزمون Putnam کسب کند؛ یکی از معتبرترین و سختترین مسابقات ریاضی جهان.
🔹 چنین امتیازی معادل رتبه دوم در میان ۳۹۸۸ شرکتکننده در Putnam 2024 است.
🔹 مدل Nomos 1 هشت حل کاملاً بینقص ارائه داده است.
🔹 برای مقایسه، Qwen3-30B در همان شرایط تنها 24 از 120 امتیاز گرفت؛ موضوعی که نشان میدهد برتری Nomos بیشتر به کیفیت داده و فرایند آموزش برمیگردد، نه شرایط آزمون.
📌 نکته مهم:
ارزیابی پاسخها بهصورت کور (Blind Review) انجام شده و توسط یک شرکتکننده واقعی Putnam از میان ۲۰۰ نفر برتر صورت گرفته که پاسخهای ناشناس را بررسی کرده است.
⏱ شرایط زمانی نیز کاملاً واقعی بوده:
— برای هر بخش، ۳ ساعت زمان دقیقاً مشابه شرکتکنندگان انسانی.
🧠 ساختار استدلال Nomos:
ابتدا چند «worker» مسائل سختتر را حل میکنند و خودشان راهحلها را ارزیابی میکنند
سپس در مرحله نهایی، سیستم پاسخها را تجمیع کرده و بهترین نتیجه را انتخاب میکند
🔗 لینکها:
▪ HuggingFace: https://huggingface.co/NousResearch/nomos-1
▪ GitHub: https://github.com/NousResearch/nomos
@rss_ai_ir
#AI #LLM #MachineLearning #Math #OpenSource
👏14🥰10😁9👍7🎉7❤5🔥2
✨ رقابت هوش مصنوعی فقط دو بازیگر واقعی دارد و دادهها کاملاً این را نشان میدهند
📊 با نگاه به نقشه نویسندگان NeurIPS، عملاً یک پیشبینی از آینده اقتصاد جهان میبینیم:
چین تقریباً نیمی از میدان را در اختیار دارد، آمریکا نیم دیگر را.
اروپا—چه آگاهانه، چه از سر inertia—عملاً از رقابت کنار رفته است.
🔍 قدرتها کجا هستند؟
🇺🇸 آمریکا پیشتاز در لَبهای مرزی هوش مصنوعی، چیپهای پیشرفته، سرمایه در مقیاس تریلیوندلاری و بزرگترین بازار نرمافزار جهان است.
🇨🇳 چین پیشتاز در رباتیک، تولید سختافزار و چرخههای استقرار بسیار سریع.
📉 جایگاهها ممکن است جابهجا شوند، اما الگو روشن است: «سومیِ معنادار» وجود ندارد. دیگران از عقب میدوند، بدون مسیر واقعی برای حاکمیت فناورانه.
🇪🇺 نقش اتحادیه اروپا در یک تصویر
نمودار دوم از هر سند سیاستی گویاتر است:
درآمد اروپا از جریمهها و تنظیمگری شرکتهای فناوری، بسیار بیشتر از مالیات شرکتهای فناوریِ ساختهشده در خود اروپاست.
📜 تنظیمگری شد مدل کسبوکار؛ نوآوری نه.
🌍 جمعبندی
نظم اقتصادی بعدی را کسانی میسازند که مدلها را آموزش میدهند و رباتها را میسازند.
@rss_ai_ir
#AI #هوش_مصنوعی #NeurIPS #China #USA #Robotics #LLM #Innovation #Geopolitics
📊 با نگاه به نقشه نویسندگان NeurIPS، عملاً یک پیشبینی از آینده اقتصاد جهان میبینیم:
چین تقریباً نیمی از میدان را در اختیار دارد، آمریکا نیم دیگر را.
اروپا—چه آگاهانه، چه از سر inertia—عملاً از رقابت کنار رفته است.
🔍 قدرتها کجا هستند؟
🇺🇸 آمریکا پیشتاز در لَبهای مرزی هوش مصنوعی، چیپهای پیشرفته، سرمایه در مقیاس تریلیوندلاری و بزرگترین بازار نرمافزار جهان است.
🇨🇳 چین پیشتاز در رباتیک، تولید سختافزار و چرخههای استقرار بسیار سریع.
📉 جایگاهها ممکن است جابهجا شوند، اما الگو روشن است: «سومیِ معنادار» وجود ندارد. دیگران از عقب میدوند، بدون مسیر واقعی برای حاکمیت فناورانه.
🇪🇺 نقش اتحادیه اروپا در یک تصویر
نمودار دوم از هر سند سیاستی گویاتر است:
درآمد اروپا از جریمهها و تنظیمگری شرکتهای فناوری، بسیار بیشتر از مالیات شرکتهای فناوریِ ساختهشده در خود اروپاست.
📜 تنظیمگری شد مدل کسبوکار؛ نوآوری نه.
🌍 جمعبندی
نظم اقتصادی بعدی را کسانی میسازند که مدلها را آموزش میدهند و رباتها را میسازند.
@rss_ai_ir
#AI #هوش_مصنوعی #NeurIPS #China #USA #Robotics #LLM #Innovation #Geopolitics
❤13👍12🔥10👏9🎉9🥰8😁6