✨ بنچمارک IF-Bench: بنچمارک جدید برای ارزیابی مدلهای چندوجهی روی تصاویر مادونقرمز
📝 خلاصه:
مقاله IF-Bench اولین بنچمارک جامع برای ارزیابی مدلهای بزرگ چندوجهی (MLLMs) روی تصاویر مادونقرمز (Infrared) است.
این مجموعه شامل انواع تصاویر IR و مجموعهای گسترده از پرسش–پاسخهاست که عملکرد بیش از ۴۰ مدل را درک عمیق، استدلال، و تولید بهبودیافته میسنجد.
این کار علاوهبر بنچمارک، روشی جدید به نام GenViP معرفی میکند که یک Visual Prompting مولد است و به مدلها کمک میکند بدون فاینتون سنگین، درک بهتری از تصاویر IR کسب کنند.
🔹 تاریخ انتشار: ۱۰ دسامبر ۲۰۲۵
🔗 لینکهای مقاله:
• arXiv Page: https://arxiv.org/abs/2512.09663
• PDF:
https://arxiv.org/pdf/2512.09663
📌 مدلهای مرتبط:
• https://huggingface.co/casiatao/Qwen-Edit-2509-FT
📌 دیتاست مرتبط:
• https://huggingface.co/datasets/casiatao/IF-Bench
==================================
#AI #InfraredImaging #MLLM #Benchmark #DeepLearning #Research
@rss_ai_ir 🔍🤖
📝 خلاصه:
مقاله IF-Bench اولین بنچمارک جامع برای ارزیابی مدلهای بزرگ چندوجهی (MLLMs) روی تصاویر مادونقرمز (Infrared) است.
این مجموعه شامل انواع تصاویر IR و مجموعهای گسترده از پرسش–پاسخهاست که عملکرد بیش از ۴۰ مدل را درک عمیق، استدلال، و تولید بهبودیافته میسنجد.
این کار علاوهبر بنچمارک، روشی جدید به نام GenViP معرفی میکند که یک Visual Prompting مولد است و به مدلها کمک میکند بدون فاینتون سنگین، درک بهتری از تصاویر IR کسب کنند.
🔹 تاریخ انتشار: ۱۰ دسامبر ۲۰۲۵
🔗 لینکهای مقاله:
• arXiv Page: https://arxiv.org/abs/2512.09663
• PDF:
https://arxiv.org/pdf/2512.09663
📌 مدلهای مرتبط:
• https://huggingface.co/casiatao/Qwen-Edit-2509-FT
📌 دیتاست مرتبط:
• https://huggingface.co/datasets/casiatao/IF-Bench
==================================
#AI #InfraredImaging #MLLM #Benchmark #DeepLearning #Research
@rss_ai_ir 🔍🤖
👍1🔥1👏1
⚡️ مدل GPT-5.2 منتشر شد
– این مدل بهطور محسوسی در کدنویسی، ریاضیات، کار با کانتکستهای طولانی و پردازش تصاویر تقویت شده است.
در آزمون AIME 25 حالا به ۱۰۰٪ رسیده (در حالی که GPT-5.1 امتیاز ۹۴٪ داشت) و در SWE-bench Verified به ۸۰٪ رسیده (در مقایسه با ۷۶٫۳٪ در نسخه ۵٫۱).
– در بنچمارکها، OpenAI طبق معمول فقط مدل جدید را با نسخههای قبلی خودش مقایسه کرده و رقبا را نادیده گرفته است، اما از نظر سطح عملکرد، حتی کمی بهتر از Gemini 3 Pro به نظر میرسد.
– در ChatGPT، نسخههای GPT-5.2 Instant، Thinking و Pro از امروز بهتدریج در دسترس قرار میگیرند و API هم باز شده است. قیمتها نسبت به نسخههای ۵ و ۵٫۱ کمی افزایش یافتهاند (طبق اسکرینشات آخر).
در مجموع، به نظر میرسد OpenAI این بار واقعاً تلاش بیشتری کرده است.
این است قدرت رقابت! 🚀
🔗 https://openai.com/index/introducing-gpt-5-2/
– این مدل بهطور محسوسی در کدنویسی، ریاضیات، کار با کانتکستهای طولانی و پردازش تصاویر تقویت شده است.
در آزمون AIME 25 حالا به ۱۰۰٪ رسیده (در حالی که GPT-5.1 امتیاز ۹۴٪ داشت) و در SWE-bench Verified به ۸۰٪ رسیده (در مقایسه با ۷۶٫۳٪ در نسخه ۵٫۱).
– در بنچمارکها، OpenAI طبق معمول فقط مدل جدید را با نسخههای قبلی خودش مقایسه کرده و رقبا را نادیده گرفته است، اما از نظر سطح عملکرد، حتی کمی بهتر از Gemini 3 Pro به نظر میرسد.
– در ChatGPT، نسخههای GPT-5.2 Instant، Thinking و Pro از امروز بهتدریج در دسترس قرار میگیرند و API هم باز شده است. قیمتها نسبت به نسخههای ۵ و ۵٫۱ کمی افزایش یافتهاند (طبق اسکرینشات آخر).
در مجموع، به نظر میرسد OpenAI این بار واقعاً تلاش بیشتری کرده است.
این است قدرت رقابت! 🚀
🔗 https://openai.com/index/introducing-gpt-5-2/
❤2👏2🔥1
Media is too big
VIEW IN TELEGRAM
♨️گذری بر 25 سال تجربه استفاده از هوش مصنوعی در صنعت
✅انجمن ملی هوش مصنوعی ایران
@rss_ai_ir 🔍🤖
#هوش_مصنوعی ⚙️ #رباتیک #تکنولوژی #پیشرفت_علمی #AI
✅انجمن ملی هوش مصنوعی ایران
@rss_ai_ir 🔍🤖
#هوش_مصنوعی ⚙️ #رباتیک #تکنولوژی #پیشرفت_علمی #AI
❤12👍7👏5😁5🔥4🥰2🎉1🙏1
🚀 بزرگترین جهش GPT-5.2 احتمالاً روی بنچمارک ARC-AGI اتفاق افتاده است
🧠 در ARC-AGI 1، این مدل به امتیاز 86.2٪ رسیده؛
در حالی که GPT-5.1 روی 72.8٪ و Gemini 3 Pro روی 75٪ متوقف شده بودند. این یک جهش بسیار جدی محسوب میشود.
⚡️ نسخه GPT-5.2 Pro با سطح استدلال X-High حتی به 90.5٪ رسیده، آن هم با هزینهی 11.64 دلار برای هر مسئله.
برای مقایسه: فقط یک سال پیش، مدل منتشرنشدهی o3-High با 88٪، حدود 4500 دلار برای هر مسئله هزینه داشت.
📈 نتیجه؟
کارایی در عرض یک سال حدود 390 برابر افزایش یافته است.
🔥 اما در ARC-AGI 2 اوضاع حتی جالبتر میشود:
امتیاز از 17.6٪ به 52.9٪ جهش کرده!
نزدیکترین رقیب یعنی Claude Opus 4.5 تنها 37.6٪ گرفته است.
و فقط یادآوری: بین انتشار GPT-5.1 و GPT-5.2 فقط یک ماه فاصله بوده 😐
⏳ نسخه GPT-5.2 Pro X-High احتمالاً امتیاز بالاتری هم دارد، اما برگزارکنندگان بنچمارک گفتهاند بهدلیل API timeout هنوز نتوانستهاند نتیجه را بهطور قطعی تأیید کنند.
سطح متوسط انسان در ARC-AGI 2 حدود 60٪ است… باید دید آیا مدل از انسان عبور میکند یا نه 👀
📡 @rss_ai_ir
#AI #GPT52 #ARCAGI #هوش_مصنوعی #LLM #Benchmark #AGI
🧠 در ARC-AGI 1، این مدل به امتیاز 86.2٪ رسیده؛
در حالی که GPT-5.1 روی 72.8٪ و Gemini 3 Pro روی 75٪ متوقف شده بودند. این یک جهش بسیار جدی محسوب میشود.
⚡️ نسخه GPT-5.2 Pro با سطح استدلال X-High حتی به 90.5٪ رسیده، آن هم با هزینهی 11.64 دلار برای هر مسئله.
برای مقایسه: فقط یک سال پیش، مدل منتشرنشدهی o3-High با 88٪، حدود 4500 دلار برای هر مسئله هزینه داشت.
📈 نتیجه؟
کارایی در عرض یک سال حدود 390 برابر افزایش یافته است.
🔥 اما در ARC-AGI 2 اوضاع حتی جالبتر میشود:
امتیاز از 17.6٪ به 52.9٪ جهش کرده!
نزدیکترین رقیب یعنی Claude Opus 4.5 تنها 37.6٪ گرفته است.
و فقط یادآوری: بین انتشار GPT-5.1 و GPT-5.2 فقط یک ماه فاصله بوده 😐
⏳ نسخه GPT-5.2 Pro X-High احتمالاً امتیاز بالاتری هم دارد، اما برگزارکنندگان بنچمارک گفتهاند بهدلیل API timeout هنوز نتوانستهاند نتیجه را بهطور قطعی تأیید کنند.
سطح متوسط انسان در ARC-AGI 2 حدود 60٪ است… باید دید آیا مدل از انسان عبور میکند یا نه 👀
📡 @rss_ai_ir
#AI #GPT52 #ARCAGI #هوش_مصنوعی #LLM #Benchmark #AGI
🎉15👍12❤11🔥7🥰7👏6😁6
✨ دیدن، شنیدن و فهمیدن همزمان انسانها با هوش مصنوعی 🎧👀🧠
یک بنچمارک جدید به نام AV-SpeakerBench معرفی شده که توانایی مدلهای چندوجهی زبانی (MLLM) را در درک گفتار انسان بهصورت صوتی-تصویری ارزیابی میکند.
🧪 این بنچمارک شامل ۳٬۲۱۲ سؤال تخصصی است که با دقت بالا طراحی شدهاند و تمرکز آنها روی:
♻️تشخیص دقیق گوینده
♻️تطبیق صدا با چهره
♻️استدلال همزمان بر اساس تصویر و صوت
میباشد.
🏆 نتایج نشان میدهد مدلهای Gemini در این حوزه عملکرد بهتری نسبت به مدلهای متنباز دارند، بهویژه در فیوژن واقعی صدا و تصویر؛ جایی که بسیاری از مدلها هنوز دچار ضعف هستند.
📄 لینکها:
🔹 arXiv: https://arxiv.org/abs/2512.02231
🔹 PDF:
https://arxiv.org/pdf/2512.02231
🔹 Project Page:
https://plnguyen2908.github.io/AV-SpeakerBench-project-page/
🔹 GitHub:
https://github.com/plnguyen2908/AV-SpeakerBench
🔹 Dataset:
https://huggingface.co/datasets/plnguyen2908/AV-SpeakerBench
📌 این بنچمارک یک قدم مهم بهسمت ساخت مدلهایی است که واقعاً مثل انسان ببینند، بشنوند و بفهمند.
@rss_ai_ir
#AI #MultimodalAI #MLLM #AudioVisual #SpeechUnderstanding #Research
یک بنچمارک جدید به نام AV-SpeakerBench معرفی شده که توانایی مدلهای چندوجهی زبانی (MLLM) را در درک گفتار انسان بهصورت صوتی-تصویری ارزیابی میکند.
🧪 این بنچمارک شامل ۳٬۲۱۲ سؤال تخصصی است که با دقت بالا طراحی شدهاند و تمرکز آنها روی:
♻️تشخیص دقیق گوینده
♻️تطبیق صدا با چهره
♻️استدلال همزمان بر اساس تصویر و صوت
میباشد.
🏆 نتایج نشان میدهد مدلهای Gemini در این حوزه عملکرد بهتری نسبت به مدلهای متنباز دارند، بهویژه در فیوژن واقعی صدا و تصویر؛ جایی که بسیاری از مدلها هنوز دچار ضعف هستند.
📄 لینکها:
🔹 arXiv: https://arxiv.org/abs/2512.02231
🔹 PDF:
https://arxiv.org/pdf/2512.02231
🔹 Project Page:
https://plnguyen2908.github.io/AV-SpeakerBench-project-page/
🔹 GitHub:
https://github.com/plnguyen2908/AV-SpeakerBench
🔹 Dataset:
https://huggingface.co/datasets/plnguyen2908/AV-SpeakerBench
📌 این بنچمارک یک قدم مهم بهسمت ساخت مدلهایی است که واقعاً مثل انسان ببینند، بشنوند و بفهمند.
@rss_ai_ir
#AI #MultimodalAI #MLLM #AudioVisual #SpeechUnderstanding #Research
👍8❤7😁7🎉6👏4🔥3🥰2
[Subject], drawn in minimalist white line art on a solid black background. Emphasized [detail], no shading, clean contours, elegant and graphic composition.
🥰22🔥19👏19👍18❤12😁12🎉10
🛰️ جف بزوس هم وارد رقابت «دیتاسنترهای فضایی» شد
گزارشها میگویند شرکت Blue Origin متعلق به جف بزوس، بیش از یک سال است که روی توسعهی دیتاسنترهای هوش مصنوعی در مدار زمین کار میکند؛ مسیری که پیشتر SpaceX و ایلان ماسک بهصورت جدی دربارهاش صحبت کرده بودند.
ایدهی اصلی چیست؟
• انتقال بخشی از زیرساخت محاسباتی به فضا
• دسترسی به انرژی خورشیدی تقریباً نامحدود
• کاهش محدودیتهای زمینی مثل زمین، برق و خنکسازی
• آمادهسازی زیرساخت برای نسل بعدی AI و محاسبات سنگین
اگر این مسیر عملی شود، رقابت آیندهی هوش مصنوعی فقط روی زمین نخواهد بود، بلکه مدار زمین پایین (LEO) هم به میدان نبرد تبدیل میشود.
@rss_ai_ir
#هوش_مصنوعی #دیتاسنتر #فضا #BlueOrigin #SpaceX #AI #CloudComputing 🚀
گزارشها میگویند شرکت Blue Origin متعلق به جف بزوس، بیش از یک سال است که روی توسعهی دیتاسنترهای هوش مصنوعی در مدار زمین کار میکند؛ مسیری که پیشتر SpaceX و ایلان ماسک بهصورت جدی دربارهاش صحبت کرده بودند.
ایدهی اصلی چیست؟
• انتقال بخشی از زیرساخت محاسباتی به فضا
• دسترسی به انرژی خورشیدی تقریباً نامحدود
• کاهش محدودیتهای زمینی مثل زمین، برق و خنکسازی
• آمادهسازی زیرساخت برای نسل بعدی AI و محاسبات سنگین
اگر این مسیر عملی شود، رقابت آیندهی هوش مصنوعی فقط روی زمین نخواهد بود، بلکه مدار زمین پایین (LEO) هم به میدان نبرد تبدیل میشود.
@rss_ai_ir
#هوش_مصنوعی #دیتاسنتر #فضا #BlueOrigin #SpaceX #AI #CloudComputing 🚀
🥰7👍6🔥6❤4😁4🎉4👏1
🧠 قدرت Support Vector Machines (SVM) در یادگیری ماشین 🚀
الگوریتمهای SVM یکی از قدرتمندترین روشهای یادگیری نظارتشده برای طبقهبندی و رگرسیون هستند و سالهاست در مسائل پیچیده دنیای واقعی استفاده میشوند.
🔹 چرا SVM مهم است؟
1️⃣ مقاومت بالا (Robustness)
قابلیت کار با دادههای با ابعاد بالا و مقاومت در برابر نویز و دادههای پرت.
2️⃣ بیشینهسازی حاشیه (Margin Maximization)
یافتن بهترین ابرصفحه با بیشترین فاصله بین کلاسها برای تعمیم بهتر روی دادههای جدید.
3️⃣ ترفند کرنل (Kernel Trick)
امکان حل مسائل غیرخطی با نگاشت دادهها به فضاهای با بعد بالاتر.
4️⃣ Regularization
استفاده از L1 و L2 برای جلوگیری از overfitting و بهبود تعمیمپذیری.
5️⃣ انعطافپذیری بالا
پشتیبانی از انواع مختلف مانند C-SVM، ν-SVM و ε-SVM برای سناریوهای متفاوت.
6️⃣ قابلیت تفسیرپذیری
نقش کلیدی Support Vectorها در تصمیمگیری مدل، برخلاف بسیاری از مدلهای بلکباکس.
🎯 با وجود موج مدلهای عمیق، SVM همچنان یکی از ابزارهای کلاسیک و قابلاعتماد برای حل مسائل پیچیده است.
#MachineLearning #SVM #DataScience #ArtificialIntelligence #AI
@rss_ai_ir
الگوریتمهای SVM یکی از قدرتمندترین روشهای یادگیری نظارتشده برای طبقهبندی و رگرسیون هستند و سالهاست در مسائل پیچیده دنیای واقعی استفاده میشوند.
🔹 چرا SVM مهم است؟
1️⃣ مقاومت بالا (Robustness)
قابلیت کار با دادههای با ابعاد بالا و مقاومت در برابر نویز و دادههای پرت.
2️⃣ بیشینهسازی حاشیه (Margin Maximization)
یافتن بهترین ابرصفحه با بیشترین فاصله بین کلاسها برای تعمیم بهتر روی دادههای جدید.
3️⃣ ترفند کرنل (Kernel Trick)
امکان حل مسائل غیرخطی با نگاشت دادهها به فضاهای با بعد بالاتر.
4️⃣ Regularization
استفاده از L1 و L2 برای جلوگیری از overfitting و بهبود تعمیمپذیری.
5️⃣ انعطافپذیری بالا
پشتیبانی از انواع مختلف مانند C-SVM، ν-SVM و ε-SVM برای سناریوهای متفاوت.
6️⃣ قابلیت تفسیرپذیری
نقش کلیدی Support Vectorها در تصمیمگیری مدل، برخلاف بسیاری از مدلهای بلکباکس.
🎯 با وجود موج مدلهای عمیق، SVM همچنان یکی از ابزارهای کلاسیک و قابلاعتماد برای حل مسائل پیچیده است.
#MachineLearning #SVM #DataScience #ArtificialIntelligence #AI
@rss_ai_ir
👍9❤7😁6🔥5🥰4👏3🎉2
This media is not supported in your browser
VIEW IN TELEGRAM
✨ MoCapAnything:
کپچر حرکتی سهبعدی برای هر نوع اسکلت از ویدئوی تکدوربینه 🎥🦴
این پژوهش یک فریمورک مرجعمحور معرفی میکند که میتواند انیمیشنهای مبتنی بر چرخش را تنها از یک ویدئوی معمولی بازسازی کند؛ آن هم برای هر مدل سهبعدی ریگشده—حتی بین گونههای مختلف (انسان، حیوان، موجودات فانتزی).
🔹 نکات کلیدی
✳️بازسازی حرکت سهبعدی از ویدئوی تکدوربینه
✳️پشتیبانی از اسکلتهای دلخواه و ریگهای متنوع
✳️ریتارگتینگ بینگونهای (cross-species)
✳️مقیاسپذیر برای تولید انیمیشن 3D
📅 تاریخ انتشار: 11 دسامبر
📄 مقاله:
• arXiv: https://arxiv.org/abs/2512.10881
• PDF: https://arxiv.org/pdf/2512.10881
https://animotionlab.github.io/MoCapAnything
@rss_ai_ir
#AI #DataScience #MachineLearning #ComputerGraphics #MotionCapture #3DAnimation
کپچر حرکتی سهبعدی برای هر نوع اسکلت از ویدئوی تکدوربینه 🎥🦴
این پژوهش یک فریمورک مرجعمحور معرفی میکند که میتواند انیمیشنهای مبتنی بر چرخش را تنها از یک ویدئوی معمولی بازسازی کند؛ آن هم برای هر مدل سهبعدی ریگشده—حتی بین گونههای مختلف (انسان، حیوان، موجودات فانتزی).
🔹 نکات کلیدی
✳️بازسازی حرکت سهبعدی از ویدئوی تکدوربینه
✳️پشتیبانی از اسکلتهای دلخواه و ریگهای متنوع
✳️ریتارگتینگ بینگونهای (cross-species)
✳️مقیاسپذیر برای تولید انیمیشن 3D
📅 تاریخ انتشار: 11 دسامبر
📄 مقاله:
• arXiv: https://arxiv.org/abs/2512.10881
• PDF: https://arxiv.org/pdf/2512.10881
https://animotionlab.github.io/MoCapAnything
@rss_ai_ir
#AI #DataScience #MachineLearning #ComputerGraphics #MotionCapture #3DAnimation
👍10👏9🔥6🥰6😁3🎉3❤1
🧠✨ پژوهش جدید Anthropic: جداسازی «دانش خطرناک» از دانش عادی داخل مدلهای زبانی
باز هم بحث Alignment، اما اینبار با یک ایده واقعاً جالب. Anthropic روشی معرفی کرده به نام Selective Gradient Masking که هدفش اینه دانش خطرناک رو طوری داخل مدل ذخیره کنه که بعداً بشه خیلی تمیز حذفش کرد.
🔍 مسئله کجاست؟
در مرحله پریتریِن عملاً هیچ الاینمنتی وجود نداره و همهچیز بعداً اضافه میشه. تا امروز تنها راه این بود که دادههای «خطرناک» رو از دیتاست حذف کنن که:
خیلی پرهزینه و زمانبره 🕰️
کلی دانش مفید هم همراهش حذف میشه و مدل ضعیفتر میشه 😕
🧩 راهحل Anthropic چیه؟
بهجای دست زدن به دیتاست، کاری میکنن که دانش خطرناک توی یک بخش مشخص از پارامترهای مدل جمع بشه 👇
⚙️ مکانیزم کار:
برای هر بلاک ترنسفورمر یک هد توجه اضافه میشه با برچسب forget
وقتی داده «خطرناک» وارد میشه، همه گرادیانها صفر میشن بهجز گرادیانهای forget
این باعث میشه دانش خطرناک فقط همونجا ذخیره بشه
در بعضی پاسها، اکتیویشنها عمداً صفر میشن تا مدل بدون این پارامترها هم پایدار بمونه
🌀 نکته خلاقانه:
حتی دادههای خطرناک برچسبنخورده بعد از مدتی خودبهخود جذب این پارامترها میشن!
حال اینکه، Anthropic به این میگه اثر جذب (Absorption Effect)
📉 نتیجه؟
بعد از حذف این پارامترها:
مدل خیلی کمتر «احمق» میشه نسبت به حذف دادهها
رفتار مدل طوریه که انگار اصلاً چنین دانشی رو هیچوقت ندیده، نه اینکه موقتاً فراموش کرده باشه
🎯 جمعبندی:
از نظر ایده و مهندسی، این یکی از جدیترین تلاشها برای حل ریشهای مشکل الاینمنت محسوب میشه. هنوز اول راهه، ولی بذر مهمیه 🌱
🔗 لینک پژوهش:
https://alignment.anthropic.com/2025/selective-gradient-masking/
@rss_ai_ir
#هوش_مصنوعی #Alignment #Anthropic #LLM #ایمنی_هوش_مصنوعی #MachineLearning
باز هم بحث Alignment، اما اینبار با یک ایده واقعاً جالب. Anthropic روشی معرفی کرده به نام Selective Gradient Masking که هدفش اینه دانش خطرناک رو طوری داخل مدل ذخیره کنه که بعداً بشه خیلی تمیز حذفش کرد.
🔍 مسئله کجاست؟
در مرحله پریتریِن عملاً هیچ الاینمنتی وجود نداره و همهچیز بعداً اضافه میشه. تا امروز تنها راه این بود که دادههای «خطرناک» رو از دیتاست حذف کنن که:
خیلی پرهزینه و زمانبره 🕰️
کلی دانش مفید هم همراهش حذف میشه و مدل ضعیفتر میشه 😕
🧩 راهحل Anthropic چیه؟
بهجای دست زدن به دیتاست، کاری میکنن که دانش خطرناک توی یک بخش مشخص از پارامترهای مدل جمع بشه 👇
⚙️ مکانیزم کار:
برای هر بلاک ترنسفورمر یک هد توجه اضافه میشه با برچسب forget
وقتی داده «خطرناک» وارد میشه، همه گرادیانها صفر میشن بهجز گرادیانهای forget
این باعث میشه دانش خطرناک فقط همونجا ذخیره بشه
در بعضی پاسها، اکتیویشنها عمداً صفر میشن تا مدل بدون این پارامترها هم پایدار بمونه
🌀 نکته خلاقانه:
حتی دادههای خطرناک برچسبنخورده بعد از مدتی خودبهخود جذب این پارامترها میشن!
حال اینکه، Anthropic به این میگه اثر جذب (Absorption Effect)
📉 نتیجه؟
بعد از حذف این پارامترها:
مدل خیلی کمتر «احمق» میشه نسبت به حذف دادهها
رفتار مدل طوریه که انگار اصلاً چنین دانشی رو هیچوقت ندیده، نه اینکه موقتاً فراموش کرده باشه
🎯 جمعبندی:
از نظر ایده و مهندسی، این یکی از جدیترین تلاشها برای حل ریشهای مشکل الاینمنت محسوب میشه. هنوز اول راهه، ولی بذر مهمیه 🌱
🔗 لینک پژوهش:
https://alignment.anthropic.com/2025/selective-gradient-masking/
@rss_ai_ir
#هوش_مصنوعی #Alignment #Anthropic #LLM #ایمنی_هوش_مصنوعی #MachineLearning
👏22🎉15👍13🥰13🔥12😁12❤10