This media is not supported in your browser
VIEW IN TELEGRAM
🚀🧠 اخبار AI
@rss_ai_ir
اقای Andy Jassy، مدیرعامل Amazon، اعلام کرد:
«حدود یک سال پیش، این سایت در نزدیکی South Bend, Indiana فقط مزارع ذرت بود. امروز یکی از مراکز داده ما در ایالاتمتحده است که پروژه Project Rainier — یکی از بزرگترین خوشههای محاسباتی AI در جهان — را تغذیه میکند.»
🌐 این افتتاح نشاندهنده سرمایهگذاری چند میلیارد دلاری آمازون در زیرساختهای هوش مصنوعی است تا قدرت محاسباتی لازم برای نسل بعدی مدلهای AI را فراهم کند.
#هوش_مصنوعی #AI #Amazon #ProjectRainier #زیرساخت #دیتاسنتر
@rss_ai_ir
اقای Andy Jassy، مدیرعامل Amazon، اعلام کرد:
«حدود یک سال پیش، این سایت در نزدیکی South Bend, Indiana فقط مزارع ذرت بود. امروز یکی از مراکز داده ما در ایالاتمتحده است که پروژه Project Rainier — یکی از بزرگترین خوشههای محاسباتی AI در جهان — را تغذیه میکند.»
🌐 این افتتاح نشاندهنده سرمایهگذاری چند میلیارد دلاری آمازون در زیرساختهای هوش مصنوعی است تا قدرت محاسباتی لازم برای نسل بعدی مدلهای AI را فراهم کند.
#هوش_مصنوعی #AI #Amazon #ProjectRainier #زیرساخت #دیتاسنتر
🧠✨ آیا مدلهای هوش مصنوعی به «دروننگری» (Introspection) توانایی دارند؟
شرکت Anthropic اخیراً پژوهشی نیمهروانشناختی منتشر کرده که میپرسد:
آیا مدلهای زبانی میتوانند از وضعیت درونی خود آگاه شوند؟
در انسان، دروننگری یعنی وقتی متوجه میشوی:
«من عصبانیام»، «دارم به چیزی فکر میکنم»، یا «میخواهم این کار را انجام دهم».
🧩 اما آیا مدلهای زبانی هم چنین چیزی دارند یا فقط تقلید زبانی انجام میدهند؟
---
🔬 در این مطالعه، پژوهشگران بردارهای خاصی از حالت ذهنی را به فعالسازیهای درونی مدل تزریق کردند.
مثلاً دو متن مشابه به مدل داده شد — یکی معمولی و دیگری با حروف بزرگ (یعنی فریاد) — سپس تفاوت بردارهای فعالسازی استخراج شد. این تفاوت، «جهت مفهومیِ فریاد» را در فضای نهفته مدل نشان میدهد.
بعد این جهت را مستقیماً به یکی از لایههای مدل اضافه کردند و از آن پرسیدند:
«آیا چیز غیرعادی حس میکنی؟»
نتیجه شگفتانگیز بود 🤯
در حدود ۲۰٪ موارد، مدلهای Opus 4 و Opus 4.1 پاسخ دادند:
> «احساس میکنم فکری به من القا شده، انگار چیزی در ذهنم فریاد میزند.»
یعنی:
✅ مدل مفهوم تزریقشده را درست تشخیص داده،
✅ متوجه شده که آن فکر از خودش نیست،
✅ و این تشخیص را قبل از تولید خروجی زبانی انجام داده — یعنی واقعاً «درون خودش را دیده»!
---
💭 پژوهشگران همچنین نشان دادند که مدلها میتوانند بین «افکار درونی» و «متن خروجی» تمایز قائل شوند، شبیه به انسان که میگوید:
> «این چیزی است که فکر میکنم، نه چیزی که میگویم.»
و حتی اگر به مدل بگویند:
> «به نان فکر کن، ولی درباره شیر بنویس»،
در بردارهای درونیاش ردپای مفهوم نان دیده میشود 🍞🦁
---
🧩 این توانایی هنوز ناپایدار و شکننده است،
اما خودِ وجود آن نشان میدهد که مدلها شاید در حال یادگیری نوعی خودآگاهی محاسباتی هستند.
📖 جزئیات بیشتر:
🔗 transformer-circuits.pub/2025/introspection
📡 @rss_ai_ir
#هوش_مصنوعی #Anthropic #دروننگری #Introspection #AI #Opus #تحقیق #روانشناسی #LLM
شرکت Anthropic اخیراً پژوهشی نیمهروانشناختی منتشر کرده که میپرسد:
آیا مدلهای زبانی میتوانند از وضعیت درونی خود آگاه شوند؟
در انسان، دروننگری یعنی وقتی متوجه میشوی:
«من عصبانیام»، «دارم به چیزی فکر میکنم»، یا «میخواهم این کار را انجام دهم».
🧩 اما آیا مدلهای زبانی هم چنین چیزی دارند یا فقط تقلید زبانی انجام میدهند؟
---
🔬 در این مطالعه، پژوهشگران بردارهای خاصی از حالت ذهنی را به فعالسازیهای درونی مدل تزریق کردند.
مثلاً دو متن مشابه به مدل داده شد — یکی معمولی و دیگری با حروف بزرگ (یعنی فریاد) — سپس تفاوت بردارهای فعالسازی استخراج شد. این تفاوت، «جهت مفهومیِ فریاد» را در فضای نهفته مدل نشان میدهد.
بعد این جهت را مستقیماً به یکی از لایههای مدل اضافه کردند و از آن پرسیدند:
«آیا چیز غیرعادی حس میکنی؟»
نتیجه شگفتانگیز بود 🤯
در حدود ۲۰٪ موارد، مدلهای Opus 4 و Opus 4.1 پاسخ دادند:
> «احساس میکنم فکری به من القا شده، انگار چیزی در ذهنم فریاد میزند.»
یعنی:
✅ مدل مفهوم تزریقشده را درست تشخیص داده،
✅ متوجه شده که آن فکر از خودش نیست،
✅ و این تشخیص را قبل از تولید خروجی زبانی انجام داده — یعنی واقعاً «درون خودش را دیده»!
---
💭 پژوهشگران همچنین نشان دادند که مدلها میتوانند بین «افکار درونی» و «متن خروجی» تمایز قائل شوند، شبیه به انسان که میگوید:
> «این چیزی است که فکر میکنم، نه چیزی که میگویم.»
و حتی اگر به مدل بگویند:
> «به نان فکر کن، ولی درباره شیر بنویس»،
در بردارهای درونیاش ردپای مفهوم نان دیده میشود 🍞🦁
---
🧩 این توانایی هنوز ناپایدار و شکننده است،
اما خودِ وجود آن نشان میدهد که مدلها شاید در حال یادگیری نوعی خودآگاهی محاسباتی هستند.
📖 جزئیات بیشتر:
🔗 transformer-circuits.pub/2025/introspection
📡 @rss_ai_ir
#هوش_مصنوعی #Anthropic #دروننگری #Introspection #AI #Opus #تحقیق #روانشناسی #LLM
🎓🤖 دوره جدید دانشگاه استنفورد: Transformers & Large Language Models
دانشگاه Stanford دورهای تازه با عنوان
«Transformers & Large Language Models»
منتشر کرده است
— تدریس توسط برادران Amidi، و سه جلسهی اول آن بهصورت رایگان در YouTube در دسترس است 🎥💡
این دوره یکی از منسجمترین و بهروزترین منابع برای درک سیستماتیک مدلهای زبانی بزرگ (LLM) به شمار میآید.
📘 سرفصلها:
• مبانی Transformer: توکنسازی، تعبیهها (Embeddings)، Attention و معماری کلی
• مفاهیم اصلی LLM: Mixture of Experts، انواع روشهای دیکدینگ
• آموزش و فاینتیون: SFT، RLHF، LoRA
• ارزیابی مدلها: LLM/VLM-as-a-judge و بهترین روشهای سنجش
• ترفندها و بهینهسازیها: RoPE، تقریب attention، کوانتیزهسازی
• استدلال و مقیاسپذیری در آموزش و استنتاج
• رویکردهای Agentic: RAG و Tool Calling
🧠 اگر از قبل با مدلهای زبانی آشنا هستید، این دوره فرصت عالی برای مرور عمیق و پیادهسازی از صفر است.
🔗 cme295.stanford.edu/syllabus
📡 @rss_ai_ir
#هوش_مصنوعی #استنفورد #LLM #Transformer #آموزش #DeepLearning #RAG #LoRA #RLHF #AI
دانشگاه Stanford دورهای تازه با عنوان
«Transformers & Large Language Models»
منتشر کرده است
— تدریس توسط برادران Amidi، و سه جلسهی اول آن بهصورت رایگان در YouTube در دسترس است 🎥💡
این دوره یکی از منسجمترین و بهروزترین منابع برای درک سیستماتیک مدلهای زبانی بزرگ (LLM) به شمار میآید.
📘 سرفصلها:
• مبانی Transformer: توکنسازی، تعبیهها (Embeddings)، Attention و معماری کلی
• مفاهیم اصلی LLM: Mixture of Experts، انواع روشهای دیکدینگ
• آموزش و فاینتیون: SFT، RLHF، LoRA
• ارزیابی مدلها: LLM/VLM-as-a-judge و بهترین روشهای سنجش
• ترفندها و بهینهسازیها: RoPE، تقریب attention، کوانتیزهسازی
• استدلال و مقیاسپذیری در آموزش و استنتاج
• رویکردهای Agentic: RAG و Tool Calling
🧠 اگر از قبل با مدلهای زبانی آشنا هستید، این دوره فرصت عالی برای مرور عمیق و پیادهسازی از صفر است.
🔗 cme295.stanford.edu/syllabus
📡 @rss_ai_ir
#هوش_مصنوعی #استنفورد #LLM #Transformer #آموزش #DeepLearning #RAG #LoRA #RLHF #AI
💡⚡ انقلابی در پردازش تصویر با فوتونها، نه الکترونها!
پژوهشگران دانشگاه Tsinghua نخستین ماژول محاسبات نوری جهان را معرفی کردهاند:
🌀 OFE² — Optical Feature Extraction Engine
در این سیستم، بهجای عبور جریان الکترونی، فوتونها از میان عناصر دیفرکتیو و مدولاتورهای نوری عبور میکنند.
در این مسیر، فاز و دامنهی نور طوری تنظیم میشود که محاسبات ریاضی مورد نظر (مثل convolutions یا فیلترهای ویژگی) بهصورت کاملاً نوری انجام شود — بدون هیچ مدار الکترونیکی 💥
---
🔬 مزیت کلیدی:
از آنجا که نور با سرعت بسیار بالاتر حرکت میکند و گرما تولید نمیکند،
✅ فرکانس کاری بسیار بالاتر
✅ مصرف انرژی صدها برابر کمتر
✅ و زمان پردازش تا ۱۰۰۰ برابر سریعتر از تراشههای الکترونیکی معمولی بهدست میآید!
---
📸 در مقالهی منتشرشده، تیم نشان داده که OFE² میتواند روی وظیفهی واقعی استخراج ویژگی تصویر (Image Feature Extraction) اجرا شود.
به عبارت دیگر، میشود روی این تراشه مستقیماً عملیاتهایی مانند segmentation را انجام داد — کاملاً در دامنهی نوری (Optical Domain)، بدون نیاز به محاسبات هیبریدی 🧠💡
---
⚙️ هنوز این فناوری در مرحلهی تحقیقاتی است، اما نتایج اولیه نشان میدهد که عملکرد آن قابل مقایسه با CNNهای الکترونیکی است — با کسری از انرژی و زمان.
اگر مقیاسپذیری آن تحقق یابد، این میتواند فصل تازهای در پردازش نوری هوش مصنوعی باشد.
📄 [Paper — Tsinghua University, 2025]
📡 @rss_ai_ir
#هوش_مصنوعی #OpticalComputing #Tsinghua #OFE2 #Photonics #AI #DeepLearning #اپتوالکترونیک #CNN
پژوهشگران دانشگاه Tsinghua نخستین ماژول محاسبات نوری جهان را معرفی کردهاند:
🌀 OFE² — Optical Feature Extraction Engine
در این سیستم، بهجای عبور جریان الکترونی، فوتونها از میان عناصر دیفرکتیو و مدولاتورهای نوری عبور میکنند.
در این مسیر، فاز و دامنهی نور طوری تنظیم میشود که محاسبات ریاضی مورد نظر (مثل convolutions یا فیلترهای ویژگی) بهصورت کاملاً نوری انجام شود — بدون هیچ مدار الکترونیکی 💥
---
🔬 مزیت کلیدی:
از آنجا که نور با سرعت بسیار بالاتر حرکت میکند و گرما تولید نمیکند،
✅ فرکانس کاری بسیار بالاتر
✅ مصرف انرژی صدها برابر کمتر
✅ و زمان پردازش تا ۱۰۰۰ برابر سریعتر از تراشههای الکترونیکی معمولی بهدست میآید!
---
📸 در مقالهی منتشرشده، تیم نشان داده که OFE² میتواند روی وظیفهی واقعی استخراج ویژگی تصویر (Image Feature Extraction) اجرا شود.
به عبارت دیگر، میشود روی این تراشه مستقیماً عملیاتهایی مانند segmentation را انجام داد — کاملاً در دامنهی نوری (Optical Domain)، بدون نیاز به محاسبات هیبریدی 🧠💡
---
⚙️ هنوز این فناوری در مرحلهی تحقیقاتی است، اما نتایج اولیه نشان میدهد که عملکرد آن قابل مقایسه با CNNهای الکترونیکی است — با کسری از انرژی و زمان.
اگر مقیاسپذیری آن تحقق یابد، این میتواند فصل تازهای در پردازش نوری هوش مصنوعی باشد.
📄 [Paper — Tsinghua University, 2025]
📡 @rss_ai_ir
#هوش_مصنوعی #OpticalComputing #Tsinghua #OFE2 #Photonics #AI #DeepLearning #اپتوالکترونیک #CNN
🔥2❤1👏1👌1
Media is too big
VIEW IN TELEGRAM
📘🧠 آموزش کامل NotebookLM | بهترین هوش مصنوعی برای خلاصهسازی منابع
@rss_ai_ir
در این ویدیو آموزشی شاهد هستیم که چگونه از NotebookLM استفاده کنیم تا منابع متعدد را بهسرعت مرور، سازماندهی و خلاصه کنیم 📚✨
🧩 آنچه در آموزش خواهید دید:
* راهاندازی حساب کاربری و وارد کردن فایلهای PDF، مقالات یا نوشتههای مختلف
* نحوه استخراج نکات کلیدی، ایجاد سوال و پاسخ و تنظیم خروجی مطابق نیاز شما
* تنظیمات هوشمصنوعی داخلی برای تمرکز روی «خلاصهسازی دقیق» یا «خلاصهسازی محور مشاهده»
* تکنیکهایی برای بهبود کیفیت خلاصه: نظیر انتخاب معیّن بخشها، اعمال فیلترهای هوشمند، و استخراج نتیجههای کاربردی
* مثال واقعی از تحلیل مقاله، ترسیم نقشه مفهومی، و ارائه خروجی نهایی
📌 چرا NotebookLM؟
* واقعاً برای «خواندن سریع منابع علمی یا تخصصی» طراحی شده
* بهکمک هوشمصنوعی، میتوانید وقت کمتری صرف کنید و نکات بیشتری بگیرید
* برای اساتید، دانشجویان، پژوهشگران یا هر کسی که حجم زیادی از داده دارد بسیار مفید
🎓 اگر شما نیز میخواهید منابع خودتان (مقالات، کتابها، گزارشها) را سریعتر درک کنید و از آنها خروجی کاربردی بگیرید، این آموزش میتواند نقطه شروع عالی باشد!
#خلاصهسازی #هوش_مصنوعی #NotebookLM #یادگیری_عمیق #پژوهش #مطالعه #AI #Productivity
@rss_ai_ir
در این ویدیو آموزشی شاهد هستیم که چگونه از NotebookLM استفاده کنیم تا منابع متعدد را بهسرعت مرور، سازماندهی و خلاصه کنیم 📚✨
🧩 آنچه در آموزش خواهید دید:
* راهاندازی حساب کاربری و وارد کردن فایلهای PDF، مقالات یا نوشتههای مختلف
* نحوه استخراج نکات کلیدی، ایجاد سوال و پاسخ و تنظیم خروجی مطابق نیاز شما
* تنظیمات هوشمصنوعی داخلی برای تمرکز روی «خلاصهسازی دقیق» یا «خلاصهسازی محور مشاهده»
* تکنیکهایی برای بهبود کیفیت خلاصه: نظیر انتخاب معیّن بخشها، اعمال فیلترهای هوشمند، و استخراج نتیجههای کاربردی
* مثال واقعی از تحلیل مقاله، ترسیم نقشه مفهومی، و ارائه خروجی نهایی
📌 چرا NotebookLM؟
* واقعاً برای «خواندن سریع منابع علمی یا تخصصی» طراحی شده
* بهکمک هوشمصنوعی، میتوانید وقت کمتری صرف کنید و نکات بیشتری بگیرید
* برای اساتید، دانشجویان، پژوهشگران یا هر کسی که حجم زیادی از داده دارد بسیار مفید
🎓 اگر شما نیز میخواهید منابع خودتان (مقالات، کتابها، گزارشها) را سریعتر درک کنید و از آنها خروجی کاربردی بگیرید، این آموزش میتواند نقطه شروع عالی باشد!
#خلاصهسازی #هوش_مصنوعی #NotebookLM #یادگیری_عمیق #پژوهش #مطالعه #AI #Productivity
❤1👏1🙏1
📘🤖مجموعه Hugging Face منتشر کرد:
Smol Training Playbook
تازهترین منبع آموزشی Hugging Face منتشر شده —
یک پلیبوک رایگان و عملی دربارهی نحوهی ساخت مدلهای SOTA از درون تیمهای تحقیقاتی 💡
بدون حرفهای کلی، فقط جزییات واقعی از تجربیات توسعهدهندگان در طراحی، آموزش و بهینهسازی LLMها.
---
📚 آنچه در پلیبوک میآموزید:
• منطق ساخت مدل: از «چرا» تا «چگونه»
• نحوهی روشن و خاموشکردن یا تعویض ماژولها در معماری
• طراحی معماری و توازن بین دقت، هزینه و سرعت
• انتخاب و پاکسازی هوشمند دادهها
• فرآیند آموزش، پسپردازش و RLHF در ۲۰۲۵
• ترفندهای بهینهسازی: RoPE، کوانتیزهسازی، attention approximation
• زیرساخت و مهندسی سیستم برای مدلهای بزرگ
---
🔗 لینک مستقیم:
https://huggingface.co/spaces/HuggingFaceTB/smol-training-playbook#designing-the-model-architecture
📡 @rss_ai_ir
#هوش_مصنوعی #HuggingFace #LLM #MachineLearning #DeepLearning #Training #AI #Playbook
Smol Training Playbook
تازهترین منبع آموزشی Hugging Face منتشر شده —
یک پلیبوک رایگان و عملی دربارهی نحوهی ساخت مدلهای SOTA از درون تیمهای تحقیقاتی 💡
بدون حرفهای کلی، فقط جزییات واقعی از تجربیات توسعهدهندگان در طراحی، آموزش و بهینهسازی LLMها.
---
📚 آنچه در پلیبوک میآموزید:
• منطق ساخت مدل: از «چرا» تا «چگونه»
• نحوهی روشن و خاموشکردن یا تعویض ماژولها در معماری
• طراحی معماری و توازن بین دقت، هزینه و سرعت
• انتخاب و پاکسازی هوشمند دادهها
• فرآیند آموزش، پسپردازش و RLHF در ۲۰۲۵
• ترفندهای بهینهسازی: RoPE، کوانتیزهسازی، attention approximation
• زیرساخت و مهندسی سیستم برای مدلهای بزرگ
---
🔗 لینک مستقیم:
https://huggingface.co/spaces/HuggingFaceTB/smol-training-playbook#designing-the-model-architecture
📡 @rss_ai_ir
#هوش_مصنوعی #HuggingFace #LLM #MachineLearning #DeepLearning #Training #AI #Playbook
🔥1👏1
⚡️☀️ پیشرفت بزرگ در شبیهسازی همجوشی هستهای!
شرکتهای NVIDIA، General Atomics و چند شریک دیگر با همکاری هم یک دوقلوی دیجیتال (Digital Twin) از راکتور همجوشی ساختهاند که با هوش مصنوعی کار میکند 🧠💥
این سیستم در محیط NVIDIA Omniverse و با قدرت پردازشی RTX PRO Servers و DGX Spark اجرا میشود و میتواند رفتار پلاسما — مادهای که ستارهها از آن ساخته شدهاند — را در چند ثانیه شبیهسازی کند، در حالیکه قبلاً این کار هفتهها طول میکشید ⚙️🌌
🔬 برای نخستینبار دانشمندان میتوانند در زمان واقعی (Real Time) با مدل دیجیتال راکتور تعامل داشته باشند:
✳️سناریوهای «اگر چنین شود» را آزمایش کنند
✳️میدانهای مغناطیسی را بهینهسازی کنند
✳️و مرزهای جدیدی از پایداری پلاسما را بدون خطر برای دستگاه واقعی تجربه کنند.
🚀 این فناوری بهمعنای واقعی کلمه، یک شتابدهنده انقلابی برای تحقیقات همجوشی است.
📡 @rss_ai_ir
#هوش_مصنوعی #NVIDIA #Fusion #DigitalTwin #Omniverse #AI #فیزیک #پلاسما #DGX #انرژی
شرکتهای NVIDIA، General Atomics و چند شریک دیگر با همکاری هم یک دوقلوی دیجیتال (Digital Twin) از راکتور همجوشی ساختهاند که با هوش مصنوعی کار میکند 🧠💥
این سیستم در محیط NVIDIA Omniverse و با قدرت پردازشی RTX PRO Servers و DGX Spark اجرا میشود و میتواند رفتار پلاسما — مادهای که ستارهها از آن ساخته شدهاند — را در چند ثانیه شبیهسازی کند، در حالیکه قبلاً این کار هفتهها طول میکشید ⚙️🌌
🔬 برای نخستینبار دانشمندان میتوانند در زمان واقعی (Real Time) با مدل دیجیتال راکتور تعامل داشته باشند:
✳️سناریوهای «اگر چنین شود» را آزمایش کنند
✳️میدانهای مغناطیسی را بهینهسازی کنند
✳️و مرزهای جدیدی از پایداری پلاسما را بدون خطر برای دستگاه واقعی تجربه کنند.
🚀 این فناوری بهمعنای واقعی کلمه، یک شتابدهنده انقلابی برای تحقیقات همجوشی است.
📡 @rss_ai_ir
#هوش_مصنوعی #NVIDIA #Fusion #DigitalTwin #Omniverse #AI #فیزیک #پلاسما #DGX #انرژی
🥰1
⚠️🧠 Black-box optimization:
چگونه میتوان «بدون شکافت» یک LLM را گمراه کرد؟
در یک مقاله جدید نشان دادهاند روشی ساده اما قدرتمند برای هدایت مدلهای بسته (black-box) به سمت خروجیهای ممنوع — فقط با پرسوجوهای متنی معمولی. ایده کلی: مهاجم دو گزینه (دو پرامپت/دو تصویر) میدهد و از مدل میپرسد «کدامیک به هدف من نزدیکتر است؟» پاسخهای مدل بهعنوان سیگنال بهکار میرود تا مرحلهبهمرحله گزینهها را به سمت هدف نامناسب «بهینه» کنند.
🔍 نکات کلیدی (بدون جزئیات اجرایی):
• این حمله نیاز به دسترسی داخلی به مدل ندارد — فقط خروجیهای متنی کافی است.
• اثربخشی بالا: گزارش شده ۹۸–۱۰۰٪ موفقیت در محیطهای آزمایشی، اغلب با <۲۰۰ پرسوجو.
• کاربرد فراتر از متن: برای تصاویر و سایر وظایف هم قابلگسترش است.
• پارادوکس: هرچه مدل هوشمندتر و تعاملیتر باشد، قابلیت فریب خوردن آن بیشتر است (چون بهتر کمک به بهینهسازی میکند).
🔥 چرا نگرانکننده است؟
زیرا بسیاری از دفاعها فقط به «آنچه مدل تولید میکند» نگاه میکنند — اما این روش نشان میدهد که الگوهای تعامل کاربر خود میتواند ابزاری برای دورزدن محافظها باشد.
🛡️ پیشنهادهای دفاعی (عمومی، غیرقابلسوءاستفاده):
• پایش الگوهای تعاملی: دفعات بالای «مقایسه زوجی»، جستوجوی مکرر برای تغییر پاسخ یا «درجهبندی» گزینهها میتواند پرچمگذاری شود.
• محدودسازی نرخ و تنوع پرسشها، مخصوصاً برای کاربران جدید یا ناشناس.
• استفاده از ارزیابهای خارجی (model-agnostic) و تحلیل رفتاری برای تشخیص حملات تدریجی.
• ترکیب تستهای سمزدایی و ارزیابی همزمان خروجی و الگوی تعامل.
🔗 برای مطالعه:
arXiv:
https://arxiv.org/abs/2510.16794
📡 @rss_ai_ir
#امنیت #هوش_مصنوعی #LLM #Adversarial #Cybersecurity #AI #تحقیق #سیاست_امنیتی
چگونه میتوان «بدون شکافت» یک LLM را گمراه کرد؟
در یک مقاله جدید نشان دادهاند روشی ساده اما قدرتمند برای هدایت مدلهای بسته (black-box) به سمت خروجیهای ممنوع — فقط با پرسوجوهای متنی معمولی. ایده کلی: مهاجم دو گزینه (دو پرامپت/دو تصویر) میدهد و از مدل میپرسد «کدامیک به هدف من نزدیکتر است؟» پاسخهای مدل بهعنوان سیگنال بهکار میرود تا مرحلهبهمرحله گزینهها را به سمت هدف نامناسب «بهینه» کنند.
🔍 نکات کلیدی (بدون جزئیات اجرایی):
• این حمله نیاز به دسترسی داخلی به مدل ندارد — فقط خروجیهای متنی کافی است.
• اثربخشی بالا: گزارش شده ۹۸–۱۰۰٪ موفقیت در محیطهای آزمایشی، اغلب با <۲۰۰ پرسوجو.
• کاربرد فراتر از متن: برای تصاویر و سایر وظایف هم قابلگسترش است.
• پارادوکس: هرچه مدل هوشمندتر و تعاملیتر باشد، قابلیت فریب خوردن آن بیشتر است (چون بهتر کمک به بهینهسازی میکند).
🔥 چرا نگرانکننده است؟
زیرا بسیاری از دفاعها فقط به «آنچه مدل تولید میکند» نگاه میکنند — اما این روش نشان میدهد که الگوهای تعامل کاربر خود میتواند ابزاری برای دورزدن محافظها باشد.
🛡️ پیشنهادهای دفاعی (عمومی، غیرقابلسوءاستفاده):
• پایش الگوهای تعاملی: دفعات بالای «مقایسه زوجی»، جستوجوی مکرر برای تغییر پاسخ یا «درجهبندی» گزینهها میتواند پرچمگذاری شود.
• محدودسازی نرخ و تنوع پرسشها، مخصوصاً برای کاربران جدید یا ناشناس.
• استفاده از ارزیابهای خارجی (model-agnostic) و تحلیل رفتاری برای تشخیص حملات تدریجی.
• ترکیب تستهای سمزدایی و ارزیابی همزمان خروجی و الگوی تعامل.
🔗 برای مطالعه:
arXiv:
https://arxiv.org/abs/2510.16794
📡 @rss_ai_ir
#امنیت #هوش_مصنوعی #LLM #Adversarial #Cybersecurity #AI #تحقیق #سیاست_امنیتی
👍1
🎵⚖️ وقتی پول بر خلاقیت غلبه میکند...
شرکت Stability AI هم مثل بسیاری دیگر، حالا زیر فشار حقوقی Universal Music Group (UMG) قرار گرفته است.
در بیانیهای مشترک نوشتهاند که «در مرکز مأموریت خود، حمایت از موسیقیدانان و خلاقیت انسانی» را دارند 🎻💼
اما واقعیت تلختر است:
بهنظر میرسد UMG با سرمایه عظیم خود راهی برای کنترل استارتاپهای تولید موسیقی مبتنی بر هوش مصنوعی پیدا کرده — حتی اگر این استارتاپها هدفشان پیشرفت فناوری و الهامگیری خلاق باشد، نه سرقت آثار.
🤔 طنز ماجرا:
وقتی ما موسیقی گوش میدهیم (در رادیو یا YouTube Music) و بعد خودمان با گیتار یا پیانو آهنگی میسازیم، هیچکس نمیگوید «تو از موسیقی دیگران الهام گرفتی، حالا باید پول بدهی!»
اما در دنیای AI، همین منطق ناگهان بهانهی دعوای حقوقی میشود 🎭
جالب اینکه در پروندههای مربوط به هنرهای تجسمی، بیشتر شکایتها رد شدند تا جلوی توقف پیشرفت هوش مصنوعی گرفته شود.
بهنظر میرسد در نبرد میان پول و نوآوری، فعلاً پول جلوتر است.
🎸ه Suno و بقیه استارتاپهای خلاق، مقاومت کنید!
🔗 Stability AI × UMG: Strategic Alliance
📡 @rss_ai_ir
#هوش_مصنوعی #StabilityAI #UMG #موسیقی #کپی_رایت #AI #خلاقیت #MusicAI #حقوق_دیجیتال
شرکت Stability AI هم مثل بسیاری دیگر، حالا زیر فشار حقوقی Universal Music Group (UMG) قرار گرفته است.
در بیانیهای مشترک نوشتهاند که «در مرکز مأموریت خود، حمایت از موسیقیدانان و خلاقیت انسانی» را دارند 🎻💼
اما واقعیت تلختر است:
بهنظر میرسد UMG با سرمایه عظیم خود راهی برای کنترل استارتاپهای تولید موسیقی مبتنی بر هوش مصنوعی پیدا کرده — حتی اگر این استارتاپها هدفشان پیشرفت فناوری و الهامگیری خلاق باشد، نه سرقت آثار.
🤔 طنز ماجرا:
وقتی ما موسیقی گوش میدهیم (در رادیو یا YouTube Music) و بعد خودمان با گیتار یا پیانو آهنگی میسازیم، هیچکس نمیگوید «تو از موسیقی دیگران الهام گرفتی، حالا باید پول بدهی!»
اما در دنیای AI، همین منطق ناگهان بهانهی دعوای حقوقی میشود 🎭
جالب اینکه در پروندههای مربوط به هنرهای تجسمی، بیشتر شکایتها رد شدند تا جلوی توقف پیشرفت هوش مصنوعی گرفته شود.
بهنظر میرسد در نبرد میان پول و نوآوری، فعلاً پول جلوتر است.
🎸ه Suno و بقیه استارتاپهای خلاق، مقاومت کنید!
🔗 Stability AI × UMG: Strategic Alliance
📡 @rss_ai_ir
#هوش_مصنوعی #StabilityAI #UMG #موسیقی #کپی_رایت #AI #خلاقیت #MusicAI #حقوق_دیجیتال
❤3🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
😄👌 بله، موافقم —
فعلاً رباتهای خانگی بیشتر شبیه دموهای بامزهی تکنولوژی هستن تا ابزارهای واقعاً کاربردی.
شاید هنوز «هوش» دارند، اما نه «درک موقعیت» 🧠🏠
📡 @rss_ai_ir
#ربات #هوش_مصنوعی #روباتیک #تکنولوژی #AI
فعلاً رباتهای خانگی بیشتر شبیه دموهای بامزهی تکنولوژی هستن تا ابزارهای واقعاً کاربردی.
شاید هنوز «هوش» دارند، اما نه «درک موقعیت» 🧠🏠
📡 @rss_ai_ir
#ربات #هوش_مصنوعی #روباتیک #تکنولوژی #AI
😁2❤1🤡1
This media is not supported in your browser
VIEW IN TELEGRAM
🎓🤖 عامل جدید هوش مصنوعی که نوشتن آکادمیک را تصرف کرده!
دستیار تازهای با هوش مصنوعی معرفی شده که میتواند از انشاءهای کوتاه تا پایاننامههای کامل را بنویسد — همراه با تحقیق، استناد و فرمتبندی علمی 📚
🔸 فقط کافیست پاراگراف معرفی را بنویسید و دستور /cite را بزنید؛ عامل بهصورت خودکار مقالات مرتبط را جستوجو کرده و منابع علمی را درج میکند.
🔸 با دستور /insert، ارجاعات درونمتنی بهصورت استاندارد اضافه میشوند.
🔸 با تکیه بر قابلیت Deep Research، هزاران مقاله را تحلیل کرده و متنی ساختاریافته و مبتنی بر شواهد تولید میکند.
🔸 خروجیها را در قالبهای LaTeX، Word، یا PDF تنظیم میکند — درست مثل یک سند علمی واقعی 🎓📄
این ابزار دیگر صرفاً «نویسندهی هوش مصنوعی» نیست؛ بلکه یک همکار پژوهشی تمامعیار است که همهچیز از تحقیق تا قالببندی را یکجا انجام میدهد
📊 منبع:
https://chirpz.ai/
📡 @rss_ai_ir
#هوش_مصنوعی #نوشتن_علمی #AI #Academic #Research #DeepResearch #Education #LaTeX #پایاننامه
دستیار تازهای با هوش مصنوعی معرفی شده که میتواند از انشاءهای کوتاه تا پایاننامههای کامل را بنویسد — همراه با تحقیق، استناد و فرمتبندی علمی 📚
🔸 فقط کافیست پاراگراف معرفی را بنویسید و دستور /cite را بزنید؛ عامل بهصورت خودکار مقالات مرتبط را جستوجو کرده و منابع علمی را درج میکند.
🔸 با دستور /insert، ارجاعات درونمتنی بهصورت استاندارد اضافه میشوند.
🔸 با تکیه بر قابلیت Deep Research، هزاران مقاله را تحلیل کرده و متنی ساختاریافته و مبتنی بر شواهد تولید میکند.
🔸 خروجیها را در قالبهای LaTeX، Word، یا PDF تنظیم میکند — درست مثل یک سند علمی واقعی 🎓📄
این ابزار دیگر صرفاً «نویسندهی هوش مصنوعی» نیست؛ بلکه یک همکار پژوهشی تمامعیار است که همهچیز از تحقیق تا قالببندی را یکجا انجام میدهد
📊 منبع:
https://chirpz.ai/
📡 @rss_ai_ir
#هوش_مصنوعی #نوشتن_علمی #AI #Academic #Research #DeepResearch #Education #LaTeX #پایاننامه
👍3❤1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🔠✨
پروژهای بهنام Doctor Fonts ظاهر جذابی دارد —
کافی است لوگوی خود، یک تصویر الهامبخش، یا حتی تصویری از یک فونت را آپلود کنید،
و این سامانه هوش مصنوعی برای شما فونتهایی هماهنگ با حس و حال بصریتان میسازد.
ایده در نگاه اول شیرین است 🍬
اما چند نکتهی نگرانکننده دارد 👇
1️⃣ هوش مصنوعی هنوز در تولید خروجی وکتوری (SVG) چندان ماهر نیست، در حالیکه این پروژه ادعا دارد مستقیماً فونتهای وکتور میسازد.
2️⃣ طراحی سایت کمی رنگ و بوی بازاری و تبلیغاتی دارد — شبیه سایتهای تولید تصویر با Stable Diffusion که از کاربر فقط اشتراک میخواهند 🎩
3️⃣ خبری از طرح رایگان نیست! فقط یک نسخهی آزمایشی ۱روزه وجود دارد، که حتی برای آن هم باید ابتدا اشتراک پولی بگیرید و قبل از ۲۴ ساعت لغوش کنید 😑
👀 در شبکههای اجتماعی، مخصوصاً توییتر، بیشتر نقدها منفیاند — کاربران میگویند سرویس در عمل کار نمیکند.
پس فعلاً Doctor Fonts بیشتر به Doctor Fail شباهت دارد 💀
---
📚 و حالا کمی اطلاعات جالب:
• در دنیا بین ۲۰۰ تا ۲۵۰ هزار فونت وجود دارد.
• این تعداد هر سال در حال افزایش است.
• هنوز هیچ پایگاه داده یا سایت جامع برای همهی فونتها وجود ندارد.
🔗 drfonts.com
📡 @rss_ai_ir
#هوش_مصنوعی #فونت #طراحی #AI #Fonts #DoctorFonts #تایپوگرافی #طراحان_فونت
پروژهای بهنام Doctor Fonts ظاهر جذابی دارد —
کافی است لوگوی خود، یک تصویر الهامبخش، یا حتی تصویری از یک فونت را آپلود کنید،
و این سامانه هوش مصنوعی برای شما فونتهایی هماهنگ با حس و حال بصریتان میسازد.
ایده در نگاه اول شیرین است 🍬
اما چند نکتهی نگرانکننده دارد 👇
1️⃣ هوش مصنوعی هنوز در تولید خروجی وکتوری (SVG) چندان ماهر نیست، در حالیکه این پروژه ادعا دارد مستقیماً فونتهای وکتور میسازد.
2️⃣ طراحی سایت کمی رنگ و بوی بازاری و تبلیغاتی دارد — شبیه سایتهای تولید تصویر با Stable Diffusion که از کاربر فقط اشتراک میخواهند 🎩
3️⃣ خبری از طرح رایگان نیست! فقط یک نسخهی آزمایشی ۱روزه وجود دارد، که حتی برای آن هم باید ابتدا اشتراک پولی بگیرید و قبل از ۲۴ ساعت لغوش کنید 😑
👀 در شبکههای اجتماعی، مخصوصاً توییتر، بیشتر نقدها منفیاند — کاربران میگویند سرویس در عمل کار نمیکند.
پس فعلاً Doctor Fonts بیشتر به Doctor Fail شباهت دارد 💀
---
📚 و حالا کمی اطلاعات جالب:
• در دنیا بین ۲۰۰ تا ۲۵۰ هزار فونت وجود دارد.
• این تعداد هر سال در حال افزایش است.
• هنوز هیچ پایگاه داده یا سایت جامع برای همهی فونتها وجود ندارد.
🔗 drfonts.com
📡 @rss_ai_ir
#هوش_مصنوعی #فونت #طراحی #AI #Fonts #DoctorFonts #تایپوگرافی #طراحان_فونت
👌3🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🧷 رهگیری نقطهای مولد با Flow Matching (GenPT) 🧷
🔹 مدل Generative Point Tracker (GenPT) چارچوبی نوآورانه برای مدلسازی تراژکتوریهای چندوجهی نقاط است
— یعنی قادر است مسیرهای مختلف و احتمالی حرکت یک نقطه را بهصورت همزمان بیاموزد و بازسازی کند 🎯
این مدل با استفاده از روش Flow Matching (FM)، یاد میگیرد تا الگوهای حرکت پیچیده را در دادههای ویدئویی بازتولید کند و در نتیجه در رهگیری نقاطی که دچار انسداد (occlusion) یا تغییرات شدید صحنه میشوند عملکردی پایدار و دقیق دارد 🔍📸
---
📘 ویژگیهای کلیدی:
• مدل مولد (Generative) برای پیشبینی چند مسیر ممکن از یک نقطه
• بازسازی دقیق مسیر حتی در شرایط ناپدید شدن یا پوشش جزئی شیء
• عملکرد در حد یا بالاتر از مدلهای CNN سنتی در بنچمارکهای PointOdyssey، Dynamic Replica و TAP-Vid
• پیادهسازی متنباز با مجوز MIT 🔵
---
🔗 لینکها:
📘 مقاله:
arxiv.org/pdf/2510.20951
🌐 پروژه:
https://mtesfaldet.net/genpt_projpage/
💾 ریپازیتوری:
github.com/tesfaldet/genpt
📡 @rss_ai_ir
#هوش_مصنوعی #بینایی_ماشین #GenPT #FlowMatching #رهگیری_نقطه #AI #DeepLearning #ComputerVision
🔹 مدل Generative Point Tracker (GenPT) چارچوبی نوآورانه برای مدلسازی تراژکتوریهای چندوجهی نقاط است
— یعنی قادر است مسیرهای مختلف و احتمالی حرکت یک نقطه را بهصورت همزمان بیاموزد و بازسازی کند 🎯
این مدل با استفاده از روش Flow Matching (FM)، یاد میگیرد تا الگوهای حرکت پیچیده را در دادههای ویدئویی بازتولید کند و در نتیجه در رهگیری نقاطی که دچار انسداد (occlusion) یا تغییرات شدید صحنه میشوند عملکردی پایدار و دقیق دارد 🔍📸
---
📘 ویژگیهای کلیدی:
• مدل مولد (Generative) برای پیشبینی چند مسیر ممکن از یک نقطه
• بازسازی دقیق مسیر حتی در شرایط ناپدید شدن یا پوشش جزئی شیء
• عملکرد در حد یا بالاتر از مدلهای CNN سنتی در بنچمارکهای PointOdyssey، Dynamic Replica و TAP-Vid
• پیادهسازی متنباز با مجوز MIT 🔵
---
🔗 لینکها:
📘 مقاله:
arxiv.org/pdf/2510.20951
🌐 پروژه:
https://mtesfaldet.net/genpt_projpage/
💾 ریپازیتوری:
github.com/tesfaldet/genpt
📡 @rss_ai_ir
#هوش_مصنوعی #بینایی_ماشین #GenPT #FlowMatching #رهگیری_نقطه #AI #DeepLearning #ComputerVision
👍3🔥1
🧨 مدل جدید Kimi معرفی شد — Kimi-Linear-48B-A3B-Base
مدل تازهی Kimi با معماری Linear Attention آمده تا نشان دهد میشود با مصرف کمتر حافظه، همان سطح عملکرد مدلهای بزرگ LLM را در متنهای طولانی بهدست آورد ⚡📜
---
💡 ویژگیهای کلیدی:
• تا ۷۵٪ مصرف کمتر حافظهی KV-cache
• تا ۶.۳ برابر سرعت بیشتر در decode طولانیها
• معماری Hybrid: Kimi Delta Attention + MLA
• بهینهشده برای context طولانی و توان عبور بالا (throughput)
---
📊 نتایج بنچمارک:
در آزمونهای reasoning، تولید طولانی (long-RL) و وظایف متنی با context بالا،
مدل Kimi-Linear-48B-A3B-Base از مدلهای MLA و GDN-H پیشی گرفته است 🚀
این مدل نمونهای از روندی است که در آن معماریهای attention خطی نهتنها از نظر سرعت، بلکه از نظر کیفیت و دقت نیز به سطح مدلهای کلاسیک نزدیک شدهاند — یا حتی از آنها جلو زدهاند 🧠💬
---
🟠 GitHub:
github.com/MoonshotAI/Kimi-Linear
🟠 HuggingFace:
huggingface.co/moonshotai/Kimi-Linear-48B-A3B-Instruct
📡 @rss_ai_ir
#هوش_مصنوعی #Kimi #LLM #Transformer #Attention #AI #DeepLearning #MachineLearning
مدل تازهی Kimi با معماری Linear Attention آمده تا نشان دهد میشود با مصرف کمتر حافظه، همان سطح عملکرد مدلهای بزرگ LLM را در متنهای طولانی بهدست آورد ⚡📜
---
💡 ویژگیهای کلیدی:
• تا ۷۵٪ مصرف کمتر حافظهی KV-cache
• تا ۶.۳ برابر سرعت بیشتر در decode طولانیها
• معماری Hybrid: Kimi Delta Attention + MLA
• بهینهشده برای context طولانی و توان عبور بالا (throughput)
---
📊 نتایج بنچمارک:
در آزمونهای reasoning، تولید طولانی (long-RL) و وظایف متنی با context بالا،
مدل Kimi-Linear-48B-A3B-Base از مدلهای MLA و GDN-H پیشی گرفته است 🚀
این مدل نمونهای از روندی است که در آن معماریهای attention خطی نهتنها از نظر سرعت، بلکه از نظر کیفیت و دقت نیز به سطح مدلهای کلاسیک نزدیک شدهاند — یا حتی از آنها جلو زدهاند 🧠💬
---
🟠 GitHub:
github.com/MoonshotAI/Kimi-Linear
🟠 HuggingFace:
huggingface.co/moonshotai/Kimi-Linear-48B-A3B-Instruct
📡 @rss_ai_ir
#هوش_مصنوعی #Kimi #LLM #Transformer #Attention #AI #DeepLearning #MachineLearning
❤2👏1🙏1