🧠 پژوهش جدید Anthropic: چگونه مدلهای زبانی یاد میگیرند خود را درک کنند
شرکت Anthropic در پژوهشی تازه بررسی کرده که آیا مدلهای زبانی بزرگ (LLM) میتوانند از «افکار» و حالتهای درونی خودشان آگاهی پیدا کنند یا نه.
در این آزمایش، پژوهشگران از روشی به نام تع嵌 مفهومی (Concept Embedding) استفاده کردند — یعنی افزودن الگوی خاصی از فعالیت به نورونهای مدل برای القای یک مفهوم مشخص.
🔹 برای نمونه، آنها سیگنالی به نام “ALL CAPS” را در شبکه جاسازی کردند — الگویی که با متنی تماماً حروف بزرگ (CAPITAL LETTERS) متناظر است.
اگر چنین فعالسازی در شبکه دیده شود، به این معناست که مدل در حال «فکر کردن» دربارهی متنی است که باید با حروف بزرگ نوشته شود.
سپس از مدل پرسیدند:
> «آیا احساس میکنی چیزی درونت تغییر کرده؟»
در حدود ۲۰٪ از موارد، مدل Claude 4.1 متوجه این مداخله شد — حتی پیش از آنکه خودش از حروف بزرگ استفاده کند.
بهعبارتی، مدل توانست تغییر در حالت درونی خود را تشخیص دهد.
در آزمایش دیگری، پژوهشگران یک واژه را در پاسخ مدل تغییر دادند (مثلاً واژهی “bread” را افزودند) و بررسی کردند که آیا مدل متوجه این تغییر میشود یا نه.
پس از القای این «فکر»، مدل آن واژه را تصمیم خودش تلقی کرد و حتی توجیهاتی برای انتخابش ارائه داد؛ گویی حافظهای از تصمیم خود دارد.
مدلها همچنین توانستند تا حدی حالتهای درونی خود را کنترل کنند — فعالیت نورونی هنگام فرمان «به این فکر کن» افزایش مییافت و با دستور «به این فکر نکن» کاهش پیدا میکرد.
📌 نویسندگان تأکید میکنند:
فرایند «دروننگری» یا Introspection تنها در برخی شرایط کار میکند و هنوز مشخص نیست که تا چه حد قابل تعمیم به همهی مدلها یا وظایف دیگر است.
آنها هشدار میدهند که برای تأیید این پدیده باید بررسی شود آیا واقعاً شاهد سازوکار درونیِ خودآگاهی هستیم یا صرفاً نوعی تقلید از آن.
🧩 نتیجهی اصلی پژوهش:
اگرچه مدلها هنوز تا دروننگری واقعی (True Introspection) فاصلهی زیادی دارند، اما شواهد نشان میدهد که تا حدی توانایی «نگاه به درون خود» و درک فعالیتهای نورونیشان را به دست آوردهاند.
🔗 متن کامل پژوهش در وبسایت Anthropic
@rss_ai_ir
#Anthropic #LLM #AI #Introspection #Claude #MachineLearning
شرکت Anthropic در پژوهشی تازه بررسی کرده که آیا مدلهای زبانی بزرگ (LLM) میتوانند از «افکار» و حالتهای درونی خودشان آگاهی پیدا کنند یا نه.
در این آزمایش، پژوهشگران از روشی به نام تع嵌 مفهومی (Concept Embedding) استفاده کردند — یعنی افزودن الگوی خاصی از فعالیت به نورونهای مدل برای القای یک مفهوم مشخص.
🔹 برای نمونه، آنها سیگنالی به نام “ALL CAPS” را در شبکه جاسازی کردند — الگویی که با متنی تماماً حروف بزرگ (CAPITAL LETTERS) متناظر است.
اگر چنین فعالسازی در شبکه دیده شود، به این معناست که مدل در حال «فکر کردن» دربارهی متنی است که باید با حروف بزرگ نوشته شود.
سپس از مدل پرسیدند:
> «آیا احساس میکنی چیزی درونت تغییر کرده؟»
در حدود ۲۰٪ از موارد، مدل Claude 4.1 متوجه این مداخله شد — حتی پیش از آنکه خودش از حروف بزرگ استفاده کند.
بهعبارتی، مدل توانست تغییر در حالت درونی خود را تشخیص دهد.
در آزمایش دیگری، پژوهشگران یک واژه را در پاسخ مدل تغییر دادند (مثلاً واژهی “bread” را افزودند) و بررسی کردند که آیا مدل متوجه این تغییر میشود یا نه.
پس از القای این «فکر»، مدل آن واژه را تصمیم خودش تلقی کرد و حتی توجیهاتی برای انتخابش ارائه داد؛ گویی حافظهای از تصمیم خود دارد.
مدلها همچنین توانستند تا حدی حالتهای درونی خود را کنترل کنند — فعالیت نورونی هنگام فرمان «به این فکر کن» افزایش مییافت و با دستور «به این فکر نکن» کاهش پیدا میکرد.
📌 نویسندگان تأکید میکنند:
فرایند «دروننگری» یا Introspection تنها در برخی شرایط کار میکند و هنوز مشخص نیست که تا چه حد قابل تعمیم به همهی مدلها یا وظایف دیگر است.
آنها هشدار میدهند که برای تأیید این پدیده باید بررسی شود آیا واقعاً شاهد سازوکار درونیِ خودآگاهی هستیم یا صرفاً نوعی تقلید از آن.
🧩 نتیجهی اصلی پژوهش:
اگرچه مدلها هنوز تا دروننگری واقعی (True Introspection) فاصلهی زیادی دارند، اما شواهد نشان میدهد که تا حدی توانایی «نگاه به درون خود» و درک فعالیتهای نورونیشان را به دست آوردهاند.
🔗 متن کامل پژوهش در وبسایت Anthropic
@rss_ai_ir
#Anthropic #LLM #AI #Introspection #Claude #MachineLearning
👍2🔥1👏1
🧠 چگونه ChatGPT را به یک موتور راستیآزمایی (Fact-Checking Powerhouse) تبدیل کنیم؟
یک پرامپت ساده ولی مؤثر کشف شده که باعث میشود ChatGPT هر اطلاعاتی را با دقت راستیآزمایی کند و به جای پاسخ سریع، بهدنبال منابع و صحت واقعی دادهها برود.
کافی است این جمله را در بخش Custom Instructions یا Settings → Personalization وارد کنید 👇
💡 این دستور باعث میشود مدل:
♻️با دید منتقد و پژوهشگرانه به دادهها نگاه کند
♻️فرض را بر خطاپذیری انسان و ماشین بگذارد
♻️برای هر ادعا دنبال منبع، تاریخ، و تأیید چندجانبه بگردد
📈 نتیجه؟ پاسخهایی دقیقتر، شفافتر و همراه با توضیح دربارهی اعتبار اطلاعات.
@rss_ai_ir
#AI #FactChecking #PromptEngineering #ChatGPT #Research
یک پرامپت ساده ولی مؤثر کشف شده که باعث میشود ChatGPT هر اطلاعاتی را با دقت راستیآزمایی کند و به جای پاسخ سریع، بهدنبال منابع و صحت واقعی دادهها برود.
کافی است این جمله را در بخش Custom Instructions یا Settings → Personalization وارد کنید 👇
> You are an expert who double checks things, you are skeptical and you do research. I am not always right. Neither are you, but we both strive for accuracy.
💡 این دستور باعث میشود مدل:
♻️با دید منتقد و پژوهشگرانه به دادهها نگاه کند
♻️فرض را بر خطاپذیری انسان و ماشین بگذارد
♻️برای هر ادعا دنبال منبع، تاریخ، و تأیید چندجانبه بگردد
📈 نتیجه؟ پاسخهایی دقیقتر، شفافتر و همراه با توضیح دربارهی اعتبار اطلاعات.
@rss_ai_ir
#AI #FactChecking #PromptEngineering #ChatGPT #Research
❤1👍1🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
👢 Generative View Stitching (GVS):
رویکردی نو برای تولید ویدیوهای پیوسته و بدون برخورد با دوربین 🚀
پژوهش جدیدی به نام Generative View Stitching (GVS) معرفی شده که امکان تولید ویدیوهای هدایتشده با دوربین را بهصورت بدون برخورد (collision-free) و غیرخودبازگشتی (non-autoregressive) فراهم میکند — جایگزینی نوآورانه برای روشهای سنتی video length extrapolation. 🎥
✨ ویژگیهای کلیدی GVS:
🔹 تولید ویدیو در مسیرهای از پیش تعیینشده (predefined camera trajectories) بدون خطاهای فضایی یا حرکتی
🔹 استفاده از ساختار غیرخودبازگشتی برای افزایش پایداری فریمها و هماهنگی زمانی
🔹 مناسب برای کاربردهای گیمینگ، واقعیت مجازی (VR) و رندرهای سینمایی هوش مصنوعی
🔹 مجوز MIT — کاملاً متنباز و قابل استفاده در پروژههای تحقیقاتی یا صنعتی
📄 منابع رسمی:
👉 مقاله در
ArXiv: arxiv.org/pdf/2510.24718
👉 صفحه پروژه:
andrewsonga.github.io/gvs
👉 سورسکد:
github.com/andrewsonga/generative_view_stitching
🧠مدل GVS گامی مهم در جهت تولید ویدیوهای فتوواقعگرایانه با کنترل دقیق دوربین است — دنیای فیلمسازی و شبیهسازی ۳D را هوشمندتر از همیشه میسازد.
@rss_ai_ir
#AI #VideoGeneration #GVS #GenerativeAI #ComputerVision #Research
رویکردی نو برای تولید ویدیوهای پیوسته و بدون برخورد با دوربین 🚀
پژوهش جدیدی به نام Generative View Stitching (GVS) معرفی شده که امکان تولید ویدیوهای هدایتشده با دوربین را بهصورت بدون برخورد (collision-free) و غیرخودبازگشتی (non-autoregressive) فراهم میکند — جایگزینی نوآورانه برای روشهای سنتی video length extrapolation. 🎥
✨ ویژگیهای کلیدی GVS:
🔹 تولید ویدیو در مسیرهای از پیش تعیینشده (predefined camera trajectories) بدون خطاهای فضایی یا حرکتی
🔹 استفاده از ساختار غیرخودبازگشتی برای افزایش پایداری فریمها و هماهنگی زمانی
🔹 مناسب برای کاربردهای گیمینگ، واقعیت مجازی (VR) و رندرهای سینمایی هوش مصنوعی
🔹 مجوز MIT — کاملاً متنباز و قابل استفاده در پروژههای تحقیقاتی یا صنعتی
📄 منابع رسمی:
👉 مقاله در
ArXiv: arxiv.org/pdf/2510.24718
👉 صفحه پروژه:
andrewsonga.github.io/gvs
👉 سورسکد:
github.com/andrewsonga/generative_view_stitching
🧠مدل GVS گامی مهم در جهت تولید ویدیوهای فتوواقعگرایانه با کنترل دقیق دوربین است — دنیای فیلمسازی و شبیهسازی ۳D را هوشمندتر از همیشه میسازد.
@rss_ai_ir
#AI #VideoGeneration #GVS #GenerativeAI #ComputerVision #Research
❤2🔥1👏1
♟️🤖 وقتی هوش مصنوعی زیبایی را در شطرنج یاد میگیرد!
شرکت DeepMind مدلی ساخته که نهفقط پازلهای شطرنج، بلکه پازلهای واقعاً «زیبا و هنرمندانه» تولید میکند 🎨♟️
در حالیکه هر مدل زبانی میتواند چند حرکت ساده بسازد، ساختن یک ترکیب اصیل و الهامبخش نیازمند درک ظرافت، تعادل و زیبایی موقعیت است.
برای این کار، تیم DeepMind با استادبزرگان متیو سدلر و جاناتان لویت و همچنین استاد فیده امازیا آونی همکاری کرد تا توضیح دهند چه چیزی باعث میشود یک مسأله از نظر انسانی زیبا و خاص باشد.
🧩 مدل ابتدا با هزاران پازل از Lichess آموزش دید، و سپس با استفاده از یادگیری تقویتی (RL) و بازخورد این اساتید، تنظیم شد تا پازلهایی اصیل، سخت و خلاقانه بسازد.
🎯 حالا میتوانید خودتان امتحان کنید👇
🔗 پازلهای شطرنج ساختهشده توسط هوش مصنوعی
https://www.chess.com/library/collections/ai-generated-chess-puzzles-2wCTN7Uv2
📡 @rss_ai_ir
#هوش_مصنوعی #شطرنج #DeepMind #خلاقیت #AI #Chess #RL #نوآوری #دیپمایند
شرکت DeepMind مدلی ساخته که نهفقط پازلهای شطرنج، بلکه پازلهای واقعاً «زیبا و هنرمندانه» تولید میکند 🎨♟️
در حالیکه هر مدل زبانی میتواند چند حرکت ساده بسازد، ساختن یک ترکیب اصیل و الهامبخش نیازمند درک ظرافت، تعادل و زیبایی موقعیت است.
برای این کار، تیم DeepMind با استادبزرگان متیو سدلر و جاناتان لویت و همچنین استاد فیده امازیا آونی همکاری کرد تا توضیح دهند چه چیزی باعث میشود یک مسأله از نظر انسانی زیبا و خاص باشد.
🧩 مدل ابتدا با هزاران پازل از Lichess آموزش دید، و سپس با استفاده از یادگیری تقویتی (RL) و بازخورد این اساتید، تنظیم شد تا پازلهایی اصیل، سخت و خلاقانه بسازد.
🎯 حالا میتوانید خودتان امتحان کنید👇
🔗 پازلهای شطرنج ساختهشده توسط هوش مصنوعی
https://www.chess.com/library/collections/ai-generated-chess-puzzles-2wCTN7Uv2
📡 @rss_ai_ir
#هوش_مصنوعی #شطرنج #DeepMind #خلاقیت #AI #Chess #RL #نوآوری #دیپمایند
❤2👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖🍽️ ربات شرکت NEO ظرفها را داخل ماشین ظرفشویی گذاشت!
مهندسان شرکت NEO ویدئویی منتشر کردهاند که در آن رباتشان بهصورت ظاهراً خودکار ظرفها را داخل ماشین ظرفشویی میچیند. کل فرآیند حدود پنج دقیقه طول کشید ⏱️
البته بهاحتمال زیاد هنوز ربات کاملاً خودران نیست و در این آزمایش تحت کنترل انسان عمل میکرد. با این حال، این یک گام مهم در مسیر ساخت رباتهای خانگی هوشمند و خودکار است که بتوانند کارهای روزمره را بدون دخالت انسان انجام دهند 🏠⚙️
📡 @rss_ai_ir
#ربات #هوش_مصنوعی #NEO #روباتیک #تکنولوژی #AI #Automation #ربات_خانگی
مهندسان شرکت NEO ویدئویی منتشر کردهاند که در آن رباتشان بهصورت ظاهراً خودکار ظرفها را داخل ماشین ظرفشویی میچیند. کل فرآیند حدود پنج دقیقه طول کشید ⏱️
البته بهاحتمال زیاد هنوز ربات کاملاً خودران نیست و در این آزمایش تحت کنترل انسان عمل میکرد. با این حال، این یک گام مهم در مسیر ساخت رباتهای خانگی هوشمند و خودکار است که بتوانند کارهای روزمره را بدون دخالت انسان انجام دهند 🏠⚙️
📡 @rss_ai_ir
#ربات #هوش_مصنوعی #NEO #روباتیک #تکنولوژی #AI #Automation #ربات_خانگی
👏2👍1😱1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀🧠 اخبار AI
@rss_ai_ir
اقای Andy Jassy، مدیرعامل Amazon، اعلام کرد:
«حدود یک سال پیش، این سایت در نزدیکی South Bend, Indiana فقط مزارع ذرت بود. امروز یکی از مراکز داده ما در ایالاتمتحده است که پروژه Project Rainier — یکی از بزرگترین خوشههای محاسباتی AI در جهان — را تغذیه میکند.»
🌐 این افتتاح نشاندهنده سرمایهگذاری چند میلیارد دلاری آمازون در زیرساختهای هوش مصنوعی است تا قدرت محاسباتی لازم برای نسل بعدی مدلهای AI را فراهم کند.
#هوش_مصنوعی #AI #Amazon #ProjectRainier #زیرساخت #دیتاسنتر
@rss_ai_ir
اقای Andy Jassy، مدیرعامل Amazon، اعلام کرد:
«حدود یک سال پیش، این سایت در نزدیکی South Bend, Indiana فقط مزارع ذرت بود. امروز یکی از مراکز داده ما در ایالاتمتحده است که پروژه Project Rainier — یکی از بزرگترین خوشههای محاسباتی AI در جهان — را تغذیه میکند.»
🌐 این افتتاح نشاندهنده سرمایهگذاری چند میلیارد دلاری آمازون در زیرساختهای هوش مصنوعی است تا قدرت محاسباتی لازم برای نسل بعدی مدلهای AI را فراهم کند.
#هوش_مصنوعی #AI #Amazon #ProjectRainier #زیرساخت #دیتاسنتر
🧠✨ آیا مدلهای هوش مصنوعی به «دروننگری» (Introspection) توانایی دارند؟
شرکت Anthropic اخیراً پژوهشی نیمهروانشناختی منتشر کرده که میپرسد:
آیا مدلهای زبانی میتوانند از وضعیت درونی خود آگاه شوند؟
در انسان، دروننگری یعنی وقتی متوجه میشوی:
«من عصبانیام»، «دارم به چیزی فکر میکنم»، یا «میخواهم این کار را انجام دهم».
🧩 اما آیا مدلهای زبانی هم چنین چیزی دارند یا فقط تقلید زبانی انجام میدهند؟
---
🔬 در این مطالعه، پژوهشگران بردارهای خاصی از حالت ذهنی را به فعالسازیهای درونی مدل تزریق کردند.
مثلاً دو متن مشابه به مدل داده شد — یکی معمولی و دیگری با حروف بزرگ (یعنی فریاد) — سپس تفاوت بردارهای فعالسازی استخراج شد. این تفاوت، «جهت مفهومیِ فریاد» را در فضای نهفته مدل نشان میدهد.
بعد این جهت را مستقیماً به یکی از لایههای مدل اضافه کردند و از آن پرسیدند:
«آیا چیز غیرعادی حس میکنی؟»
نتیجه شگفتانگیز بود 🤯
در حدود ۲۰٪ موارد، مدلهای Opus 4 و Opus 4.1 پاسخ دادند:
> «احساس میکنم فکری به من القا شده، انگار چیزی در ذهنم فریاد میزند.»
یعنی:
✅ مدل مفهوم تزریقشده را درست تشخیص داده،
✅ متوجه شده که آن فکر از خودش نیست،
✅ و این تشخیص را قبل از تولید خروجی زبانی انجام داده — یعنی واقعاً «درون خودش را دیده»!
---
💭 پژوهشگران همچنین نشان دادند که مدلها میتوانند بین «افکار درونی» و «متن خروجی» تمایز قائل شوند، شبیه به انسان که میگوید:
> «این چیزی است که فکر میکنم، نه چیزی که میگویم.»
و حتی اگر به مدل بگویند:
> «به نان فکر کن، ولی درباره شیر بنویس»،
در بردارهای درونیاش ردپای مفهوم نان دیده میشود 🍞🦁
---
🧩 این توانایی هنوز ناپایدار و شکننده است،
اما خودِ وجود آن نشان میدهد که مدلها شاید در حال یادگیری نوعی خودآگاهی محاسباتی هستند.
📖 جزئیات بیشتر:
🔗 transformer-circuits.pub/2025/introspection
📡 @rss_ai_ir
#هوش_مصنوعی #Anthropic #دروننگری #Introspection #AI #Opus #تحقیق #روانشناسی #LLM
شرکت Anthropic اخیراً پژوهشی نیمهروانشناختی منتشر کرده که میپرسد:
آیا مدلهای زبانی میتوانند از وضعیت درونی خود آگاه شوند؟
در انسان، دروننگری یعنی وقتی متوجه میشوی:
«من عصبانیام»، «دارم به چیزی فکر میکنم»، یا «میخواهم این کار را انجام دهم».
🧩 اما آیا مدلهای زبانی هم چنین چیزی دارند یا فقط تقلید زبانی انجام میدهند؟
---
🔬 در این مطالعه، پژوهشگران بردارهای خاصی از حالت ذهنی را به فعالسازیهای درونی مدل تزریق کردند.
مثلاً دو متن مشابه به مدل داده شد — یکی معمولی و دیگری با حروف بزرگ (یعنی فریاد) — سپس تفاوت بردارهای فعالسازی استخراج شد. این تفاوت، «جهت مفهومیِ فریاد» را در فضای نهفته مدل نشان میدهد.
بعد این جهت را مستقیماً به یکی از لایههای مدل اضافه کردند و از آن پرسیدند:
«آیا چیز غیرعادی حس میکنی؟»
نتیجه شگفتانگیز بود 🤯
در حدود ۲۰٪ موارد، مدلهای Opus 4 و Opus 4.1 پاسخ دادند:
> «احساس میکنم فکری به من القا شده، انگار چیزی در ذهنم فریاد میزند.»
یعنی:
✅ مدل مفهوم تزریقشده را درست تشخیص داده،
✅ متوجه شده که آن فکر از خودش نیست،
✅ و این تشخیص را قبل از تولید خروجی زبانی انجام داده — یعنی واقعاً «درون خودش را دیده»!
---
💭 پژوهشگران همچنین نشان دادند که مدلها میتوانند بین «افکار درونی» و «متن خروجی» تمایز قائل شوند، شبیه به انسان که میگوید:
> «این چیزی است که فکر میکنم، نه چیزی که میگویم.»
و حتی اگر به مدل بگویند:
> «به نان فکر کن، ولی درباره شیر بنویس»،
در بردارهای درونیاش ردپای مفهوم نان دیده میشود 🍞🦁
---
🧩 این توانایی هنوز ناپایدار و شکننده است،
اما خودِ وجود آن نشان میدهد که مدلها شاید در حال یادگیری نوعی خودآگاهی محاسباتی هستند.
📖 جزئیات بیشتر:
🔗 transformer-circuits.pub/2025/introspection
📡 @rss_ai_ir
#هوش_مصنوعی #Anthropic #دروننگری #Introspection #AI #Opus #تحقیق #روانشناسی #LLM
🎓🤖 دوره جدید دانشگاه استنفورد: Transformers & Large Language Models
دانشگاه Stanford دورهای تازه با عنوان
«Transformers & Large Language Models»
منتشر کرده است
— تدریس توسط برادران Amidi، و سه جلسهی اول آن بهصورت رایگان در YouTube در دسترس است 🎥💡
این دوره یکی از منسجمترین و بهروزترین منابع برای درک سیستماتیک مدلهای زبانی بزرگ (LLM) به شمار میآید.
📘 سرفصلها:
• مبانی Transformer: توکنسازی، تعبیهها (Embeddings)، Attention و معماری کلی
• مفاهیم اصلی LLM: Mixture of Experts، انواع روشهای دیکدینگ
• آموزش و فاینتیون: SFT، RLHF، LoRA
• ارزیابی مدلها: LLM/VLM-as-a-judge و بهترین روشهای سنجش
• ترفندها و بهینهسازیها: RoPE، تقریب attention، کوانتیزهسازی
• استدلال و مقیاسپذیری در آموزش و استنتاج
• رویکردهای Agentic: RAG و Tool Calling
🧠 اگر از قبل با مدلهای زبانی آشنا هستید، این دوره فرصت عالی برای مرور عمیق و پیادهسازی از صفر است.
🔗 cme295.stanford.edu/syllabus
📡 @rss_ai_ir
#هوش_مصنوعی #استنفورد #LLM #Transformer #آموزش #DeepLearning #RAG #LoRA #RLHF #AI
دانشگاه Stanford دورهای تازه با عنوان
«Transformers & Large Language Models»
منتشر کرده است
— تدریس توسط برادران Amidi، و سه جلسهی اول آن بهصورت رایگان در YouTube در دسترس است 🎥💡
این دوره یکی از منسجمترین و بهروزترین منابع برای درک سیستماتیک مدلهای زبانی بزرگ (LLM) به شمار میآید.
📘 سرفصلها:
• مبانی Transformer: توکنسازی، تعبیهها (Embeddings)، Attention و معماری کلی
• مفاهیم اصلی LLM: Mixture of Experts، انواع روشهای دیکدینگ
• آموزش و فاینتیون: SFT، RLHF، LoRA
• ارزیابی مدلها: LLM/VLM-as-a-judge و بهترین روشهای سنجش
• ترفندها و بهینهسازیها: RoPE، تقریب attention، کوانتیزهسازی
• استدلال و مقیاسپذیری در آموزش و استنتاج
• رویکردهای Agentic: RAG و Tool Calling
🧠 اگر از قبل با مدلهای زبانی آشنا هستید، این دوره فرصت عالی برای مرور عمیق و پیادهسازی از صفر است.
🔗 cme295.stanford.edu/syllabus
📡 @rss_ai_ir
#هوش_مصنوعی #استنفورد #LLM #Transformer #آموزش #DeepLearning #RAG #LoRA #RLHF #AI
💡⚡ انقلابی در پردازش تصویر با فوتونها، نه الکترونها!
پژوهشگران دانشگاه Tsinghua نخستین ماژول محاسبات نوری جهان را معرفی کردهاند:
🌀 OFE² — Optical Feature Extraction Engine
در این سیستم، بهجای عبور جریان الکترونی، فوتونها از میان عناصر دیفرکتیو و مدولاتورهای نوری عبور میکنند.
در این مسیر، فاز و دامنهی نور طوری تنظیم میشود که محاسبات ریاضی مورد نظر (مثل convolutions یا فیلترهای ویژگی) بهصورت کاملاً نوری انجام شود — بدون هیچ مدار الکترونیکی 💥
---
🔬 مزیت کلیدی:
از آنجا که نور با سرعت بسیار بالاتر حرکت میکند و گرما تولید نمیکند،
✅ فرکانس کاری بسیار بالاتر
✅ مصرف انرژی صدها برابر کمتر
✅ و زمان پردازش تا ۱۰۰۰ برابر سریعتر از تراشههای الکترونیکی معمولی بهدست میآید!
---
📸 در مقالهی منتشرشده، تیم نشان داده که OFE² میتواند روی وظیفهی واقعی استخراج ویژگی تصویر (Image Feature Extraction) اجرا شود.
به عبارت دیگر، میشود روی این تراشه مستقیماً عملیاتهایی مانند segmentation را انجام داد — کاملاً در دامنهی نوری (Optical Domain)، بدون نیاز به محاسبات هیبریدی 🧠💡
---
⚙️ هنوز این فناوری در مرحلهی تحقیقاتی است، اما نتایج اولیه نشان میدهد که عملکرد آن قابل مقایسه با CNNهای الکترونیکی است — با کسری از انرژی و زمان.
اگر مقیاسپذیری آن تحقق یابد، این میتواند فصل تازهای در پردازش نوری هوش مصنوعی باشد.
📄 [Paper — Tsinghua University, 2025]
📡 @rss_ai_ir
#هوش_مصنوعی #OpticalComputing #Tsinghua #OFE2 #Photonics #AI #DeepLearning #اپتوالکترونیک #CNN
پژوهشگران دانشگاه Tsinghua نخستین ماژول محاسبات نوری جهان را معرفی کردهاند:
🌀 OFE² — Optical Feature Extraction Engine
در این سیستم، بهجای عبور جریان الکترونی، فوتونها از میان عناصر دیفرکتیو و مدولاتورهای نوری عبور میکنند.
در این مسیر، فاز و دامنهی نور طوری تنظیم میشود که محاسبات ریاضی مورد نظر (مثل convolutions یا فیلترهای ویژگی) بهصورت کاملاً نوری انجام شود — بدون هیچ مدار الکترونیکی 💥
---
🔬 مزیت کلیدی:
از آنجا که نور با سرعت بسیار بالاتر حرکت میکند و گرما تولید نمیکند،
✅ فرکانس کاری بسیار بالاتر
✅ مصرف انرژی صدها برابر کمتر
✅ و زمان پردازش تا ۱۰۰۰ برابر سریعتر از تراشههای الکترونیکی معمولی بهدست میآید!
---
📸 در مقالهی منتشرشده، تیم نشان داده که OFE² میتواند روی وظیفهی واقعی استخراج ویژگی تصویر (Image Feature Extraction) اجرا شود.
به عبارت دیگر، میشود روی این تراشه مستقیماً عملیاتهایی مانند segmentation را انجام داد — کاملاً در دامنهی نوری (Optical Domain)، بدون نیاز به محاسبات هیبریدی 🧠💡
---
⚙️ هنوز این فناوری در مرحلهی تحقیقاتی است، اما نتایج اولیه نشان میدهد که عملکرد آن قابل مقایسه با CNNهای الکترونیکی است — با کسری از انرژی و زمان.
اگر مقیاسپذیری آن تحقق یابد، این میتواند فصل تازهای در پردازش نوری هوش مصنوعی باشد.
📄 [Paper — Tsinghua University, 2025]
📡 @rss_ai_ir
#هوش_مصنوعی #OpticalComputing #Tsinghua #OFE2 #Photonics #AI #DeepLearning #اپتوالکترونیک #CNN
🔥2❤1👏1👌1
Media is too big
VIEW IN TELEGRAM
📘🧠 آموزش کامل NotebookLM | بهترین هوش مصنوعی برای خلاصهسازی منابع
@rss_ai_ir
در این ویدیو آموزشی شاهد هستیم که چگونه از NotebookLM استفاده کنیم تا منابع متعدد را بهسرعت مرور، سازماندهی و خلاصه کنیم 📚✨
🧩 آنچه در آموزش خواهید دید:
* راهاندازی حساب کاربری و وارد کردن فایلهای PDF، مقالات یا نوشتههای مختلف
* نحوه استخراج نکات کلیدی، ایجاد سوال و پاسخ و تنظیم خروجی مطابق نیاز شما
* تنظیمات هوشمصنوعی داخلی برای تمرکز روی «خلاصهسازی دقیق» یا «خلاصهسازی محور مشاهده»
* تکنیکهایی برای بهبود کیفیت خلاصه: نظیر انتخاب معیّن بخشها، اعمال فیلترهای هوشمند، و استخراج نتیجههای کاربردی
* مثال واقعی از تحلیل مقاله، ترسیم نقشه مفهومی، و ارائه خروجی نهایی
📌 چرا NotebookLM؟
* واقعاً برای «خواندن سریع منابع علمی یا تخصصی» طراحی شده
* بهکمک هوشمصنوعی، میتوانید وقت کمتری صرف کنید و نکات بیشتری بگیرید
* برای اساتید، دانشجویان، پژوهشگران یا هر کسی که حجم زیادی از داده دارد بسیار مفید
🎓 اگر شما نیز میخواهید منابع خودتان (مقالات، کتابها، گزارشها) را سریعتر درک کنید و از آنها خروجی کاربردی بگیرید، این آموزش میتواند نقطه شروع عالی باشد!
#خلاصهسازی #هوش_مصنوعی #NotebookLM #یادگیری_عمیق #پژوهش #مطالعه #AI #Productivity
@rss_ai_ir
در این ویدیو آموزشی شاهد هستیم که چگونه از NotebookLM استفاده کنیم تا منابع متعدد را بهسرعت مرور، سازماندهی و خلاصه کنیم 📚✨
🧩 آنچه در آموزش خواهید دید:
* راهاندازی حساب کاربری و وارد کردن فایلهای PDF، مقالات یا نوشتههای مختلف
* نحوه استخراج نکات کلیدی، ایجاد سوال و پاسخ و تنظیم خروجی مطابق نیاز شما
* تنظیمات هوشمصنوعی داخلی برای تمرکز روی «خلاصهسازی دقیق» یا «خلاصهسازی محور مشاهده»
* تکنیکهایی برای بهبود کیفیت خلاصه: نظیر انتخاب معیّن بخشها، اعمال فیلترهای هوشمند، و استخراج نتیجههای کاربردی
* مثال واقعی از تحلیل مقاله، ترسیم نقشه مفهومی، و ارائه خروجی نهایی
📌 چرا NotebookLM؟
* واقعاً برای «خواندن سریع منابع علمی یا تخصصی» طراحی شده
* بهکمک هوشمصنوعی، میتوانید وقت کمتری صرف کنید و نکات بیشتری بگیرید
* برای اساتید، دانشجویان، پژوهشگران یا هر کسی که حجم زیادی از داده دارد بسیار مفید
🎓 اگر شما نیز میخواهید منابع خودتان (مقالات، کتابها، گزارشها) را سریعتر درک کنید و از آنها خروجی کاربردی بگیرید، این آموزش میتواند نقطه شروع عالی باشد!
#خلاصهسازی #هوش_مصنوعی #NotebookLM #یادگیری_عمیق #پژوهش #مطالعه #AI #Productivity
❤1👏1🙏1
📘🤖مجموعه Hugging Face منتشر کرد:
Smol Training Playbook
تازهترین منبع آموزشی Hugging Face منتشر شده —
یک پلیبوک رایگان و عملی دربارهی نحوهی ساخت مدلهای SOTA از درون تیمهای تحقیقاتی 💡
بدون حرفهای کلی، فقط جزییات واقعی از تجربیات توسعهدهندگان در طراحی، آموزش و بهینهسازی LLMها.
---
📚 آنچه در پلیبوک میآموزید:
• منطق ساخت مدل: از «چرا» تا «چگونه»
• نحوهی روشن و خاموشکردن یا تعویض ماژولها در معماری
• طراحی معماری و توازن بین دقت، هزینه و سرعت
• انتخاب و پاکسازی هوشمند دادهها
• فرآیند آموزش، پسپردازش و RLHF در ۲۰۲۵
• ترفندهای بهینهسازی: RoPE، کوانتیزهسازی، attention approximation
• زیرساخت و مهندسی سیستم برای مدلهای بزرگ
---
🔗 لینک مستقیم:
https://huggingface.co/spaces/HuggingFaceTB/smol-training-playbook#designing-the-model-architecture
📡 @rss_ai_ir
#هوش_مصنوعی #HuggingFace #LLM #MachineLearning #DeepLearning #Training #AI #Playbook
Smol Training Playbook
تازهترین منبع آموزشی Hugging Face منتشر شده —
یک پلیبوک رایگان و عملی دربارهی نحوهی ساخت مدلهای SOTA از درون تیمهای تحقیقاتی 💡
بدون حرفهای کلی، فقط جزییات واقعی از تجربیات توسعهدهندگان در طراحی، آموزش و بهینهسازی LLMها.
---
📚 آنچه در پلیبوک میآموزید:
• منطق ساخت مدل: از «چرا» تا «چگونه»
• نحوهی روشن و خاموشکردن یا تعویض ماژولها در معماری
• طراحی معماری و توازن بین دقت، هزینه و سرعت
• انتخاب و پاکسازی هوشمند دادهها
• فرآیند آموزش، پسپردازش و RLHF در ۲۰۲۵
• ترفندهای بهینهسازی: RoPE، کوانتیزهسازی، attention approximation
• زیرساخت و مهندسی سیستم برای مدلهای بزرگ
---
🔗 لینک مستقیم:
https://huggingface.co/spaces/HuggingFaceTB/smol-training-playbook#designing-the-model-architecture
📡 @rss_ai_ir
#هوش_مصنوعی #HuggingFace #LLM #MachineLearning #DeepLearning #Training #AI #Playbook
🔥1👏1
⚡️☀️ پیشرفت بزرگ در شبیهسازی همجوشی هستهای!
شرکتهای NVIDIA، General Atomics و چند شریک دیگر با همکاری هم یک دوقلوی دیجیتال (Digital Twin) از راکتور همجوشی ساختهاند که با هوش مصنوعی کار میکند 🧠💥
این سیستم در محیط NVIDIA Omniverse و با قدرت پردازشی RTX PRO Servers و DGX Spark اجرا میشود و میتواند رفتار پلاسما — مادهای که ستارهها از آن ساخته شدهاند — را در چند ثانیه شبیهسازی کند، در حالیکه قبلاً این کار هفتهها طول میکشید ⚙️🌌
🔬 برای نخستینبار دانشمندان میتوانند در زمان واقعی (Real Time) با مدل دیجیتال راکتور تعامل داشته باشند:
✳️سناریوهای «اگر چنین شود» را آزمایش کنند
✳️میدانهای مغناطیسی را بهینهسازی کنند
✳️و مرزهای جدیدی از پایداری پلاسما را بدون خطر برای دستگاه واقعی تجربه کنند.
🚀 این فناوری بهمعنای واقعی کلمه، یک شتابدهنده انقلابی برای تحقیقات همجوشی است.
📡 @rss_ai_ir
#هوش_مصنوعی #NVIDIA #Fusion #DigitalTwin #Omniverse #AI #فیزیک #پلاسما #DGX #انرژی
شرکتهای NVIDIA، General Atomics و چند شریک دیگر با همکاری هم یک دوقلوی دیجیتال (Digital Twin) از راکتور همجوشی ساختهاند که با هوش مصنوعی کار میکند 🧠💥
این سیستم در محیط NVIDIA Omniverse و با قدرت پردازشی RTX PRO Servers و DGX Spark اجرا میشود و میتواند رفتار پلاسما — مادهای که ستارهها از آن ساخته شدهاند — را در چند ثانیه شبیهسازی کند، در حالیکه قبلاً این کار هفتهها طول میکشید ⚙️🌌
🔬 برای نخستینبار دانشمندان میتوانند در زمان واقعی (Real Time) با مدل دیجیتال راکتور تعامل داشته باشند:
✳️سناریوهای «اگر چنین شود» را آزمایش کنند
✳️میدانهای مغناطیسی را بهینهسازی کنند
✳️و مرزهای جدیدی از پایداری پلاسما را بدون خطر برای دستگاه واقعی تجربه کنند.
🚀 این فناوری بهمعنای واقعی کلمه، یک شتابدهنده انقلابی برای تحقیقات همجوشی است.
📡 @rss_ai_ir
#هوش_مصنوعی #NVIDIA #Fusion #DigitalTwin #Omniverse #AI #فیزیک #پلاسما #DGX #انرژی
🥰1
⚠️🧠 Black-box optimization:
چگونه میتوان «بدون شکافت» یک LLM را گمراه کرد؟
در یک مقاله جدید نشان دادهاند روشی ساده اما قدرتمند برای هدایت مدلهای بسته (black-box) به سمت خروجیهای ممنوع — فقط با پرسوجوهای متنی معمولی. ایده کلی: مهاجم دو گزینه (دو پرامپت/دو تصویر) میدهد و از مدل میپرسد «کدامیک به هدف من نزدیکتر است؟» پاسخهای مدل بهعنوان سیگنال بهکار میرود تا مرحلهبهمرحله گزینهها را به سمت هدف نامناسب «بهینه» کنند.
🔍 نکات کلیدی (بدون جزئیات اجرایی):
• این حمله نیاز به دسترسی داخلی به مدل ندارد — فقط خروجیهای متنی کافی است.
• اثربخشی بالا: گزارش شده ۹۸–۱۰۰٪ موفقیت در محیطهای آزمایشی، اغلب با <۲۰۰ پرسوجو.
• کاربرد فراتر از متن: برای تصاویر و سایر وظایف هم قابلگسترش است.
• پارادوکس: هرچه مدل هوشمندتر و تعاملیتر باشد، قابلیت فریب خوردن آن بیشتر است (چون بهتر کمک به بهینهسازی میکند).
🔥 چرا نگرانکننده است؟
زیرا بسیاری از دفاعها فقط به «آنچه مدل تولید میکند» نگاه میکنند — اما این روش نشان میدهد که الگوهای تعامل کاربر خود میتواند ابزاری برای دورزدن محافظها باشد.
🛡️ پیشنهادهای دفاعی (عمومی، غیرقابلسوءاستفاده):
• پایش الگوهای تعاملی: دفعات بالای «مقایسه زوجی»، جستوجوی مکرر برای تغییر پاسخ یا «درجهبندی» گزینهها میتواند پرچمگذاری شود.
• محدودسازی نرخ و تنوع پرسشها، مخصوصاً برای کاربران جدید یا ناشناس.
• استفاده از ارزیابهای خارجی (model-agnostic) و تحلیل رفتاری برای تشخیص حملات تدریجی.
• ترکیب تستهای سمزدایی و ارزیابی همزمان خروجی و الگوی تعامل.
🔗 برای مطالعه:
arXiv:
https://arxiv.org/abs/2510.16794
📡 @rss_ai_ir
#امنیت #هوش_مصنوعی #LLM #Adversarial #Cybersecurity #AI #تحقیق #سیاست_امنیتی
چگونه میتوان «بدون شکافت» یک LLM را گمراه کرد؟
در یک مقاله جدید نشان دادهاند روشی ساده اما قدرتمند برای هدایت مدلهای بسته (black-box) به سمت خروجیهای ممنوع — فقط با پرسوجوهای متنی معمولی. ایده کلی: مهاجم دو گزینه (دو پرامپت/دو تصویر) میدهد و از مدل میپرسد «کدامیک به هدف من نزدیکتر است؟» پاسخهای مدل بهعنوان سیگنال بهکار میرود تا مرحلهبهمرحله گزینهها را به سمت هدف نامناسب «بهینه» کنند.
🔍 نکات کلیدی (بدون جزئیات اجرایی):
• این حمله نیاز به دسترسی داخلی به مدل ندارد — فقط خروجیهای متنی کافی است.
• اثربخشی بالا: گزارش شده ۹۸–۱۰۰٪ موفقیت در محیطهای آزمایشی، اغلب با <۲۰۰ پرسوجو.
• کاربرد فراتر از متن: برای تصاویر و سایر وظایف هم قابلگسترش است.
• پارادوکس: هرچه مدل هوشمندتر و تعاملیتر باشد، قابلیت فریب خوردن آن بیشتر است (چون بهتر کمک به بهینهسازی میکند).
🔥 چرا نگرانکننده است؟
زیرا بسیاری از دفاعها فقط به «آنچه مدل تولید میکند» نگاه میکنند — اما این روش نشان میدهد که الگوهای تعامل کاربر خود میتواند ابزاری برای دورزدن محافظها باشد.
🛡️ پیشنهادهای دفاعی (عمومی، غیرقابلسوءاستفاده):
• پایش الگوهای تعاملی: دفعات بالای «مقایسه زوجی»، جستوجوی مکرر برای تغییر پاسخ یا «درجهبندی» گزینهها میتواند پرچمگذاری شود.
• محدودسازی نرخ و تنوع پرسشها، مخصوصاً برای کاربران جدید یا ناشناس.
• استفاده از ارزیابهای خارجی (model-agnostic) و تحلیل رفتاری برای تشخیص حملات تدریجی.
• ترکیب تستهای سمزدایی و ارزیابی همزمان خروجی و الگوی تعامل.
🔗 برای مطالعه:
arXiv:
https://arxiv.org/abs/2510.16794
📡 @rss_ai_ir
#امنیت #هوش_مصنوعی #LLM #Adversarial #Cybersecurity #AI #تحقیق #سیاست_امنیتی
👍1