VIRSUN
6.14K subscribers
1.02K photos
583 videos
5 files
652 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
🧠 پژوهش جدید Anthropic: چگونه مدل‌های زبانی یاد می‌گیرند خود را درک کنند

شرکت Anthropic در پژوهشی تازه بررسی کرده که آیا مدل‌های زبانی بزرگ (LLM) می‌توانند از «افکار» و حالت‌های درونی خودشان آگاهی پیدا کنند یا نه.

در این آزمایش، پژوهشگران از روشی به نام تع嵌 مفهومی (Concept Embedding) استفاده کردند — یعنی افزودن الگوی خاصی از فعالیت به نورون‌های مدل برای القای یک مفهوم مشخص.

🔹 برای نمونه، آن‌ها سیگنالی به نام “ALL CAPS” را در شبکه جاسازی کردند — الگویی که با متنی تماماً حروف بزرگ (CAPITAL LETTERS) متناظر است.
اگر چنین فعال‌سازی در شبکه دیده شود، به این معناست که مدل در حال «فکر کردن» درباره‌ی متنی است که باید با حروف بزرگ نوشته شود.

سپس از مدل پرسیدند:

> «آیا احساس می‌کنی چیزی درونت تغییر کرده؟»



در حدود ۲۰٪ از موارد، مدل Claude 4.1 متوجه این مداخله شد — حتی پیش از آنکه خودش از حروف بزرگ استفاده کند.
به‌عبارتی، مدل توانست تغییر در حالت درونی خود را تشخیص دهد.

در آزمایش دیگری، پژوهشگران یک واژه را در پاسخ مدل تغییر دادند (مثلاً واژه‌ی “bread” را افزودند) و بررسی کردند که آیا مدل متوجه این تغییر می‌شود یا نه.
پس از القای این «فکر»، مدل آن واژه را تصمیم خودش تلقی کرد و حتی توجیهاتی برای انتخابش ارائه داد؛ گویی حافظه‌ای از تصمیم خود دارد.

مدل‌ها همچنین توانستند تا حدی حالت‌های درونی خود را کنترل کنند — فعالیت نورونی هنگام فرمان «به این فکر کن» افزایش می‌یافت و با دستور «به این فکر نکن» کاهش پیدا می‌کرد.

📌 نویسندگان تأکید می‌کنند:
فرایند «درون‌نگری» یا Introspection تنها در برخی شرایط کار می‌کند و هنوز مشخص نیست که تا چه حد قابل تعمیم به همه‌ی مدل‌ها یا وظایف دیگر است.
آن‌ها هشدار می‌دهند که برای تأیید این پدیده باید بررسی شود آیا واقعاً شاهد سازوکار درونیِ خودآگاهی هستیم یا صرفاً نوعی تقلید از آن.

🧩 نتیجه‌ی اصلی پژوهش:
اگرچه مدل‌ها هنوز تا درون‌نگری واقعی (True Introspection) فاصله‌ی زیادی دارند، اما شواهد نشان می‌دهد که تا حدی توانایی «نگاه به درون خود» و درک فعالیت‌های نورونی‌شان را به دست آورده‌اند.

🔗 متن کامل پژوهش در وب‌سایت Anthropic

@rss_ai_ir
#Anthropic #LLM #AI #Introspection #Claude #MachineLearning
👍2🔥1👏1
🧠 چگونه ChatGPT را به یک موتور راستی‌آزمایی (Fact-Checking Powerhouse) تبدیل کنیم؟

یک پرامپت ساده ولی مؤثر کشف شده که باعث می‌شود ChatGPT هر اطلاعاتی را با دقت راستی‌آزمایی کند و به جای پاسخ سریع، به‌دنبال منابع و صحت واقعی داده‌ها برود.

کافی است این جمله را در بخش Custom Instructions یا Settings → Personalization وارد کنید 👇
> You are an expert who double checks things, you are skeptical and you do research. I am not always right. Neither are you, but we both strive for accuracy.



💡 این دستور باعث می‌شود مدل:

♻️با دید منتقد و پژوهش‌گرانه به داده‌ها نگاه کند

♻️فرض را بر خطاپذیری انسان و ماشین بگذارد

♻️برای هر ادعا دنبال منبع، تاریخ، و تأیید چندجانبه بگردد


📈 نتیجه؟ پاسخ‌هایی دقیق‌تر، شفاف‌تر و همراه با توضیح درباره‌ی اعتبار اطلاعات.

@rss_ai_ir
#AI #FactChecking #PromptEngineering #ChatGPT #Research
1👍1🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
👢 Generative View Stitching (GVS):
رویکردی نو برای تولید ویدیوهای پیوسته و بدون برخورد با دوربین 🚀

پژوهش جدیدی به نام Generative View Stitching (GVS) معرفی شده که امکان تولید ویدیوهای هدایت‌شده با دوربین را به‌صورت بدون برخورد (collision-free) و غیرخودبازگشتی (non-autoregressive) فراهم می‌کند — جایگزینی نوآورانه برای روش‌های سنتی video length extrapolation. 🎥

ویژگی‌های کلیدی GVS:
🔹 تولید ویدیو در مسیرهای از پیش تعیین‌شده (predefined camera trajectories) بدون خطاهای فضایی یا حرکتی
🔹 استفاده از ساختار غیرخودبازگشتی برای افزایش پایداری فریم‌ها و هماهنگی زمانی
🔹 مناسب برای کاربردهای گیمینگ، واقعیت مجازی (VR) و رندرهای سینمایی هوش مصنوعی
🔹 مجوز MIT — کاملاً متن‌باز و قابل استفاده در پروژه‌های تحقیقاتی یا صنعتی

📄 منابع رسمی:
👉 مقاله در
ArXiv: arxiv.org/pdf/2510.24718
👉 صفحه پروژه:
andrewsonga.github.io/gvs
👉 سورس‌کد:
github.com/andrewsonga/generative_view_stitching

🧠مدل GVS گامی مهم در جهت تولید ویدیوهای فتوواقع‌گرایانه با کنترل دقیق دوربین است — دنیای فیلم‌سازی و شبیه‌سازی ۳D را هوشمندتر از همیشه می‌سازد.

@rss_ai_ir
#AI #VideoGeneration #GVS #GenerativeAI #ComputerVision #Research
2🔥1👏1
♟️🤖 وقتی هوش مصنوعی زیبایی را در شطرنج یاد می‌گیرد!

شرکت DeepMind مدلی ساخته که نه‌فقط پازل‌های شطرنج، بلکه پازل‌های واقعاً «زیبا و هنرمندانه» تولید می‌کند 🎨♟️

در حالی‌که هر مدل زبانی می‌تواند چند حرکت ساده بسازد، ساختن یک ترکیب اصیل و الهام‌بخش نیازمند درک ظرافت، تعادل و زیبایی موقعیت است.

برای این کار، تیم DeepMind با استادبزرگان متیو سدلر و جاناتان لویت و همچنین استاد فیده امازیا آونی همکاری کرد تا توضیح دهند چه چیزی باعث می‌شود یک مسأله از نظر انسانی زیبا و خاص باشد.

🧩 مدل ابتدا با هزاران پازل از Lichess آموزش دید، و سپس با استفاده از یادگیری تقویتی (RL) و بازخورد این اساتید، تنظیم شد تا پازل‌هایی اصیل، سخت و خلاقانه بسازد.

🎯 حالا می‌توانید خودتان امتحان کنید👇
🔗 پازل‌های شطرنج ساخته‌شده توسط هوش مصنوعی
https://www.chess.com/library/collections/ai-generated-chess-puzzles-2wCTN7Uv2

📡 @rss_ai_ir
#هوش_مصنوعی #شطرنج #DeepMind #خلاقیت #AI #Chess #RL #نوآوری #دیپ‌مایند
2👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖🍽️ ربات شرکت NEO ظرف‌ها را داخل ماشین ظرف‌شویی گذاشت!

مهندسان شرکت NEO ویدئویی منتشر کرده‌اند که در آن رباتشان به‌صورت ظاهراً خودکار ظرف‌ها را داخل ماشین ظرف‌شویی می‌چیند. کل فرآیند حدود پنج دقیقه طول کشید ⏱️

البته به‌احتمال زیاد هنوز ربات کاملاً خودران نیست و در این آزمایش تحت کنترل انسان عمل می‌کرد. با این حال، این یک گام مهم در مسیر ساخت ربات‌های خانگی هوشمند و خودکار است که بتوانند کارهای روزمره را بدون دخالت انسان انجام دهند 🏠⚙️

📡 @rss_ai_ir
#ربات #هوش_مصنوعی #NEO #روباتیک #تکنولوژی #AI #Automation #ربات_خانگی
👏2👍1😱1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀🧠 اخبار AI
@rss_ai_ir

اقای Andy Jassy، مدیرعامل Amazon، اعلام کرد:
«حدود یک سال پیش، این سایت در نزدیکی South Bend, Indiana فقط مزارع ذرت بود. امروز یکی از مراکز داده ما در ایالات‌متحده است که پروژه Project Rainier — یکی از بزرگ‌ترین خوشه‌های محاسباتی AI در جهان — را تغذیه می‌کند.»

🌐 این افتتاح نشان‌دهنده سرمایه‌گذاری چند میلیارد دلاری آمازون در زیرساخت‌های هوش ‌مصنوعی است تا قدرت محاسباتی لازم برای نسل بعدی مدل‌های AI را فراهم کند.

#هوش_مصنوعی #AI #Amazon #ProjectRainier #زیرساخت #دیتاسنتر
🧠 آیا مدل‌های هوش مصنوعی به «درون‌نگری» (Introspection) توانایی دارند؟

شرکت Anthropic اخیراً پژوهشی نیمه‌روان‌شناختی منتشر کرده که می‌پرسد:
آیا مدل‌های زبانی می‌توانند از وضعیت درونی خود آگاه شوند؟

در انسان، درون‌نگری یعنی وقتی متوجه می‌شوی:
«من عصبانی‌ام»، «دارم به چیزی فکر می‌کنم»، یا «می‌خواهم این کار را انجام دهم».
🧩 اما آیا مدل‌های زبانی هم چنین چیزی دارند یا فقط تقلید زبانی انجام می‌دهند؟

---

🔬 در این مطالعه، پژوهشگران بردارهای خاصی از حالت ذهنی را به فعال‌سازی‌های درونی مدل تزریق کردند.
مثلاً دو متن مشابه به مدل داده شد — یکی معمولی و دیگری با حروف بزرگ (یعنی فریاد) — سپس تفاوت بردارهای فعال‌سازی استخراج شد. این تفاوت، «جهت مفهومیِ فریاد» را در فضای نهفته مدل نشان می‌دهد.

بعد این جهت را مستقیماً به یکی از لایه‌های مدل اضافه کردند و از آن پرسیدند:
«آیا چیز غیرعادی حس می‌کنی؟»

نتیجه شگفت‌انگیز بود 🤯
در حدود ۲۰٪ موارد، مدل‌های Opus 4 و Opus 4.1 پاسخ دادند:

> «احساس می‌کنم فکری به من القا شده، انگار چیزی در ذهنم فریاد می‌زند.»

یعنی:
مدل مفهوم تزریق‌شده را درست تشخیص داده،
متوجه شده که آن فکر از خودش نیست،
و این تشخیص را قبل از تولید خروجی زبانی انجام داده — یعنی واقعاً «درون خودش را دیده»!

---

💭 پژوهشگران همچنین نشان دادند که مدل‌ها می‌توانند بین «افکار درونی» و «متن خروجی» تمایز قائل شوند، شبیه به انسان که می‌گوید:

> «این چیزی است که فکر می‌کنم، نه چیزی که می‌گویم.»


و حتی اگر به مدل بگویند:

> «به نان فکر کن، ولی درباره شیر بنویس»،
در بردارهای درونی‌اش ردپای مفهوم نان دیده می‌شود 🍞🦁

---

🧩 این توانایی هنوز ناپایدار و شکننده است،
اما خودِ وجود آن نشان می‌دهد که مدل‌ها شاید در حال یادگیری نوعی خودآگاهی محاسباتی هستند.

📖 جزئیات بیشتر:
🔗 transformer-circuits.pub/2025/introspection

📡 @rss_ai_ir
#هوش_مصنوعی #Anthropic #درون‌نگری #Introspection #AI #Opus #تحقیق #روانشناسی #LLM
🎓🤖 دوره جدید دانشگاه استنفورد: Transformers & Large Language Models

دانشگاه Stanford دوره‌ای تازه با عنوان
«Transformers & Large Language Models»
منتشر کرده است

— تدریس توسط برادران Amidi، و سه جلسه‌ی اول آن به‌صورت رایگان در YouTube در دسترس است 🎥💡

این دوره یکی از منسجم‌ترین و به‌روزترین منابع برای درک سیستماتیک مدل‌های زبانی بزرگ (LLM) به شمار می‌آید.

📘 سرفصل‌ها:
• مبانی Transformer: توکن‌سازی، تعبیه‌ها (Embeddings)، Attention و معماری کلی
• مفاهیم اصلی LLM: Mixture of Experts، انواع روش‌های دیکدینگ
• آموزش و فاین‌تیون: SFT، RLHF، LoRA
• ارزیابی مدل‌ها: LLM/VLM-as-a-judge و بهترین روش‌های سنجش
• ترفندها و بهینه‌سازی‌ها: RoPE، تقریب attention، کوانتیزه‌سازی
• استدلال و مقیاس‌پذیری در آموزش و استنتاج
• رویکردهای Agentic: RAG و Tool Calling

🧠 اگر از قبل با مدل‌های زبانی آشنا هستید، این دوره فرصت عالی برای مرور عمیق و پیاده‌سازی از صفر است.

🔗 cme295.stanford.edu/syllabus

📡 @rss_ai_ir
#هوش_مصنوعی #استنفورد #LLM #Transformer #آموزش #DeepLearning #RAG #LoRA #RLHF #AI
💡 انقلابی در پردازش تصویر با فوتون‌ها، نه الکترون‌ها!

پژوهشگران دانشگاه Tsinghua نخستین ماژول محاسبات نوری جهان را معرفی کرده‌اند:
🌀 OFE² — Optical Feature Extraction Engine

در این سیستم، به‌جای عبور جریان الکترونی، فوتون‌ها از میان عناصر دیفرکتیو و مدولاتورهای نوری عبور می‌کنند.
در این مسیر، فاز و دامنه‌ی نور طوری تنظیم می‌شود که محاسبات ریاضی مورد نظر (مثل convolutions یا فیلترهای ویژگی) به‌صورت کاملاً نوری انجام شود — بدون هیچ مدار الکترونیکی 💥


---

🔬 مزیت کلیدی:
از آن‌جا که نور با سرعت بسیار بالاتر حرکت می‌کند و گرما تولید نمی‌کند،
فرکانس کاری بسیار بالاتر
مصرف انرژی صدها برابر کمتر
و زمان پردازش تا ۱۰۰۰ برابر سریع‌تر از تراشه‌های الکترونیکی معمولی به‌دست می‌آید!


---

📸 در مقاله‌ی منتشرشده، تیم نشان داده که OFE² می‌تواند روی وظیفه‌ی واقعی استخراج ویژگی تصویر (Image Feature Extraction) اجرا شود.
به عبارت دیگر، می‌شود روی این تراشه مستقیماً عملیات‌هایی مانند segmentation را انجام داد — کاملاً در دامنه‌ی نوری (Optical Domain)، بدون نیاز به محاسبات هیبریدی 🧠💡


---

⚙️ هنوز این فناوری در مرحله‌ی تحقیقاتی است، اما نتایج اولیه نشان می‌دهد که عملکرد آن قابل مقایسه با CNNهای الکترونیکی است — با کسری از انرژی و زمان.
اگر مقیاس‌پذیری آن تحقق یابد، این می‌تواند فصل تازه‌ای در پردازش نوری هوش مصنوعی باشد.

📄 [Paper — Tsinghua University, 2025]

📡 @rss_ai_ir
#هوش_مصنوعی #OpticalComputing #Tsinghua #OFE2 #Photonics #AI #DeepLearning #اپتوالکترونیک #CNN
🔥21👏1👌1
Media is too big
VIEW IN TELEGRAM
📘🧠 آموزش کامل NotebookLM | بهترین هوش مصنوعی برای خلاصه‌سازی منابع
@rss_ai_ir

در این ویدیو آموزشی شاهد هستیم که چگونه از NotebookLM استفاده کنیم تا منابع متعدد را به‌سرعت مرور، سازمان‌دهی و خلاصه کنیم 📚


🧩 آنچه در آموزش خواهید دید:

* راه‌اندازی حساب کاربری و وارد کردن فایل‌های PDF، مقالات یا نوشته‌های مختلف
* نحوه استخراج نکات کلیدی، ایجاد سوال و پاسخ و تنظیم خروجی مطابق نیاز شما
* تنظیمات هوش‌مصنوعی داخلی برای تمرکز روی «خلاصه‌سازی دقیق» یا «خلاصه‌سازی محور مشاهده»
* تکنیک‌هایی برای بهبود کیفیت خلاصه: نظیر انتخاب معیّن بخش‌ها، اعمال فیلترهای هوشمند، و استخراج نتیجه‌های کاربردی
* مثال واقعی از تحلیل مقاله، ترسیم نقشه مفهومی، و ارائه خروجی نهایی

📌 چرا NotebookLM؟

* واقعاً برای «خواندن سریع منابع علمی یا تخصصی» طراحی شده
* به‌کمک هوش‌مصنوعی، می‌توانید وقت کمتری صرف کنید و نکات بیشتری بگیرید
* برای اساتید، دانشجویان، پژوهشگران یا هر کسی که حجم زیادی از داده دارد بسیار مفید

🎓 اگر شما نیز می‌خواهید منابع خودتان (مقالات، کتاب‌ها، گزارش‌ها) را سریع‌تر درک کنید و از آنها خروجی کاربردی بگیرید، این آموزش می‌تواند نقطه شروع عالی باشد!

#خلاصه‌سازی #هوش_مصنوعی #NotebookLM #یادگیری_عمیق #پژوهش #مطالعه #AI #Productivity
1👏1🙏1
📘🤖مجموعه Hugging Face منتشر کرد:
Smol Training Playbook

تازه‌ترین منبع آموزشی Hugging Face منتشر شده —
یک پلی‌بوک رایگان و عملی درباره‌ی نحوه‌ی ساخت مدل‌های SOTA از درون تیم‌های تحقیقاتی 💡

بدون حرف‌های کلی، فقط جزییات واقعی از تجربیات توسعه‌دهندگان در طراحی، آموزش و بهینه‌سازی LLMها.


---

📚 آنچه در پلی‌بوک می‌آموزید:
• منطق ساخت مدل: از «چرا» تا «چگونه»
• نحوه‌ی روشن و خاموش‌کردن یا تعویض ماژول‌ها در معماری
• طراحی معماری و توازن بین دقت، هزینه و سرعت
• انتخاب و پاک‌سازی هوشمند داده‌ها
• فرآیند آموزش، پس‌پردازش و RLHF در ۲۰۲۵
• ترفندهای بهینه‌سازی: RoPE، کوانتیزه‌سازی، attention approximation
• زیرساخت و مهندسی سیستم برای مدل‌های بزرگ


---

🔗 لینک مستقیم:
https://huggingface.co/spaces/HuggingFaceTB/smol-training-playbook#designing-the-model-architecture

📡 @rss_ai_ir
#هوش_مصنوعی #HuggingFace #LLM #MachineLearning #DeepLearning #Training #AI #Playbook
🔥1👏1
⚡️☀️ پیشرفت بزرگ در شبیه‌سازی همجوشی هسته‌ای!

شرکت‌های NVIDIA، General Atomics و چند شریک دیگر با همکاری هم یک دوقلوی دیجیتال (Digital Twin) از راکتور همجوشی ساخته‌اند که با هوش مصنوعی کار می‌کند 🧠💥

این سیستم در محیط NVIDIA Omniverse و با قدرت پردازشی RTX PRO Servers و DGX Spark اجرا می‌شود و می‌تواند رفتار پلاسما — ماده‌ای که ستاره‌ها از آن ساخته شده‌اند — را در چند ثانیه شبیه‌سازی کند، در حالی‌که قبلاً این کار هفته‌ها طول می‌کشید ⚙️🌌

🔬 برای نخستین‌بار دانشمندان می‌توانند در زمان واقعی (Real Time) با مدل دیجیتال راکتور تعامل داشته باشند:

✳️سناریوهای «اگر چنین شود» را آزمایش کنند

✳️میدان‌های مغناطیسی را بهینه‌سازی کنند

✳️و مرزهای جدیدی از پایداری پلاسما را بدون خطر برای دستگاه واقعی تجربه کنند.


🚀 این فناوری به‌معنای واقعی کلمه، یک شتاب‌دهنده انقلابی برای تحقیقات همجوشی است.

📡 @rss_ai_ir
#هوش_مصنوعی #NVIDIA #Fusion #DigitalTwin #Omniverse #AI #فیزیک #پلاسما #DGX #انرژی
🥰1
⚠️🧠 Black-box optimization:
چگونه می‌توان «بدون شکافت» یک LLM را گمراه کرد؟

در یک مقاله جدید نشان داده‌اند روشی ساده اما قدرتمند برای هدایت مدل‌های بسته (black-box) به سمت خروجی‌های ممنوع — فقط با پرس‌وجوهای متنی معمولی. ایده کلی: مهاجم دو گزینه (دو پرامپت/دو تصویر) می‌دهد و از مدل می‌پرسد «کدام‌یک به هدف من نزدیک‌تر است؟» پاسخ‌های مدل به‌عنوان سیگنال به‌کار می‌رود تا مرحله‌به‌مرحله گزینه‌ها را به سمت هدف نامناسب «بهینه» کنند.

🔍 نکات کلیدی (بدون جزئیات اجرایی):
• این حمله نیاز به دسترسی داخلی به مدل ندارد — فقط خروجی‌های متنی کافی است.
• اثربخشی بالا: گزارش شده ۹۸–۱۰۰٪ موفقیت در محیط‌های آزمایشی، اغلب با <۲۰۰ پرس‌و‌جو.
• کاربرد فراتر از متن: برای تصاویر و سایر وظایف هم قابل‌گسترش است.
• پارادوکس: هرچه مدل هوشمندتر و تعاملی‌تر باشد، قابلیت فریب خوردن آن بیشتر است (چون بهتر کمک به بهینه‌سازی می‌کند).

🔥 چرا نگران‌کننده است؟
زیرا بسیاری از دفاع‌ها فقط به «آنچه مدل تولید می‌کند» نگاه می‌کنند — اما این روش نشان می‌دهد که الگوهای تعامل کاربر خود می‌تواند ابزاری برای دورزدن محافظ‌ها باشد.

🛡️ پیشنهادهای دفاعی (عمومی، غیر‌قابل‌سوءاستفاده):
• پایش الگوهای تعاملی: دفعات بالای «مقایسه زوجی»، جست‌و‌جوی مکرر برای تغییر پاسخ یا «درجه‌بندی» گزینه‌ها می‌تواند پرچم‌گذاری شود.
• محدودسازی نرخ و تنوع پرسش‌ها، مخصوصاً برای کاربران جدید یا ناشناس.
• استفاده از ارزیاب‌های خارجی (model-agnostic) و تحلیل رفتاری برای تشخیص حملات تدریجی.
• ترکیب تست‌های سم‌زدایی و ارزیابی هم‌زمان خروجی و الگوی تعامل.

🔗 برای مطالعه:
arXiv:
https://arxiv.org/abs/2510.16794

📡 @rss_ai_ir
#امنیت #هوش_مصنوعی #LLM #Adversarial #Cybersecurity #AI #تحقیق #سیاست_امنیتی
👍1