This media is not supported in your browser
VIEW IN TELEGRAM
🧠 دستگاه AlterEgo از MIT؛ صحبت بدون صدا
استارتاپ AlterEgo (زیرمجموعه MIT) دستگاهی معرفی کرده که سیگنالهای عصبی ارسالشده به اندامهای گفتاری را دریافت کرده و آنها را به متن یا فرمان تبدیل میکند — بدون اینکه کاربر حتی یک کلمهی شنیدنی بگوید.
🔹 توانایی شناسایی صحبتهای درونی و ترجمهی آنها در لحظه
🔹 تایپ با سرعت فکر، کنترل اپلیکیشنها بدون دست و حتی برقراری مکالمات بیصدا
🔹 هنوز تاریخ عرضه و قیمت مشخص نشده است
اگر این فناوری در مقیاس وسیع جواب بدهد، مرز میان فکر کردن و ارتباط برقرار کردن عملاً محو خواهد شد. 🚀
@rss_ai_ir
#هوش_مصنوعی #MIT #ارتباط #بیصدا #NeuroTech #BrainComputerInterface
استارتاپ AlterEgo (زیرمجموعه MIT) دستگاهی معرفی کرده که سیگنالهای عصبی ارسالشده به اندامهای گفتاری را دریافت کرده و آنها را به متن یا فرمان تبدیل میکند — بدون اینکه کاربر حتی یک کلمهی شنیدنی بگوید.
🔹 توانایی شناسایی صحبتهای درونی و ترجمهی آنها در لحظه
🔹 تایپ با سرعت فکر، کنترل اپلیکیشنها بدون دست و حتی برقراری مکالمات بیصدا
🔹 هنوز تاریخ عرضه و قیمت مشخص نشده است
اگر این فناوری در مقیاس وسیع جواب بدهد، مرز میان فکر کردن و ارتباط برقرار کردن عملاً محو خواهد شد. 🚀
@rss_ai_ir
#هوش_مصنوعی #MIT #ارتباط #بیصدا #NeuroTech #BrainComputerInterface
❤1👍1🔥1👏1
📊 صرفهجویی در آموزش مدلهای زبانی بزرگ (LLM) با روش MIT
✅پژوهشگران MIT و MIT-IBM Watson AI Lab راهنمایی منتشر کردهاند که نشان میدهد چگونه میتوان با طراحی درست قوانین مقیاسگذاری (Scaling Laws)، هزینه و زمان آموزش LLM را بهطور چشمگیری کاهش داد.
🔍 یافتههای کلیدی:
♻️کافی است تنها ۵ مدل با اندازههای مختلف آموزش داده شوند تا بتوان دقت مدل بزرگ را پیشبینی کرد.
♻️۱۰ میلیارد توکن اول معمولاً دادههای پر سر و صدایی دارند و ارزش چندانی در آموزش ندارند — میتوان از آنها صرفنظر کرد.
♻️میتوان یک مدل بزرگ را فقط با ۳۰٪ دادهها آموزش داد و بر اساس منحنی بهدستآمده، نتیجهی نهایی را تخمین زد.
✨ مزایا:
✳️کاهش چشمگیر هزینههای تست و آزمایش
✳️امکان پیشبینی دقیق نتایج بدون صرف میلیونها دلار برای آموزش کامل
✳️سرعتبخشی به فرآیند توسعه و تحقیق روی مدلهای زبانی بزرگ
📎 جزییات بیشتر:
👉 MIT News
@rss_ai_ir
#هوش_مصنوعی #LLM #یادگیری_ماشین #پژوهش #MIT #Scaling_Laws
✅پژوهشگران MIT و MIT-IBM Watson AI Lab راهنمایی منتشر کردهاند که نشان میدهد چگونه میتوان با طراحی درست قوانین مقیاسگذاری (Scaling Laws)، هزینه و زمان آموزش LLM را بهطور چشمگیری کاهش داد.
🔍 یافتههای کلیدی:
♻️کافی است تنها ۵ مدل با اندازههای مختلف آموزش داده شوند تا بتوان دقت مدل بزرگ را پیشبینی کرد.
♻️۱۰ میلیارد توکن اول معمولاً دادههای پر سر و صدایی دارند و ارزش چندانی در آموزش ندارند — میتوان از آنها صرفنظر کرد.
♻️میتوان یک مدل بزرگ را فقط با ۳۰٪ دادهها آموزش داد و بر اساس منحنی بهدستآمده، نتیجهی نهایی را تخمین زد.
✨ مزایا:
✳️کاهش چشمگیر هزینههای تست و آزمایش
✳️امکان پیشبینی دقیق نتایج بدون صرف میلیونها دلار برای آموزش کامل
✳️سرعتبخشی به فرآیند توسعه و تحقیق روی مدلهای زبانی بزرگ
📎 جزییات بیشتر:
👉 MIT News
@rss_ai_ir
#هوش_مصنوعی #LLM #یادگیری_ماشین #پژوهش #MIT #Scaling_Laws
😁8❤6👍6👏6🔥5🥰4🎉3
🧠 محققان MIT نشان دادند: LLMها میتوانند منطقاً استدلال کنند اگر درست آموزش داده شوند
📄 آنها روش جدیدی به نام PDDL-INSTRUCT معرفی کردهاند که فرآیند یادگیری مدل را از حالت «حدس جواب» به حل مرحلهبهمرحله با بررسی بیرونی تبدیل میکند.
🔹 چطور کار میکند؟
1️⃣ ابتدا مدل هم برنامههای درست و هم اشتباه را با توضیحات میبیند.
2️⃣ سپس خودش استدلال هر مرحله را مینویسد. در این مرحله ابزار بیرونی (VAL) منطق را بررسی میکند. اگر خطا باشد، مدل توضیح دقیق خطا را دریافت میکند.
📊 نتایج:
دقت مدل Llama-3-8B در مسائل برنامهریزی از ۲۸٪ → ۹۴٪ جهش کرد.
بازخورد دقیق مرحلهبهمرحله بسیار مؤثرتر از برچسب ساده «درست/غلط» عمل کرد.
💡 نکته کلیدی: مدل جایگزین برنامهریز نمادین نمیشود، بلکه یاد میگیرد مثل او فکر کند و همچنان از بررسی بیرونی استفاده کند.
⚡️ این روش میتواند به هر مسأله چندمرحلهای (ریاضی، برنامهنویسی و …) تعمیم داده شود. شاید بسیاری از تواناییهای «پنهان» مدلها فقط منتظر روش درست آموزش باشند.
🟠 متن کامل مقاله:
arxiv.org/abs/2509.13351
@rss_ai_ir
#هوش_مصنوعی #یادگیری_عمیق #LLM #منطق #MIT
📄 آنها روش جدیدی به نام PDDL-INSTRUCT معرفی کردهاند که فرآیند یادگیری مدل را از حالت «حدس جواب» به حل مرحلهبهمرحله با بررسی بیرونی تبدیل میکند.
🔹 چطور کار میکند؟
1️⃣ ابتدا مدل هم برنامههای درست و هم اشتباه را با توضیحات میبیند.
2️⃣ سپس خودش استدلال هر مرحله را مینویسد. در این مرحله ابزار بیرونی (VAL) منطق را بررسی میکند. اگر خطا باشد، مدل توضیح دقیق خطا را دریافت میکند.
📊 نتایج:
دقت مدل Llama-3-8B در مسائل برنامهریزی از ۲۸٪ → ۹۴٪ جهش کرد.
بازخورد دقیق مرحلهبهمرحله بسیار مؤثرتر از برچسب ساده «درست/غلط» عمل کرد.
💡 نکته کلیدی: مدل جایگزین برنامهریز نمادین نمیشود، بلکه یاد میگیرد مثل او فکر کند و همچنان از بررسی بیرونی استفاده کند.
⚡️ این روش میتواند به هر مسأله چندمرحلهای (ریاضی، برنامهنویسی و …) تعمیم داده شود. شاید بسیاری از تواناییهای «پنهان» مدلها فقط منتظر روش درست آموزش باشند.
🟠 متن کامل مقاله:
arxiv.org/abs/2509.13351
@rss_ai_ir
#هوش_مصنوعی #یادگیری_عمیق #LLM #منطق #MIT
👍1
⚡️ ترانزیستور مغناطیسی MIT: الکترونیک آینده
محققان MIT نوع جدیدی از ترانزیستور را معرفی کردهاند — ترانزیستور مغناطیسی.
در حالیکه ترانزیستورهای معمولی فقط با جریان الکتریکی کار میکنند، در اینجا کنترل مغناطیسی هم اضافه شده است.
🔹 مزایا:
✅میتواند همزمان نقش کلید و حافظه را ایفا کند
✅سرعت بالاتر و مصرف انرژی کمتر
✅امکان کوچکتر کردن ابعاد مدارها
🔹 چرا مهم است؟
امروز در کامپیوترها منطق و حافظه جدا هستند: پردازنده محاسبه میکند، حافظه ذخیره.
این رویکرد جدید این دو عملکرد را در یک عنصر ادغام میکند، که میتواند مدارها را سادهتر و سرعت پردازش را بیشتر کند.
🔹 چالشها:
باید راهی برای تولید انبوه چنین ترانزیستورهایی پیدا شود
فعلاً برای سوییچ کردن نیاز به میدان مغناطیسی است، اما هدف این است که با جریان الکتریکی انجام شود
🔹 چشمانداز:
اگر این فناوری موفق شود، شاهد تراشههایی قدرتمندتر و کممصرفتر خواهیم بود — چیزی حیاتی برای گوشیهای هوشمند، پوشیدنیها و سیستمهای با منابع محدود.
🟠 جزییات: MIT News
@rss_ai_ir
#MIT #الکترونیک #فناوری #تراشه #هوش_مصنوعی
محققان MIT نوع جدیدی از ترانزیستور را معرفی کردهاند — ترانزیستور مغناطیسی.
در حالیکه ترانزیستورهای معمولی فقط با جریان الکتریکی کار میکنند، در اینجا کنترل مغناطیسی هم اضافه شده است.
🔹 مزایا:
✅میتواند همزمان نقش کلید و حافظه را ایفا کند
✅سرعت بالاتر و مصرف انرژی کمتر
✅امکان کوچکتر کردن ابعاد مدارها
🔹 چرا مهم است؟
امروز در کامپیوترها منطق و حافظه جدا هستند: پردازنده محاسبه میکند، حافظه ذخیره.
این رویکرد جدید این دو عملکرد را در یک عنصر ادغام میکند، که میتواند مدارها را سادهتر و سرعت پردازش را بیشتر کند.
🔹 چالشها:
باید راهی برای تولید انبوه چنین ترانزیستورهایی پیدا شود
فعلاً برای سوییچ کردن نیاز به میدان مغناطیسی است، اما هدف این است که با جریان الکتریکی انجام شود
🔹 چشمانداز:
اگر این فناوری موفق شود، شاهد تراشههایی قدرتمندتر و کممصرفتر خواهیم بود — چیزی حیاتی برای گوشیهای هوشمند، پوشیدنیها و سیستمهای با منابع محدود.
🟠 جزییات: MIT News
@rss_ai_ir
#MIT #الکترونیک #فناوری #تراشه #هوش_مصنوعی
🔬 دانشمندان MIT ابزار جدیدی به نام SCIGEN معرفی کردند – سیستمی که به مدلهای مولد یاد میدهد به جای «تصاویر زیبا»، مواد واقعی و کاربردی تولید کنند.
✨ مشکل قدیمی: مدلهای هوش مصنوعی معمولاً ساختارهایی شبیه به نمونههای شناختهشده تولید میکنند و بهندرت فراتر میروند.
⚡ راهکار SCIGEN: اعمال محدودیتهای هندسی سختگیرانه روی فرآیند تولید → وادار کردن مدل به جستجوی راهحلهای نو اما پایدار.
🧪 در آزمایشها میلیونها کاندیدا ساخته و بر اساس پایداری و خواص فیلتر شدند. نتیجه شگفتانگیز بود: دو ترکیب ناشناخته (TiPdBi و TiPbSb) واقعاً در آزمایشگاه سنتز شدند و ویژگیهای پیشبینیشده را نشان دادند.
🚀 این یعنی آیندهای که در آن مواد مورد نیاز برای الکترونیک، فناوریهای کوانتومی و انرژی نه با جستجوی سالها، بلکه با طراحی هدفمند توسط هوش مصنوعی پیدا خواهند شد.
🔗 جزئیات: MIT News
@rss_ai_ir
#هوش_مصنوعی #MIT #GenerativeAI #علم_مواد #SCIGEN
✨ مشکل قدیمی: مدلهای هوش مصنوعی معمولاً ساختارهایی شبیه به نمونههای شناختهشده تولید میکنند و بهندرت فراتر میروند.
⚡ راهکار SCIGEN: اعمال محدودیتهای هندسی سختگیرانه روی فرآیند تولید → وادار کردن مدل به جستجوی راهحلهای نو اما پایدار.
🧪 در آزمایشها میلیونها کاندیدا ساخته و بر اساس پایداری و خواص فیلتر شدند. نتیجه شگفتانگیز بود: دو ترکیب ناشناخته (TiPdBi و TiPbSb) واقعاً در آزمایشگاه سنتز شدند و ویژگیهای پیشبینیشده را نشان دادند.
🚀 این یعنی آیندهای که در آن مواد مورد نیاز برای الکترونیک، فناوریهای کوانتومی و انرژی نه با جستجوی سالها، بلکه با طراحی هدفمند توسط هوش مصنوعی پیدا خواهند شد.
🔗 جزئیات: MIT News
@rss_ai_ir
#هوش_مصنوعی #MIT #GenerativeAI #علم_مواد #SCIGEN
🤖 DEXOP —
اسکلت بیرونی غیرفعال برای آموزش دقیق رباتها از MIT و UC 🦾
♻️تیمی از پژوهشگران Improbable AI Lab، MIT و UC از سیستمی نوآورانه به نام DEXOP رونمایی کردند — یک اسکلت بیرونی مچی (wrist exoskeleton) که بهصورت فیزیکی حرکات انسان را به بازوی ربات منتقل میکند.
♻️وقتی اپراتور انگشت خود را خم میکند، ربات نیز همان حرکت را بهصورت آنی و دقیق تکرار میکند. سنسورهای داخلی دستگاه نیز قدرت گرفتن و فشار انگشتان را ثبت میکنند.
🔹 مزیت کلیدی:
دادههای حرکتی و لمسی بدون نویز یا اعوجاج به دست میآیند — بر خلاف جویاستیکها یا شبیهسازها.
در نتیجه، رباتها بسیار سریعتر یاد میگیرند؛ مثلاً زمان لازم برای بستن یک لامپ از ۸۶ ثانیه به ۱۱ ثانیه کاهش یافته است.
⚠️ نکته منفی:
همچنین DEXOP به کالیبراسیون بسیار دقیق نیاز دارد؛ در غیر این صورت دادهها ممکن است دچار انحراف شوند.
بهزودی در همهی ساختمانها و تأسیسات — برای تعویض لامپها در خدمت انسان 😄
https://arxiv.org/pdf/2509.04441
@rss_ai_ir 🤖
#رباتیک #هوش_مصنوعی #MIT #DEXOP #Exoskeleton #RobotLearning #AI
اسکلت بیرونی غیرفعال برای آموزش دقیق رباتها از MIT و UC 🦾
♻️تیمی از پژوهشگران Improbable AI Lab، MIT و UC از سیستمی نوآورانه به نام DEXOP رونمایی کردند — یک اسکلت بیرونی مچی (wrist exoskeleton) که بهصورت فیزیکی حرکات انسان را به بازوی ربات منتقل میکند.
♻️وقتی اپراتور انگشت خود را خم میکند، ربات نیز همان حرکت را بهصورت آنی و دقیق تکرار میکند. سنسورهای داخلی دستگاه نیز قدرت گرفتن و فشار انگشتان را ثبت میکنند.
🔹 مزیت کلیدی:
دادههای حرکتی و لمسی بدون نویز یا اعوجاج به دست میآیند — بر خلاف جویاستیکها یا شبیهسازها.
در نتیجه، رباتها بسیار سریعتر یاد میگیرند؛ مثلاً زمان لازم برای بستن یک لامپ از ۸۶ ثانیه به ۱۱ ثانیه کاهش یافته است.
⚠️ نکته منفی:
همچنین DEXOP به کالیبراسیون بسیار دقیق نیاز دارد؛ در غیر این صورت دادهها ممکن است دچار انحراف شوند.
بهزودی در همهی ساختمانها و تأسیسات — برای تعویض لامپها در خدمت انسان 😄
https://arxiv.org/pdf/2509.04441
@rss_ai_ir 🤖
#رباتیک #هوش_مصنوعی #MIT #DEXOP #Exoskeleton #RobotLearning #AI
⚡️ پیشرفت بزرگ در انرژی همجوشی هستهای!
پژوهشگران MIT موفق به ساخت مدل هیبریدی جدیدی شدهاند که هوش مصنوعی را با قوانین فیزیک ترکیب میکند تا رفتار پلاسما را در راکتورهای همجوشی پیشبینی کند.
🔥 نکتهی کلیدی این پژوهش:
⛔️این مدل میتواند رفتار پلاسما در لحظهی خاموش شدن یا کاهش توان را پیشبینی کند — بحرانیترین مرحلهی کار راکتور که در آن خطر ناپایداری و تخریب بالا است.
⛔️برخلاف مدلهای صرفاً هوش مصنوعی، این مدل با دادههای بسیار کمتر آموزش میبیند اما دقت فوقالعادهای دارد.
⛔️همچنین پژوهشگران الگوریتمی طراحی کردهاند که پیشبینیها را به دستورات کنترلی واقعی برای تنظیم توان میدانهای مغناطیسی و دمای پلاسما تبدیل میکند تا فرآیند خاموشی به شکل ایمن و پایدار انجام شود.
🔗 منبع MIT
@rss_ai_ir
#هوش_مصنوعی #MIT #انرژی_همجوشی #پلاسما #AI #Science
پژوهشگران MIT موفق به ساخت مدل هیبریدی جدیدی شدهاند که هوش مصنوعی را با قوانین فیزیک ترکیب میکند تا رفتار پلاسما را در راکتورهای همجوشی پیشبینی کند.
🔥 نکتهی کلیدی این پژوهش:
⛔️این مدل میتواند رفتار پلاسما در لحظهی خاموش شدن یا کاهش توان را پیشبینی کند — بحرانیترین مرحلهی کار راکتور که در آن خطر ناپایداری و تخریب بالا است.
⛔️برخلاف مدلهای صرفاً هوش مصنوعی، این مدل با دادههای بسیار کمتر آموزش میبیند اما دقت فوقالعادهای دارد.
⛔️همچنین پژوهشگران الگوریتمی طراحی کردهاند که پیشبینیها را به دستورات کنترلی واقعی برای تنظیم توان میدانهای مغناطیسی و دمای پلاسما تبدیل میکند تا فرآیند خاموشی به شکل ایمن و پایدار انجام شود.
🔗 منبع MIT
@rss_ai_ir
#هوش_مصنوعی #MIT #انرژی_همجوشی #پلاسما #AI #Science
❤3
👏 پژوهش فوقالعاده از NVIDIA و MIT
پژوهشگران دو مؤسسه NVIDIA و MIT روش جدیدی برای آموزش مدلهای زبانی بزرگ با یادگیری تقویتی ارائه کردهاند —
این روش با نام QeRL (Quantization-enhanced Reinforcement Learning) شناخته میشود.
💡 ایده اصلی:
استفاده از وزنهای ۴ بیتی و نویز تطبیقی (adaptive noise) در طول آموزش با یادگیری تقویتی،
که باعث میشود مدلها سریعتر و کمهزینهتر یاد بگیرند.
📈 نتیجه:
تا ۱.۵ برابر افزایش سرعت rolloutها
و امکان آموزش کامل یک مدل ۳۲ میلیارد پارامتری روی تنها یک کارت H100 (80GB)!
📘 توضیح کوتاه:
در یادگیری تقویتی، rollout یعنی اجرای کامل یک اپیزود — از شروع تا پایان — برای ارزیابی عملکرد مدل و تخصیص پاداش.
این مرحله معمولاً کند و پرمصرف است.
🔧 نوآوری QeRL:
♻️استفاده از وزنهای NVFP4 با کمک Marlin
♻️نگهداری LoRA فقط برای گرادیانها (صرفهجویی در حافظه)
♻️استفاده از یک نسخهی ۴ بیتی از سیاست (policy) برای هر دو مرحلهی rollout و scoring — بدون تکرار حافظه
🧠 مزیت کلیدی:
افزودن نویز تطبیقی به وزنهای کوانتیزهشده باعث افزایش تنوع (entropy) در خروجیها میشود —
مدل بهتر فضای پاسخ را کاوش میکند.
با کاهش تدریجی نویز، پایداری حفظ میشود و همه چیز با RMSNorm ادغام میگردد — بدون اضافه شدن پارامتر جدید.
📊 نتایج آزمایشی:
پاداشها سریعتر رشد میکنند
دقت برابر یا بالاتر از مدلهای LoRA و QLoRA با دقت ۱۶ بیت
⚡ خلاصه:
سریعتر، کمهزینهتر و بهینهتر از روشهای قبلی.
اکنون میتوان مدلهای بزرگ را واقعاً روی تنها یک GPU آموزش داد.
📄 متن کامل مقاله
#NVIDIA #MIT #QeRL #ReinforcementLearning #LLM #Quantization #AIResearch #MachineLearning #DeepLearning
پژوهشگران دو مؤسسه NVIDIA و MIT روش جدیدی برای آموزش مدلهای زبانی بزرگ با یادگیری تقویتی ارائه کردهاند —
این روش با نام QeRL (Quantization-enhanced Reinforcement Learning) شناخته میشود.
💡 ایده اصلی:
استفاده از وزنهای ۴ بیتی و نویز تطبیقی (adaptive noise) در طول آموزش با یادگیری تقویتی،
که باعث میشود مدلها سریعتر و کمهزینهتر یاد بگیرند.
📈 نتیجه:
تا ۱.۵ برابر افزایش سرعت rolloutها
و امکان آموزش کامل یک مدل ۳۲ میلیارد پارامتری روی تنها یک کارت H100 (80GB)!
📘 توضیح کوتاه:
در یادگیری تقویتی، rollout یعنی اجرای کامل یک اپیزود — از شروع تا پایان — برای ارزیابی عملکرد مدل و تخصیص پاداش.
این مرحله معمولاً کند و پرمصرف است.
🔧 نوآوری QeRL:
♻️استفاده از وزنهای NVFP4 با کمک Marlin
♻️نگهداری LoRA فقط برای گرادیانها (صرفهجویی در حافظه)
♻️استفاده از یک نسخهی ۴ بیتی از سیاست (policy) برای هر دو مرحلهی rollout و scoring — بدون تکرار حافظه
🧠 مزیت کلیدی:
افزودن نویز تطبیقی به وزنهای کوانتیزهشده باعث افزایش تنوع (entropy) در خروجیها میشود —
مدل بهتر فضای پاسخ را کاوش میکند.
با کاهش تدریجی نویز، پایداری حفظ میشود و همه چیز با RMSNorm ادغام میگردد — بدون اضافه شدن پارامتر جدید.
📊 نتایج آزمایشی:
پاداشها سریعتر رشد میکنند
دقت برابر یا بالاتر از مدلهای LoRA و QLoRA با دقت ۱۶ بیت
⚡ خلاصه:
سریعتر، کمهزینهتر و بهینهتر از روشهای قبلی.
اکنون میتوان مدلهای بزرگ را واقعاً روی تنها یک GPU آموزش داد.
📄 متن کامل مقاله
#NVIDIA #MIT #QeRL #ReinforcementLearning #LLM #Quantization #AIResearch #MachineLearning #DeepLearning
🚀 عامل هوش مصنوعی شما فراموشکار است، فقط چون اجازه میدهید!
بیشتر عاملها (AI agents) هر بار از صفر شروع میکنند — انگار هیچ تجربهای از پروژههای قبلی ندارند.
اما پژوهش جدید MIT نشان میدهد راهحلی ساده وجود دارد که کیفیت عامل را تا ۵۱٪ بهبود میدهد ✨
---
🧠 این روش «Workflow Memory» نام دارد.
ایده ساده است: عامل باید نه فقط نتیجه، بلکه فرآیند انجام کار را به خاطر بسپارد — مثل یادگیری واقعی.
مثلاً شما از عامل میخواهید یک مدل ML روی فایل CSV بسازد:
او با PyTorch کدنویسی میکند، هیپرفرآمترها را تغییر میدهد، پیکربندی را اصلاح میکند و در نهایت اسکریپت نهایی را میسازد.
چند روز بعد، دوباره همان درخواست را میدهید و... عامل تمام مسیر را از نو طی میکند 😩
---
💡 در Workflow Memory، عامل در پایان هر پروژه:
خلاصهای از کار، مشکلات و راهحلهای مؤثر را در یک فایل ساده Markdown ذخیره میکند (workflow.md)
در پروژههای بعدی، هنگام شروع کار، به این فایلها نگاه میکند و یاد میگیرد از تجربههای خودش استفاده کند.
📂 یعنی عامل شما عملاً صاحب «حافظه کاری» میشود، بدون نیاز به context عظیم یا مدلهای گران.
---
📊 نتیجه:
✅ مصرف کمتر توکنها و هزینه
✅ عدم تکرار خطاهای گذشته
✅ یادگیری واقعی بر اساس تجربههای خود عامل
---
📚 تحقیقات MIT:
در تستهای مربوط به وبنویگیشن و اجرای وظایف پیوسته، استفاده از Workflow Memory باعث افزایش عملکرد تا ۲۴.۶٪ و ۵۱.۱٪ شد.
---
🔗 پروژههای آماده برای آزمایش:
👉 GitHub:
CAMEL-AI Workflow Memory
👉 مقالهی پژوهشی (arXiv:2409.07429)
📡 @rss_ai_ir
#هوش_مصنوعی #AI #Agent #WorkflowMemory #CamelAI #Memory #LLM #یادگیری #MIT
بیشتر عاملها (AI agents) هر بار از صفر شروع میکنند — انگار هیچ تجربهای از پروژههای قبلی ندارند.
اما پژوهش جدید MIT نشان میدهد راهحلی ساده وجود دارد که کیفیت عامل را تا ۵۱٪ بهبود میدهد ✨
---
🧠 این روش «Workflow Memory» نام دارد.
ایده ساده است: عامل باید نه فقط نتیجه، بلکه فرآیند انجام کار را به خاطر بسپارد — مثل یادگیری واقعی.
مثلاً شما از عامل میخواهید یک مدل ML روی فایل CSV بسازد:
او با PyTorch کدنویسی میکند، هیپرفرآمترها را تغییر میدهد، پیکربندی را اصلاح میکند و در نهایت اسکریپت نهایی را میسازد.
چند روز بعد، دوباره همان درخواست را میدهید و... عامل تمام مسیر را از نو طی میکند 😩
---
💡 در Workflow Memory، عامل در پایان هر پروژه:
خلاصهای از کار، مشکلات و راهحلهای مؤثر را در یک فایل ساده Markdown ذخیره میکند (workflow.md)
در پروژههای بعدی، هنگام شروع کار، به این فایلها نگاه میکند و یاد میگیرد از تجربههای خودش استفاده کند.
📂 یعنی عامل شما عملاً صاحب «حافظه کاری» میشود، بدون نیاز به context عظیم یا مدلهای گران.
---
📊 نتیجه:
✅ مصرف کمتر توکنها و هزینه
✅ عدم تکرار خطاهای گذشته
✅ یادگیری واقعی بر اساس تجربههای خود عامل
---
📚 تحقیقات MIT:
در تستهای مربوط به وبنویگیشن و اجرای وظایف پیوسته، استفاده از Workflow Memory باعث افزایش عملکرد تا ۲۴.۶٪ و ۵۱.۱٪ شد.
---
🔗 پروژههای آماده برای آزمایش:
👉 GitHub:
CAMEL-AI Workflow Memory
👉 مقالهی پژوهشی (arXiv:2409.07429)
📡 @rss_ai_ir
#هوش_مصنوعی #AI #Agent #WorkflowMemory #CamelAI #Memory #LLM #یادگیری #MIT
❤4
This media is not supported in your browser
VIEW IN TELEGRAM
🔪 Tracking Object Transformations (Track Any State) 🔪
📦 پژوهش جدیدی با عنوان "Track Any State" معرفی شده که بر ردیابی اشیاء در طول تغییراتشان تمرکز دارد — نه فقط حرکت، بلکه تحول حالت و ویژگیهای فیزیکی آنها.
✨ مدل میتواند:
♻️اشیاء را حتی هنگام تغییر شکل، رنگ یا وضعیت دنبال کند؛
♻️تغییر حالت را توصیف و طبقهبندی نماید؛
♻️از دادههای واقعی و شبیهسازی برای درک پویاییهای فیزیکی استفاده کند.
🔍 منابع باز و آماده تست:
📄 Paper: lnkd.in/d4pA3bXJ
🌐 Project: lnkd.in/dgbNfCuj
💻 Repo (MIT License):
https://github.com/YihongSun/TubeletGraph
📡 @rss_ai_ir
#هوش_مصنوعی #ComputerVision #Tracking #AI #Dataset #MIT
📦 پژوهش جدیدی با عنوان "Track Any State" معرفی شده که بر ردیابی اشیاء در طول تغییراتشان تمرکز دارد — نه فقط حرکت، بلکه تحول حالت و ویژگیهای فیزیکی آنها.
✨ مدل میتواند:
♻️اشیاء را حتی هنگام تغییر شکل، رنگ یا وضعیت دنبال کند؛
♻️تغییر حالت را توصیف و طبقهبندی نماید؛
♻️از دادههای واقعی و شبیهسازی برای درک پویاییهای فیزیکی استفاده کند.
🔍 منابع باز و آماده تست:
📄 Paper: lnkd.in/d4pA3bXJ
🌐 Project: lnkd.in/dgbNfCuj
💻 Repo (MIT License):
https://github.com/YihongSun/TubeletGraph
📡 @rss_ai_ir
#هوش_مصنوعی #ComputerVision #Tracking #AI #Dataset #MIT