🧠 حافظه جوانان در خطر؟ نتایج تکاندهنده از پژوهش جدید آمریکاییها
پژوهشی تازه در یکی از معتبرترین نشریات علوم اعصاب نشان میدهد که طی ۱۰ سال گذشته، تعداد شکایات از ضعف حافظه و تمرکز میان جوانان تقریباً دو برابر شده است! 😳
در این تحقیق بیش از ۴٬۵ میلیون داده از سال ۲۰۱۳ تا ۲۰۲۳ بررسی شد و نتایج چنین بود:
🔹 در کل جمعیت، مراجعه به پزشکان بابت مشکلات حافظه و تمرکز ۴۰٪ افزایش یافته است.
🔹 اما در گروه سنی ۱۸ تا ۳۹ سال، این رقم به تقریباً ۱۰۰٪ رسیده! 😱
و نکته جالب اینکه این دادهها مربوط به قبل از انفجار هوش مصنوعی در سال ۲۰۲۳ است…
حالا سؤال اینجاست:
آیا بین سالهای ۲۰۲۳ تا ۲۰۲۵ با افزایش استفاده از AI و اطلاعات دیجیتال، این آمار حتی بیشتر خواهد شد؟ 🤔
📊 تمرکز ما در حال از بین رفتن است یا فقط نحوهی استفاده از مغزمان در حال تغییر است؟
https://www.neurology.org/doi/10.1212/WNL.0000000000214226
#Neuroscience #AI #Memory #Focus #DigitalAge #MentalHealth @rss_ai_ir
پژوهشی تازه در یکی از معتبرترین نشریات علوم اعصاب نشان میدهد که طی ۱۰ سال گذشته، تعداد شکایات از ضعف حافظه و تمرکز میان جوانان تقریباً دو برابر شده است! 😳
در این تحقیق بیش از ۴٬۵ میلیون داده از سال ۲۰۱۳ تا ۲۰۲۳ بررسی شد و نتایج چنین بود:
🔹 در کل جمعیت، مراجعه به پزشکان بابت مشکلات حافظه و تمرکز ۴۰٪ افزایش یافته است.
🔹 اما در گروه سنی ۱۸ تا ۳۹ سال، این رقم به تقریباً ۱۰۰٪ رسیده! 😱
و نکته جالب اینکه این دادهها مربوط به قبل از انفجار هوش مصنوعی در سال ۲۰۲۳ است…
حالا سؤال اینجاست:
آیا بین سالهای ۲۰۲۳ تا ۲۰۲۵ با افزایش استفاده از AI و اطلاعات دیجیتال، این آمار حتی بیشتر خواهد شد؟ 🤔
📊 تمرکز ما در حال از بین رفتن است یا فقط نحوهی استفاده از مغزمان در حال تغییر است؟
https://www.neurology.org/doi/10.1212/WNL.0000000000214226
#Neuroscience #AI #Memory #Focus #DigitalAge #MentalHealth @rss_ai_ir
👍2
🚀 عامل هوش مصنوعی شما فراموشکار است، فقط چون اجازه میدهید!
بیشتر عاملها (AI agents) هر بار از صفر شروع میکنند — انگار هیچ تجربهای از پروژههای قبلی ندارند.
اما پژوهش جدید MIT نشان میدهد راهحلی ساده وجود دارد که کیفیت عامل را تا ۵۱٪ بهبود میدهد ✨
---
🧠 این روش «Workflow Memory» نام دارد.
ایده ساده است: عامل باید نه فقط نتیجه، بلکه فرآیند انجام کار را به خاطر بسپارد — مثل یادگیری واقعی.
مثلاً شما از عامل میخواهید یک مدل ML روی فایل CSV بسازد:
او با PyTorch کدنویسی میکند، هیپرفرآمترها را تغییر میدهد، پیکربندی را اصلاح میکند و در نهایت اسکریپت نهایی را میسازد.
چند روز بعد، دوباره همان درخواست را میدهید و... عامل تمام مسیر را از نو طی میکند 😩
---
💡 در Workflow Memory، عامل در پایان هر پروژه:
خلاصهای از کار، مشکلات و راهحلهای مؤثر را در یک فایل ساده Markdown ذخیره میکند (workflow.md)
در پروژههای بعدی، هنگام شروع کار، به این فایلها نگاه میکند و یاد میگیرد از تجربههای خودش استفاده کند.
📂 یعنی عامل شما عملاً صاحب «حافظه کاری» میشود، بدون نیاز به context عظیم یا مدلهای گران.
---
📊 نتیجه:
✅ مصرف کمتر توکنها و هزینه
✅ عدم تکرار خطاهای گذشته
✅ یادگیری واقعی بر اساس تجربههای خود عامل
---
📚 تحقیقات MIT:
در تستهای مربوط به وبنویگیشن و اجرای وظایف پیوسته، استفاده از Workflow Memory باعث افزایش عملکرد تا ۲۴.۶٪ و ۵۱.۱٪ شد.
---
🔗 پروژههای آماده برای آزمایش:
👉 GitHub:
CAMEL-AI Workflow Memory
👉 مقالهی پژوهشی (arXiv:2409.07429)
📡 @rss_ai_ir
#هوش_مصنوعی #AI #Agent #WorkflowMemory #CamelAI #Memory #LLM #یادگیری #MIT
بیشتر عاملها (AI agents) هر بار از صفر شروع میکنند — انگار هیچ تجربهای از پروژههای قبلی ندارند.
اما پژوهش جدید MIT نشان میدهد راهحلی ساده وجود دارد که کیفیت عامل را تا ۵۱٪ بهبود میدهد ✨
---
🧠 این روش «Workflow Memory» نام دارد.
ایده ساده است: عامل باید نه فقط نتیجه، بلکه فرآیند انجام کار را به خاطر بسپارد — مثل یادگیری واقعی.
مثلاً شما از عامل میخواهید یک مدل ML روی فایل CSV بسازد:
او با PyTorch کدنویسی میکند، هیپرفرآمترها را تغییر میدهد، پیکربندی را اصلاح میکند و در نهایت اسکریپت نهایی را میسازد.
چند روز بعد، دوباره همان درخواست را میدهید و... عامل تمام مسیر را از نو طی میکند 😩
---
💡 در Workflow Memory، عامل در پایان هر پروژه:
خلاصهای از کار، مشکلات و راهحلهای مؤثر را در یک فایل ساده Markdown ذخیره میکند (workflow.md)
در پروژههای بعدی، هنگام شروع کار، به این فایلها نگاه میکند و یاد میگیرد از تجربههای خودش استفاده کند.
📂 یعنی عامل شما عملاً صاحب «حافظه کاری» میشود، بدون نیاز به context عظیم یا مدلهای گران.
---
📊 نتیجه:
✅ مصرف کمتر توکنها و هزینه
✅ عدم تکرار خطاهای گذشته
✅ یادگیری واقعی بر اساس تجربههای خود عامل
---
📚 تحقیقات MIT:
در تستهای مربوط به وبنویگیشن و اجرای وظایف پیوسته، استفاده از Workflow Memory باعث افزایش عملکرد تا ۲۴.۶٪ و ۵۱.۱٪ شد.
---
🔗 پروژههای آماده برای آزمایش:
👉 GitHub:
CAMEL-AI Workflow Memory
👉 مقالهی پژوهشی (arXiv:2409.07429)
📡 @rss_ai_ir
#هوش_مصنوعی #AI #Agent #WorkflowMemory #CamelAI #Memory #LLM #یادگیری #MIT
❤4
🚀مدل DeepSeek-OCR؛ رویکردی تازه برای حافظه در مدلهای هوش مصنوعی
✅تیم DeepSeek نشان داده که مدلهای OCR (تشخیص متن از تصویر) میتوانند نهفقط برای خواندن اسناد، بلکه برای گسترش حافظه مدلهای زبانی استفاده شوند 🧠📄
---
💡 ایدهی اصلی
بهجای ذخیرهی تاریخچه گفتگو یا دادهها بهصورت توکنهای متنی، DeepSeek آنها را بهشکل تصویر صفحات نگه میدارد.
وقتی مدل به اطلاعات قدیمی نیاز دارد، فقط بخش مورد نظر را از روی تصویر با OCR میخواند.
📸 هر بخش تصویری (visual patch) چندین برابر بیش از یک توکن متنی داده در خود دارد — پس مدل میتواند حجم بیشتری از اطلاعات را فشردهتر نگه دارد و فقط هنگام نیاز آن را بخواند.
---
⚙️ آنچه در داخل اتفاق میافتد
♻️کل سابقهی گفتگو به صفحات تصویری تقسیم و به پچهای دوبعدی فشرده میشود.
♻️صفحات جدید با کیفیت بالا ذخیره میشوند، صفحات قدیمیتر فشردهتر، اما کاملاً حذف نمیشوند.
♻️مدل OCR فقط زمانی فراخوانی میشود که مدل به عبارت دقیق یا بخش خاصی نیاز دارد.
📚 نتیجه: بهجای «حذف سخت» بخشهای قدیمی، حافظه بهصورت نرم و تدریجی فراموش میشود — در حالیکه ساختار متن، جداول و کدها همچنان حفظ میشوند.
---
🚀 اثر عملی
✅ هزاران توکن متنی با چند صد پچ تصویری جایگزین میشوند.
✅ مصرف توکن و هزینهی پردازش بهشدت کاهش مییابد.
✅ ایدهآل برای سیستمهای عاملی (AI Agents) که جلسات طولانی دارند و نیاز به مرور تاریخچهی قدیمی دارند.
✅ دادههای آموزشی را میتوان با رندر خودکار صفحات و برچسبهای OCR تولید کرد.
---
💬 این روش، مدل را به حافظهی بینقص نمیرساند، اما اجازه میدهد مدتزمان بیشتری اطلاعات را حفظ کند و بدون RAG خارجی دوباره به آنها دسترسی داشته باشد.
📄 Technology Review — 29 Oct 2025
📡 @rss_ai_ir
#هوش_مصنوعی #DeepSeek #OCR #حافظه #LLM #AI #Memory #Agents #VisualAI
✅تیم DeepSeek نشان داده که مدلهای OCR (تشخیص متن از تصویر) میتوانند نهفقط برای خواندن اسناد، بلکه برای گسترش حافظه مدلهای زبانی استفاده شوند 🧠📄
---
💡 ایدهی اصلی
بهجای ذخیرهی تاریخچه گفتگو یا دادهها بهصورت توکنهای متنی، DeepSeek آنها را بهشکل تصویر صفحات نگه میدارد.
وقتی مدل به اطلاعات قدیمی نیاز دارد، فقط بخش مورد نظر را از روی تصویر با OCR میخواند.
📸 هر بخش تصویری (visual patch) چندین برابر بیش از یک توکن متنی داده در خود دارد — پس مدل میتواند حجم بیشتری از اطلاعات را فشردهتر نگه دارد و فقط هنگام نیاز آن را بخواند.
---
⚙️ آنچه در داخل اتفاق میافتد
♻️کل سابقهی گفتگو به صفحات تصویری تقسیم و به پچهای دوبعدی فشرده میشود.
♻️صفحات جدید با کیفیت بالا ذخیره میشوند، صفحات قدیمیتر فشردهتر، اما کاملاً حذف نمیشوند.
♻️مدل OCR فقط زمانی فراخوانی میشود که مدل به عبارت دقیق یا بخش خاصی نیاز دارد.
📚 نتیجه: بهجای «حذف سخت» بخشهای قدیمی، حافظه بهصورت نرم و تدریجی فراموش میشود — در حالیکه ساختار متن، جداول و کدها همچنان حفظ میشوند.
---
🚀 اثر عملی
✅ هزاران توکن متنی با چند صد پچ تصویری جایگزین میشوند.
✅ مصرف توکن و هزینهی پردازش بهشدت کاهش مییابد.
✅ ایدهآل برای سیستمهای عاملی (AI Agents) که جلسات طولانی دارند و نیاز به مرور تاریخچهی قدیمی دارند.
✅ دادههای آموزشی را میتوان با رندر خودکار صفحات و برچسبهای OCR تولید کرد.
---
💬 این روش، مدل را به حافظهی بینقص نمیرساند، اما اجازه میدهد مدتزمان بیشتری اطلاعات را حفظ کند و بدون RAG خارجی دوباره به آنها دسترسی داشته باشد.
📄 Technology Review — 29 Oct 2025
📡 @rss_ai_ir
#هوش_مصنوعی #DeepSeek #OCR #حافظه #LLM #AI #Memory #Agents #VisualAI