شبکهعصبی گرافی جدیدی به نام GLSTM که برای کاهش مشکل "فشردگی بیش از حد" (over-squashing) در شبکههای عصبی گرافی (GNNs) طراحی شده است.
👉 @navidcasts 🎓
فشردگی بیش از حد که منجر به یک "تنگنای اطلاعاتی" (information bottleneck) میشود، زمانی رخ میدهد که اطلاعات دریافتی از یک میدان درک بزرگ در یک بردار با اندازه ثابت فشرده میشود. محققان این پدیده را از دریچه "ظرفیت ذخیرهسازی و بازیابی مدل" (model storage and retrieval capacity) بازنگری میکنند و استدلال میکنند که این مشکل شامل دو جزء متمایز است: اشباع ظرفیت و حساسیت پایین.
👉 @navidcasts 🎓
برای مقابله با محدودیت ظرفیت، این مدل جدید با الهام از معماریهای توالیمحور مانند xLSTM، از "حافظه تداعیگر" (associative memory) استفاده میکند و عملکرد برتر خود را در یک کار مصنوعی جدید به نام "یادآوری تداعیگر همسایه" (Neighbor Associative Recall - NAR) و همچنین در معیارهای دنیای واقعی به نمایش میگذارد. ویدیو مصنوعی توضیحات فارسی در 7 دقیقه :
https://youtu.be/69BXJkAzu_A
فشردگی بیش از حد که منجر به یک "تنگنای اطلاعاتی" (information bottleneck) میشود، زمانی رخ میدهد که اطلاعات دریافتی از یک میدان درک بزرگ در یک بردار با اندازه ثابت فشرده میشود. محققان این پدیده را از دریچه "ظرفیت ذخیرهسازی و بازیابی مدل" (model storage and retrieval capacity) بازنگری میکنند و استدلال میکنند که این مشکل شامل دو جزء متمایز است: اشباع ظرفیت و حساسیت پایین.
برای مقابله با محدودیت ظرفیت، این مدل جدید با الهام از معماریهای توالیمحور مانند xLSTM، از "حافظه تداعیگر" (associative memory) استفاده میکند و عملکرد برتر خود را در یک کار مصنوعی جدید به نام "یادآوری تداعیگر همسایه" (Neighbor Associative Recall - NAR) و همچنین در معیارهای دنیای واقعی به نمایش میگذارد. ویدیو مصنوعی توضیحات فارسی در 7 دقیقه :
https://youtu.be/69BXJkAzu_A
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
GLSTM توضیح به فارسی
https://arxiv.org/pdf/2510.08450 لینک مقاله
توضیحات کامل تر و دقیق تر به فارسی : https://t.iss.one/navidcasts/48
توضیحات کامل تر و دقیق تر به فارسی : https://t.iss.one/navidcasts/48