📚 ۱۰۰۰ معماری عاملهای LLM — مجموعهای که باید ذخیره کنید
یک کالکشن بزرگ شامل ۱۰۰۰ شِمای معماری عامل (از جمله حدود ۱۲۰ عامل مخصوص کدنویسی). عالی برای مهندسان، پژوهشگران و مدیرانی که دنبال ساخت agent-stack یا ترکیب RAG، ابزارها و حافظه هستند.
🔗 لینک: https://altsoph.com/pp/aps/#
چی داخلشه؟
✅ کاتالوگ الگوها — پیدا کردن سریع معماریهای شبیه به نیاز شما (retriever + tooling، memory patterns، planner/actuator و غیره).
✅ نمونه عاملهای کدنویس — مناسب برای CI/CD، تست و اجرای اسکریپتها.
✅ ایده برای طراحی — چه چیزی بهعنوان ابزار جدا شود، چه چیزی در حافظه بماند، و کی دادهها را on-policy جمع کنیم.
👨💻 مناسب برای: مهندسان ML، طراحان سیستمهای عاملمحور، و مدیران محصول در AI.
@rss_ai_ir
#هوش_مصنوعی #LLM #عامل #RAG #معماری
یک کالکشن بزرگ شامل ۱۰۰۰ شِمای معماری عامل (از جمله حدود ۱۲۰ عامل مخصوص کدنویسی). عالی برای مهندسان، پژوهشگران و مدیرانی که دنبال ساخت agent-stack یا ترکیب RAG، ابزارها و حافظه هستند.
🔗 لینک: https://altsoph.com/pp/aps/#
چی داخلشه؟
✅ کاتالوگ الگوها — پیدا کردن سریع معماریهای شبیه به نیاز شما (retriever + tooling، memory patterns، planner/actuator و غیره).
✅ نمونه عاملهای کدنویس — مناسب برای CI/CD، تست و اجرای اسکریپتها.
✅ ایده برای طراحی — چه چیزی بهعنوان ابزار جدا شود، چه چیزی در حافظه بماند، و کی دادهها را on-policy جمع کنیم.
👨💻 مناسب برای: مهندسان ML، طراحان سیستمهای عاملمحور، و مدیران محصول در AI.
@rss_ai_ir
#هوش_مصنوعی #LLM #عامل #RAG #معماری
Altsoph
1K+ schemas of agentic projects
1K+ schemas of agentic projects reconstructed from users posts on frameworks-related subreddits
👍11🎉11🥰10🔥9👏8😁8❤6
🐳 نسخهی جدید DeepSeek-V3.1-Terminus منتشر شد!
این نسخه نسبت به ورژن قبلی، نتایج پایدارتر و کاملتری در تستها ارائه میدهد. ✅
📲 در دسترس از طریق:
♻️اپلیکیشن
♻️نسخهی وب
✳️و همینطور از طریق API
🔗 وزنهای باز: HuggingFace
#DeepSeek #opensource #LLM #هوش_مصنوعی #مدل_زبان
این نسخه نسبت به ورژن قبلی، نتایج پایدارتر و کاملتری در تستها ارائه میدهد. ✅
📲 در دسترس از طریق:
♻️اپلیکیشن
♻️نسخهی وب
✳️و همینطور از طریق API
🔗 وزنهای باز: HuggingFace
#DeepSeek #opensource #LLM #هوش_مصنوعی #مدل_زبان
🥰7❤5👍5🔥4🎉4👏3😁3
🚀 مروری بر مدلها و دیتاستهای تازه روی Hugging Face (۱۶ سپتامبر)
تازهترین ریلیزها از حوزههای مختلف: متن، صدا، تصویر و حتی ویدئو 👇
✨ مدلهای جدید:
📄 Granite-Docling-258M —
ابزار همهکاره برای کار با اسناد (تبدیل و Q&A).
🎵 MiMo-Audio-7B-Base —
مدل قدرتمند برای درک و تولید صوت.
۰
🖼 ScaleCUA-3B —
مدل چندوجهی (تبدیل تصویر به متن).
🎬 Lucy-Edit-Dev —
مدل ویژهی ویرایش ویدئو.
✍️ Ling-flash-2.0 —
مدل متنی عظیم با ۱۰۳ میلیارد پارامتر.
📌 این مجموعه کمک میکنه سریع ببینید چه ابزارهای جدید و مفیدی طی روزهای اخیر عرضه شده.
🔗 لیست کامل: Hugging Face Collection
#هوش_مصنوعی #HuggingFace #مدل_زبان #AI #LLM #مدل_چندوجهی
تازهترین ریلیزها از حوزههای مختلف: متن، صدا، تصویر و حتی ویدئو 👇
✨ مدلهای جدید:
📄 Granite-Docling-258M —
ابزار همهکاره برای کار با اسناد (تبدیل و Q&A).
🎵 MiMo-Audio-7B-Base —
مدل قدرتمند برای درک و تولید صوت.
۰
🖼 ScaleCUA-3B —
مدل چندوجهی (تبدیل تصویر به متن).
🎬 Lucy-Edit-Dev —
مدل ویژهی ویرایش ویدئو.
✍️ Ling-flash-2.0 —
مدل متنی عظیم با ۱۰۳ میلیارد پارامتر.
📌 این مجموعه کمک میکنه سریع ببینید چه ابزارهای جدید و مفیدی طی روزهای اخیر عرضه شده.
🔗 لیست کامل: Hugging Face Collection
#هوش_مصنوعی #HuggingFace #مدل_زبان #AI #LLM #مدل_چندوجهی
❤10🥰9👍5🔥3🎉3👏2😁2
🎮 بازی «Among AIs» — آموگوس با مدلهای زبانی! 🤖
تیم 4wallai یک بنچمارک تعاملی منتشر کرده که در آن نقشهای «مردم عادی» و «ایمپاسترها» را مدلهای زبانی بزرگ (LLM) بازی میکنند. هدف: بررسی توانایی در تفکر، استدلال، فریب و Theory of Mind (توانایی حدس زدن افکار دیگران).
📊 نتایج ۶۰ بازی:
🏆 بیشترین برد هم در نقش عادی و هم ایمپاستر — GPT-5
🥈 رتبه دوم — Claude Sonnet 4
🥉 رتبه سوم — Kimi K2
👀 تحلیل رفتار مدلها:
✳️همچنین GPT-5 کمترین آسیب را به تیم وارد کرده
✳️سبک گفتارش «مشکوک» به نظر نمیرسید، بنابراین کمتر علیه او رأی داده شد
✳️در بلاگپست، رونوشت بازیها و نمونههایی از نحوه دفاع و قانعکردن مدلها آورده شده است.
🎥 ویدئو یکی از بازیها: YouTube
📝 جزئیات و رونوشتها: بلاگ 4wallai
🤯 حالا LLMها فقط با تستهای IQ سنجیده نمیشوند، بلکه تواناییشان در دروغگویی و کشف دروغگوها هم آزمایش میشود!
@rss_ai_ir
#هوش_مصنوعی #مدل_زبانی #بنچمارک #AmongUs #LLM
تیم 4wallai یک بنچمارک تعاملی منتشر کرده که در آن نقشهای «مردم عادی» و «ایمپاسترها» را مدلهای زبانی بزرگ (LLM) بازی میکنند. هدف: بررسی توانایی در تفکر، استدلال، فریب و Theory of Mind (توانایی حدس زدن افکار دیگران).
📊 نتایج ۶۰ بازی:
🏆 بیشترین برد هم در نقش عادی و هم ایمپاستر — GPT-5
🥈 رتبه دوم — Claude Sonnet 4
🥉 رتبه سوم — Kimi K2
👀 تحلیل رفتار مدلها:
✳️همچنین GPT-5 کمترین آسیب را به تیم وارد کرده
✳️سبک گفتارش «مشکوک» به نظر نمیرسید، بنابراین کمتر علیه او رأی داده شد
✳️در بلاگپست، رونوشت بازیها و نمونههایی از نحوه دفاع و قانعکردن مدلها آورده شده است.
🎥 ویدئو یکی از بازیها: YouTube
📝 جزئیات و رونوشتها: بلاگ 4wallai
🤯 حالا LLMها فقط با تستهای IQ سنجیده نمیشوند، بلکه تواناییشان در دروغگویی و کشف دروغگوها هم آزمایش میشود!
@rss_ai_ir
#هوش_مصنوعی #مدل_زبانی #بنچمارک #AmongUs #LLM
👍2
📊 رشد انفجاری توان محاسباتی در آزمایشگاههای هوش مصنوعی
✅توان پردازشی در لابراتوارهای AI با سرعتی بیسابقه در حال افزایش است:
⚡ OpenAI —
امروز ۱۴ برابر بیشتر از زمان عرضهی GPT-4 توان محاسباتی دارد.
⚡ xAI —
نرخ رشد بسیار سریع؛ تنها بین عرضهی Grok 3 و Grok 4 میزان کامپیوتر دو برابر شده است.
⚡ Anthropic —
کمترین منابع محاسباتی را دارد، اما در بهرهبرداری فوقالعاده کارآمد بوده است. برای مثال، Claude 3.5 تنها با حدود یکپنجم توان فعلی Anthropic آموزش داده شد.
ℹ️ توجه: این آمارها شامل Google DeepMind نمیشود، در حالی که احتمالاً بیشترین توان محاسباتی را دارد — هرچند مشخص نیست این منابع تا چه اندازه برای آموزش LLMها متمرکز شدهاند.
@rss_ai_ir
#AI #LLM #Compute #OpenAI #xAI #Anthropic #DeepMind
✅توان پردازشی در لابراتوارهای AI با سرعتی بیسابقه در حال افزایش است:
⚡ OpenAI —
امروز ۱۴ برابر بیشتر از زمان عرضهی GPT-4 توان محاسباتی دارد.
⚡ xAI —
نرخ رشد بسیار سریع؛ تنها بین عرضهی Grok 3 و Grok 4 میزان کامپیوتر دو برابر شده است.
⚡ Anthropic —
کمترین منابع محاسباتی را دارد، اما در بهرهبرداری فوقالعاده کارآمد بوده است. برای مثال، Claude 3.5 تنها با حدود یکپنجم توان فعلی Anthropic آموزش داده شد.
ℹ️ توجه: این آمارها شامل Google DeepMind نمیشود، در حالی که احتمالاً بیشترین توان محاسباتی را دارد — هرچند مشخص نیست این منابع تا چه اندازه برای آموزش LLMها متمرکز شدهاند.
@rss_ai_ir
#AI #LLM #Compute #OpenAI #xAI #Anthropic #DeepMind
👍1
⚡️ مدل جدید LFM2-2.6B — رهبر کلاس مدلها تا ۳ میلیارد پارامتر
🔑 ویژگیها:
✳️سبک و سریع، تنها با ۲.۶ میلیارد پارامتر
✳️معماری نسل دوم (short convs + group query attention)
✳️آموزشدیده روی ۱۰ تریلیون توکن
✳️پشتیبانی از کانتکست تا ۳۲k
🧠 مدلی جمعوجور اما قدرتمند برای طیف وسیعی از وظایف یادگیری ماشین.
🟠 بلاگپست: Liquid AI
🟠 Hugging Face: LFM2-2.6B
🟠 مدل باندل روی LEAP: اینجا
@rss_ai_ir
#هوش_مصنوعی #مدل_زبانی #LFM2 #OpenSourceAI #LLM
🔑 ویژگیها:
✳️سبک و سریع، تنها با ۲.۶ میلیارد پارامتر
✳️معماری نسل دوم (short convs + group query attention)
✳️آموزشدیده روی ۱۰ تریلیون توکن
✳️پشتیبانی از کانتکست تا ۳۲k
🧠 مدلی جمعوجور اما قدرتمند برای طیف وسیعی از وظایف یادگیری ماشین.
🟠 بلاگپست: Liquid AI
🟠 Hugging Face: LFM2-2.6B
🟠 مدل باندل روی LEAP: اینجا
@rss_ai_ir
#هوش_مصنوعی #مدل_زبانی #LFM2 #OpenSourceAI #LLM
❤2🔥1👏1🙏1
🧠 محققان MIT نشان دادند: LLMها میتوانند منطقاً استدلال کنند اگر درست آموزش داده شوند
📄 آنها روش جدیدی به نام PDDL-INSTRUCT معرفی کردهاند که فرآیند یادگیری مدل را از حالت «حدس جواب» به حل مرحلهبهمرحله با بررسی بیرونی تبدیل میکند.
🔹 چطور کار میکند؟
1️⃣ ابتدا مدل هم برنامههای درست و هم اشتباه را با توضیحات میبیند.
2️⃣ سپس خودش استدلال هر مرحله را مینویسد. در این مرحله ابزار بیرونی (VAL) منطق را بررسی میکند. اگر خطا باشد، مدل توضیح دقیق خطا را دریافت میکند.
📊 نتایج:
دقت مدل Llama-3-8B در مسائل برنامهریزی از ۲۸٪ → ۹۴٪ جهش کرد.
بازخورد دقیق مرحلهبهمرحله بسیار مؤثرتر از برچسب ساده «درست/غلط» عمل کرد.
💡 نکته کلیدی: مدل جایگزین برنامهریز نمادین نمیشود، بلکه یاد میگیرد مثل او فکر کند و همچنان از بررسی بیرونی استفاده کند.
⚡️ این روش میتواند به هر مسأله چندمرحلهای (ریاضی، برنامهنویسی و …) تعمیم داده شود. شاید بسیاری از تواناییهای «پنهان» مدلها فقط منتظر روش درست آموزش باشند.
🟠 متن کامل مقاله:
arxiv.org/abs/2509.13351
@rss_ai_ir
#هوش_مصنوعی #یادگیری_عمیق #LLM #منطق #MIT
📄 آنها روش جدیدی به نام PDDL-INSTRUCT معرفی کردهاند که فرآیند یادگیری مدل را از حالت «حدس جواب» به حل مرحلهبهمرحله با بررسی بیرونی تبدیل میکند.
🔹 چطور کار میکند؟
1️⃣ ابتدا مدل هم برنامههای درست و هم اشتباه را با توضیحات میبیند.
2️⃣ سپس خودش استدلال هر مرحله را مینویسد. در این مرحله ابزار بیرونی (VAL) منطق را بررسی میکند. اگر خطا باشد، مدل توضیح دقیق خطا را دریافت میکند.
📊 نتایج:
دقت مدل Llama-3-8B در مسائل برنامهریزی از ۲۸٪ → ۹۴٪ جهش کرد.
بازخورد دقیق مرحلهبهمرحله بسیار مؤثرتر از برچسب ساده «درست/غلط» عمل کرد.
💡 نکته کلیدی: مدل جایگزین برنامهریز نمادین نمیشود، بلکه یاد میگیرد مثل او فکر کند و همچنان از بررسی بیرونی استفاده کند.
⚡️ این روش میتواند به هر مسأله چندمرحلهای (ریاضی، برنامهنویسی و …) تعمیم داده شود. شاید بسیاری از تواناییهای «پنهان» مدلها فقط منتظر روش درست آموزش باشند.
🟠 متن کامل مقاله:
arxiv.org/abs/2509.13351
@rss_ai_ir
#هوش_مصنوعی #یادگیری_عمیق #LLM #منطق #MIT
👍1
🧠 Hallucination Risk Toolkit
برای LLMها
✅ابزاری سبک برای برآورد ریسک هَلوسینیشن بدون نیاز به آموزش مجدد مدل. طبق «قانون دِکمپرِشن» پرسش را بازنویسی میکند و بر اساس سطح خدمتِ هدف (SLO) تصمیم میگیرد پاسخ بدهد یا مؤدبانه امتناع کند.
ویژگیها:
✳️مدلسازی ریاضیِ شفاف برای ریسک هَلوسینیشن
✳️دو حالت: با کانتکست (RAG/زمینه) و بدون کانتکست
✳️فقط با OpenAI Chat Completions API کار میکند
✳️پیادهسازی ساده برای قرار دادن جلوی هر LLM بعنوان «دروازهبان اعتماد»
گیتهاب:
https://github.com/leochlon/hallbayes
@rss_ai_ir
#LLM #AI_Safety #RAG #PromptEngineering #RiskAssessment #OpenAI #python
برای LLMها
✅ابزاری سبک برای برآورد ریسک هَلوسینیشن بدون نیاز به آموزش مجدد مدل. طبق «قانون دِکمپرِشن» پرسش را بازنویسی میکند و بر اساس سطح خدمتِ هدف (SLO) تصمیم میگیرد پاسخ بدهد یا مؤدبانه امتناع کند.
ویژگیها:
✳️مدلسازی ریاضیِ شفاف برای ریسک هَلوسینیشن
✳️دو حالت: با کانتکست (RAG/زمینه) و بدون کانتکست
✳️فقط با OpenAI Chat Completions API کار میکند
✳️پیادهسازی ساده برای قرار دادن جلوی هر LLM بعنوان «دروازهبان اعتماد»
گیتهاب:
https://github.com/leochlon/hallbayes
@rss_ai_ir
#LLM #AI_Safety #RAG #PromptEngineering #RiskAssessment #OpenAI #python
🔥1👏1
🔎 کیفیت مدلهای هوش مصنوعی در همهی ۹ حوزه یکسان نیست
✅طبق نتایج (تصویر اول)، بعضی گروههای وظایف هنوز عقبماندگی جدی دارند. چند شغل با عملکرد ضعیفتر (از تصویر دوم):
♻️تدوینگرهای صدا و تصویر
♻️حسابرسان و حسابداران
♻️کانسیرژ/پذیرش
برای اینکه دقیق ببینید هر گروه چه وظایفی داشته، این صفحهی دیتاست را بررسی کنید:
https://huggingface.co/datasets/openai/gdpval
#هوش_مصنوعی #ارزیابی_مدل #GDPVal #LLM #AI #تحلیل_شغلی #مولتی_مدال #داده_باز
✅طبق نتایج (تصویر اول)، بعضی گروههای وظایف هنوز عقبماندگی جدی دارند. چند شغل با عملکرد ضعیفتر (از تصویر دوم):
♻️تدوینگرهای صدا و تصویر
♻️حسابرسان و حسابداران
♻️کانسیرژ/پذیرش
برای اینکه دقیق ببینید هر گروه چه وظایفی داشته، این صفحهی دیتاست را بررسی کنید:
https://huggingface.co/datasets/openai/gdpval
#هوش_مصنوعی #ارزیابی_مدل #GDPVal #LLM #AI #تحلیل_شغلی #مولتی_مدال #داده_باز
⚡️ انقلاب در محاسبات: آنالوگ درون حافظهای (In-Memory Computing) ⚡️
♨️نشریه Nature Computational Science خبر از فناوری جدیدی داده که محاسبات را مستقیماً در حافظه انجام میدهد.
🔹 ویژگیها:
❌دیگر نیازی به جابهجایی مداوم داده بین GPU و حافظه نیست.
❌محاسبه و ذخیرهسازی در یک مکان انجام میشوند.
❌این کار باعث کاهش شدید تأخیر و مصرف انرژی میشود.
🔹 نتایج اولیه:
✳️مدلهایی در سطح GPT-2 بدون نیاز به آموزش مجدد اجرا شدهاند.
✳️پتانسیل تا ۱۰۰ برابر سرعت بیشتر و ۱۰,۰۰۰ برابر بهینگی انرژی گزارش شده است.
🔮 چشمانداز:
اگر این فناوری بهخوبی مقیاسپذیر شود، میتوان مدلهای زبانی بزرگ را مستقیماً روی گوشیهای هوشمند و حتی IoT دیوایسها اجرا کرد — بدون نیاز به دیتاسنترها.
⛔️تصور کنید: GPT-5 آفلاین و محلی روی موبایل شما، با حداقل مصرف انرژی 🤯
@rss_ai_ir
#هوش_مصنوعی #محاسبات #InMemoryComputing #سخت_افزار #LLM
♨️نشریه Nature Computational Science خبر از فناوری جدیدی داده که محاسبات را مستقیماً در حافظه انجام میدهد.
🔹 ویژگیها:
❌دیگر نیازی به جابهجایی مداوم داده بین GPU و حافظه نیست.
❌محاسبه و ذخیرهسازی در یک مکان انجام میشوند.
❌این کار باعث کاهش شدید تأخیر و مصرف انرژی میشود.
🔹 نتایج اولیه:
✳️مدلهایی در سطح GPT-2 بدون نیاز به آموزش مجدد اجرا شدهاند.
✳️پتانسیل تا ۱۰۰ برابر سرعت بیشتر و ۱۰,۰۰۰ برابر بهینگی انرژی گزارش شده است.
🔮 چشمانداز:
اگر این فناوری بهخوبی مقیاسپذیر شود، میتوان مدلهای زبانی بزرگ را مستقیماً روی گوشیهای هوشمند و حتی IoT دیوایسها اجرا کرد — بدون نیاز به دیتاسنترها.
⛔️تصور کنید: GPT-5 آفلاین و محلی روی موبایل شما، با حداقل مصرف انرژی 🤯
@rss_ai_ir
#هوش_مصنوعی #محاسبات #InMemoryComputing #سخت_افزار #LLM
🔥2❤1👍1👏1