VIRSUN
7.51K subscribers
792 photos
461 videos
3 files
507 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
📚 ۱۰۰۰ معماری عامل‌های LLM — مجموعه‌ای که باید ذخیره کنید


یک کالکشن بزرگ شامل ۱۰۰۰ شِمای معماری عامل (از جمله حدود ۱۲۰ عامل مخصوص کدنویسی). عالی برای مهندسان، پژوهشگران و مدیرانی که دنبال ساخت agent-stack یا ترکیب RAG، ابزارها و حافظه هستند.

🔗 لینک: https://altsoph.com/pp/aps/#

چی داخلشه؟

کاتالوگ الگوها — پیدا کردن سریع معماری‌های شبیه به نیاز شما (retriever + tooling، memory patterns، planner/actuator و غیره).
نمونه عامل‌های کدنویس — مناسب برای CI/CD، تست و اجرای اسکریپت‌ها.
ایده برای طراحی — چه چیزی به‌عنوان ابزار جدا شود، چه چیزی در حافظه بماند، و کی داده‌ها را on-policy جمع کنیم.

👨‍💻 مناسب برای: مهندسان ML، طراحان سیستم‌های عامل‌محور، و مدیران محصول در AI.

@rss_ai_ir

#هوش_مصنوعی #LLM #عامل #RAG #معماری
👍11🎉11🥰10🔥9👏8😁86
🐳 نسخه‌ی جدید DeepSeek-V3.1-Terminus منتشر شد!

این نسخه نسبت به ورژن قبلی، نتایج پایدارتر و کامل‌تری در تست‌ها ارائه می‌دهد.

📲 در دسترس از طریق:

♻️اپلیکیشن
♻️نسخه‌ی وب
✳️و همینطور از طریق API


🔗 وزن‌های باز: HuggingFace

#DeepSeek #opensource #LLM #هوش_مصنوعی #مدل_زبان
🥰75👍5🔥4🎉4👏3😁3
🚀 مروری بر مدل‌ها و دیتاست‌های تازه روی Hugging Face (۱۶ سپتامبر)

تازه‌ترین ریلیزها از حوزه‌های مختلف: متن، صدا، تصویر و حتی ویدئو 👇

مدل‌های جدید:

📄 Granite-Docling-258M —
ابزار همه‌کاره برای کار با اسناد (تبدیل و Q&A).

🎵 MiMo-Audio-7B-Base —
مدل قدرتمند برای درک و تولید صوت.
۰
🖼 ScaleCUA-3B —
مدل چندوجهی (تبدیل تصویر به متن).

🎬 Lucy-Edit-Dev —
مدل ویژه‌ی ویرایش ویدئو.

✍️ Ling-flash-2.0 —
مدل متنی عظیم با ۱۰۳ میلیارد پارامتر.


📌 این مجموعه کمک می‌کنه سریع ببینید چه ابزارهای جدید و مفیدی طی روزهای اخیر عرضه شده.

🔗 لیست کامل: Hugging Face Collection

#هوش_مصنوعی #HuggingFace #مدل_زبان #AI #LLM #مدل_چندوجهی
10🥰9👍5🔥3🎉3👏2😁2
🎮 بازی «Among AIs» — آموگوس با مدل‌های زبانی! 🤖

تیم 4wallai یک بنچمارک تعاملی منتشر کرده که در آن نقش‌های «مردم عادی» و «ایمپاسترها» را مدل‌های زبانی بزرگ (LLM) بازی می‌کنند. هدف: بررسی توانایی در تفکر، استدلال، فریب و Theory of Mind (توانایی حدس زدن افکار دیگران).

📊 نتایج ۶۰ بازی:

🏆 بیشترین برد هم در نقش عادی و هم ایمپاستر — GPT-5

🥈 رتبه دوم — Claude Sonnet 4

🥉 رتبه سوم — Kimi K2


👀 تحلیل رفتار مدل‌ها:

✳️همچنین GPT-5 کمترین آسیب را به تیم وارد کرده
✳️سبک گفتارش «مشکوک» به نظر نمی‌رسید، بنابراین کمتر علیه او رأی داده شد
✳️در بلاگ‌پست، رونوشت بازی‌ها و نمونه‌هایی از نحوه دفاع و قانع‌کردن مدل‌ها آورده شده است.

🎥 ویدئو یکی از بازی‌ها: YouTube
📝 جزئیات و رونوشت‌ها: بلاگ 4wallai

🤯 حالا LLMها فقط با تست‌های IQ سنجیده نمی‌شوند، بلکه توانایی‌شان در دروغ‌گویی و کشف دروغگوها هم آزمایش می‌شود!

@rss_ai_ir

#هوش_مصنوعی #مدل_زبانی #بنچمارک #AmongUs #LLM
👍2
📊 رشد انفجاری توان محاسباتی در آزمایشگاه‌های هوش مصنوعی

توان پردازشی در لابراتوارهای AI با سرعتی بی‌سابقه در حال افزایش است:

OpenAI —
امروز ۱۴ برابر بیشتر از زمان عرضه‌ی GPT-4 توان محاسباتی دارد.

xAI —
نرخ رشد بسیار سریع؛ تنها بین عرضه‌ی Grok 3 و Grok 4 میزان کامپیوتر دو برابر شده است.


Anthropic —
کمترین منابع محاسباتی را دارد، اما در بهره‌برداری فوق‌العاده کارآمد بوده است. برای مثال، Claude 3.5 تنها با حدود یک‌پنجم توان فعلی Anthropic آموزش داده شد.

ℹ️ توجه: این آمارها شامل Google DeepMind نمی‌شود، در حالی که احتمالاً بیشترین توان محاسباتی را دارد — هرچند مشخص نیست این منابع تا چه اندازه برای آموزش LLMها متمرکز شده‌اند.

@rss_ai_ir

#AI #LLM #Compute #OpenAI #xAI #Anthropic #DeepMind
👍1
⚡️ مدل جدید LFM2-2.6B — رهبر کلاس مدل‌ها تا ۳ میلیارد پارامتر

🔑 ویژگی‌ها:

✳️سبک و سریع، تنها با ۲.۶ میلیارد پارامتر
✳️معماری نسل دوم (short convs + group query attention)
✳️آموزش‌دیده روی ۱۰ تریلیون توکن
✳️پشتیبانی از کانتکست تا ۳۲k


🧠 مدلی جمع‌وجور اما قدرتمند برای طیف وسیعی از وظایف یادگیری ماشین.

🟠 بلاگ‌پست: Liquid AI
🟠 Hugging Face: LFM2-2.6B
🟠 مدل باندل روی LEAP: اینجا

@rss_ai_ir

#هوش_مصنوعی #مدل_زبانی #LFM2 #OpenSourceAI #LLM
2🔥1👏1🙏1
🧠 محققان MIT نشان دادند: LLMها می‌توانند منطقاً استدلال کنند اگر درست آموزش داده شوند

📄 آن‌ها روش جدیدی به نام PDDL-INSTRUCT معرفی کرده‌اند که فرآیند یادگیری مدل را از حالت «حدس جواب» به حل مرحله‌به‌مرحله با بررسی بیرونی تبدیل می‌کند.

🔹 چطور کار می‌کند؟
1️⃣ ابتدا مدل هم برنامه‌های درست و هم اشتباه را با توضیحات می‌بیند.
2️⃣ سپس خودش استدلال هر مرحله را می‌نویسد. در این مرحله ابزار بیرونی (VAL) منطق را بررسی می‌کند. اگر خطا باشد، مدل توضیح دقیق خطا را دریافت می‌کند.

📊 نتایج:

دقت مدل Llama-3-8B در مسائل برنامه‌ریزی از ۲۸٪ → ۹۴٪ جهش کرد.

بازخورد دقیق مرحله‌به‌مرحله بسیار مؤثرتر از برچسب ساده «درست/غلط» عمل کرد.


💡 نکته کلیدی: مدل جایگزین برنامه‌ریز نمادین نمی‌شود، بلکه یاد می‌گیرد مثل او فکر کند و همچنان از بررسی بیرونی استفاده کند.

⚡️ این روش می‌تواند به هر مسأله چندمرحله‌ای (ریاضی، برنامه‌نویسی و …) تعمیم داده شود. شاید بسیاری از توانایی‌های «پنهان» مدل‌ها فقط منتظر روش درست آموزش باشند.

🟠 متن کامل مقاله:
arxiv.org/abs/2509.13351

@rss_ai_ir

#هوش_مصنوعی #یادگیری_عمیق #LLM #منطق #MIT
👍1
🧠 Hallucination Risk Toolkit
برای LLMها

ابزاری سبک برای برآورد ریسک هَلوسینیشن بدون نیاز به آموزش مجدد مدل. طبق «قانون دِکمپرِشن» پرسش را بازنویسی می‌کند و بر اساس سطح خدمتِ هدف (SLO) تصمیم می‌گیرد پاسخ بدهد یا مؤدبانه امتناع کند.

ویژگی‌ها:

✳️مدل‌سازی ریاضیِ شفاف برای ریسک هَلوسینیشن

✳️دو حالت: با کانتکست (RAG/زمینه) و بدون کانتکست

✳️فقط با OpenAI Chat Completions API کار می‌کند

✳️پیاده‌سازی ساده برای قرار دادن جلوی هر LLM بعنوان «دروازه‌بان اعتماد»


گیت‌هاب:
https://github.com/leochlon/hallbayes

@rss_ai_ir

#LLM #AI_Safety #RAG #PromptEngineering #RiskAssessment #OpenAI #python
🔥1👏1
🔎 کیفیت مدل‌های هوش مصنوعی در همه‌ی ۹ حوزه یکسان نیست

طبق نتایج (تصویر اول)، بعضی گروه‌های وظایف هنوز عقب‌ماندگی جدی دارند. چند شغل با عملکرد ضعیف‌تر (از تصویر دوم):

♻️تدوین‌گرهای صدا و تصویر
♻️حسابرسان و حسابداران
♻️کانسیرژ/پذیرش


برای اینکه دقیق ببینید هر گروه چه وظایفی داشته، این صفحه‌ی دیتاست را بررسی کنید:

https://huggingface.co/datasets/openai/gdpval

#هوش_مصنوعی #ارزیابی_مدل #GDPVal #LLM #AI #تحلیل_شغلی #مولتی_مدال #داده_باز
⚡️ انقلاب در محاسبات: آنالوگ درون حافظه‌ای (In-Memory Computing) ⚡️

♨️نشریه Nature Computational Science خبر از فناوری جدیدی داده که محاسبات را مستقیماً در حافظه انجام می‌دهد.

🔹 ویژگی‌ها:

دیگر نیازی به جابه‌جایی مداوم داده بین GPU و حافظه نیست.

محاسبه و ذخیره‌سازی در یک مکان انجام می‌شوند.

این کار باعث کاهش شدید تأخیر و مصرف انرژی می‌شود.


🔹 نتایج اولیه:

✳️مدل‌هایی در سطح GPT-2 بدون نیاز به آموزش مجدد اجرا شده‌اند.

✳️پتانسیل تا ۱۰۰ برابر سرعت بیشتر و ۱۰,۰۰۰ برابر بهینگی انرژی گزارش شده است.


🔮 چشم‌انداز:
اگر این فناوری به‌خوبی مقیاس‌پذیر شود، می‌توان مدل‌های زبانی بزرگ را مستقیماً روی گوشی‌های هوشمند و حتی IoT دیوایس‌ها اجرا کرد — بدون نیاز به دیتاسنترها.

⛔️تصور کنید: GPT-5 آفلاین و محلی روی موبایل شما، با حداقل مصرف انرژی 🤯

@rss_ai_ir

#هوش_مصنوعی #محاسبات #InMemoryComputing #سخت_افزار #LLM
🔥21👍1👏1