VIRSUN
6.11K subscribers
1.05K photos
608 videos
5 files
674 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
🤖 سیستم چندعاملی برنامه‌نویسی (Multi-Agent Coding System)

این پروژه یک سیستم هوش مصنوعی چندعاملی است که از یک ارکستراتور هوشمند برای هماهنگ‌سازی میان عامل‌های پژوهشی و کدنویس استفاده می‌کند.
ارکستراتور وظیفه تقسیم وظایف به زیر‌مسائل و مدیریت کل فرآیند را بر عهده دارد تا رویکردی راهبردی و ساختاریافته در حل مسائل ایجاد شود.

🚀 ویژگی‌های کلیدی:

🧠 دستاورد: کسب رتبه‌ی ۱۲ در TerminalBench و عملکرد بهتر از Claude Code

🎯 ارکستراتور وظایف را بین عامل‌ها تقسیم و نتایج را اعتبارسنجی می‌کند

🧩 هر عامل (Agent) با زمینه و ابزار اختصاصی کار می‌کند

🔗 استفاده از حافظه‌ی زمینه‌ای مشترک برای تبادل دانش بین عامل‌ها — رویکردی نوین در همکاری بین هوش‌ها


📌 سورس‌کد در گیت‌هاب:
👉 github.com/Danau5tin/multi-agent-coding-system

#AI #Agents #Python #MultiAgent #MachineLearning #هوش_مصنوعی #عامل_هوشمند #کدنویسی
1👍1🔥1
📊 ب TypeScript جلوتر از Python و JavaScript در رتبه‌بندی GitHub Octoverse 2025

همچنین GitHub در گزارش سالانه‌ی Octoverse 2025 اعلام کرد که برای نخستین‌بار TypeScript محبوب‌ترین زبان برنامه‌نویسی دنیا شده و جای Python و JavaScript را گرفته است! 🚀

🔹 با راه‌اندازی Copilot Free، تعداد توسعه‌دهندگان جدید در GitHub به رکورد ۳۶ میلیون نفر در سال رسید.
🔹 تعداد پروژه‌های هوش مصنوعی تقریباً دو برابر شده است.
🔹 هند با رشد ۳۴٪ از چین جلو زد و به رتبه دوم رسید، در حالی که روسیه برای اولین بار وارد ۱۰ کشور برتر شد.
🔹 هر دقیقه بیش از ۲۰۰ مخزن (Repository) جدید ایجاد می‌شود، اما تنها ۶۳٪ از آن‌ها فایل README دارند!

🌍 دنیای توسعه نرم‌افزار در حال تغییر است — هوش مصنوعی سرعت یادگیری و ورود برنامه‌نویسان جدید را افزایش داده و TypeScript به استاندارد جدید کدنویسی مدرن تبدیل شده است.

🔗 جزئیات کامل گزارش در وبلاگ GitHub

@rss_ai_ir
#github #TypeScript #AI #Programming #Copilot
1🔥1👏1
🤖 GaussGym:
انقلابی در آموزش ربات‌ها از طریق پیکسل‌ها — سریع، فتوواقع‌گرایانه و متن‌باز

فریم‌ورک جدید GaussGym معرفی شد — اولین پلتفرم open-source که سرعت بسیار بالا را با بینایی فتوواقعی (Photorealistic Vision) در شبیه‌سازی ربات‌ها ترکیب می‌کند. 🚀

این سیستم با استفاده از 3D Gaussian Splatting به‌عنوان یک رندرکننده‌ی تعبیه‌شده در شبیه‌سازهای وکتوریزه (مانند IsaacGym)، قادر است سیاست‌های بینایی-حرکتی (Visuomotor Policies) را تنها از تصاویر RGB با سرعتی بیش از ۱۰۰٬۰۰۰ گام در ثانیه آموزش دهد — حتی روی یک کارت RTX 4090!

🔹 ساخت دنیای تمرینی از ویدیوهای iPhone، دیتاست‌های GrandTour و ARKit یا حتی ویدیوهای مولد (مثل Veo)
🔹 بازسازی خودکار صحنه‌های فیزیکی دقیق با کمک VGGT و NKSR بدون نیاز به مدل‌سازی دستی سه‌بعدی
🔹 آموزش سیاست‌های حرکت و ناوبری مستقیم از پیکسل‌ها و انتقال آن‌ها به دنیای واقعی بدون هیچ تنظیم اضافی (Zero-Shot Sim2Real) — نمونه‌ی آزمایشی شامل بالا رفتن ربات از پله‌های ۱۷ سانتی‌متری
🔹 پشتیبانی از عمق، motion blur، randomization دوربین و سایر افکت‌های واقع‌گرایانه برای بهبود انتقال

تمامی کدها، داده‌ها، مدل‌ها و دیتاست‌ها به‌صورت کاملاً متن‌باز در دسترس هستند 👇
🔗 دمو: escontrela.me/gauss_gym
📄 مقاله: arxiv.org/abs/2510.15352
💾 داده‌ها: huggingface.co/collections/escontra/gauss-gym-datasets
💻 کد: github.com/escontra/gauss_gym

مدل GaussGym مرز بین سرعت و واقع‌گرایی را در رباتیک از بین برده و مسیر آموزش ربات‌ها از تصاویر را واقعاً مقیاس‌پذیر کرده است.

@rss_ai_ir
#AI #Robotics #Simulation #GaussGym #IsaacGym #3DGS #OpenSource
🐾 سایتی برای عاشقان حیوانات: راهنمای کامل اینکه کدام حیوانات را می‌شود با خیال راحت نوازش کرد! 😄

یک وب‌سایت جدید منتشر شده که به‌صورت کامل آموزش می‌دهد کدام حیوانات را می‌توان لمس یا نوازش کرد و کدام را نه — به‌صورت آموزشی، سرگرم‌کننده و البته با کلی گیف بامزه! 🐶🐱🐼

ویژگی‌های جالب سایت:
🔹 تست‌های تعاملی (Quiz) برای سنجش دانش شما درباره‌ی حیوانات 🦊
🔹 گیف‌های بامزه و واقعی از حیوانات مختلف 🐹
🔹 چک‌لیست شخصی برای ثبت حیواناتی که تا حالا نوازش کرده‌اید 📝
🔹 نقشه‌ی جهانی زیستگاه‌ها برای دیدن محل زندگی هر گونه 🌍

اگر دوست دارید یاد بگیرید کدام حیوانات «دوست نوازش» هستند و در عین حال سرگرم شوید —
👋 همین حالا امتحان کنید!
https://canipetthatdawg.app/

@rss_ai_ir
#AI #Fun #Animals #Education #Interactive #AiNews
🔥3👏1
This media is not supported in your browser
VIEW IN TELEGRAM
💡 Cursor 2.0 —
جهشی بزرگ در ویرایشگر هوشمند کدنویسی با هوش مصنوعی 🚀

نسخه‌ی جدید Cursor 2.0 معرفی شد و تجربه‌ی کار با عامل‌های هوش مصنوعی (AI Agents) و کدنویسی خودکار را به سطحی کاملاً تازه رسانده است.

مهم‌ترین ویژگی‌های جدید:
🔹 چند‌عاملی (Multi-Agents):
اجرای هم‌زمان تا ۸ عامل مستقل، هرکدام در نسخه‌ی جداگانه از کد.
🔹 Composer:
نخستین مدل اختصاصی Cursor برای برنامه‌نویسی، با ظرفیت کانتکست طولانی‌تر و تا ۴ برابر سرعت بیشتر نسبت به مدل‌های مشابه.
🔹 Backend Abstraction:
جابه‌جایی آسان بین سیستم محلی، ماشین مجازی یا دیتابیس.
🔹 مرورگر داخلی (Built-in Browser):
عامل‌ها می‌توانند وب‌اپلیکیشن‌ها را تست و با عناصر صفحه تعامل کنند.
🔹 Code Review
جدید: مشاهده‌ی تغییرات بدون نیاز به سوئیچ بین فایل‌ها.
🔹 Sandboxed Terminals:
اجرای امن دستورات بدون دسترسی اینترنت.
🔹 Team Commands:
هماهنگی دستورات و تنظیمات برای کل تیم توسعه‌دهندگان.
🔹 Voice Mode:
ارسال دستورات و پرس‌وجوها با صدا 🎙️.
🔹 LSP
سریع‌تر: تکمیل خودکار و تحلیل کد در پروژه‌های بزرگ بسیار روان‌تر شده است.
🔹 Plan Mode
در پس‌زمینه: امکان برنامه‌ریزی و اجرای هم‌زمان وظایف.
🔹 Cloud Agents:
شروع آنی با پایداری ۹۹.۹٪.
🔹 قابلیت‌های سازمانی (Enterprise):
کنترل مرکزی، hooks، و ممیزی فعالیت کاربران.

📎 جزئیات کامل در:
cursor.com/changelog/2-0

@rss_ai_ir
#AI #Coding #Cursor #Agents #Productivity #MachineLearning
🚀 استفاده از مدل‌های زبانی در Go با کتابخانه‌ی جدید yzma

کتابخانه‌ی yzma امکان اجرای مدل‌های زبانی (LLM)، مدل‌های دید-زبان (VLM) و سایر معماری‌ها را به‌صورت بومی روی سخت‌افزار خودتان فراهم می‌کند — با پشتیبانی کامل از شتاب سخت‌افزاری و بدون نیاز به CGo! ⚙️

💡 ویژگی‌های کلیدی:
🔹 پشتیبانی از VLM، LLM، SLM و TLM در یک پکیج واحد
🔹 بهره‌گیری کامل از شتاب‌دهنده‌های سخت‌افزاری برای بیشترین سرعت
🔹 بدون نیاز به C compiler — نصب و اجرا تنها با Go
🔹 کاملاً سازگار با نسخه‌های جدید llama.cpp
🔹 همراه با نمونه‌کدهای آماده برای انواع مدل‌ها

📦 سیستم‌عامل‌های پشتیبانی‌شده:

Linux 🐧

macOS 🍎

Windows 💻


📌 سورس‌کد و مستندات:
github.com/hybridgroup/yzma

با yzma، زبان Go بالاخره ابزار قدرتمند و ساده‌ای برای استفاده مستقیم از مدل‌های هوش مصنوعی روی دستگاه محلی پیدا کرده است. 🚀

@rss_ai_ir
#Go #LLM #VLM #AI #yzma #MachineLearning #OpenSource
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
🎬 Minimax
نسخه‌ی جدید شبکه‌ی عصبی تولید ویدیو خود را معرفی کرد: Hailuo 2.3

شرکت Minimax نسخه‌ی تازه‌ای از مدل تولید ویدیو با هوش مصنوعی به نام Hailuo 2.3 را منتشر کرده است.
این نسخه تمرکز ویژه‌ای بر بهبود فیزیک حرکات و واقع‌گرایی در ویدیوها دارد — حرکات اکنون طبیعی‌تر، روان‌تر و از نظر دینامیکی دقیق‌تر هستند. ⚙️🎥

📊 مدل جدید Hailuo 2.3 گامی مهم در جهت ایجاد ویدیوهای فوتورئالیستی محسوب می‌شود و می‌تواند برای کاربردهایی مانند انیمیشن‌سازی، تولید محتوای تبلیغاتی، و شبیه‌سازی‌های واقع‌گرایانه مورد استفاده قرار گیرد.

منبع:
https://hailuoai.video/create/image-to-video

@rss_ai_ir
#AI #VideoGeneration #Hailuo #Minimax #MachineLearning #NeuralNetworks
👍2🔥1😁1👌1
This media is not supported in your browser
VIEW IN TELEGRAM
🔔 Gemini
حالا سازنده‌ی رایگان پرزنتیشن دارد! 🧠🎨

در جدیدترین به‌روزرسانی، Gemini (گوگل) قابلیتی اضافه کرده که به‌صورت رایگان اسلایدهای پرزنتیشن تولید می‌کند.
کافی است یک موضوع یا منبع بدهید، و چت‌بات به‌صورت خودکار اسلایدهای تصویری و متنی آماده ارائه می‌سازد!

ویژگی‌های کلیدی:
🔹 تولید اسلایدهای ساختارمند بر اساس موضوع یا لینک داده‌شده
🔹 افزودن تصاویر مرتبط به‌صورت خودکار
🔹 امکان ویرایش، حذف یا بازآرایی اسلایدها در همان محیط چت
🔹 ادغام مستقیم با ابزارهای Google Slides و فضای کاری گوگل

این ابزار گامی دیگر در جهت اتوماسیون تولید محتوا و ارائه‌های آموزشی/تجاری است — سریع، هوشمند و رایگان! 🚀



@rss_ai_ir
#Gemini #AI #Presentation #Google #Productivity #CryptoInsider
3🔥1👏1
🧠 پژوهش جدید Anthropic: چگونه مدل‌های زبانی یاد می‌گیرند خود را درک کنند

شرکت Anthropic در پژوهشی تازه بررسی کرده که آیا مدل‌های زبانی بزرگ (LLM) می‌توانند از «افکار» و حالت‌های درونی خودشان آگاهی پیدا کنند یا نه.

در این آزمایش، پژوهشگران از روشی به نام تع嵌 مفهومی (Concept Embedding) استفاده کردند — یعنی افزودن الگوی خاصی از فعالیت به نورون‌های مدل برای القای یک مفهوم مشخص.

🔹 برای نمونه، آن‌ها سیگنالی به نام “ALL CAPS” را در شبکه جاسازی کردند — الگویی که با متنی تماماً حروف بزرگ (CAPITAL LETTERS) متناظر است.
اگر چنین فعال‌سازی در شبکه دیده شود، به این معناست که مدل در حال «فکر کردن» درباره‌ی متنی است که باید با حروف بزرگ نوشته شود.

سپس از مدل پرسیدند:

> «آیا احساس می‌کنی چیزی درونت تغییر کرده؟»



در حدود ۲۰٪ از موارد، مدل Claude 4.1 متوجه این مداخله شد — حتی پیش از آنکه خودش از حروف بزرگ استفاده کند.
به‌عبارتی، مدل توانست تغییر در حالت درونی خود را تشخیص دهد.

در آزمایش دیگری، پژوهشگران یک واژه را در پاسخ مدل تغییر دادند (مثلاً واژه‌ی “bread” را افزودند) و بررسی کردند که آیا مدل متوجه این تغییر می‌شود یا نه.
پس از القای این «فکر»، مدل آن واژه را تصمیم خودش تلقی کرد و حتی توجیهاتی برای انتخابش ارائه داد؛ گویی حافظه‌ای از تصمیم خود دارد.

مدل‌ها همچنین توانستند تا حدی حالت‌های درونی خود را کنترل کنند — فعالیت نورونی هنگام فرمان «به این فکر کن» افزایش می‌یافت و با دستور «به این فکر نکن» کاهش پیدا می‌کرد.

📌 نویسندگان تأکید می‌کنند:
فرایند «درون‌نگری» یا Introspection تنها در برخی شرایط کار می‌کند و هنوز مشخص نیست که تا چه حد قابل تعمیم به همه‌ی مدل‌ها یا وظایف دیگر است.
آن‌ها هشدار می‌دهند که برای تأیید این پدیده باید بررسی شود آیا واقعاً شاهد سازوکار درونیِ خودآگاهی هستیم یا صرفاً نوعی تقلید از آن.

🧩 نتیجه‌ی اصلی پژوهش:
اگرچه مدل‌ها هنوز تا درون‌نگری واقعی (True Introspection) فاصله‌ی زیادی دارند، اما شواهد نشان می‌دهد که تا حدی توانایی «نگاه به درون خود» و درک فعالیت‌های نورونی‌شان را به دست آورده‌اند.

🔗 متن کامل پژوهش در وب‌سایت Anthropic

@rss_ai_ir
#Anthropic #LLM #AI #Introspection #Claude #MachineLearning
👍2🔥1👏1