VIRSUN
12.5K subscribers
1.09K photos
645 videos
5 files
717 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
Media is too big
VIEW IN TELEGRAM
در این ویدیو ابزار فوق العاده کاربردی Synaps برای معماری بررسی می‌شود.

@rss_ai_ir 🚀💻
👍4🔥1🙏1👌1
🔔 پیشرفتی بزرگ در استدلال علمی

سامانهٔ جدید هوش مصنوعی SciAgent موفق شده است در چندین المپیاد علمی معتبر، حتی طلایی‌های انسانی را پشت سر بگذارد—آن هم تنها با یک معماری واحد.

هیچ ماژول اختصاصی برای رشته‌های مختلف در آن وجود ندارد.
تمام عملکرد مبتنی است بر استدلال علمی میان‌رشته‌ای خالص.

این دستاورد می‌تواند آیندهٔ اتوماسیون تحقیقاتی، کشف علمی و توانایی استدلال چندحوزه‌ای در مدل‌های هوش مصنوعی را دگرگون کند.


---

#هوش_مصنوعی #علم #استدلال_علمی #AI #Research #SciAgent
2🔥2👍1👏1
🤖 VITRA —
مدل VLA مقیاس‌پذیر مایکروسافت برای یادگیری مهارت‌های انسان از ویدیوهای واقعی

مایکروسافت پروژهٔ جدیدی به نام VITRA معرفی کرده که هدف آن انتقال مستقیم مهارت‌های انسان به ربات‌هاست — فقط با استفاده از ویدیوهای واقعی، بدون سناریو و کاملاً ایگو-سنتریک (از دید انسان).
این یعنی ربات مهارت‌ها را از مشاهدهٔ رفتار طبیعی انسان‌ها یاد می‌گیرد، نه با دیتاست‌های ساختگی یا دموهای دقیق آزمایشگاهی.

🔍 مدل VITRA دقیقاً چه می‌کند؟

ویدیوهای معمولی از دست انسان را به دیتاست کامل VLA تبدیل می‌کند

مدل Vision-Language-Action را برای حرکت دست انسان آموزش می‌دهد

همان مدل را روی داده‌های ربات فاین‌تیون می‌کند تا روی ربات واقعی کار کند


🧩 چطور دیتاست عظیم ساخته می‌شود؟

♻️بازسازی کامل حرکت ۳بعدی دست انسان

♻️تعیین دقیق پوز دوربین و هماهنگی فضا

♻️تبدیل حرکت پیوسته به اکشن‌های اتمی

♻️اضافه کردن توضیح متنی به هر بخش، مثل:
«چرخ را بگیر»، «دستگیره را بچرخان»، «شیء را بردار»


🧠 معماری مدل

مدل VLM بک‌اند برای درک بصری

دیفیوژن پالیسی برای تولید اکشن

توصیف اکشن با ۱۵ زاویهٔ مفصل + پوز و اورینتیشن دست (استاندارد MANO)
— مستقیماً قابل استفاده روی ربات‌های انسان‌نما


📈 نتایج کلیدی

پیش‌بینی zero-shot رفتار دست در محیط‌های جدید

مقیاس‌پذیری قوی — کیفیت با افزایش داده رشد می‌کند

عملکرد بهتر نسبت به SOTA مثل EgoDex

کنترل واقعی ربات با موفقیت بالا در کارهای دستکاری (manipulation)


📅 زمان انتشار عمومی

مایکروسافت قول داده کد، داده و مدل‌ها را تا ۳۰ نوامبر ۲۰۲۵ منتشر کند.

🔗 پروژه:
https://microsoft.github.io/VITRA/
🔗 مقاله:
https://arxiv.org/abs/2510.21571


#AI #Robotics #VLA #Microsoft #VITRA #MachineLearning
#ComputerVision #RobotLearning #ImitationLearning
#EgocentricVideo #Manipulation #DeepLearning
#HumanToRobot #EmbodiedAI #AutonomousSystems
🔥2👍1👏1
🔍 اگر با NanoBanana کار می‌کنید، این مطلب برای شماست!

خیلی‌ها مدل NanoBanana را می‌شناسند و حرفه‌ای از آن استفاده می‌کنند، اما پیدا کردن تمام تکنیک‌ها و قابلیت‌هایش در یک‌جا همیشه سخت بوده.
حالا یک مقالهٔ فوق‌العاده منتشر شده که همه چیز را یک‌جا و کامل توضیح می‌دهد — از اصول تا ترفندهای پیشرفته.

در این مقاله می‌بینید:

پرومت‌نویسی مثل مهندسی
🟣 ساخت تصاویر پیچیده مثل بچه‌گربه‌های هتروکرومیا با رنگ‌های HEX و ترکیب‌بندی سخت
🟣 رندر کامل یک صفحهٔ وب از صفر فقط با HTML + CSS + JS
🟣 تولید یک کاراکتر عجیب‌وغریب و دقیق با JSON (ترکیب Paladin + Pirate + Barista!)


---

🧩 مینی ریورس‌انجینیرینگ پرومت سیستم
نویسنده با تکنیک «magnet» تونسته بخشی از system prompt مدل را بیرون بکشد:

✳️سکشن‌های Markdown

✳️قوانین با MUST و SHOULD

✳️جلوگیری از استایل‌های قدیمی AI-Art

✳️و اینکه چطور مدل را وادار می‌کند دقیق‌تر و حرف‌گوش‌کن‌تر باشد


اگر در پرومت‌دیزاین، توسعه محصول یا ساخت اپ‌های مولتی‌مودال با NanoBanana/Gemini فعالیت دارید — این مقاله یک مرجع واقعی است.

📌 گیت‌هاب ابزارها و مثال‌ها:
https://github.com/minimaxir/gemimg


---

هشتگ‌ها:
#AI #NanoBanana #Gemini #PromptEngineering #AIGeneration #DeepLearning #AIArt #Tech
👍2🔥1👌1
This media is not supported in your browser
VIEW IN TELEGRAM
😅
طنز
بفرمایید
میس دیتا رو زود قضاوت کردید دوستان 🤖

🆔 @rss_ai_ir 💯
🤣8😁2👏1👌1
🚀 یک موتور قدرتمند برای مدل‌های چندمودالی (Multimodal Models)

اگر با مدل‌های ترکیبی متن–تصویر–ویدیو کار می‌کنید، LMMs-Engine یکی از بهترین فریم‌ورک‌های جدید است.
این موتور فوق‌سبک و بسیار انعطاف‌پذیر، مخصوص آموزش و توسعه‌ی مدل‌های چندمودالی طراحی شده و حتی در مقیاس‌های بزرگ هم کارایی بسیار بالایی دارد.

💡 ویژگی‌های برجسته:

🔥 پشتیبانی از ۱۹+ معماری مختلف برای متن، تصویر، ویدیو و مدل‌های ترکیبی

⚙️ بهینه‌سازی برای آموزش توزیع‌شده با مصرف حافظه بسیار کم

🧩 شامل ده‌ها نمونه آماده اجرا برای شروع سریع با مدل‌های مختلف

مناسب برای پژوهشگران، توسعه‌دهندگان و کسانی که به دنبال ساخت LMM اختصاصی هستند


📌 گیت‌هاب:
https://github.com/EvolvingLMMs-Lab/lmms-engine


---

#AI #ML #Multimodal #LMM #DeepLearning #OpenSource #MachineLearning #AIDev #NeuralNetworks
@rss_ai_ir
👍1🔥1🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 مجموعه Anthropic آزمایش کرد که آیا Claude می‌تواند به یک ربات‌سگ آموزش بدهد یا نه

در پروژه‌ای به نام Project Fetch، شرکت Anthropic بررسی کرد که آیا مدل Claude می‌تواند به انسان‌ها در آموزش ربات چهارپای Boston Dynamics Spot کمک کند یا خیر.

در این آزمایش:
دو تیم از کارکنانی که هیچ تجربه‌ای در رباتیک نداشتند، باید Spot را طوری برنامه‌ریزی می‌کردند که یک توپ ساحلی را پیدا کند و بیاورد — آن هم در سه مرحله با سختیِ افزایشی.

🔹 تیم اول با کمک Claude
🔹 تیم دوم بدون هیچ مدل هوش مصنوعی

🧠 نتیجه چه بود؟

✔️ تیم مجهز به Claude دو برابر سریع‌تر پیش رفت
✔️ وظایف بیشتری را تکمیل کرد
✔️ احساس اعتمادبه‌نفس بیشتری داشت
✔️ حتی توانست کنترل ربات را با زبان طبیعی امتحان کند
✔️ البته دوبار هم خراب کردند:
— سرعت حرکت ربات را اشتباه محاسبه کردند
— الگوریتم تشخیص توپ را اشتباه نوشتند

در مقابل، تیم بدون Claude:
بیشتر دچار استرس، سردرگمی و اشتباهات انسانی شد
مجبور بودند دائم از یکدیگر سؤال بپرسند
روندشان کندتر و ناهموارتر بود

🎯 جمع‌بندی

همچنین Project Fetch اولین تلاش Anthropic برای بررسی تأثیر مدل‌های زبانی در پروژه‌های واقعی R&D است.
نتایج نشان می‌دهد:
هوش مصنوعی سرعت و کارایی را چند برابر می‌کند، اما نظارت انسانی همچنان ضروری است.

🔜 گزارش کامل و ویدئوی مستند آن به‌زودی در وب‌سایت Anthropic منتشر می‌شود.


https://www.anthropic.com/research/project-fetch-robot-dog
---

@rss_ai_ir

#هوش_مصنوعی #Claude #Anthropic #رباتیک #BostonDynamics #AI #ML #Robotics #Spot #ProjectFetch #RND #TechNews
👍32🙏1