VIRSUN
7.03K subscribers
1.09K photos
644 videos
5 files
715 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
🤖 DEXOP —
اسکلت بیرونی غیرفعال برای آموزش دقیق ربات‌ها از MIT و UC 🦾

♻️تیمی از پژوهشگران Improbable AI Lab، MIT و UC از سیستمی نوآورانه به نام DEXOP رونمایی کردند — یک اسکلت بیرونی مچی (wrist exoskeleton) که به‌صورت فیزیکی حرکات انسان را به بازوی ربات منتقل می‌کند.

♻️وقتی اپراتور انگشت خود را خم می‌کند، ربات نیز همان حرکت را به‌صورت آنی و دقیق تکرار می‌کند. سنسورهای داخلی دستگاه نیز قدرت گرفتن و فشار انگشتان را ثبت می‌کنند.

🔹 مزیت کلیدی:
داده‌های حرکتی و لمسی بدون نویز یا اعوجاج به دست می‌آیند — بر خلاف جوی‌استیک‌ها یا شبیه‌سازها.
در نتیجه، ربات‌ها بسیار سریع‌تر یاد می‌گیرند؛ مثلاً زمان لازم برای بستن یک لامپ از ۸۶ ثانیه به ۱۱ ثانیه کاهش یافته است.

⚠️ نکته منفی:
همچنین DEXOP به کالیبراسیون بسیار دقیق نیاز دارد؛ در غیر این صورت داده‌ها ممکن است دچار انحراف شوند.

به‌زودی در همه‌ی ساختمان‌ها و تأسیسات — برای تعویض لامپ‌ها در خدمت انسان 😄

https://arxiv.org/pdf/2509.04441

@rss_ai_ir 🤖

#رباتیک #هوش_مصنوعی #MIT #DEXOP #Exoskeleton #RobotLearning #AI
🤖 VITRA —
مدل VLA مقیاس‌پذیر مایکروسافت برای یادگیری مهارت‌های انسان از ویدیوهای واقعی

مایکروسافت پروژهٔ جدیدی به نام VITRA معرفی کرده که هدف آن انتقال مستقیم مهارت‌های انسان به ربات‌هاست — فقط با استفاده از ویدیوهای واقعی، بدون سناریو و کاملاً ایگو-سنتریک (از دید انسان).
این یعنی ربات مهارت‌ها را از مشاهدهٔ رفتار طبیعی انسان‌ها یاد می‌گیرد، نه با دیتاست‌های ساختگی یا دموهای دقیق آزمایشگاهی.

🔍 مدل VITRA دقیقاً چه می‌کند؟

ویدیوهای معمولی از دست انسان را به دیتاست کامل VLA تبدیل می‌کند

مدل Vision-Language-Action را برای حرکت دست انسان آموزش می‌دهد

همان مدل را روی داده‌های ربات فاین‌تیون می‌کند تا روی ربات واقعی کار کند


🧩 چطور دیتاست عظیم ساخته می‌شود؟

♻️بازسازی کامل حرکت ۳بعدی دست انسان

♻️تعیین دقیق پوز دوربین و هماهنگی فضا

♻️تبدیل حرکت پیوسته به اکشن‌های اتمی

♻️اضافه کردن توضیح متنی به هر بخش، مثل:
«چرخ را بگیر»، «دستگیره را بچرخان»، «شیء را بردار»


🧠 معماری مدل

مدل VLM بک‌اند برای درک بصری

دیفیوژن پالیسی برای تولید اکشن

توصیف اکشن با ۱۵ زاویهٔ مفصل + پوز و اورینتیشن دست (استاندارد MANO)
— مستقیماً قابل استفاده روی ربات‌های انسان‌نما


📈 نتایج کلیدی

پیش‌بینی zero-shot رفتار دست در محیط‌های جدید

مقیاس‌پذیری قوی — کیفیت با افزایش داده رشد می‌کند

عملکرد بهتر نسبت به SOTA مثل EgoDex

کنترل واقعی ربات با موفقیت بالا در کارهای دستکاری (manipulation)


📅 زمان انتشار عمومی

مایکروسافت قول داده کد، داده و مدل‌ها را تا ۳۰ نوامبر ۲۰۲۵ منتشر کند.

🔗 پروژه:
https://microsoft.github.io/VITRA/
🔗 مقاله:
https://arxiv.org/abs/2510.21571


#AI #Robotics #VLA #Microsoft #VITRA #MachineLearning
#ComputerVision #RobotLearning #ImitationLearning
#EgocentricVideo #Manipulation #DeepLearning
#HumanToRobot #EmbodiedAI #AutonomousSystems
👍1🔥1👏1