Robotic Knowledge
383 subscribers
242 photos
62 videos
2 files
172 links
دانش و برنامه‌نویسی برای رباتیک
Download Telegram
#robotic #odometry #algorithm

I'm a robot. Where am I?

I have published a lecture to explain odometry and a simple algorithm for its implementation in a two-wheel mobile robot.
For a mobile robot, the ability for self-positioning is crucial and basic for other capabilities. I want to teach you the theory, and algorithm of a simple Odometry algorithm based on the wheel's encoder of two-wheel mobile robots. I will employ the discussed algorithm in the next lecture in Webots to track the position of a turtle bot.

Link to the lecture: https://youtu.be/BqmoPWKZWGM

----------
t.iss.one/roboticknowledge
youtube.com/@roboticknowledge
Robotic Knowledge pinned «#robotic #odometry #algorithm I'm a robot. Where am I? I have published a lecture to explain odometry and a simple algorithm for its implementation in a two-wheel mobile robot. For a mobile robot, the ability for self-positioning is crucial and basic for…»
#LiDAR
How does LiDAR work?

[Source]
----------
@roboticknowledge
#LiDAR
How does LiDAR work?

[Source]
----------
@roboticknowledge
Robotic Knowledge
#LiDAR How does LiDAR work? [Source] ---------- @roboticknowledge
#LiDAR
How does LiDAR work?

یک موتور لیزر را در ۳۶۰ درجه دوران می‌دهد تا تمام محیط اسکن شود. آرایه نقاط کشف شده برای ایجاد نقشه از محیط و موانع در واحد‌ ناوبری ربات استفاده می‌شود.
----------
@roboticknowledge
#ChatGPT
#ROS2
لیستی از آموزش‌های ROS2 که جناب ChatGPT پیشنهاد دادن!
آخر کار هم توصیه قشنگی کردن. :)))
----------
@roboticknowledge
#فضا
یه خبر جالبی دیدم و اون هم همکاری DARPA و NASA برای توسعه پیشران Thermo Nuclear برای راکت‌های فضایی آینده هست؛ سفرهای فضایی طولانی‌تر نسبت به چیزی که الان بشر داره! برای ۲۰۲۷ برنامه‌ریزی کردن که خب شاید منطقی نباشه و احتمالا بیشتر از اینا طول بکشه.
----------
@roboticknowledge
#نقشه
خب یه ساختار باحال از یه نوع دسته‌بندی ربات‌ها ببینیم!

منیپولیتورها، ربات‌های استیشنری، موبایل ربات‌های چرخ‌دار و پادار و نهایتا پهپادها. یه سری چیزا هم نیست مثلاً ربات‌های زیرآبی یا شبه جانورها 😅 که طبیعی هست چون خیلی خیلی میشه دسته‌بندی‌های مختلفی کرد و داشت!

اگه روی این هشتگ #نقشه کلیک کنید، چندتا نقشه باحال که قبلاً توی این کانال قرار دادم رو میتونید ببینید.
----------
@roboticknowledge
👏2
Robotic Knowledge
https://twitter.com/webots/status/1615011042584629248?t=My-crcU1FgQ4EKCmV0RgMg&s=35
I'm working on giving the ability of opponent detection to my NAO humanoid robot in a wrestling competition by Cyberbotics Ltd. I used #Yolo for this task, and the attached image shows the initial capability of the trained network for detecting the opponent; Also the network can make sense of the environment. Training is just started and will continue with many more data.
I'll make the weights and the data set open-source after the competition. 😅
----------
@roboticknowledge
👍4👏2🏆1
#رباتیک_جانوری #امدادرباتیک
آموزش موش صحرایی برای پیدا کردن افراد

موردی جالب دیدم که درباره نجات افراد محبوس (مثلا در زیر آوار) توسط موش‌های صحرایی بود. سگ‌های آموزش دیده بخاطر هیکل بزرگ نمی‌تونن وارد عمق از حفره‌ها بشن اما موش‌ها می‌تونن؛ همین شده که توی یک پروژه دانشجویی اومدن به موش‌ها آموزش دادن که وقتی فردی رو حس کردن [با بو احتمالا]، یک دکمه آلارم روی کوله‌ای که پشت آنها بسته شده رو فشار بدن و با این کار موقعیت دقیق موش به تیم نجات ارسال میشه!

خیلی تکنولوژی رباتیکی خاصی نداره و صرفا آموزش موش و طراحی یک بک‌پک برای لوکالیزیشن داره این کار اما نکته جالب استفاده از جانوران برای سادگی کار هست. قبلاً هم در کانال یه مطلبی نوشتم که از اندام عنکبوت مرده به عنوان Robotic Manipulator استفاده شده بود و هدف ساده‌سازی کارها بود؛ توی هر دو مورد دیگه نیازی به طراحی سیستم‌های رباتیک مکانیکی نیست و از جانداری که در دسترس هست استفاده میشه!

البته وارد بحث‌های اخلاقی اون که انسان داره از جانور برای اهدافی مشخص استفاده می‌کنه، نمی‌شم چون هدف این مطلب هم این نیست.

[منبع]
----------
@roboticknowledge
👨‍💻2
Forwarded from Robotic Knowledge
🤯1
Robotic Knowledge
https://twitter.com/ias_tudarmstadt/status/1627601129260437507?t=TN5r3sqJE2cieKKR6uBpKQ&s=35
یه مسابقه بنظر باحال دیگه رباتیک داخل شبیه‌ساز!
بشدت میشه توی این مسابقه‌ها چیزهای باحالی یاد گرفت و تمرین کرد.
----------
@roboticknowledge
Robotic Knowledge
#یادگیری_تقویتی #هوش_مصنوعی #یادگیری #RL ---------- @roboticknowledge
#یادگیری_تقویتی #هوش_مصنوعی #یادگیری
#RL

قسمت اول: یادگیری تقویتی (Reinforcement learning) چیست؟

یادگیری تقویتی (RL) یکی از بخش‌های یادگیری ماشین هست که برای رباتیک و به طور کلی آموزش سیستم‌های پیچیده برای انجام یک رفتار مناسب و مشخص خیلی کاربردی هست. در واقع RL و الگوریتم‌های اون به اون ربات اجازه میده یک رفتار رو با تجربه کردن یاد بگیره و به سمت بهینه کردن کارکرد خودش در انجام اون عمل حرکت کنه.

توی RL به رباتی که داره یاد میگیره agent، به محیطی که ربات داخلش هست environment و به عمل ربات که باید در نهایت ماجرا بهینه اجرا بشه task گفته میشه؛ به خود بروز رفتار هم که action میگن.

خب حالا که یکم ادبیات رو می‌دونیم، میتونیم یکم دقیق‌تر صحبت کنیم. توی RL یک agent یه سری actions انجام میده داخل یه environment، و از عملش feedback دریافت می‌کنه. فیدبک می‌تونه مثبت باشه که بهش reward میگن یا می‌تونه منفی باشه که بهش penalty گفته میشه. یه کودک رو تجسم کنید که با فیدبک یاد میگیره رفتار بهتری از نظر بقیه بروز بده؛ این هم دقیقاً همون هست.

هدف نهایی هم اینه که یک agent به یک قانون بهینه برسه که با اون یک کار سخت و پیچیده رو بدون برنامه‌نویسی پیچیده‌ انجام بده (با صرف هزینه زمان و طراحی یادگیری)؛ قانون مورد اشاره هم policy بهش میگن.

فرایند یادگیری هم اینجوری هست که یک الگوریتم policy رو بر اساس فیدبک جوری تغییر میده که مجموع reward ها بیشینه بشه. عملا یه جور بهینه‌سازی داره انجام میشه. ورودی الگوریتم فیدبک بر اساس state مربوطه به agent و خروجی الگوریتم هم action بعدی هست که ربات توی environment از خودش بروز میده.
----------
@roboticknowledge
#یادگیری_تقویتی #هوش_مصنوعی #یادگیری #نقشه
#RL

قسمت دوم: الگوریتم‌های RL برای رباتیک

تعدادی از الگوریتم‌های RL برای یاد دادن به سیستم‌های رباتیک بیشتر مورد توجه بوده‌اند که الگوریتم Q-learning، الگوریتم‌های policy gradient و الگوریتم‌های actor-critic از آن‌ها هستند.

در ادامه این الگوریتم و روش‌ها را بررسی خواهیم کرد.
----------
@roboticknowledge