#robotic #odometry #algorithm
I'm a robot. Where am I?
I have published a lecture to explain odometry and a simple algorithm for its implementation in a two-wheel mobile robot.
For a mobile robot, the ability for self-positioning is crucial and basic for other capabilities. I want to teach you the theory, and algorithm of a simple Odometry algorithm based on the wheel's encoder of two-wheel mobile robots. I will employ the discussed algorithm in the next lecture in Webots to track the position of a turtle bot.
Link to the lecture: https://youtu.be/BqmoPWKZWGM
----------
t.iss.one/roboticknowledge
youtube.com/@roboticknowledge
I'm a robot. Where am I?
I have published a lecture to explain odometry and a simple algorithm for its implementation in a two-wheel mobile robot.
For a mobile robot, the ability for self-positioning is crucial and basic for other capabilities. I want to teach you the theory, and algorithm of a simple Odometry algorithm based on the wheel's encoder of two-wheel mobile robots. I will employ the discussed algorithm in the next lecture in Webots to track the position of a turtle bot.
Link to the lecture: https://youtu.be/BqmoPWKZWGM
----------
t.iss.one/roboticknowledge
youtube.com/@roboticknowledge
YouTube
Odometry: Theory and Algorithm for two-wheel mobile robots
For a mobile robot, the ability for self-positioning is crucial and basic for other capabilities. I want to teach you the theory, and algorithm of a simple Odometry algorithm based on the wheel's encoder of two-wheel mobile robots. I will employ the discussed…
Robotic Knowledge pinned «#robotic #odometry #algorithm I'm a robot. Where am I? I have published a lecture to explain odometry and a simple algorithm for its implementation in a two-wheel mobile robot. For a mobile robot, the ability for self-positioning is crucial and basic for…»
Robotic Knowledge
#LiDAR How does LiDAR work? [Source] ---------- @roboticknowledge
#LiDAR
How does LiDAR work?
یک موتور لیزر را در ۳۶۰ درجه دوران میدهد تا تمام محیط اسکن شود. آرایه نقاط کشف شده برای ایجاد نقشه از محیط و موانع در واحد ناوبری ربات استفاده میشود.
----------
@roboticknowledge
How does LiDAR work?
یک موتور لیزر را در ۳۶۰ درجه دوران میدهد تا تمام محیط اسکن شود. آرایه نقاط کشف شده برای ایجاد نقشه از محیط و موانع در واحد ناوبری ربات استفاده میشود.
----------
@roboticknowledge
#ChatGPT
#ROS2
لیستی از آموزشهای ROS2 که جناب ChatGPT پیشنهاد دادن!
آخر کار هم توصیه قشنگی کردن. :)))
----------
@roboticknowledge
#ROS2
لیستی از آموزشهای ROS2 که جناب ChatGPT پیشنهاد دادن!
آخر کار هم توصیه قشنگی کردن. :)))
----------
@roboticknowledge
#فضا
یه خبر جالبی دیدم و اون هم همکاری DARPA و NASA برای توسعه پیشران Thermo Nuclear برای راکتهای فضایی آینده هست؛ سفرهای فضایی طولانیتر نسبت به چیزی که الان بشر داره! برای ۲۰۲۷ برنامهریزی کردن که خب شاید منطقی نباشه و احتمالا بیشتر از اینا طول بکشه.
----------
@roboticknowledge
یه خبر جالبی دیدم و اون هم همکاری DARPA و NASA برای توسعه پیشران Thermo Nuclear برای راکتهای فضایی آینده هست؛ سفرهای فضایی طولانیتر نسبت به چیزی که الان بشر داره! برای ۲۰۲۷ برنامهریزی کردن که خب شاید منطقی نباشه و احتمالا بیشتر از اینا طول بکشه.
----------
@roboticknowledge
#نقشه
خب یه ساختار باحال از یه نوع دستهبندی رباتها ببینیم!
✅ منیپولیتورها، رباتهای استیشنری، موبایل رباتهای چرخدار و پادار و نهایتا پهپادها. یه سری چیزا هم نیست مثلاً رباتهای زیرآبی یا شبه جانورها 😅 که طبیعی هست چون خیلی خیلی میشه دستهبندیهای مختلفی کرد و داشت!
اگه روی این هشتگ #نقشه کلیک کنید، چندتا نقشه باحال که قبلاً توی این کانال قرار دادم رو میتونید ببینید.
----------
@roboticknowledge
خب یه ساختار باحال از یه نوع دستهبندی رباتها ببینیم!
✅ منیپولیتورها، رباتهای استیشنری، موبایل رباتهای چرخدار و پادار و نهایتا پهپادها. یه سری چیزا هم نیست مثلاً رباتهای زیرآبی یا شبه جانورها 😅 که طبیعی هست چون خیلی خیلی میشه دستهبندیهای مختلفی کرد و داشت!
اگه روی این هشتگ #نقشه کلیک کنید، چندتا نقشه باحال که قبلاً توی این کانال قرار دادم رو میتونید ببینید.
----------
@roboticknowledge
👏2
Robotic Knowledge
https://twitter.com/webots/status/1615011042584629248?t=My-crcU1FgQ4EKCmV0RgMg&s=35
I'm working on giving the ability of opponent detection to my NAO humanoid robot in a wrestling competition by Cyberbotics Ltd. I used #Yolo for this task, and the attached image shows the initial capability of the trained network for detecting the opponent; Also the network can make sense of the environment. Training is just started and will continue with many more data.
I'll make the weights and the data set open-source after the competition. 😅
----------
@roboticknowledge
I'll make the weights and the data set open-source after the competition. 😅
----------
@roboticknowledge
👍4👏2🏆1
#رباتیک_جانوری #امدادرباتیک
آموزش موش صحرایی برای پیدا کردن افراد
موردی جالب دیدم که درباره نجات افراد محبوس (مثلا در زیر آوار) توسط موشهای صحرایی بود. سگهای آموزش دیده بخاطر هیکل بزرگ نمیتونن وارد عمق از حفرهها بشن اما موشها میتونن؛ همین شده که توی یک پروژه دانشجویی اومدن به موشها آموزش دادن که وقتی فردی رو حس کردن [با بو احتمالا]، یک دکمه آلارم روی کولهای که پشت آنها بسته شده رو فشار بدن و با این کار موقعیت دقیق موش به تیم نجات ارسال میشه!
خیلی تکنولوژی رباتیکی خاصی نداره و صرفا آموزش موش و طراحی یک بکپک برای لوکالیزیشن داره این کار اما نکته جالب استفاده از جانوران برای سادگی کار هست. قبلاً هم در کانال یه مطلبی نوشتم که از اندام عنکبوت مرده به عنوان Robotic Manipulator استفاده شده بود و هدف سادهسازی کارها بود؛ توی هر دو مورد دیگه نیازی به طراحی سیستمهای رباتیک مکانیکی نیست و از جانداری که در دسترس هست استفاده میشه!
البته وارد بحثهای اخلاقی اون که انسان داره از جانور برای اهدافی مشخص استفاده میکنه، نمیشم چون هدف این مطلب هم این نیست.
[منبع]
----------
@roboticknowledge
آموزش موش صحرایی برای پیدا کردن افراد
موردی جالب دیدم که درباره نجات افراد محبوس (مثلا در زیر آوار) توسط موشهای صحرایی بود. سگهای آموزش دیده بخاطر هیکل بزرگ نمیتونن وارد عمق از حفرهها بشن اما موشها میتونن؛ همین شده که توی یک پروژه دانشجویی اومدن به موشها آموزش دادن که وقتی فردی رو حس کردن [با بو احتمالا]، یک دکمه آلارم روی کولهای که پشت آنها بسته شده رو فشار بدن و با این کار موقعیت دقیق موش به تیم نجات ارسال میشه!
خیلی تکنولوژی رباتیکی خاصی نداره و صرفا آموزش موش و طراحی یک بکپک برای لوکالیزیشن داره این کار اما نکته جالب استفاده از جانوران برای سادگی کار هست. قبلاً هم در کانال یه مطلبی نوشتم که از اندام عنکبوت مرده به عنوان Robotic Manipulator استفاده شده بود و هدف سادهسازی کارها بود؛ توی هر دو مورد دیگه نیازی به طراحی سیستمهای رباتیک مکانیکی نیست و از جانداری که در دسترس هست استفاده میشه!
البته وارد بحثهای اخلاقی اون که انسان داره از جانور برای اهدافی مشخص استفاده میکنه، نمیشم چون هدف این مطلب هم این نیست.
[منبع]
----------
@roboticknowledge
👨💻2
Robotic Knowledge
I'm working on giving the ability of opponent detection to my NAO humanoid robot in a wrestling competition by Cyberbotics Ltd. I used #Yolo for this task, and the attached image shows the initial capability of the trained network for detecting the opponent;…
Twitter
@ICRA2023 Simulated Humanoid Robot Wrestling Competition: SugarSkull versus Mohammad Javad Zallaghi. See more games and participate at https://t.co/Y8mdl9MUSv
👀1
Robotic Knowledge
https://twitter.com/ias_tudarmstadt/status/1627601129260437507?t=TN5r3sqJE2cieKKR6uBpKQ&s=35
یه مسابقه بنظر باحال دیگه رباتیک داخل شبیهساز!
بشدت میشه توی این مسابقهها چیزهای باحالی یاد گرفت و تمرین کرد.
----------
@roboticknowledge
بشدت میشه توی این مسابقهها چیزهای باحالی یاد گرفت و تمرین کرد.
----------
@roboticknowledge
Robotic Knowledge
#یادگیری_تقویتی #هوش_مصنوعی #یادگیری #RL ---------- @roboticknowledge
#یادگیری_تقویتی #هوش_مصنوعی #یادگیری
#RL
قسمت اول: یادگیری تقویتی (Reinforcement learning) چیست؟
یادگیری تقویتی (RL) یکی از بخشهای یادگیری ماشین هست که برای رباتیک و به طور کلی آموزش سیستمهای پیچیده برای انجام یک رفتار مناسب و مشخص خیلی کاربردی هست. در واقع RL و الگوریتمهای اون به اون ربات اجازه میده یک رفتار رو با تجربه کردن یاد بگیره و به سمت بهینه کردن کارکرد خودش در انجام اون عمل حرکت کنه.
توی RL به رباتی که داره یاد میگیره agent، به محیطی که ربات داخلش هست environment و به عمل ربات که باید در نهایت ماجرا بهینه اجرا بشه task گفته میشه؛ به خود بروز رفتار هم که action میگن.
خب حالا که یکم ادبیات رو میدونیم، میتونیم یکم دقیقتر صحبت کنیم. توی RL یک agent یه سری actions انجام میده داخل یه environment، و از عملش feedback دریافت میکنه. فیدبک میتونه مثبت باشه که بهش reward میگن یا میتونه منفی باشه که بهش penalty گفته میشه. یه کودک رو تجسم کنید که با فیدبک یاد میگیره رفتار بهتری از نظر بقیه بروز بده؛ این هم دقیقاً همون هست.
هدف نهایی هم اینه که یک agent به یک قانون بهینه برسه که با اون یک کار سخت و پیچیده رو بدون برنامهنویسی پیچیده انجام بده (با صرف هزینه زمان و طراحی یادگیری)؛ قانون مورد اشاره هم policy بهش میگن.
فرایند یادگیری هم اینجوری هست که یک الگوریتم policy رو بر اساس فیدبک جوری تغییر میده که مجموع reward ها بیشینه بشه. عملا یه جور بهینهسازی داره انجام میشه. ورودی الگوریتم فیدبک بر اساس state مربوطه به agent و خروجی الگوریتم هم action بعدی هست که ربات توی environment از خودش بروز میده.
----------
@roboticknowledge
#RL
قسمت اول: یادگیری تقویتی (Reinforcement learning) چیست؟
یادگیری تقویتی (RL) یکی از بخشهای یادگیری ماشین هست که برای رباتیک و به طور کلی آموزش سیستمهای پیچیده برای انجام یک رفتار مناسب و مشخص خیلی کاربردی هست. در واقع RL و الگوریتمهای اون به اون ربات اجازه میده یک رفتار رو با تجربه کردن یاد بگیره و به سمت بهینه کردن کارکرد خودش در انجام اون عمل حرکت کنه.
توی RL به رباتی که داره یاد میگیره agent، به محیطی که ربات داخلش هست environment و به عمل ربات که باید در نهایت ماجرا بهینه اجرا بشه task گفته میشه؛ به خود بروز رفتار هم که action میگن.
خب حالا که یکم ادبیات رو میدونیم، میتونیم یکم دقیقتر صحبت کنیم. توی RL یک agent یه سری actions انجام میده داخل یه environment، و از عملش feedback دریافت میکنه. فیدبک میتونه مثبت باشه که بهش reward میگن یا میتونه منفی باشه که بهش penalty گفته میشه. یه کودک رو تجسم کنید که با فیدبک یاد میگیره رفتار بهتری از نظر بقیه بروز بده؛ این هم دقیقاً همون هست.
هدف نهایی هم اینه که یک agent به یک قانون بهینه برسه که با اون یک کار سخت و پیچیده رو بدون برنامهنویسی پیچیده انجام بده (با صرف هزینه زمان و طراحی یادگیری)؛ قانون مورد اشاره هم policy بهش میگن.
فرایند یادگیری هم اینجوری هست که یک الگوریتم policy رو بر اساس فیدبک جوری تغییر میده که مجموع reward ها بیشینه بشه. عملا یه جور بهینهسازی داره انجام میشه. ورودی الگوریتم فیدبک بر اساس state مربوطه به agent و خروجی الگوریتم هم action بعدی هست که ربات توی environment از خودش بروز میده.
----------
@roboticknowledge
#یادگیری_تقویتی #هوش_مصنوعی #یادگیری #نقشه
#RL
قسمت دوم: الگوریتمهای RL برای رباتیک
تعدادی از الگوریتمهای RL برای یاد دادن به سیستمهای رباتیک بیشتر مورد توجه بودهاند که الگوریتم Q-learning، الگوریتمهای policy gradient و الگوریتمهای actor-critic از آنها هستند.
در ادامه این الگوریتم و روشها را بررسی خواهیم کرد.
----------
@roboticknowledge
#RL
قسمت دوم: الگوریتمهای RL برای رباتیک
تعدادی از الگوریتمهای RL برای یاد دادن به سیستمهای رباتیک بیشتر مورد توجه بودهاند که الگوریتم Q-learning، الگوریتمهای policy gradient و الگوریتمهای actor-critic از آنها هستند.
در ادامه این الگوریتم و روشها را بررسی خواهیم کرد.
----------
@roboticknowledge