🤖 Исследователи из MIT создали робота DribbleBot, способного вести футбольный мяч по различным поверхностям.
Для тренировки системы специалисты использовали 4000 смоделированных версий устройства. Также они применили метод обучения с подкреплением.
Помимо различных датчиков исследователи оснастили робота контроллером восстановления, который позволяет устройству подняться после падения и возобновить дриблинг.
⚽️ DribbleBot умеет вести мяч по песку, гравию, траве, грязи, снегу и другим естественным ландшафтам. При этом система адаптируется к влиянию поверхностей на движение спортивного снаряда.
#MIT #роботы
Для тренировки системы специалисты использовали 4000 смоделированных версий устройства. Также они применили метод обучения с подкреплением.
Помимо различных датчиков исследователи оснастили робота контроллером восстановления, который позволяет устройству подняться после падения и возобновить дриблинг.
⚽️ DribbleBot умеет вести мяч по песку, гравию, траве, грязи, снегу и другим естественным ландшафтам. При этом система адаптируется к влиянию поверхностей на движение спортивного снаряда.
#MIT #роботы
YouTube
A soccer-playing robot equipped for various terrains
MIT News spotlight link: https://news.mit.edu/2023/legged-robotic-system-playing-soccer-various-terrains-0403
Key authors: Yandong Ji ([email protected])∗, Gabriel B. Margolis ([email protected])*, and Pulkit Agrawal ([email protected])
Paper: https://www.dr…
Key authors: Yandong Ji ([email protected])∗, Gabriel B. Margolis ([email protected])*, and Pulkit Agrawal ([email protected])
Paper: https://www.dr…
🤖 Специалисты из Google представили подход, позволяющий роботам эффективно протирать столы от крошек и жидкости в сложных средах.
Эксперты объединили методы обучения с подкреплением (RL) и оптимизации траекторий. Первый предоставляет роботу возможность выбирать действия по очистке поверхности, а второй определять команды для всего тела с учетом физических ограничений и предотвращения столкновений.
Исследователи использовали симулятор стохастического дифференциального уравнения задачи протирания стола для тренировки RL-политики планированию высокого уровня. По их словам, это позволяет избежать необходимости в обучающих данных для конкретной задачи.
🧽 Специалисты протестировал метод на роботе. Они заявили, что по сравнению с основанными на эвристике подходами он требует меньшего количества салфеток для очистки разливов и крошек с поверхности. Устройство не смахивает случайно мусор со стола и в процессе уборки не сталкивается с препятствиями вроде стульев.
#Google #роботы
Эксперты объединили методы обучения с подкреплением (RL) и оптимизации траекторий. Первый предоставляет роботу возможность выбирать действия по очистке поверхности, а второй определять команды для всего тела с учетом физических ограничений и предотвращения столкновений.
Исследователи использовали симулятор стохастического дифференциального уравнения задачи протирания стола для тренировки RL-политики планированию высокого уровня. По их словам, это позволяет избежать необходимости в обучающих данных для конкретной задачи.
🧽 Специалисты протестировал метод на роботе. Они заявили, что по сравнению с основанными на эвристике подходами он требует меньшего количества салфеток для очистки разливов и крошек с поверхности. Устройство не смахивает случайно мусор со стола и в процессе уборки не сталкивается с препятствиями вроде стульев.
#Google #роботы
YouTube
Robotic Table Wiping via Reinforcement Learning and Whole-body Trajectory Optimization
Our approach combines the strengths of reinforcement learning (RL) - planning in high-dimensional observation spaces with complex stochastic dynamics, and of trajectory optimization - guaranteeing constraints satisfaction while executing whole-body trajectories.…