Useful Models for Robot Learning
Slides by Marc Deisenroth : https://deisenroth.cc/talks/2019-12-14-neurips-ws.pdf
#ReinforcementLearning #Robotics #MetaLearning
🔗
Slides by Marc Deisenroth : https://deisenroth.cc/talks/2019-12-14-neurips-ws.pdf
#ReinforcementLearning #Robotics #MetaLearning
🔗
Introduction to Reinforcement Learning
By DeepMind: https://www.youtube.com/watch?v=2pWv7GOvuf0&list=PLqYmG7hTraZDM- OYHWgPebj2MfCFzFObQ
#DeepLearning #ReinforcementLearning #Robotics
🎥 RL Course by David Silver - Lecture 1: Introduction to Reinforcement Learning
👁 1 раз ⏳ 5293 сек.
By DeepMind: https://www.youtube.com/watch?v=2pWv7GOvuf0&list=PLqYmG7hTraZDM- OYHWgPebj2MfCFzFObQ
#DeepLearning #ReinforcementLearning #Robotics
🎥 RL Course by David Silver - Lecture 1: Introduction to Reinforcement Learning
👁 1 раз ⏳ 5293 сек.
#Reinforcement Learning Course by David Silver# Lecture 1: Introduction to Reinforcement Learning
#Slides and more info about the course: https://goo.gl/vUiyjq
YouTube
RL Course by David Silver - Lecture 1: Introduction to Reinforcement Learning
#Reinforcement Learning Course by David Silver# Lecture 1: Introduction to Reinforcement Learning
#Slides and more info about the course: https://goo.gl/vUiyjq
#Slides and more info about the course: https://goo.gl/vUiyjq
📃 Embodied Intelligence via Learning and Evolution
Embodied Intelligence via Learning and Evolution
Gupta et al.: https://arxiv.org/abs/2102.02202
#ArtificialIntelligence #EmbodiedIntelligence #Robotics
Embodied Intelligence via Learning and Evolution
Gupta et al.: https://arxiv.org/abs/2102.02202
#ArtificialIntelligence #EmbodiedIntelligence #Robotics
VK
Data Science / Machine Learning / AI / Big Data
Embodied Intelligence via Learning and Evolution Gupta et al.: https://arxiv.org/abs/2102.02202 #ArtificialIntelligence #EmbodiedIntelligence #Robotics
📃 How to Train Your Robot with Deep Reinforcement Learning
How to Train Your Robot with Deep Reinforcement Learning; Lessons We've Learned
Ibarz et al.: https://arxiv.org/abs/2102.02915
#Robotics #MachineLearning #ReinforcementLearning
How to Train Your Robot with Deep Reinforcement Learning; Lessons We've Learned
Ibarz et al.: https://arxiv.org/abs/2102.02915
#Robotics #MachineLearning #ReinforcementLearning
VK
Data Science / Machine Learning / AI / Big Data
How to Train Your Robot with Deep Reinforcement Learning; Lessons We've Learned Ibarz et al.: https://arxiv.org/abs/2102.02915 #Robotics #MachineLearning #ReinforcementLearning
📃 Joint Object Detection and Multi-Object Tracking with Graph Neural Networks
Joint Object Detection and Multi-Object Tracking with Graph Neural Networks
Wang et al.: https://arxiv.org/abs/2006.13164
#GraphNeuralNetworks #MultiagentSystems #Robotics
Joint Object Detection and Multi-Object Tracking with Graph Neural Networks
Wang et al.: https://arxiv.org/abs/2006.13164
#GraphNeuralNetworks #MultiagentSystems #Robotics
VK
Data Science / Machine Learning / AI / Big Data
Joint Object Detection and Multi-Object Tracking with Graph Neural Networks Wang et al.: https://arxiv.org/abs/2006.13164 #GraphNeuralNetworks #MultiagentSystems #Robotics
Data Science / Machine Learning / AI / Big Data (VK)
A Portable, Self-Contained Neuroprosthetic Hand with Deep Learning-Based Finger Control
Nguyen et al.: https://arxiv.org/abs/2103.13452
#Robotics #ArtificialIntelligence #HumanComputerInteraction
A Portable, Self-Contained Neuroprosthetic Hand with Deep Learning-Based Finger Control
Nguyen et al.: https://arxiv.org/abs/2103.13452
#Robotics #ArtificialIntelligence #HumanComputerInteraction
Data Science / Machine Learning / AI / Big Data (VK)
LoFTR: Detector-Free Local Feature Matching with Transformers
Sun et al.: https://arxiv.org/abs/2104.00680
#DeepLearning #Robotics #Transformers
LoFTR: Detector-Free Local Feature Matching with Transformers
Sun et al.: https://arxiv.org/abs/2104.00680
#DeepLearning #Robotics #Transformers
Data Science / Machine Learning / AI / Big Data (VK)
Task-Agnostic Morphology Evolution
Hejna III et al.: https://arxiv.org/abs/2102.13100
#MachineLearning #ArtificialIntelligence #Robotics
Task-Agnostic Morphology Evolution
Hejna III et al.: https://arxiv.org/abs/2102.13100
#MachineLearning #ArtificialIntelligence #Robotics
Forwarded from Machinelearning
In-Context Robot Transformer (ICRT) - модель, которая позволяет роботу выполнять новые задачи, интерпретируя контекстную информацию, предоставленную во время демонстрационной фазы, без обновления параметров базовой политики.
ICRT представляет собой причинно-следственный трансформер, который выполняет автоматический прогноз сенсомоторных траекторий без использования лингвистических данных или функции вознаграждения. Он позволяет гибко и без обучения выполнять новые задачи на основе наблюдений изображений, действий и состояний, собранных с помощью телеопераций человека.
Модель состоит из трех частей: предварительно обученного кодировщика изображений, серии проекторов для каждой из входных модальностей и каузального трансформера:
Для предварительного обучения модели использовался датасет DROID и созданный вручную мультизадачный датасет ICRT-Multi-Task (ICRT-MT - 1098 траекторий, 26 задач с 6 примитивами), который использовался в этапе дообучения.
Результаты экспериментов показывают, что ICRT способен обобщать незнакомые задачи и объекты, даже в средах, которые отличаются от демонстрационных.
# Create & activate venv
conda create -n icrt python=3.10 -y
conda activate icrt
# Install torch
conda install pytorch torchvision torchaudio pytorch-cuda=12.4 -c pytorch -c nvidia
conda install -c conda-forge ffmpeg
# Clone the Repository
git clone https://github.com/Max-Fu/icrt.git
cd icrt
# Install required packages
pip install -e .
# Install git-lfs
sudo apt install git-lfs
git lfs install
# Download checkpoints
git clone [email protected]:mlfu7/ICRT checkpoints
Пример инференса приведен в ноутбуке inference.ipynb. Перед его запуском обязательно ознакомьтесь с рекомендациями по загрузке и созданию собственного датасета.
@ai_machinelearning_big_data
#AI #ML #Robotics #ICRT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
OpenVLA - набор моделей с 7млрд. параметров, которые предназначены для универсального управления роботами.
OpenVLA состоит из комбинации визуальных энкодеров SigLIP, DinoV2 и языковой модели Llama 2, выступающей в качестве основы. Обучение производилось на наборе данных Open-X, который состоит из 970 тыс. траекторий манипуляций в различных средах.
Модели принимают на вход языковую инструкцию и изображение рабочей области с камеры робота. Затем, OpenVLA предсказывает нормализированные действия робота, состоящие из 7-DoF дельт конечных эффекторов в виде координатных положений (x, y, z, roll, pitch, yaw, gripper).
Для выполнения на реальной роботизированной платформе действия должны быть де-нормализованы с учетом статистики, вычисляемой для каждого робота и каждого набора данных.
OpenVLA готовы к использованию для управления роботами в комбинациях действий и обстановках, если они схожи с действиями и задачами, которые присутствуют в Open-X (например, для сред BridgeV2 с роботом Widow-X).
Модели не умеют самообучаться на условиях, не представленных в предварительном обучении; для решения таких случаев разработчики подготовили подробные инструкции по самостоятельному дообучению на вашем наборе демонстраций.
Семейство OpenVLA состоит из 5 модификаций базовой OpenVLA-7B:
# Create venv
conda create -n openvla python=3.10 -y
conda activate openvla
# Install PyTorch
conda install pytorch torchvision torchaudio pytorch-cuda=12.4 -c pytorch -c nvidia -y
# Clone and install the openvla repo
git clone https://github.com/openvla/openvla.git
cd openvla
pip install -e .
# for training only
# Install Flash Attention 2
pip install packaging ninja
ninja --version; echo $? # --> should return code "0"
pip install "flash-attn==2.5.5" --no-build-isolation
@ai_machinelearning_big_data
#AI #ML #OpetVLA #Robotics
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Илон Маск: с Neuralink можно будет “заселиться” в тело робота Tesla Optimus
Маск заявил, что люди с нейроимплантами Neuralink смогут полностью управлять роботом Tesla Optimus, ощущая его тело как своё собственное:
Не только рукой двигать — вы буквально сможете ‘ментально переселиться’ в робота.”*
По сути, речь идёт о телеприсутствии от первого лица — с полным контролем движений и тактильной обратной связью от всего тела робота.
Илон, как всегда, ставит цели на грани фантастики. Но Neuralink + Optimus действительно выглядит как первый шаг к кибер реальности такого робота.
Звучит как сюжет из «Аватара», но это уже обсуждается как реальная технология.
@ai_machinelearning_big_data
#neuralink #optimus #elonmusk #tesla #bci #robotics #futuretech #cyborg
Маск заявил, что люди с нейроимплантами Neuralink смогут полностью управлять роботом Tesla Optimus, ощущая его тело как своё собственное:
> *“Вы сможете иметь полный контроль и сенсоры всего тела Optimus.
Не только рукой двигать — вы буквально сможете ‘ментально переселиться’ в робота.”*
По сути, речь идёт о телеприсутствии от первого лица — с полным контролем движений и тактильной обратной связью от всего тела робота.
Илон, как всегда, ставит цели на грани фантастики. Но Neuralink + Optimus действительно выглядит как первый шаг к кибер реальности такого робота.
Звучит как сюжет из «Аватара», но это уже обсуждается как реальная технология.
@ai_machinelearning_big_data
#neuralink #optimus #elonmusk #tesla #bci #robotics #futuretech #cyborg