Forwarded from Институт AIRI
Чтобы вам было легче собрать всё нужное для заявки на «Лето с AIRI 2025», мы подготовили пошаговую инструкцию ⤵️
◼️ Добавьте резюме — прикрепите его к форме заявки по ссылке. В резюме важно указать ваш опыт: где вы учились, какие у вас есть проекты, стажировки, научные публикации или pet-проекты. Можно добавить, какими технологиями владеете, что изучали, если есть — ссылки на GitHub, личный сайт или портфолио.
◼️ Загрузите Research Proposal: выберите статью уровня Core A/A* (в рамках направлений Школы, указанных на сайте), проанализируйте метод, выделите сильные и слабые стороны, предложите развитие, проведите минимальные эксперименты. Ориентируйтесь на статьи, принятые на таких конференциях, как: NeurIPS, ICML, ICLR, AAAI, ACL, EMNLP, CVPR, ICCV, ECCV, KDD, IROS, ICRA (полный список).
◼️ Запишите мотивационное видео до 2-х минут: расскажите, почему хотите на Школу, и как это поможет вам в карьере. Не обязательно снимать что-то профессиональное, можно записать на телефон или просто как кружочек в Telegram.
Если планируете участвовать — не откладывайте. Прием заявок открыт до 29 апреля 23:59📌
Если планируете участвовать — не откладывайте. Прием заявок открыт до 29 апреля 23:59
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2🔥1
Есть такое объяснения как частица приобретает массу
«Частица, движущаяся сквозь хиггсовское поле, приобретает массу таким же образом, как знаменитость, появившись на вечеринке, собирает вокруг себя своих почитателей, то есть «обрастает» массой. При этом толпа будет перемещаться по комнате вслед за знаменитостью»
Обычно такой знаменитостью изображают Альберта Эйнштейна
На ICLR эту роль успешно исполнял Ян Лекун. Видишь толпу пиэчдишников – значит в центре Лекун
«Частица, движущаяся сквозь хиггсовское поле, приобретает массу таким же образом, как знаменитость, появившись на вечеринке, собирает вокруг себя своих почитателей, то есть «обрастает» массой. При этом толпа будет перемещаться по комнате вслед за знаменитостью»
Обычно такой знаменитостью изображают Альберта Эйнштейна
На ICLR эту роль успешно исполнял Ян Лекун. Видишь толпу пиэчдишников – значит в центре Лекун
🔥12😁6❤1
Forwarded from Center for Cognitive Modeling
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥17❤2
В номинации «Постер дня» однозначно побеждает статья Turning Up the Heat: Min-p Sampling for Creative and Coherent LLM Outputs
Кстати, oral и авторы тоже были на стиле
Кстати, oral и авторы тоже были на стиле
❤5👍1
Субъективная подборка статей за первый день ICLR 2025
#ICLR2025 #Day1
1. On the Modeling Capabilities of Large Language Models for Sequential Decision Making — применяют LLM как для моделирования стратегии, так и в качестве функции вознаграждения
2. MrSteve: Instruction-Following Agents in Minecraft with What-Where-When Memory — добавили агенту в Minecraft иерархическую память
3. ADAM: An Embodied Causal Agent in Open-World Environments — обычно агенты полагаются на заранее известное верное дерево развития технологий (деревянная кирка = дерево + палка). В этой работе предлагают отказаться от априорных знаний (на самом деле используют испорченное дерево развития без нужных или с лишними связями) и стоить его в процессе взаимодействия со средой
4. TraceVLA: Visual Trace Prompting Enhances Spatial-Temporal Awareness for Generalist Robotic Policies — дообучают OpenVLA на картинках, на которых нарисована траектория гриппера, тем самым улучшая значения метрик. На инференсе подается как картинка с камеры, так и она же с дорисованным «трейсом»
5. ThinkBot: Embodied Instruction Following with Thought Chain Reasoning — CoT для Embodied AI в духе ALFRED. Очень созвучна с ECoT. Чуть лучше модифицированного Promptera c переобученным детектором объектов и памятью
6. EMOS: Embodiment-aware Heterogeneous Multi-robot Operating System with LLM Agents — LLM-планировщик для группы роботов
7. ManiSkill-HAB: A Benchmark for Low-Level Manipulation in Home Rearrangement Tasks — интересная среда на основе ManiSkill от подмножества авторов ManiSkill3. Ещё бы навигация по сцене была бы не через телепортацию
8. Dream to Manipulate: Compositional World Models Empowering Robot Imitation Learning with Imagination — real2sim2real подход. Снимаем сцены, моделируем с помощью Gaussian Splatting, генерируем в полученной среде новые траектории, дообучаем на этом стратегию — Profit!
9. HASARD: A Benchmark for Vision-Based Safe Reinforcement Learning in Embodied Agents — бенч для Safe RL на основе VizDoom
10. VICtoR: Learning Hierarchical Vision-Instruction Correlation Rewards for Long-horizon Manipulation — ещё одна reward-модель
11. Drama: Mamba-Enabled Model-Based Reinforcement Learning Is Sample and Parameter Efficient — Mamba-2 как бэкбон. Бьёт IRIS. Странно что нет сравнения с R2I, возможно из-за того, что эксперименты на Atari100K, или, как пишут авторы, чуть хуже результаты чем у DreamerV3
12. What Matters in Learning from Large-Scale Datasets for Robot Manipulation — пытаются ответить на вопрос как надо собирать демонстрации, чтобы модели лучше обучались. Некоторые тейкэвеи выглядят сомнительно, например про разнообразие поз камеры при сборе данных
13. GROOT-2: Weakly Supervised Multimodal Instruction Following Agents — ещё один агент для Minecraft'а и не только
#ICLR2025 #Day1
1. On the Modeling Capabilities of Large Language Models for Sequential Decision Making — применяют LLM как для моделирования стратегии, так и в качестве функции вознаграждения
2. MrSteve: Instruction-Following Agents in Minecraft with What-Where-When Memory — добавили агенту в Minecraft иерархическую память
3. ADAM: An Embodied Causal Agent in Open-World Environments — обычно агенты полагаются на заранее известное верное дерево развития технологий (деревянная кирка = дерево + палка). В этой работе предлагают отказаться от априорных знаний (на самом деле используют испорченное дерево развития без нужных или с лишними связями) и стоить его в процессе взаимодействия со средой
4. TraceVLA: Visual Trace Prompting Enhances Spatial-Temporal Awareness for Generalist Robotic Policies — дообучают OpenVLA на картинках, на которых нарисована траектория гриппера, тем самым улучшая значения метрик. На инференсе подается как картинка с камеры, так и она же с дорисованным «трейсом»
5. ThinkBot: Embodied Instruction Following with Thought Chain Reasoning — CoT для Embodied AI в духе ALFRED. Очень созвучна с ECoT. Чуть лучше модифицированного Promptera c переобученным детектором объектов и памятью
6. EMOS: Embodiment-aware Heterogeneous Multi-robot Operating System with LLM Agents — LLM-планировщик для группы роботов
7. ManiSkill-HAB: A Benchmark for Low-Level Manipulation in Home Rearrangement Tasks — интересная среда на основе ManiSkill от подмножества авторов ManiSkill3. Ещё бы навигация по сцене была бы не через телепортацию
8. Dream to Manipulate: Compositional World Models Empowering Robot Imitation Learning with Imagination — real2sim2real подход. Снимаем сцены, моделируем с помощью Gaussian Splatting, генерируем в полученной среде новые траектории, дообучаем на этом стратегию — Profit!
9. HASARD: A Benchmark for Vision-Based Safe Reinforcement Learning in Embodied Agents — бенч для Safe RL на основе VizDoom
10. VICtoR: Learning Hierarchical Vision-Instruction Correlation Rewards for Long-horizon Manipulation — ещё одна reward-модель
11. Drama: Mamba-Enabled Model-Based Reinforcement Learning Is Sample and Parameter Efficient — Mamba-2 как бэкбон. Бьёт IRIS. Странно что нет сравнения с R2I, возможно из-за того, что эксперименты на Atari100K, или, как пишут авторы, чуть хуже результаты чем у DreamerV3
12. What Matters in Learning from Large-Scale Datasets for Robot Manipulation — пытаются ответить на вопрос как надо собирать демонстрации, чтобы модели лучше обучались. Некоторые тейкэвеи выглядят сомнительно, например про разнообразие поз камеры при сборе данных
13. GROOT-2: Weakly Supervised Multimodal Instruction Following Agents — ещё один агент для Minecraft'а и не только
👍9
Немного местного колорита с открытия🏮🪭
🔥4👏4
Давным-давно я был на выставке фотографа Майкла Кенна. На встрече с автором Майкл сказал, что специально печатает свои работы на небольшом формате (фотографии и правда были чуть ли не 20х30), чтобы зритель мог остаться с работой на едине и тщательно её рассмотреть
Видимо и авторы постера хотели добиться того же эффекта. А может просто хотели создать камерную атмосферу в огромном ангаре Singapore EXPO...
Видимо и авторы постера хотели добиться того же эффекта. А может просто хотели создать камерную атмосферу в огромном ангаре Singapore EXPO...
😁16🔥2🥰1