Открываешь рабочую почту ✉️, смотришь на очередное письмо, начинающееся с «Dear Dr. A.K.Kovalev», и думаешь...
Ну вот... 🥱, опять будет:
«мы увидели вашу статью, она вносит неоценимый вклад в область, срочно хотим её в наш международный журнал, рецензирование всего неделя, оплата небольшая, 3000 долларов за публикацию, журнал у нас хоть и новый, но очень перспективный, скоро в РИНЦ включат...»
Но стоит вчитаться, и нет, оказывается просят отрецензировать статью в хороший журнал Q1 с h-index > 170
Приятно🤗
Ну вот... 🥱, опять будет:
«мы увидели вашу статью, она вносит неоценимый вклад в область, срочно хотим её в наш международный журнал, рецензирование всего неделя, оплата небольшая, 3000 долларов за публикацию, журнал у нас хоть и новый, но очень перспективный, скоро в РИНЦ включат...»
Но стоит вчитаться, и нет, оказывается просят отрецензировать статью в хороший журнал Q1 с h-index > 170
Приятно🤗
🍾16👍10🔥5💯1
Forwarded from Center for Cognitive Modeling
Оплачиваемая стажировка в Центре когнитивного моделирования ФПМИ МФТИ предполагает работу над прикладными или поисковыми проектами в составе опытной команды, написание статей в ведущие конференции и журналы.
Стажировка проходит в рамках одного из направлений работ в области Computer Vision:
— Обнаружение, сегментация, трекинг и прогнозирование траектории движения 3D-объектов по данным камер и радаров
— Построение трехмерных семантических и мультимодальных карт местности
— Определение позы и одометрии робота по изображениям его RGB-D камер
В процессе вашей работы вы сможете погрузиться в:
— Разработку новых SOTA алгоритмов
— Написание публикаций и участие в международных конференциях со своими результатами
— Cовременные проблемы внедрения передовых методов искусственного интеллекта для решения практических задач
Стажировку можно совмещать с написанием вашего бакалаврского или магистерского диплома. После успешного окончания стажировки возможно трудоустройство в лаборатории Центра, поступление в магистратуру и аспирантуру , продолжение работы в компаниях партнерах.
Заполнить анкету можно
Вопросы можно задать нам в сообщениях или по почте: [email protected], @rvainberg (в Телеграм)
Подробнее читайте на сайте
Please open Telegram to view this post
VIEW IN TELEGRAM
cogmodel.mipt.ru
Стажировка
Стажировки в Центре когнитивного моделирования ФПМИ МФТИ
🔥4👎1
Forwarded from Институт AIRI
Приглашаем на Новогодний огонек AIRI Seminars, где исследователи обсудят яркие статьи этого года🎄
🗓️ 13 декабря в 17:00
В программе выступления и дискуссия про самые яркие научные достижения года в компании 10-ти спикеров:
→ Александр Коваленко, AIRI;
→ Дмитрий Юдин, МФТИ;
→ Иннокентий Хумонен, AIRI;
→ Валентин Хрульков, Yandex;
→ Роман Рыбка, Курчатовский институт;
→ Ирина Пионтковская, Huawei;
→ Валентин Малых, MTS AI;
→ Кирилл Солодских, TheStageai;
→ Илья Трофимов, Сколтех;
→ Алексей Осадчий, ВШЭ, AIRI.
Формат: онлайн на YouTube-канале AIRI и офлайн в нашем офисе в Москве. Чтобы попасть на офлайн-семинар, необходимо пройти регистрацию на сайте.
До встречи на заключительном семинаре 2023 года!💡
🗓️ 13 декабря в 17:00
В программе выступления и дискуссия про самые яркие научные достижения года в компании 10-ти спикеров:
→ Александр Коваленко, AIRI;
→ Дмитрий Юдин, МФТИ;
→ Иннокентий Хумонен, AIRI;
→ Валентин Хрульков, Yandex;
→ Роман Рыбка, Курчатовский институт;
→ Ирина Пионтковская, Huawei;
→ Валентин Малых, MTS AI;
→ Кирилл Солодских, TheStageai;
→ Илья Трофимов, Сколтех;
→ Алексей Осадчий, ВШЭ, AIRI.
Формат: онлайн на YouTube-канале AIRI и офлайн в нашем офисе в Москве. Чтобы попасть на офлайн-семинар, необходимо пройти регистрацию на сайте.
До встречи на заключительном семинаре 2023 года!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4
Forwarded from Институт AIRI
Финальная ИИшница этого года пройдет уже в этот четверг 🍳
Делимся подробным расписанием онлайн-митапа, где исследователи расскажут про свои статьи на NeurIPS 2023:
▪️15:35
"Neural Harmonics: Bridging Spectral Embedding and Matrix Completion in Self- Supervised Learning" — Иван Оселедец, AIRI, Сколтех
▪️15:55
"PROTES: Probabilistic Optimization with Tensor Sampling" — Глеб Рыжаков, Сколтех
▪️16:15
"Star-Shaped Denoising Diffusion Probabilistic Models" — Айбек Аланов, AIRI, ВШЭ
▪️16:35
"To Stay or Not to Stay in the Pre-train Basin: Insights on Ensembling in Transfer Learning" — Ильдус Садртдинов, ВШЭ
▪️16:55
"Entropic Neural Optimal Transport via Diffusion Processes" — Никита Гущин, Сколтех
▪️17:15
"Building the Bridge of Schrödinger: A Continuous Entropic Optimal Transport Benchmark" — Александр Коротин, AIRI, Сколтех
▪️17:35
"Extremal Domain Translation with Neural Optimal Transport" — Милена Газдиева, Сколтех
▪️17:55
"Intrinsic Dimension Estimation for Robust Detection of AI-Generated Texts" — Евгений Бурнаев, AIRI, Сколтех
Ссылка на трансляцию тут, сохраняйте и подписывайтесь на YouTube-канал AIRI 👾
Делимся подробным расписанием онлайн-митапа, где исследователи расскажут про свои статьи на NeurIPS 2023:
▪️15:35
"Neural Harmonics: Bridging Spectral Embedding and Matrix Completion in Self- Supervised Learning" — Иван Оселедец, AIRI, Сколтех
▪️15:55
"PROTES: Probabilistic Optimization with Tensor Sampling" — Глеб Рыжаков, Сколтех
▪️16:15
"Star-Shaped Denoising Diffusion Probabilistic Models" — Айбек Аланов, AIRI, ВШЭ
▪️16:35
"To Stay or Not to Stay in the Pre-train Basin: Insights on Ensembling in Transfer Learning" — Ильдус Садртдинов, ВШЭ
▪️16:55
"Entropic Neural Optimal Transport via Diffusion Processes" — Никита Гущин, Сколтех
▪️17:15
"Building the Bridge of Schrödinger: A Continuous Entropic Optimal Transport Benchmark" — Александр Коротин, AIRI, Сколтех
▪️17:35
"Extremal Domain Translation with Neural Optimal Transport" — Милена Газдиева, Сколтех
▪️17:55
"Intrinsic Dimension Estimation for Robust Detection of AI-Generated Texts" — Евгений Бурнаев, AIRI, Сколтех
Ссылка на трансляцию тут, сохраняйте и подписывайтесь на YouTube-канал AIRI 👾
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1👌1
Как вам такая "наука" от Вокруг Света?
И это на фоне выхода меморандума о лженаучности астрологии от комиссии по борьбе с лженакой РАН 🤦♂
И это на фоне выхода меморандума о лженаучности астрологии от комиссии по борьбе с лженакой РАН 🤦♂
Вокруг света
Нейрогороскоп: что ждет в 2024 году Весы, прогноз от искусственного интеллекта
Нейросеть подготовила подробный гороскоп для Весов (24 сентября — 23 октября), а еще нарисовала этому знаку зодиака на удачу персональный символ грядущего 2024 года...
😱5😢3🕊2🤨1
Год начался с отличных новостей — нашу статью «Object-Centric Learning with Slot Mixture Module» приняли на ICLR 🎉
🔥28👍4⚡2
В строю RT прибыло!
В новой статье Deepmind предлагает AutoRT — подход к сбору датасета для роботов в реальной среде
Идея такая:
1) робот исследует среду (Exploration)
2) с помощью VLM получает описание сцены и объектов, на основе этой информации с помощью LLM генерируются потенциальные задачи для выполнение (Task Generation)
3) эти задачи проверяются на выполнимость (Affordance) и, если они в теории могут быть выполнены роботом, им назначается одна из стратегий (скрипт, RT-2, управление телеоператором), иначе они отклоняются
4) после чего робот приступает к выполнению задачи (Data Collection)
При этом упор делается именно на разнообразие и вариативность задач, что с одной стороны всегда хорошо, а с другой, как пишут сами авторы, примеров для одной и той же задачи получается мало и обучить на этом хорошо какой-либо навык довольно сложно (нельзя)
Однако: we note that the focus of AutoRT was on collecting diverse data, not on achieving high success rates (П — правильное позиционирование)
В новой статье Deepmind предлагает AutoRT — подход к сбору датасета для роботов в реальной среде
Идея такая:
1) робот исследует среду (Exploration)
2) с помощью VLM получает описание сцены и объектов, на основе этой информации с помощью LLM генерируются потенциальные задачи для выполнение (Task Generation)
3) эти задачи проверяются на выполнимость (Affordance) и, если они в теории могут быть выполнены роботом, им назначается одна из стратегий (скрипт, RT-2, управление телеоператором), иначе они отклоняются
4) после чего робот приступает к выполнению задачи (Data Collection)
При этом упор делается именно на разнообразие и вариативность задач, что с одной стороны всегда хорошо, а с другой, как пишут сами авторы, примеров для одной и той же задачи получается мало и обучить на этом хорошо какой-либо навык довольно сложно (нельзя)
Однако: we note that the focus of AutoRT was on collecting diverse data, not on achieving high success rates (П — правильное позиционирование)
🔥5