Vision language models are blind
🟢 Project page 🟢 Paper 🟢 Dataset
На днях вышла интересная статья и датасет к ней про то, как современные мультимодальные модели, которые показывают высокие метрики на известных бенчмарках типа MMMU, MMBench, не справляются с тривиальными для человека задачами типа подсчёта числа пересечений геометрических объектов, подсчёта количества строк и столбцов в таблице и др.
Проблема понятная и идёт она от способа энкодинга изображений, принятого в большинстве решений (вряд ли архитектурно в проприетарных присутствует какая-то инновация в отличие от опенсурса). И это приводит к тому, что чем проще сцена/картинка, которую надо проанализировать, тем важнее не потерять информацию за счет, например, patch-based энкодеров (собственно, результаты в статье показывают как растут метрики при увеличении толщины линий для отдельных задач).
Так или иначе, наблюдение интересное, обращает внимание к проблеме представления картинки для VLM моделей.
На днях вышла интересная статья и датасет к ней про то, как современные мультимодальные модели, которые показывают высокие метрики на известных бенчмарках типа MMMU, MMBench, не справляются с тривиальными для человека задачами типа подсчёта числа пересечений геометрических объектов, подсчёта количества строк и столбцов в таблице и др.
Проблема понятная и идёт она от способа энкодинга изображений, принятого в большинстве решений (вряд ли архитектурно в проприетарных присутствует какая-то инновация в отличие от опенсурса). И это приводит к тому, что чем проще сцена/картинка, которую надо проанализировать, тем важнее не потерять информацию за счет, например, patch-based энкодеров (собственно, результаты в статье показывают как растут метрики при увеличении толщины линий для отдельных задач).
Так или иначе, наблюдение интересное, обращает внимание к проблеме представления картинки для VLM моделей.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥13👍9🔥7💯4
One Day Offer для Центра робототехники 🤖
13 июля мои хорошие друзья и коллеги из Sber Robotics проводят мероприятие по поиску крутых спецов на вакансии Middle/Senior Robotics Software Engineer и Backend Developer.
Что круто, там можно и поработать руками над созданием самих роботов, и разрабатывать алгоритмы для управления роботами на базе ИИ в таких направлениях как:
📍 манипуляция
📍 роботизация логистики
📍 мобильные роботы
Несколько команд в AIRI тесно работают вместе с ребятами над созданием алгоритмов сильного искусственного интеллекта, способного наилучшим образом понимать происходящее вокруг робота, используя все доступные сенсоры и стримы визуальных данных
Вот еще ряд задач, которые решаются в Центре 👇
▪️ разработка алгоритмов и систем управления роботами (core, body, brain) и драйверов для различных устройств в виде ROS2 узлов
▪️ создание алгоритмов внутренней и внешней калибровки сенсоров (лидары, камеры, IMU), робототехнических сервисов на Behavior Trees / State Machines
▪️ работа с симуляторами на базе Isaac Sim / MuJoCo / PyBullet
▪️ проектирование архитектуры системы
Обязательно приходите, чтобы проверить свои силы!
Регистрируйтесь на One Day Offer 13 июля 😉
13 июля мои хорошие друзья и коллеги из Sber Robotics проводят мероприятие по поиску крутых спецов на вакансии Middle/Senior Robotics Software Engineer и Backend Developer.
Что круто, там можно и поработать руками над созданием самих роботов, и разрабатывать алгоритмы для управления роботами на базе ИИ в таких направлениях как:
📍 манипуляция
📍 роботизация логистики
📍 мобильные роботы
Несколько команд в AIRI тесно работают вместе с ребятами над созданием алгоритмов сильного искусственного интеллекта, способного наилучшим образом понимать происходящее вокруг робота, используя все доступные сенсоры и стримы визуальных данных
Вот еще ряд задач, которые решаются в Центре 👇
▪️ разработка алгоритмов и систем управления роботами (core, body, brain) и драйверов для различных устройств в виде ROS2 узлов
▪️ создание алгоритмов внутренней и внешней калибровки сенсоров (лидары, камеры, IMU), робототехнических сервисов на Behavior Trees / State Machines
▪️ работа с симуляторами на базе Isaac Sim / MuJoCo / PyBullet
▪️ проектирование архитектуры системы
Обязательно приходите, чтобы проверить свои силы!
Регистрируйтесь на One Day Offer 13 июля 😉
👍9❤5🔥3
⚡️Свежий апдейт LLaVA-NeXT
LLaVA-NeXT-Interleave: Tackling Multi-image, Video, and 3D in Large Multimodal Models
LLaVA-NeXT — опенсурс мультимодальная диалоговая модель для работы с картинками и текстом.
Основной контрибьют — добавили разные режимы «перемешанных» (interleaved) изображений и текстов. Таким образом модель может решать задачи с одной картинкой, несколькими изображениями, несколькими кадрами видео и несколькими ракурсами одного объекта (полезно кстати для задач робототехники и анализа картины мира).
Все эти задачи заправлены в новый M4-Instruct сет на 1+M сэмплов. И также есть бенч на этот же спектр задач.
Архитектурно — ничего нового. Обучали с модели, которая до этого работала только с одной картинкой, то есть тюн с изменением структуры диалога хорошо ложится поверх VLM (совершенное открытие! ).
Но безусловно, очень ценны данные и бенч.
🟢 Статья
🟢 Код
🟢 M4-Instruct
@complete_ai
LLaVA-NeXT-Interleave: Tackling Multi-image, Video, and 3D in Large Multimodal Models
LLaVA-NeXT — опенсурс мультимодальная диалоговая модель для работы с картинками и текстом.
Основной контрибьют — добавили разные режимы «перемешанных» (interleaved) изображений и текстов. Таким образом модель может решать задачи с одной картинкой, несколькими изображениями, несколькими кадрами видео и несколькими ракурсами одного объекта (полезно кстати для задач робототехники и анализа картины мира).
Все эти задачи заправлены в новый M4-Instruct сет на 1+M сэмплов. И также есть бенч на этот же спектр задач.
Архитектурно — ничего нового. Обучали с модели, которая до этого работала только с одной картинкой, то есть тюн с изменением структуры диалога хорошо ложится поверх VLM (
Но безусловно, очень ценны данные и бенч.
@complete_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11⚡10👌3
⚡️AuraFlow v0.1 — новый open-source text-to-image проект на базе диффузионных трансформеров (по сути имплементация ставшей уже закрытой StableDiffusion 3 с некоторыми архитектурными изменениями)
Из интересного:
📍заменили в большинстве случаев MMDiT блоки (как в SD3) на простые DiT, что сократило затраты на обучение
📍заменили параметризацию на maximal update parametrization, что позволило повысить предсказуемость поведения loss функции при скейлинге архитектуры (при стандартной параметризации можно учить маленькую модель, скажем с Adam’ом, вполне нормально, но при увеличении размеров модели можно получить взрыв градиентов)
📍Recaption everything — подчеркивает важность текстовых описаний в обучении, авторы пишут, что это дало серьёзный буст в качестве
📍Исследуя параметризацию, авторы пришли к оптимальному размеру модели при скейлинге — 6.8B параметров
👨💻Модель уже есть в diffusers, откуда её можно просто забрать и поиграться на выходных:
❗️Модель показывает SoTA на бенчмарке GenEval — 0.703 (с учётом prompt enhancement)
Пока это v0.1 и, судя по всему, скоро нас будут ждать новые версии модели, возможное даже с MoE подходом. А пока предлагаю поиграться с моделью (сам тоже хочу посмотреть степень понимания текстового описания — пишут, что модель очень хорошо ему следует) — черрипики в закрепе как всегда прекрасны😉
🟢 Блог
🟢 Веса модели
@complete_ai
Из интересного:
📍заменили в большинстве случаев MMDiT блоки (как в SD3) на простые DiT, что сократило затраты на обучение
📍заменили параметризацию на maximal update parametrization, что позволило повысить предсказуемость поведения loss функции при скейлинге архитектуры (при стандартной параметризации можно учить маленькую модель, скажем с Adam’ом, вполне нормально, но при увеличении размеров модели можно получить взрыв градиентов)
📍Recaption everything — подчеркивает важность текстовых описаний в обучении, авторы пишут, что это дало серьёзный буст в качестве
📍Исследуя параметризацию, авторы пришли к оптимальному размеру модели при скейлинге — 6.8B параметров
👨💻Модель уже есть в diffusers, откуда её можно просто забрать и поиграться на выходных:
from diffusers import AuraFlowPipeline
❗️Модель показывает SoTA на бенчмарке GenEval — 0.703 (с учётом prompt enhancement)
Пока это v0.1 и, судя по всему, скоро нас будут ждать новые версии модели, возможное даже с MoE подходом. А пока предлагаю поиграться с моделью (сам тоже хочу посмотреть степень понимания текстового описания — пишут, что модель очень хорошо ему следует) — черрипики в закрепе как всегда прекрасны😉
@complete_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23👍5⚡1😁1
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥37❤5🏆4👀2👎1
Увидел тут в одном интересном канале пост про ИИ в фэшн индустрии. Возникли некоторые мысли, которыми захотелось поделиться.
Не секрет, что один из моих основных фокусов в исследованиях — генеративные модели, поэтому так или иначе про прикладные применения технологии читать всегда интересно. Персонализация в фэшн индустрии, на мой взгляд, ключ к сердцу покупателя. Море опросов можно найти, где респонденты уверено подчеркивают пользу влияния ИИ в части рекомендаций товаров, в части предложения новых услуг. На днях, например, один из пионеров индустрии моды в Европе объявил о старте AI-based рекламной кампании линейки молодёжной одежды. При этом они не просто сгенерировали картинки одежды, а прошли полный цикл: сначала была изготовлена коллекция одежды, потом все элементы коллекции были сфотографированы, а далее обучалась модель, которая далее правильно «одевала» в эту одежду моделей на сгенерированных картинках (пример из кампании как раз в закрепе) .
О чём это всё говорит: индустрия под влиянием ИИ меняется, даже такие чувствительные направления как мода не остаются в стороне. В недалеком будущем предполагаю, что будут и персональные коллекции одежды, сам стиль будет подбираться индивидуально под физиологию человека, а перенося это всё в «видео» модальность мы сможем «покрутить» себя и посмотреть со стороны как будем выглядеть в той или иной одежде и в разных окружениях. И одежда — это всего лишь одна из повседневных потребностей человека, но в формате персонализации такие «AI-стилисты» должны учитывать и твоё настроение (ммм, ИИ-эмпатия), и геолокацию, и погоду, и календарь встреч, и многие другие факторы, влияющие на выбор. Мода и одежда становится компонентом, как сейчас принято называть, модели мира, где каждый сможет «оцифровать» себя, сгенерировать любое окружение и смоделировать различные сценарии. Вот так от темы генерации и примерки одежды мы быстро приходим к AGI😉
А хочется ли этого вам? Надо ли такое или это уже перебор?
Не секрет, что один из моих основных фокусов в исследованиях — генеративные модели, поэтому так или иначе про прикладные применения технологии читать всегда интересно. Персонализация в фэшн индустрии, на мой взгляд, ключ к сердцу покупателя. Море опросов можно найти, где респонденты уверено подчеркивают пользу влияния ИИ в части рекомендаций товаров, в части предложения новых услуг. На днях, например, один из пионеров индустрии моды в Европе объявил о старте AI-based рекламной кампании линейки молодёжной одежды. При этом они не просто сгенерировали картинки одежды, а прошли полный цикл: сначала была изготовлена коллекция одежды, потом все элементы коллекции были сфотографированы, а далее обучалась модель, которая далее правильно «одевала» в эту одежду моделей на сгенерированных картинках (пример из кампании как раз в закрепе) .
О чём это всё говорит: индустрия под влиянием ИИ меняется, даже такие чувствительные направления как мода не остаются в стороне. В недалеком будущем предполагаю, что будут и персональные коллекции одежды, сам стиль будет подбираться индивидуально под физиологию человека, а перенося это всё в «видео» модальность мы сможем «покрутить» себя и посмотреть со стороны как будем выглядеть в той или иной одежде и в разных окружениях. И одежда — это всего лишь одна из повседневных потребностей человека, но в формате персонализации такие «AI-стилисты» должны учитывать и твоё настроение (ммм, ИИ-эмпатия), и геолокацию, и погоду, и календарь встреч, и многие другие факторы, влияющие на выбор. Мода и одежда становится компонентом, как сейчас принято называть, модели мира, где каждый сможет «оцифровать» себя, сгенерировать любое окружение и смоделировать различные сценарии. Вот так от темы генерации и примерки одежды мы быстро приходим к AGI😉
А хочется ли этого вам? Надо ли такое или это уже перебор?
🔥22👀5💯3❤1
Всем привет 🖐
Задумался на днях про маркировку ИИ-контента, ибо много обсуждений ведётся, а мнение публичное я не встретил, а очень хочется узнать разные позиции.
Моя личная позиция в том, что маркировка мультимедиа - важная задача, потому что позволяет понимать как распространяются генерации, как влияют на инфополе. Одна случайная картинка может стоить владельцу модели, бигтеху или стартапу репутации. Такие картинки можно успеть задетектить или доказать, что они сделаны не вашим ИИ при наличии встроенного механизма защиты.
Также маркировка поспособствует развитию генеративного искусства и защите авторского права. Хотя тема авторства ИИ-контента сложная, но почему не думать об этом на будущее?
Ну и, конечно, помимо маркировки нужно развивать инструменты для её анализа. Вот, например, кто-то взял картинку котика и дорисовал ему не совсем то, что надо; и вроде и контент промаркирован, а вроде уже не исходное изображение. Значит надо еще и за устойчивостью решений следить к разным локальным правкам контента.
А ещё: как именно маркировать контент? Предлагаю всем подумать в комментариях под этим постом 🔍
А ниже два коротких вопроса, буду признателен за участие 🙏
Задумался на днях про маркировку ИИ-контента, ибо много обсуждений ведётся, а мнение публичное я не встретил, а очень хочется узнать разные позиции.
Моя личная позиция в том, что маркировка мультимедиа - важная задача, потому что позволяет понимать как распространяются генерации, как влияют на инфополе. Одна случайная картинка может стоить владельцу модели, бигтеху или стартапу репутации. Такие картинки можно успеть задетектить или доказать, что они сделаны не вашим ИИ при наличии встроенного механизма защиты.
Также маркировка поспособствует развитию генеративного искусства и защите авторского права. Хотя тема авторства ИИ-контента сложная, но почему не думать об этом на будущее?
Ну и, конечно, помимо маркировки нужно развивать инструменты для её анализа. Вот, например, кто-то взял картинку котика и дорисовал ему не совсем то, что надо; и вроде и контент промаркирован, а вроде уже не исходное изображение. Значит надо еще и за устойчивостью решений следить к разным локальным правкам контента.
А ещё: как именно маркировать контент? Предлагаю всем подумать в комментариях под этим постом 🔍
А ниже два коротких вопроса, буду признателен за участие 🙏
👍6🔥4❤2❤🔥1🤝1
Считаете ли вы, что внедрение механизмов невидимой маркировки позволит обезопасить ИИ-контент от внешних пользовательских изменений?
Anonymous Poll
25%
Да
45%
Да, но этого недостаточно для полноценной защиты
30%
Нет
👏4
Считаете ли Вы, что внедрение сервисов по идентификации ИИ-контента является лучшей практикой на рынке по обеспечению прозрачности для пользователя?
Anonymous Poll
53%
Да
10%
Да, но внедрять такие методы в России необходимости нет
37%
Нет
⚡️Субботние новости!
AI-Центр Т-Банка открыл доступ к своей языковой модели T-lite 7-8B. С точки зрения качества по замерам модель обгоняет многие открытые, а в некоторых задачах и проприетарные модели. Например, на независимом бенчмарке MERA T-lite обгоняет Llama3-8b-iInstruct, Mistral-7b-Instruct-v0.3. На внутренних задачах типа суммаризации и банковских кейсов модель тоже показывает себя лучше, чем Llama3 и ChatGPT-3.5.
В релизе также отмечают, что для обучения потребовалось достаточно мало вычислительных ресурсов (3% от обычно используемых для задач обучения). В целом это лишний раз подтверждает, что решать вариативные задачи можно без гигантских мощностей в наличии.
Приятно, что на рынке растёт количество игроков на арене LLM: Сбер, Яндекс, Т-Банк, МТС, и что несмотря на выбиваемые регулярно новые показатели, всегда есть запас для улучшения качества.
Модель T-lite доступна по ссылке
UPD: смотрите инструктивные веса тут
AI-Центр Т-Банка открыл доступ к своей языковой модели T-lite 7-8B. С точки зрения качества по замерам модель обгоняет многие открытые, а в некоторых задачах и проприетарные модели. Например, на независимом бенчмарке MERA T-lite обгоняет Llama3-8b-iInstruct, Mistral-7b-Instruct-v0.3. На внутренних задачах типа суммаризации и банковских кейсов модель тоже показывает себя лучше, чем Llama3 и ChatGPT-3.5.
В релизе также отмечают, что для обучения потребовалось достаточно мало вычислительных ресурсов (3% от обычно используемых для задач обучения). В целом это лишний раз подтверждает, что решать вариативные задачи можно без гигантских мощностей в наличии.
Приятно, что на рынке растёт количество игроков на арене LLM: Сбер, Яндекс, Т-Банк, МТС, и что несмотря на выбиваемые регулярно новые показатели, всегда есть запас для улучшения качества.
Модель T-lite доступна по ссылке
UPD: смотрите инструктивные веса тут
💯20🔥15👍11❤2
Complete AI
⚡️Субботние новости! AI-Центр Т-Банка открыл доступ к своей языковой модели T-lite 7-8B. С точки зрения качества по замерам модель обгоняет многие открытые, а в некоторых задачах и проприетарные модели. Например, на независимом бенчмарке MERA T-lite обгоняет…
Ещё выложили чекпоинт T-lite-instruct-0.1 без цензуры, что в современном мире alignment очень интересно потестировать😉
https://huggingface.co/IlyaGusev/T-lite-instruct-0.1-abliterated
https://huggingface.co/IlyaGusev/T-lite-instruct-0.1-abliterated
huggingface.co
AnatoliiPotapov/T-lite-instruct-0.1 · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
🔥20👍3👏1
👉Кому интересно почитать про то, как сделать LLM более сговорчивой на разные темы (abliteration = ablated + obliterated), предлагаю посмотреть в материале тут
Грубо говоря, имея некоторый harmful датасет, его прогоняют через модель, определяют активации, которые сигнализируют об отказах модели отвечать на какие-то вопросы, а потом ортогонализируют соответствующие тензоры. Так модель сохраняет основную часть своих весов нетронутыми, а refusal direction за счёт ортогонализации меняется. Конечно, речь не идёт об устранении 100% отказов отвечать на вопросы, но тем не менее позволяет «ослабить» LLM
Грубо говоря, имея некоторый harmful датасет, его прогоняют через модель, определяют активации, которые сигнализируют об отказах модели отвечать на какие-то вопросы, а потом ортогонализируют соответствующие тензоры. Так модель сохраняет основную часть своих весов нетронутыми, а refusal direction за счёт ортогонализации меняется. Конечно, речь не идёт об устранении 100% отказов отвечать на вопросы, но тем не менее позволяет «ослабить» LLM
huggingface.co
Uncensor any LLM with abliteration
A Blog post by Maxime Labonne on Hugging Face
👍13🔥8💯2
🎬Сегодня вышел выпуск на канале Основа
Получилось довольно круто на мой взгляд! Поговорили с Борисом про современные тренды в ИИ, подискутировали про будущее и возможности современных технологий.
Приглашаю всех посмотреть, выходной как раз этому способствует! Заранее спасибо за просмотр🙏
👉Подкаст
Получилось довольно круто на мой взгляд! Поговорили с Борисом про современные тренды в ИИ, подискутировали про будущее и возможности современных технологий.
Приглашаю всех посмотреть, выходной как раз этому способствует! Заранее спасибо за просмотр🙏
👉Подкаст
YouTube
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: УГРОЗА или НАДЕЖДА?
😎 Подпишись на канал: https://t.ly/Ae5k
Поддержите нас:
На Boosty (российская карта): https://boosty.to/osnovachannel
На Patreon (иностранная карта): https://patreon.com/osnovachannel
Искусственный интеллект схож с мозгом человека? Робот может думать сам?…
Поддержите нас:
На Boosty (российская карта): https://boosty.to/osnovachannel
На Patreon (иностранная карта): https://patreon.com/osnovachannel
Искусственный интеллект схож с мозгом человека? Робот может думать сам?…
👍41⚡12🔥10🏆4❤3
👋 Мои коллеги из ИТМО AI Talent Hub набирают новых магистрантов
В этом году открывается LLM-трек
🌠 Учебный трек фокусируется на актуальных топиках в развитии LLM. Каждый месяц – обновление и актуализация данных.
И разработан совместно с экспертами из AIRI, Raft, Napoleon IT, Университета ИТМО, а также приглашенных экспертов-разработчиков YandexGPT и GigaChat.
Также в магистратуре:
🔛 Гибкая система выбора траектории обучения позволяет собрать индивидуальный трек.
🔛 Занятия проходят онлайн в вечернее время, вы можете подключаться из любой точки мира (льготы при этом как у «очников»: отсрочка от армии, диплом очной магистратуры)
🔛 Сильное комьюнити. Менторы, преподаватели и авторы курсов — действующие специалисты топовых AI-компаний — всегда готовы поделиться своим опытом и помочь советом.
❗️ Чтобы успеть пройти на бюджет, подайте заявку до 25 июля
👉Подробнее про LLM -трек
👉Подать заявку в магистратуру AI Talent Hub
В этом году открывается LLM-трек
И разработан совместно с экспертами из AIRI, Raft, Napoleon IT, Университета ИТМО, а также приглашенных экспертов-разработчиков YandexGPT и GigaChat.
Также в магистратуре:
👉Подробнее про LLM -трек
👉Подать заявку в магистратуру AI Talent Hub
Please open Telegram to view this post
VIEW IN TELEGRAM
❤22🔥20👍19
⚡️⚡️⚡️Рабочая неделя подошла к концу — я с новостями
Команда Айбека Аланова «Контролируемый генеративный ИИ» лаборатории FusionBrain AIRI разработала фреймворк StyleFeatureEditor, который позволяет быстро редактировать фотографии как по текстовому описанию, так и по набору стилей. Особенность ключевая в том, что при редактировании сохраняется качество реконструкции, а вносимые изменения выглядят при подборе параметра очень реалистично.
Научная фишка в том, что обучение энкодера делится на две фазы. Сначала просто учим понимать представления в F‑пространстве (модуль Inverter). После инверсии теряется редактируемость и чтобы её восстановить на втором этапе мы встраиваем и обучаем новый модуль Feature Editor, чья задача — модифицировать F‑тензор таким образом, чтобы добиться желаемого изменения стиля.
🔥Научная статья про данный подход была принята на самую цитируемую конференцию по компьютерному зрению CVPR-2024.
🟢 Все детали на Хабре
🟢 Протестировать модель можно в демке на Hugging Face👇. Она пока работает только с изображениями лиц, но скоро раскатаем и на другие домены😉
Предлагаю в комментариях размещать самые интересные результаты редактирования (каких стилей там только нет🤫)
Хабр
Демо
Всем хороших выходных👋
Команда Айбека Аланова «Контролируемый генеративный ИИ» лаборатории FusionBrain AIRI разработала фреймворк StyleFeatureEditor, который позволяет быстро редактировать фотографии как по текстовому описанию, так и по набору стилей. Особенность ключевая в том, что при редактировании сохраняется качество реконструкции, а вносимые изменения выглядят при подборе параметра очень реалистично.
Научная фишка в том, что обучение энкодера делится на две фазы. Сначала просто учим понимать представления в F‑пространстве (модуль Inverter). После инверсии теряется редактируемость и чтобы её восстановить на втором этапе мы встраиваем и обучаем новый модуль Feature Editor, чья задача — модифицировать F‑тензор таким образом, чтобы добиться желаемого изменения стиля.
🔥Научная статья про данный подход была принята на самую цитируемую конференцию по компьютерному зрению CVPR-2024.
Предлагаю в комментариях размещать самые интересные результаты редактирования (каких стилей там только нет🤫)
Хабр
Демо
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥40🏆9❤6💯5👏1
Всем привет 👐
Этот пост заряжен моей искренней поддержкой ❤️
С 9 по 15 августа в Болгарии пройдет первая Международная олимпиада по искусственному интеллекту (IOAI). В ней примут участие российские старшеклассники и среди них сотрудник AIRI — Андрей Громыко, занимающийся исследованием мультимодальных архитектур. Подготовкой ребят активно занимается квалифицированная команда преподавателей Центрального Университета — верю в то, что получится крутой dream team!
Андрей, желаю тебе победы, сил и удачи! И всем российским ребятам.
Мотивацию надо поднять 💪
Этот пост заряжен моей искренней поддержкой ❤️
С 9 по 15 августа в Болгарии пройдет первая Международная олимпиада по искусственному интеллекту (IOAI). В ней примут участие российские старшеклассники и среди них сотрудник AIRI — Андрей Громыко, занимающийся исследованием мультимодальных архитектур. Подготовкой ребят активно занимается квалифицированная команда преподавателей Центрального Университета — верю в то, что получится крутой dream team!
Андрей, желаю тебе победы, сил и удачи! И всем российским ребятам.
Мотивацию надо поднять 💪
❤71👍19🏆12🙊2👎1😁1🆒1
⚡️Топ конференция в области NLP — ACL 2024 началась сегодня в Бангкоке
Acceptance rate = 21.3%(на конференции принимается 1/5 поданных работ)
Мы представляем на конференции работу об исследованиях особенностей трансформеров:
https://huggingface.co/papers/2405.12250
Acceptance rate = 21.3%
Мы представляем на конференции работу об исследованиях особенностей трансформеров:
https://huggingface.co/papers/2405.12250
🔥27👍6👏2💯1