Forwarded from Институт AIRI
ACL 2025 стартовала в Вене⤵️ 
В этом году на конференции широкая тематическая программа — от вычислительных социальных наук до распознавания речи. Заявлена и специальная тема: генерализация NLP-моделей.
Исследователи AIRI представляют 11 статей на основных треках конференции:
Вчера прошёл туториал по оценке неопределенностей для LLM в задачах генерации текста Uncertainty Quantification for Large Language Models, организованный исследователями AIRI. Учёные также планируют показать свои исследования на нескольких воркшопах.
Делимся фото с конференции!
В этом году на конференции широкая тематическая программа — от вычислительных социальных наук до распознавания речи. Заявлена и специальная тема: генерализация NLP-моделей.
Исследователи AIRI представляют 11 статей на основных треках конференции:
⚫️ AmbiK: Dataset of Ambiguous Tasks in Kitchen Environment⚫️ CLEAR: Character Unlearning in Textual and Visual Modalities⚫️ CrafText Benchmark: Advancing Language Grounding in Complex Multimodal Open-Ended World⚫️ Adaptive Retrieval Without Self-Knowledge? Bringing Uncertainty Back Home⚫️ BRIGHTER: BRIdging the Gap in Human-Annotated Textual Emotion Recognition Datasets for 28 Languages⚫️ Cramming 1568 Tokens into a Single Vector and Back Again: Exploring the Limits of Embedding Space Capacity⚫️ Feature-Level Insights into Artificial Text Detection with Sparse Autoencoders⚫️ Run LoRA Run: Faster and Lighter LoRA Implementations⚫️ HatePRISM: Policies, Platforms, and Research Integration. Advancing NLP for Hate Speech Proactive Mitigation⚫️ How to Compare Things Properly? A Study on Answering Comparative Questions using Argument Summarization⚫️ ATGen: A Framework for Active Text Generation
Вчера прошёл туториал по оценке неопределенностей для LLM в задачах генерации текста Uncertainty Quantification for Large Language Models, организованный исследователями AIRI. Учёные также планируют показать свои исследования на нескольких воркшопах.
Делимся фото с конференции!
Please open Telegram to view this post
    VIEW IN TELEGRAM
  Please open Telegram to view this post
    VIEW IN TELEGRAM
  ❤12👍1👏1
  This media is not supported in your browser
    VIEW IN TELEGRAM
  Social event ACL 2025
А лингвисты умеют отдыхать😁
А лингвисты умеют отдыхать😁
🔥14👍1
  Forwarded from Институт AIRI
Рассказываем про конференцию, которая пройдет в Казани 17 сентября ⤵️ 
Конференция «ИИ–ЗАМАН» станет отдельным научным треком на международном форуме Kazan Digital Week 2025.
Исследователи AIRI выступают кураторами трех направлений:
Подать статью можно до 20 августа — публикации планируются в Springer LNCS и в журнале «Электронные библиотеки». Отобранные статьи будут также рекомендованы в журнал Optical Memory and Neural Networks. Подать можно как новые статьи, так и ранее опубликованные работы.
Подробнее про подачу статей — по ссылке.
Конференция «ИИ–ЗАМАН» станет отдельным научным треком на международном форуме Kazan Digital Week 2025.
Исследователи AIRI выступают кураторами трех направлений:
⚫️ Андрей Кузнецов — Компьютерное зрение⚫️ Елена Тутубалина — Обработка естественного языка⚫️ Алексей Ковалёв — Воплощённый ИИ и робототехника
Подать статью можно до 20 августа — публикации планируются в Springer LNCS и в журнале «Электронные библиотеки». Отобранные статьи будут также рекомендованы в журнал Optical Memory and Neural Networks. Подать можно как новые статьи, так и ранее опубликованные работы.
Подробнее про подачу статей — по ссылке.
Please open Telegram to view this post
    VIEW IN TELEGRAM
  ❤9🔥4
  Forwarded from Институт AIRI
Провели «ИИ–ЗАМАН» в Казани, делимся впечатлениями ⤵️ 
Научная конференция стала частью форума Kazan Digital Week, деловая программа которого включает в себя более 160 секций, структурированных по 10 тематическим направлениям. В форуме приняли участие 1,2 тысячи спикеров из более, чем 70 стран. На «ИИ–ЗАМАН» были представлены участники практически из всех регионов России, где ведутся исследования в области ИИ. Есть и иностранные участники, среди которых представители США, Китая и Индии.
17 сентября на конференции «ИИ–ЗАМАН», которую мы организовали совместно с Академией наук Республики Татарстан при поддержке Ассоциации содействия цифровому развитию Республики Татарстан и Авито, выступили директор лаборатории FusionBrain Андрей Кузнецов, руководитель группы «Прикладное NLP» Елена Тутубалина, руководитель лаборатории Safe AI Lab AIRI-МТУСИ Олег Рогов, генеральный директор AIRI Иван Оселедец, научный сотрудник группы «Воплощённые агенты» Татьяна Земскова и директор лаборатории когнитивных систем ИИ Института AIRI Александр Панов. Также инженер-исследователь группы «Прикладное NLP» AIRI Михаил Чайчук представил проект «The Benefits of Query-Based KGQA Systems for Complex and Temporal Questions in LLM Era» на постерной сессии.
📎 Подробнее про конференцию «ИИ–ЗАМАН» читайте в материале по итогам пресс-конференции.  
Делимся фотографиями из Казани!
Научная конференция стала частью форума Kazan Digital Week, деловая программа которого включает в себя более 160 секций, структурированных по 10 тематическим направлениям. В форуме приняли участие 1,2 тысячи спикеров из более, чем 70 стран. На «ИИ–ЗАМАН» были представлены участники практически из всех регионов России, где ведутся исследования в области ИИ. Есть и иностранные участники, среди которых представители США, Китая и Индии.
17 сентября на конференции «ИИ–ЗАМАН», которую мы организовали совместно с Академией наук Республики Татарстан при поддержке Ассоциации содействия цифровому развитию Республики Татарстан и Авито, выступили директор лаборатории FusionBrain Андрей Кузнецов, руководитель группы «Прикладное NLP» Елена Тутубалина, руководитель лаборатории Safe AI Lab AIRI-МТУСИ Олег Рогов, генеральный директор AIRI Иван Оселедец, научный сотрудник группы «Воплощённые агенты» Татьяна Земскова и директор лаборатории когнитивных систем ИИ Института AIRI Александр Панов. Также инженер-исследователь группы «Прикладное NLP» AIRI Михаил Чайчук представил проект «The Benefits of Query-Based KGQA Systems for Complex and Temporal Questions in LLM Era» на постерной сессии.
Делимся фотографиями из Казани!
Please open Telegram to view this post
    VIEW IN TELEGRAM
  Please open Telegram to view this post
    VIEW IN TELEGRAM
  ❤7👍2
  Forwarded from Рандомные галлюцинации
Сегодня расскажу про нашу свежую статью «When Models Lie, We Learn: Multilingual Span-Level Hallucination Detection with PsiloQA», которую приняли на EMNLP 🎉
Кстати, если работа вам понравилась прошу проголосовать за нее на HuggingFace Daily Papers.
В работе мы предложили метод генерации синтетических данных, содержащих естественные (не инсценированные) галлюцинации, размеченные на уровне спанов. Но ценность этой работы — не только в содержании, а ещё и в том, как она родилась.
Я давно убеждён: NLP — это прикладная область. А в прикладных областях особое значение имеют соревнования — от Kaggle до академических вроде SemEval, DSTC и других.
Участие в них позволяет:
1️⃣  прокачивать технические навыки
2️⃣  понимать, что коммьюнити считает актуальным и сложным
3️⃣  находить идеи, достойные статьи
Эта работа — как раз результат одного из таких опытов.
📜О чём статья
Мы разработали пайплайн для генерации датасета с естественными галлюцинациями. Мы не просили LLM намеренно ошибаться (как в HalluEval), а детектировали реальные примеры. Так мы получили многоязычный датасет PsiloQA для поспановой (span-level) детекции галлюцинаций и протестировали на нём разные подходы.
⚙️Как работает пайплайн
1️⃣  Берём пару первых абзацев статьи из Википедии (или любого источника знаний). 
2️⃣ С помощью GPT-4o получаем вопрос–ответ для этого контекста.
3️⃣  Просим открытую модель ответить на этот же вопрос. Получаем ответ-кандидат.
4️⃣  GPT-4o, имея контекст, вопрос, исходный ответ и ответ-кандидат, размечает галлюцинации в кандидате.
5️⃣  Делаем постфильтрацию (убираем пустые или отказные примеры).
📈Результаты
1️⃣ Пайплан позволяет генерировать датасеты разных доменов, размеров и языков с минимальными затратами.
2️⃣ Все галлюцинации — естественные, LLM никто не просил галлюцинировать намеренно. Таким образом, для детекции можно использовать методы на основе внутренних представлений моделей, тем более что мы добавили инфрмации о модели.
3️⃣ Датасет подходит для тестирования LLM на множестве языков.
4️⃣ Кросспроверка показала: при обучении на нашем датасете мы почти всегда получали лучшие результаты при тестах на других, вручную размеченных датасетах.
🌐Рандомные галлюцинации
Кстати, если работа вам понравилась прошу проголосовать за нее на HuggingFace Daily Papers.
В работе мы предложили метод генерации синтетических данных, содержащих естественные (не инсценированные) галлюцинации, размеченные на уровне спанов. Но ценность этой работы — не только в содержании, а ещё и в том, как она родилась.
Я давно убеждён: NLP — это прикладная область. А в прикладных областях особое значение имеют соревнования — от Kaggle до академических вроде SemEval, DSTC и других.
Участие в них позволяет:
Эта работа — как раз результат одного из таких опытов.
📜О чём статья
Мы разработали пайплайн для генерации датасета с естественными галлюцинациями. Мы не просили LLM намеренно ошибаться (как в HalluEval), а детектировали реальные примеры. Так мы получили многоязычный датасет PsiloQA для поспановой (span-level) детекции галлюцинаций и протестировали на нём разные подходы.
⚙️Как работает пайплайн
📈Результаты
🌐Рандомные галлюцинации
Please open Telegram to view this post
    VIEW IN TELEGRAM
  🔥6👍3❤1
  IROS ещё не начался, но роботов уже показывают
🔥9👏1