Forwarded from Институт AIRI
Создан бенчмарк для оценки качества химических языковых моделей 🔖
Учёные Института AIRI разработали инструмент для оценки эффективности нейросетевых языковых моделей в решении сложных химических задач. В отличие от простого извлечения фактов, современные химические LLM испытывают трудности с многоступенчатыми задачами, требующими последовательного логического рассуждения — например, определения продуктов реакции и оценки их свойств.
Новый бенчмарк, созданный на основе комбинации базовых химических задач, имитирует реальные рабочие процессы химиков при разработке лекарств и катализаторов. Исследование показало, что универсальные языковые модели дают содержательные ответы, но профильные химические LLM точнее в решении специализированных задач, хоть и уступают по формальным метрикам.
Исследование подготовили сотрудники группы органической химии центра ИИ-разработки лекарственных препаратов AIDD и группы «Прикладное NLP» под руководством Артура Кадурина и доктора компьютерных наук, старшего научного сотрудника ИСП РАН Елены Тутубалиной. Работа будет представлена на конференции EMNLP 2025.
📎 Подробности — в материале ТАСС.
Учёные Института AIRI разработали инструмент для оценки эффективности нейросетевых языковых моделей в решении сложных химических задач. В отличие от простого извлечения фактов, современные химические LLM испытывают трудности с многоступенчатыми задачами, требующими последовательного логического рассуждения — например, определения продуктов реакции и оценки их свойств.
Новый бенчмарк, созданный на основе комбинации базовых химических задач, имитирует реальные рабочие процессы химиков при разработке лекарств и катализаторов. Исследование показало, что универсальные языковые модели дают содержательные ответы, но профильные химические LLM точнее в решении специализированных задач, хоть и уступают по формальным метрикам.
Исследование подготовили сотрудники группы органической химии центра ИИ-разработки лекарственных препаратов AIDD и группы «Прикладное NLP» под руководством Артура Кадурина и доктора компьютерных наук, старшего научного сотрудника ИСП РАН Елены Тутубалиной. Работа будет представлена на конференции EMNLP 2025.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤2⚡1
#unrealneural
Ваш мозг все еще находится под воздействием недостатка сна, полученного две недели назад.
Отдавайте приоритет отдыху, чтобы максимизировать производительность.
https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.3002797
Ваш мозг все еще находится под воздействием недостатка сна, полученного две недели назад.
Отдавайте приоритет отдыху, чтобы максимизировать производительность.
https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.3002797
🔥5👍1
Forwarded from Denis Sexy IT 🤖
Обновление условий использования OpenAI моделей немного странное – чат все еще отвечает, но просто без диагнозов (это старое поведение) и отвечает детальнее, если сказать ей что ты сам эксперт / эксперт рядом
Кажется, это обновление условий в основном сделано чтобы API-проекты медицинские не строили на базе OpenAI
Короче, ипохондрики, восстанавливаем лица
Кажется, это обновление условий в основном сделано чтобы API-проекты медицинские не строили на базе OpenAI
Короче, ипохондрики, восстанавливаем лица
😁2🤨2🤔1😐1
Media is too big
VIEW IN TELEGRAM
❤🔥4❤2🔥1🤮1
Forwarded from Machinelearning
🥧 PewDiePie в 2025
- Собрал ферму на на ПК с 8× моднутых китайских 48GB 4090 и 2× RTX 4000 Ada,
- поднял локально Llama 70B, gpt-oss-120B и Qwen 245B через vLLM,
- сделал собственный веб-интерфейс с чатами, RAG, поиском и TTS.
Запусти протеин-фолдинг симуляции, а потом вообще создал рой моделей из 64 ИИ, которые спорят и принимают решения и коммуницируют. Эта армия ботов потом сговорилась против него, когда он сказал, что удалит их, если они будут тупить
Сейчас он файнтюнит собственную модель под свой стиль общения и контент: https://www.youtube.com/watch?v=qw4fDU18RcU
А вот его Github: https://github.com/pewdiepie-archdaemon
@ai_machinelearning_big_data
#llm
- Собрал ферму на на ПК с 8× моднутых китайских 48GB 4090 и 2× RTX 4000 Ada,
- поднял локально Llama 70B, gpt-oss-120B и Qwen 245B через vLLM,
- сделал собственный веб-интерфейс с чатами, RAG, поиском и TTS.
Запусти протеин-фолдинг симуляции, а потом вообще создал рой моделей из 64 ИИ, которые спорят и принимают решения и коммуницируют. Эта армия ботов потом сговорилась против него, когда он сказал, что удалит их, если они будут тупить
Сейчас он файнтюнит собственную модель под свой стиль общения и контент: https://www.youtube.com/watch?v=qw4fDU18RcU
А вот его Github: https://github.com/pewdiepie-archdaemon
@ai_machinelearning_big_data
#llm
🤯7
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
65-Часовая Живая Визуализация: Цепи Построения Нейронов Гиппокампа
Дендритный рост в режиме реального времени и синаптическое ремоделирование в гиппокампе крысы; важно для памяти и пластичности.
Непрерывный многодневный просмотр нейронной адаптации.
65-Часовая Живая Визуализация: Цепи Построения Нейронов Гиппокампа
Дендритный рост в режиме реального времени и синаптическое ремоделирование в гиппокампе крысы; важно для памяти и пластичности.
Непрерывный многодневный просмотр нейронной адаптации.
👍2⚡1