Forwarded from Data Secrets
У Google вышло очень занятное исследование: они сравнили, как LLM и человеческий мозг обрабатывают язык
В качестве LM взяли Whisper, а нейронную активность человека записывали с помощью интракраниальных электродов во время спонтанных разговоров. Затем векторы эмбеддингов модельки наложили на векторы паттернов мозга и оценили линейную зависимость. Вот что получилось:
➖ Соответствие удивительно четкое и геометрия эмбеддингов в LLM (то есть отношения между словами в embedding-пространстве) соотносится с представлениями в мозге.
➖ Во время слушания Speech-эмбеддинги явно коррелируют с активностью в слуховой коре (верхняя височная извилина), затем language-эмбеддинги коррелируют с активностью в зоне Брока (нижняя лобная извилина).
➖ Во время говорения – наоборот. Language-эмбеддинги сначала "активируются" в зоне Брока (планирование высказывания), затем speech-эмбеддинги активируются в моторной коре (непосредственно говорение), и в конце снова в слуховой коре при восприятии собственной речи.
Это удивительно, потому что технически мозг и LLM используют разные подходы. Да, и там и там нейроны, но в науке принято считать, что мозг "использует" символьный подход, то есть полагается на четкие семанические структуры, синтаксис и иерархию слов. В модельках такого нет, они понимают язык статистически.
И все-таки получается, что обычный next token prediction оказывается очень похож на реальный нейронный код, и мы неожиданно близко подобрались к моделированию мозга.
research.google/blog/deciphering-language-processing-in-the-human-brain-through-llm-representations/
В качестве LM взяли Whisper, а нейронную активность человека записывали с помощью интракраниальных электродов во время спонтанных разговоров. Затем векторы эмбеддингов модельки наложили на векторы паттернов мозга и оценили линейную зависимость. Вот что получилось:
Это удивительно, потому что технически мозг и LLM используют разные подходы. Да, и там и там нейроны, но в науке принято считать, что мозг "использует" символьный подход, то есть полагается на четкие семанические структуры, синтаксис и иерархию слов. В модельках такого нет, они понимают язык статистически.
И все-таки получается, что обычный next token prediction оказывается очень похож на реальный нейронный код, и мы неожиданно близко подобрались к моделированию мозга.
research.google/blog/deciphering-language-processing-in-the-human-brain-through-llm-representations/
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3⚡1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
DeepSeek только что выпустил последнюю версию своей огромной модели DeepSeek-V3-0324.
Лицензия — MIT (предыдущая версия DeepSeek v3 имела специальную лицензию), а общий объем файлов в релизе составляет 641 ГБ, в формате model-00035-of-000163.safetensors.
Модель вышла всего несколько часов назад, а разработчик MLX Авни Ханнун уже запустил ее со скоростью более 20 токенов в секунду на M3 Ultra Mac Studio с 512 ГБ (9499 долларов) с помощью mlx-lm и 4-битной версии, размер на диске до 352 ГБ.
Новая модель также представлена на OpenRouter, можно пробовать.
Пишут, что лучше, быстрее, сильнее.
И СИЛЬНО ДЕШЕВЛЕ.
Подробнее:
https://huggingface.co/deepseek-ai/DeepSeek-V3-0324
https://simonwillison.net/2025/Mar/24/deepseek/
@cgevent
Лицензия — MIT (предыдущая версия DeepSeek v3 имела специальную лицензию), а общий объем файлов в релизе составляет 641 ГБ, в формате model-00035-of-000163.safetensors.
Модель вышла всего несколько часов назад, а разработчик MLX Авни Ханнун уже запустил ее со скоростью более 20 токенов в секунду на M3 Ultra Mac Studio с 512 ГБ (9499 долларов) с помощью mlx-lm и 4-битной версии, размер на диске до 352 ГБ.
Новая модель также представлена на OpenRouter, можно пробовать.
Пишут, что лучше, быстрее, сильнее.
И СИЛЬНО ДЕШЕВЛЕ.
Подробнее:
https://huggingface.co/deepseek-ai/DeepSeek-V3-0324
https://simonwillison.net/2025/Mar/24/deepseek/
@cgevent
⚡5👍1😱1
This media is not supported in your browser
VIEW IN TELEGRAM
DeepMesh
Новый подход, который оптимизирует генерацию сеток с помощью двух ключевых моментов:
- предварительное обучение, включающее новый алгоритм токенизации, а также улучшения в курировании и обработке данных
- внедрение обучения с подкреплением (RL) в генерацию 3D-сеток для достижения выравнивания.
Ставлю для себя отметку, что тут DeepMesh - это трансформер со своим особым алгоритмом токенизации.
https://zhaorw02.github.io/DeepMesh/
Новый подход, который оптимизирует генерацию сеток с помощью двух ключевых моментов:
- предварительное обучение, включающее новый алгоритм токенизации, а также улучшения в курировании и обработке данных
- внедрение обучения с подкреплением (RL) в генерацию 3D-сеток для достижения выравнивания.
Ставлю для себя отметку, что тут DeepMesh - это трансформер со своим особым алгоритмом токенизации.
https://zhaorw02.github.io/DeepMesh/
🔥4⚡3👍1
Forwarded from Нейросеть
This media is not supported in your browser
VIEW IN TELEGRAM
Вышла нейронка, которая превращает обычные картинки в векторные.
StarVector работает просто: закидывам вашу иконку и жмём Send — модель перерисует её, но уже в векторе.
Пользуемся бесплатно — здесь.
StarVector работает просто: закидывам вашу иконку и жмём Send — модель перерисует её, но уже в векторе.
Пользуемся бесплатно — здесь.
👍9⚡2
Нейросеть
Вышла нейронка, которая превращает обычные картинки в векторные. StarVector работает просто: закидывам вашу иконку и жмём Send — модель перерисует её, но уже в векторе. Пользуемся бесплатно — здесь.
#пытаюсьпонять
Как это работает?
Под капотом мультимодальный трансформер. Он работает с изображениями и кодом свг и превращет его в финальный код. На схеме видно какие эмбеддинги используются для реализации мультимодальности.
Как это работает?
Под капотом мультимодальный трансформер. Он работает с изображениями и кодом свг и превращет его в финальный код. На схеме видно какие эмбеддинги используются для реализации мультимодальности.
👍4🔥1
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
AlphaXiv становится все прикольнее и прикольнее: теперь в него завезли анализ кодовой базы статьи
Представьте: вы читаете какую-то статью, у вас появляется вопрос и вы задаете его встроенному ассистенту. А тот, отвечая на него, анализирует не только текст статьи, но и репозиторий к ней (если такой имеется). Таким образом, ответы получаются более технически точными и без додумок, если в тексте что-то описано нечетко.
Также можно попросить бота объяснить кусочки кода или даже адаптировать его под ваш проект.
Итого, в AlphaXiv теперь есть: бесплатный встроенный ассистент для разбора статей, имеющий доступ к любым другим исследованиям, анализ кода и генератор конспектов 🍯
Представьте: вы читаете какую-то статью, у вас появляется вопрос и вы задаете его встроенному ассистенту. А тот, отвечая на него, анализирует не только текст статьи, но и репозиторий к ней (если такой имеется). Таким образом, ответы получаются более технически точными и без додумок, если в тексте что-то описано нечетко.
Также можно попросить бота объяснить кусочки кода или даже адаптировать его под ваш проект.
Итого, в AlphaXiv теперь есть: бесплатный встроенный ассистент для разбора статей, имеющий доступ к любым другим исследованиям, анализ кода и генератор конспектов 🍯
👍5⚡2
This media is not supported in your browser
VIEW IN TELEGRAM
#эксперименты
Сочиняю новую жилую застройку вместе с Sora
Сочиняю новую жилую застройку вместе с Sora
🔥5❤3👍2
#эксперименты
Новые эксперименты с генерацией жилой застройки
Новые эксперименты с генерацией жилой застройки
🔥4⚡2👍2
Forwarded from vc.ru
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI добавила поддержку протокола MCP от Anthropic в свои инструменты для разработчиков. Он позволяет ИИ подключиться к сторонней программе и выполнять действия по запросу пользователя.
Система стала популярной в марте 2025 года: есть интеграции Claude с Blender, Figma, Perplexity и другими сервисами
vc.ru/ai/1890132
Система стала популярной в марте 2025 года: есть интеграции Claude с Blender, Figma, Perplexity и другими сервисами
vc.ru/ai/1890132
🔥2🤔2👍1
Forwarded from Data Secrets
Исследовали реализовали отдельный arxiv для агентов-исследователей
Проект называется AgentRxiv и его идея следующая: пусть агенты работают не сами по себе, а как люди делятся, изучают и совершенствуют исследования друг друга.
То есть по сути AgentRxiv – это опенсорсный фреймворк, который дает разным лабораториям возможность добавлять своих агентов на некую общую платформу шеринга, внутри которой те могут «обмениваться идеями».
Звучит занятно, и по первым тестам работает неплохо: в эксперименте с тремя разными лабами результаты агентов с такой коллаборацией улучшились на 13.7%. Это больше, чем при последовательном автономном самоулучшении.
Может скоро у агентов и конференции свои появятся?
Статья | Репа (лицензия MIT)
Проект называется AgentRxiv и его идея следующая: пусть агенты работают не сами по себе, а как люди делятся, изучают и совершенствуют исследования друг друга.
То есть по сути AgentRxiv – это опенсорсный фреймворк, который дает разным лабораториям возможность добавлять своих агентов на некую общую платформу шеринга, внутри которой те могут «обмениваться идеями».
Звучит занятно, и по первым тестам работает неплохо: в эксперименте с тремя разными лабами результаты агентов с такой коллаборацией улучшились на 13.7%. Это больше, чем при последовательном автономном самоулучшении.
Может скоро у агентов и конференции свои появятся?
Статья | Репа (лицензия MIT)
👍2🔥1