Forwarded from Data Secrets
У Google вышло очень занятное исследование: они сравнили, как LLM и человеческий мозг обрабатывают язык
В качестве LM взяли Whisper, а нейронную активность человека записывали с помощью интракраниальных электродов во время спонтанных разговоров. Затем векторы эмбеддингов модельки наложили на векторы паттернов мозга и оценили линейную зависимость. Вот что получилось:
➖ Соответствие удивительно четкое и геометрия эмбеддингов в LLM (то есть отношения между словами в embedding-пространстве) соотносится с представлениями в мозге.
➖ Во время слушания Speech-эмбеддинги явно коррелируют с активностью в слуховой коре (верхняя височная извилина), затем language-эмбеддинги коррелируют с активностью в зоне Брока (нижняя лобная извилина).
➖ Во время говорения – наоборот. Language-эмбеддинги сначала "активируются" в зоне Брока (планирование высказывания), затем speech-эмбеддинги активируются в моторной коре (непосредственно говорение), и в конце снова в слуховой коре при восприятии собственной речи.
Это удивительно, потому что технически мозг и LLM используют разные подходы. Да, и там и там нейроны, но в науке принято считать, что мозг "использует" символьный подход, то есть полагается на четкие семанические структуры, синтаксис и иерархию слов. В модельках такого нет, они понимают язык статистически.
И все-таки получается, что обычный next token prediction оказывается очень похож на реальный нейронный код, и мы неожиданно близко подобрались к моделированию мозга.
research.google/blog/deciphering-language-processing-in-the-human-brain-through-llm-representations/
В качестве LM взяли Whisper, а нейронную активность человека записывали с помощью интракраниальных электродов во время спонтанных разговоров. Затем векторы эмбеддингов модельки наложили на векторы паттернов мозга и оценили линейную зависимость. Вот что получилось:
Это удивительно, потому что технически мозг и LLM используют разные подходы. Да, и там и там нейроны, но в науке принято считать, что мозг "использует" символьный подход, то есть полагается на четкие семанические структуры, синтаксис и иерархию слов. В модельках такого нет, они понимают язык статистически.
И все-таки получается, что обычный next token prediction оказывается очень похож на реальный нейронный код, и мы неожиданно близко подобрались к моделированию мозга.
research.google/blog/deciphering-language-processing-in-the-human-brain-through-llm-representations/
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3⚡1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
DeepSeek только что выпустил последнюю версию своей огромной модели DeepSeek-V3-0324.
Лицензия — MIT (предыдущая версия DeepSeek v3 имела специальную лицензию), а общий объем файлов в релизе составляет 641 ГБ, в формате model-00035-of-000163.safetensors.
Модель вышла всего несколько часов назад, а разработчик MLX Авни Ханнун уже запустил ее со скоростью более 20 токенов в секунду на M3 Ultra Mac Studio с 512 ГБ (9499 долларов) с помощью mlx-lm и 4-битной версии, размер на диске до 352 ГБ.
Новая модель также представлена на OpenRouter, можно пробовать.
Пишут, что лучше, быстрее, сильнее.
И СИЛЬНО ДЕШЕВЛЕ.
Подробнее:
https://huggingface.co/deepseek-ai/DeepSeek-V3-0324
https://simonwillison.net/2025/Mar/24/deepseek/
@cgevent
Лицензия — MIT (предыдущая версия DeepSeek v3 имела специальную лицензию), а общий объем файлов в релизе составляет 641 ГБ, в формате model-00035-of-000163.safetensors.
Модель вышла всего несколько часов назад, а разработчик MLX Авни Ханнун уже запустил ее со скоростью более 20 токенов в секунду на M3 Ultra Mac Studio с 512 ГБ (9499 долларов) с помощью mlx-lm и 4-битной версии, размер на диске до 352 ГБ.
Новая модель также представлена на OpenRouter, можно пробовать.
Пишут, что лучше, быстрее, сильнее.
И СИЛЬНО ДЕШЕВЛЕ.
Подробнее:
https://huggingface.co/deepseek-ai/DeepSeek-V3-0324
https://simonwillison.net/2025/Mar/24/deepseek/
@cgevent
⚡5👍1😱1
This media is not supported in your browser
VIEW IN TELEGRAM
DeepMesh
Новый подход, который оптимизирует генерацию сеток с помощью двух ключевых моментов:
- предварительное обучение, включающее новый алгоритм токенизации, а также улучшения в курировании и обработке данных
- внедрение обучения с подкреплением (RL) в генерацию 3D-сеток для достижения выравнивания.
Ставлю для себя отметку, что тут DeepMesh - это трансформер со своим особым алгоритмом токенизации.
https://zhaorw02.github.io/DeepMesh/
Новый подход, который оптимизирует генерацию сеток с помощью двух ключевых моментов:
- предварительное обучение, включающее новый алгоритм токенизации, а также улучшения в курировании и обработке данных
- внедрение обучения с подкреплением (RL) в генерацию 3D-сеток для достижения выравнивания.
Ставлю для себя отметку, что тут DeepMesh - это трансформер со своим особым алгоритмом токенизации.
https://zhaorw02.github.io/DeepMesh/
🔥4⚡3👍1
Forwarded from Нейросеть
This media is not supported in your browser
VIEW IN TELEGRAM
Вышла нейронка, которая превращает обычные картинки в векторные.
StarVector работает просто: закидывам вашу иконку и жмём Send — модель перерисует её, но уже в векторе.
Пользуемся бесплатно — здесь.
StarVector работает просто: закидывам вашу иконку и жмём Send — модель перерисует её, но уже в векторе.
Пользуемся бесплатно — здесь.
👍9⚡2
Нейросеть
Вышла нейронка, которая превращает обычные картинки в векторные. StarVector работает просто: закидывам вашу иконку и жмём Send — модель перерисует её, но уже в векторе. Пользуемся бесплатно — здесь.
#пытаюсьпонять
Как это работает?
Под капотом мультимодальный трансформер. Он работает с изображениями и кодом свг и превращет его в финальный код. На схеме видно какие эмбеддинги используются для реализации мультимодальности.
Как это работает?
Под капотом мультимодальный трансформер. Он работает с изображениями и кодом свг и превращет его в финальный код. На схеме видно какие эмбеддинги используются для реализации мультимодальности.
👍4🔥1
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
AlphaXiv становится все прикольнее и прикольнее: теперь в него завезли анализ кодовой базы статьи
Представьте: вы читаете какую-то статью, у вас появляется вопрос и вы задаете его встроенному ассистенту. А тот, отвечая на него, анализирует не только текст статьи, но и репозиторий к ней (если такой имеется). Таким образом, ответы получаются более технически точными и без додумок, если в тексте что-то описано нечетко.
Также можно попросить бота объяснить кусочки кода или даже адаптировать его под ваш проект.
Итого, в AlphaXiv теперь есть: бесплатный встроенный ассистент для разбора статей, имеющий доступ к любым другим исследованиям, анализ кода и генератор конспектов 🍯
Представьте: вы читаете какую-то статью, у вас появляется вопрос и вы задаете его встроенному ассистенту. А тот, отвечая на него, анализирует не только текст статьи, но и репозиторий к ней (если такой имеется). Таким образом, ответы получаются более технически точными и без додумок, если в тексте что-то описано нечетко.
Также можно попросить бота объяснить кусочки кода или даже адаптировать его под ваш проект.
Итого, в AlphaXiv теперь есть: бесплатный встроенный ассистент для разбора статей, имеющий доступ к любым другим исследованиям, анализ кода и генератор конспектов 🍯
👍5⚡2
This media is not supported in your browser
VIEW IN TELEGRAM
#эксперименты
Сочиняю новую жилую застройку вместе с Sora
Сочиняю новую жилую застройку вместе с Sora
🔥5❤3👍2
#эксперименты
Новые эксперименты с генерацией жилой застройки
Новые эксперименты с генерацией жилой застройки
🔥4⚡2👍2
Forwarded from vc.ru
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI добавила поддержку протокола MCP от Anthropic в свои инструменты для разработчиков. Он позволяет ИИ подключиться к сторонней программе и выполнять действия по запросу пользователя.
Система стала популярной в марте 2025 года: есть интеграции Claude с Blender, Figma, Perplexity и другими сервисами
vc.ru/ai/1890132
Система стала популярной в марте 2025 года: есть интеграции Claude с Blender, Figma, Perplexity и другими сервисами
vc.ru/ai/1890132
🔥2🤔2👍1
Forwarded from Data Secrets
Исследовали реализовали отдельный arxiv для агентов-исследователей
Проект называется AgentRxiv и его идея следующая: пусть агенты работают не сами по себе, а как люди делятся, изучают и совершенствуют исследования друг друга.
То есть по сути AgentRxiv – это опенсорсный фреймворк, который дает разным лабораториям возможность добавлять своих агентов на некую общую платформу шеринга, внутри которой те могут «обмениваться идеями».
Звучит занятно, и по первым тестам работает неплохо: в эксперименте с тремя разными лабами результаты агентов с такой коллаборацией улучшились на 13.7%. Это больше, чем при последовательном автономном самоулучшении.
Может скоро у агентов и конференции свои появятся?
Статья | Репа (лицензия MIT)
Проект называется AgentRxiv и его идея следующая: пусть агенты работают не сами по себе, а как люди делятся, изучают и совершенствуют исследования друг друга.
То есть по сути AgentRxiv – это опенсорсный фреймворк, который дает разным лабораториям возможность добавлять своих агентов на некую общую платформу шеринга, внутри которой те могут «обмениваться идеями».
Звучит занятно, и по первым тестам работает неплохо: в эксперименте с тремя разными лабами результаты агентов с такой коллаборацией улучшились на 13.7%. Это больше, чем при последовательном автономном самоулучшении.
Может скоро у агентов и конференции свои появятся?
Статья | Репа (лицензия MIT)
👍2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Снова примеры с MCP Claude или просто 🤯
На видео процесс того как протокол MCP Claude, имеющий полный контроль над ChatGPT 4o, используется для автоматического создания расскадровки в стиле Ghibli. Все происходит автоматически и никакого вмешательства человека.
На видео процесс того как протокол MCP Claude, имеющий полный контроль над ChatGPT 4o, используется для автоматического создания расскадровки в стиле Ghibli. Все происходит автоматически и никакого вмешательства человека.
🤯2🔥1
#пытаюсьпонять
Как GPT модель умеет точно совершать арифмитические операции, ведь она не является калькулятором в прямом смысле?
Учитыая, что результатом ответа является предсказание исходного контекста, то логично предполагать что возможно она всего лишь запоминает результаты на основе всех тех данных которые были в процессе ее обучения и дообучения, но это не так. Согласно исследованиям, которые проводят создатели Claude, модель использует сложные параллельные вычислительные пути для выполнения арифмитических действий в том числе.
То есть ответ формируется не прямым вычислением, а приближением через примерную оценку, сужение пространства поиска (диапазоны чисел), определением локальных признаков правильного ответа(цифра в конце ответа).
Но если даже такая простая операция требует сложной цепочки рассуждений, насколько модели будут посильны сложные вычислительные операции?
Пример на картинке.
Как GPT модель умеет точно совершать арифмитические операции, ведь она не является калькулятором в прямом смысле?
Учитыая, что результатом ответа является предсказание исходного контекста, то логично предполагать что возможно она всего лишь запоминает результаты на основе всех тех данных которые были в процессе ее обучения и дообучения, но это не так. Согласно исследованиям, которые проводят создатели Claude, модель использует сложные параллельные вычислительные пути для выполнения арифмитических действий в том числе.
То есть ответ формируется не прямым вычислением, а приближением через примерную оценку, сужение пространства поиска (диапазоны чисел), определением локальных признаков правильного ответа(цифра в конце ответа).
Но если даже такая простая операция требует сложной цепочки рассуждений, насколько модели будут посильны сложные вычислительные операции?
Пример на картинке.
🤔3👍1