AI LAB | Лаборатория ИИ
1.75K subscribers
629 photos
435 videos
23 files
901 links
Лаборатория ИИ
Эксперименты и интересные материалы на тему ИИ в архитектурном проектировании и не только.

По всем вопросам 24/7
@arthiteca

Вопросы сотрудничества и соучастия
@j_fede
Download Telegram
Forwarded from Data Secrets
У Google вышло очень занятное исследование: они сравнили, как LLM и человеческий мозг обрабатывают язык

В качестве LM взяли Whisper, а нейронную активность человека записывали с помощью интракраниальных электродов во время спонтанных разговоров. Затем векторы эмбеддингов модельки наложили на векторы паттернов мозга и оценили линейную зависимость. Вот что получилось:

Соответствие удивительно четкое и геометрия эмбеддингов в LLM (то есть отношения между словами в embedding-пространстве) соотносится с представлениями в мозге.

Во время слушания Speech-эмбеддинги явно коррелируют с активностью в слуховой коре (верхняя височная извилина), затем language-эмбеддинги коррелируют с активностью в зоне Брока (нижняя лобная извилина).

Во время говорения – наоборот. Language-эмбеддинги сначала "активируются" в зоне Брока (планирование высказывания), затем speech-эмбеддинги активируются в моторной коре (непосредственно говорение), и в конце снова в слуховой коре при восприятии собственной речи.

Это удивительно, потому что технически мозг и LLM используют разные подходы. Да, и там и там нейроны, но в науке принято считать, что мозг "использует" символьный подход, то есть полагается на четкие семанические структуры, синтаксис и иерархию слов. В модельках такого нет, они понимают язык статистически.

И все-таки получается, что обычный next token prediction оказывается очень похож на реальный нейронный код, и мы неожиданно близко подобрались к моделированию мозга.

research.google/blog/deciphering-language-processing-in-the-human-brain-through-llm-representations/
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
31
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
DeepSeek только что выпустил последнюю версию своей огромной модели DeepSeek-V3-0324.

Лицензия — MIT (предыдущая версия DeepSeek v3 имела специальную лицензию), а общий объем файлов в релизе составляет 641 ГБ, в формате model-00035-of-000163.safetensors.

Модель вышла всего несколько часов назад, а разработчик MLX Авни Ханнун уже запустил ее со скоростью более 20 токенов в секунду на M3 Ultra Mac Studio с 512 ГБ (9499 долларов) с помощью mlx-lm и 4-битной версии, размер на диске до 352 ГБ.


Новая модель также представлена на OpenRouter, можно пробовать.

Пишут, что лучше, быстрее, сильнее.

И СИЛЬНО ДЕШЕВЛЕ.

Подробнее:
https://huggingface.co/deepseek-ai/DeepSeek-V3-0324

https://simonwillison.net/2025/Mar/24/deepseek/

@cgevent
5👍1😱1
This media is not supported in your browser
VIEW IN TELEGRAM
DeepMesh
Новый подход, который оптимизирует генерацию сеток с помощью двух ключевых моментов:
- предварительное обучение, включающее новый алгоритм токенизации, а также улучшения в курировании и обработке данных
- внедрение обучения с подкреплением (RL) в генерацию 3D-сеток для достижения выравнивания.

Ставлю для себя отметку, что тут DeepMesh - это трансформер со своим особым алгоритмом токенизации.
https://zhaorw02.github.io/DeepMesh/
🔥43👍1
Forwarded from Нейросеть
This media is not supported in your browser
VIEW IN TELEGRAM
Вышла нейронка, которая превращает обычные картинки в векторные.

StarVector работает просто: закидывам вашу иконку и жмём Send — модель перерисует её, но уже в векторе.

Пользуемся бесплатно — здесь.
👍92
Нейросеть
Вышла нейронка, которая превращает обычные картинки в векторные. StarVector работает просто: закидывам вашу иконку и жмём Send — модель перерисует её, но уже в векторе. Пользуемся бесплатно — здесь.
#пытаюсьпонять
Как это работает?
Под капотом мультимодальный трансформер. Он работает с изображениями и кодом свг и превращет его в финальный код. На схеме видно какие эмбеддинги используются для реализации мультимодальности.
👍4🔥1
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
AlphaXiv становится все прикольнее и прикольнее: теперь в него завезли анализ кодовой базы статьи

Представьте: вы читаете какую-то статью, у вас появляется вопрос и вы задаете его встроенному ассистенту. А тот, отвечая на него, анализирует не только текст статьи, но и репозиторий к ней (если такой имеется). Таким образом, ответы получаются более технически точными и без додумок, если в тексте что-то описано нечетко.

Также можно попросить бота объяснить кусочки кода или даже адаптировать его под ваш проект.

Итого, в AlphaXiv теперь есть: бесплатный встроенный ассистент для разбора статей, имеющий доступ к любым другим исследованиям, анализ кода и генератор конспектов 🍯
👍52
This media is not supported in your browser
VIEW IN TELEGRAM
#эксперименты
Сочиняю новую жилую застройку вместе с Sora
🔥53👍2
#эксперименты
ChatGPT GPT-4o Image Generation
👍5🔥52
#эксперименты
Новые эксперименты с генерацией жилой застройки
🔥42👍2
Forwarded from vc.ru
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI добавила поддержку протокола MCP от Anthropic в свои инструменты для разработчиков. Он позволяет ИИ подключиться к сторонней программе и выполнять действия по запросу пользователя.

Система стала популярной в марте 2025 года: есть интеграции Claude с Blender, Figma, Perplexity и другими сервисами

vc.ru/ai/1890132
🔥2🤔2👍1
Forwarded from Data Secrets
Исследовали реализовали отдельный arxiv для агентов-исследователей

Проект называется AgentRxiv и его идея следующая: пусть агенты работают не сами по себе, а как люди делятся, изучают и совершенствуют исследования друг друга.

То есть по сути AgentRxiv – это опенсорсный фреймворк, который дает разным лабораториям возможность добавлять своих агентов на некую общую платформу шеринга, внутри которой те могут «обмениваться идеями».

Звучит занятно, и по первым тестам работает неплохо: в эксперименте с тремя разными лабами результаты агентов с такой коллаборацией улучшились на 13.7%. Это больше, чем при последовательном автономном самоулучшении.

Может скоро у агентов и конференции свои появятся?

Статья | Репа (лицензия MIT)
👍2🔥1