Мозг и языковые модели создают общее смысловое пространство
Исследователи из Princeton доказали удивительную вещь: мозг людей, говорящих на разных языках, обрабатывает смыслы одинаково. Эксперимент с носителями английского, китайского и французского показал, что нейронные представления значений слов практически идентичны.
Несмотря на кардинальные различия в звучании, грамматике и письме, мозги всех слушателей активировались практически идентично в зонах понимания смысла. Языковые модели (BERT, Whisper) показали аналогичную конвергенцию.
Еще интереснее то, что языковые модели ИИ, обученные на этих языках, тоже сходятся к похожему пространству эмбеддингов. Особенно это заметно в средних слоях нейросетей.
- Энкодинг-модели, обученные на английском, успешно предсказывали активность мозга китайцев и французов
- Многоязычные модели автоматически группировали родственные языки (романские, германские) в едином пространстве
- Whisper выявил общие фонетические паттерны даже в кардинально разных языках
Получается, что несмотря на кардинальные различия в звуках, письменности и грамматике, все языки ведут к одному концептуальному пространству. И ИИ это воспроизводит.
Как-будто человеческое мышление использует универсальный "мета-API", а языки — это просто разные способы его вызова.
#neuroscience #LLM #multilingual
———
@tsingular
Исследователи из Princeton доказали удивительную вещь: мозг людей, говорящих на разных языках, обрабатывает смыслы одинаково. Эксперимент с носителями английского, китайского и французского показал, что нейронные представления значений слов практически идентичны.
Несмотря на кардинальные различия в звучании, грамматике и письме, мозги всех слушателей активировались практически идентично в зонах понимания смысла. Языковые модели (BERT, Whisper) показали аналогичную конвергенцию.
Еще интереснее то, что языковые модели ИИ, обученные на этих языках, тоже сходятся к похожему пространству эмбеддингов. Особенно это заметно в средних слоях нейросетей.
- Энкодинг-модели, обученные на английском, успешно предсказывали активность мозга китайцев и французов
- Многоязычные модели автоматически группировали родственные языки (романские, германские) в едином пространстве
- Whisper выявил общие фонетические паттерны даже в кардинально разных языках
Получается, что несмотря на кардинальные различия в звуках, письменности и грамматике, все языки ведут к одному концептуальному пространству. И ИИ это воспроизводит.
Как-будто человеческое мышление использует универсальный "мета-API", а языки — это просто разные способы его вызова.
#neuroscience #LLM #multilingual
———
@tsingular
🔥14❤3
Forwarded from (sci)Berloga Всех Наук и Технологий
🚀 Уважаемые коллеги, кому интересна математика и машинное обучение, приглашаем Вас принять участие в неформальном научном проекте.
Мы разрабатываем новые методы и опен-соурс библиотеку CayleyPy, которая на основе МЛ/РЛ методов позволяет решить математические задачи, которые были не доступны ранее. Как пример наша система уже по всем параметрам на порядки превсходит аналогичные методы в системе компьютерной алгебры GAP (де-факто стандарт) - использующую алгоритмы доработанные самим Д. Кнутом.
Если у Вас есть желание поучаствовать в проекте, есть знание Питона и несколько свободных часов в неделю - то присоединяйтесь к нам - при активной работе - Вы будете соавтором научных публикаций. (Напишите @alexander_v_c - к.ф.-м.н. Александр Червов).
Краткая суть задачи может быть описана несколькими способами - нахождение пути на графе размером 10^20-10^200 (из-за размера обычные методы не применимы - только МЛ/РЛ). Решение пазла типа кубика Рубика, задача сортировки, математически - разложение элемента группы по образующим - все это в реальности одна и та же задача. Задача близка к прошедшему конкурсу Каггл Санта 2023. Более общо - это задача планирования - типичная для реинфорсмент ленинг - спланировать действия так чтобы кумулятивный эффект давал лучший результат - управлением манипулятором робота, системы АльфаГо, АльфаТензор, успех DeepSeek - это задачи - тесно связанные с тем, что мы делаем.
А зачем это нужно биологам ? А чтобы превращать людей в мышей ))) (А капусту в репу). Так назвал свои статьи известный биоинформатик П.Певзнер - оказывается эволюционная дистанция - соответствует дистанции на определенных графах - и наша цель улучшить ее оценку через МЛ/РЛ. Зачем нужно нужно в сетях - задержка сигнала (latency) сети определяется диаметром сети - оценка диаметра графов - одна из наших целей. В теории квантовых вычислений тоже нужны подобные графы и приложения этим не ограничены. И, кроме того, а знаете чем знаменит Билл Гейтс ?)) Он отлично сортировал блины ! Наша задача - побить его - через МЛ/РЛ)))
В нашем коллективе есть профессора математики, Каггл градмастеры, и легендарные иностранные специалисты - Tomas Rokicki , Herbert Kociemba - Вам будет у кого поучиться.
Подробнее о проекте вы можете узнать в наших статьях https://arxiv.org/abs/2502.18663 https://arxiv.org/abs/2502.13266 и в нашей группе https://t.iss.one/sberlogasci/1 и ⭐ СТАВЬТЕ СТАРС ⭐ (звездочки) на наш гитхаб: https://github.com/cayleypy/cayleypy
Мы разрабатываем новые методы и опен-соурс библиотеку CayleyPy, которая на основе МЛ/РЛ методов позволяет решить математические задачи, которые были не доступны ранее. Как пример наша система уже по всем параметрам на порядки превсходит аналогичные методы в системе компьютерной алгебры GAP (де-факто стандарт) - использующую алгоритмы доработанные самим Д. Кнутом.
Если у Вас есть желание поучаствовать в проекте, есть знание Питона и несколько свободных часов в неделю - то присоединяйтесь к нам - при активной работе - Вы будете соавтором научных публикаций. (Напишите @alexander_v_c - к.ф.-м.н. Александр Червов).
Краткая суть задачи может быть описана несколькими способами - нахождение пути на графе размером 10^20-10^200 (из-за размера обычные методы не применимы - только МЛ/РЛ). Решение пазла типа кубика Рубика, задача сортировки, математически - разложение элемента группы по образующим - все это в реальности одна и та же задача. Задача близка к прошедшему конкурсу Каггл Санта 2023. Более общо - это задача планирования - типичная для реинфорсмент ленинг - спланировать действия так чтобы кумулятивный эффект давал лучший результат - управлением манипулятором робота, системы АльфаГо, АльфаТензор, успех DeepSeek - это задачи - тесно связанные с тем, что мы делаем.
А зачем это нужно биологам ? А чтобы превращать людей в мышей ))) (А капусту в репу). Так назвал свои статьи известный биоинформатик П.Певзнер - оказывается эволюционная дистанция - соответствует дистанции на определенных графах - и наша цель улучшить ее оценку через МЛ/РЛ. Зачем нужно нужно в сетях - задержка сигнала (latency) сети определяется диаметром сети - оценка диаметра графов - одна из наших целей. В теории квантовых вычислений тоже нужны подобные графы и приложения этим не ограничены. И, кроме того, а знаете чем знаменит Билл Гейтс ?)) Он отлично сортировал блины ! Наша задача - побить его - через МЛ/РЛ)))
В нашем коллективе есть профессора математики, Каггл градмастеры, и легендарные иностранные специалисты - Tomas Rokicki , Herbert Kociemba - Вам будет у кого поучиться.
Подробнее о проекте вы можете узнать в наших статьях https://arxiv.org/abs/2502.18663 https://arxiv.org/abs/2502.13266 и в нашей группе https://t.iss.one/sberlogasci/1 и ⭐ СТАВЬТЕ СТАРС ⭐ (звездочки) на наш гитхаб: https://github.com/cayleypy/cayleypy
⚡7🔥3❤1✍1
NVIDIA выпустила семейство OpenReasoning-Nemotron для решения сложных задач
Четыре модели размером от 1.5B до 32B параметров специально обучены для математики, программирования и естественных наук. Основаны на Qwen2.5 и дообучены на 5 миллионах ответов от DeepSeek R1.
Главная особенность — режим GenSelect, который запускает несколько параллельных генераций и выбирает лучшее решение. В этом режиме 32B модель превосходит O3 (High) на математических и кодовых бенчмарках.
Интересно, что модели обучались только на математических задачах, но способности автоматически перенеслись на код и науку. Все модели доступны под лицензией CC-BY-4.0 для коммерческого и исследовательского использования.
#NVIDIA #reasoning #opensource
------
@tsingular
Четыре модели размером от 1.5B до 32B параметров специально обучены для математики, программирования и естественных наук. Основаны на Qwen2.5 и дообучены на 5 миллионах ответов от DeepSeek R1.
Главная особенность — режим GenSelect, который запускает несколько параллельных генераций и выбирает лучшее решение. В этом режиме 32B модель превосходит O3 (High) на математических и кодовых бенчмарках.
Интересно, что модели обучались только на математических задачах, но способности автоматически перенеслись на код и науку. Все модели доступны под лицензией CC-BY-4.0 для коммерческого и исследовательского использования.
#NVIDIA #reasoning #opensource
------
@tsingular
👍4❤2🔥1
Qwen выпустил облегченную версию 235B модели без "размышлений"
Alibaba представила обновленную версию Qwen3-235B-A22B-Instruct-2507 — это режим "без размышлений", который больше не генерирует блоки think в ответах.
Модель использует архитектуру Mixture of Experts с 235B параметрами и активирует только 22B на токен. Это дает производительность больших моделей при затратах всего 10% вычислений.
Поддерживает 119 языков и показывает сильные результаты в программировании и математике. В некоторых бенчмарках обгоняет GPT-4.1, в других уступает.
Для работы с памятью рекомендуют сократить контекст до 32,768 токенов при проблемах с OOM. Поддерживается в популярных фреймворках включая transformers, vLLM и Ollama.
Обошли Кими К2, DeepSeek V3 и Claude Opus 4!!
Полный размер - 472 Гига.
Онлайн адрес не изменился, - https://chat.qwen.ai/
#Qwen #MoE #Китай
------
@tsingular
Alibaba представила обновленную версию Qwen3-235B-A22B-Instruct-2507 — это режим "без размышлений", который больше не генерирует блоки think в ответах.
Модель использует архитектуру Mixture of Experts с 235B параметрами и активирует только 22B на токен. Это дает производительность больших моделей при затратах всего 10% вычислений.
Поддерживает 119 языков и показывает сильные результаты в программировании и математике. В некоторых бенчмарках обгоняет GPT-4.1, в других уступает.
Для работы с памятью рекомендуют сократить контекст до 32,768 токенов при проблемах с OOM. Поддерживается в популярных фреймворках включая transformers, vLLM и Ollama.
Обошли Кими К2, DeepSeek V3 и Claude Opus 4!!
Полный размер - 472 Гига.
Онлайн адрес не изменился, - https://chat.qwen.ai/
#Qwen #MoE #Китай
------
@tsingular
✍2⚡1👀1
Veo 3 теперь доступен через Gemini API
Google запустил Veo 3 через API — первую модель с высококачественным видео и встроенным аудио. Создает кинематографические ролики с диалогами и звуковыми эффектами.
Разработчики уже экспериментируют: от анимации персонажей до повествовательных сцен. Доступен в Google AI Studio с готовыми шаблонами для быстрого прототипирования.
Цена — $0.75 за секунду видео с аудио. Скоро появится Veo 3 Fast — более быстрая и дешевая версия. Все видео помечаются цифровой водяной меткой SynthID для идентификации ИИ-контента.
#Veo3 #VideoGeneration #GeminiAPI
------
@tsingular
Google запустил Veo 3 через API — первую модель с высококачественным видео и встроенным аудио. Создает кинематографические ролики с диалогами и звуковыми эффектами.
Разработчики уже экспериментируют: от анимации персонажей до повествовательных сцен. Доступен в Google AI Studio с готовыми шаблонами для быстрого прототипирования.
Цена — $0.75 за секунду видео с аудио. Скоро появится Veo 3 Fast — более быстрая и дешевая версия. Все видео помечаются цифровой водяной меткой SynthID для идентификации ИИ-контента.
#Veo3 #VideoGeneration #GeminiAPI
------
@tsingular
✍1
📖 MIT запустил ИИ-платформу с 12,700 бесплатными курсами
MIT Learn объединил все образовательные ресурсы института на одной платформе с ИИ-помощником "Ask Tim". Система умеет рекомендовать курсы под цели пользователя и создавать краткие описания программ.
В избранных курсах по молекулярной биологии и генетике добавили ИИ-ассистента для вопросов по лекциям и ИИ-тьютора для решения задач. Тьютор направляет к следующему шагу, но не выдает готовые ответы.
🎓 12 700+ материалов: курсы, видео, подкасты от начальных до продвинутых.
🤖 Ask Tim - ИИ-помощник для персонализированных рекомендаций и резюме курсов.
📚 ИИ-ассистент отвечает на вопросы по лекциям, создаёт карточки и помогает с задачами.
🔍 Умный поиск позволяет не разбираться в структуре университета.
👥 Контент для школьников, студентов, профессионалов и преподавателей.
📋 Возможность создания персональных списков ресурсов и уведомлений о новинках.
Платформа решает проблему навигации - теперь не нужно знать структуру MIT, чтобы найти нужный материал.
Система учитывает когнитивную нагрузку через персонализацию и кураторские списки, предотвращая информационную перегрузку при работе с огромным массивом данных.
Университет эволюционировал в ИИ академию.
#MIT #education #обучение
------
@tsingular
MIT Learn объединил все образовательные ресурсы института на одной платформе с ИИ-помощником "Ask Tim". Система умеет рекомендовать курсы под цели пользователя и создавать краткие описания программ.
В избранных курсах по молекулярной биологии и генетике добавили ИИ-ассистента для вопросов по лекциям и ИИ-тьютора для решения задач. Тьютор направляет к следующему шагу, но не выдает готовые ответы.
🎓 12 700+ материалов: курсы, видео, подкасты от начальных до продвинутых.
🤖 Ask Tim - ИИ-помощник для персонализированных рекомендаций и резюме курсов.
📚 ИИ-ассистент отвечает на вопросы по лекциям, создаёт карточки и помогает с задачами.
🔍 Умный поиск позволяет не разбираться в структуре университета.
👥 Контент для школьников, студентов, профессионалов и преподавателей.
📋 Возможность создания персональных списков ресурсов и уведомлений о новинках.
Платформа решает проблему навигации - теперь не нужно знать структуру MIT, чтобы найти нужный материал.
Система учитывает когнитивную нагрузку через персонализацию и кураторские списки, предотвращая информационную перегрузку при работе с огромным массивом данных.
Университет эволюционировал в ИИ академию.
#MIT #education #обучение
------
@tsingular
🔥8⚡4
Yandex выпустил веб версию Алисы.
https://alice.yandex.ru/
На базе GPT5 Lite или Pro с рассуждениями на выбор.
- умеет рассуждать
- понимает голосовые запросы
- есть поиск в интернете
- работает с файлами и изображениями
- создает картинки
работает, само-собой, без VPN
#yandexGPT #Яндекс #Алиса
———
@tsingular
https://alice.yandex.ru/
На базе GPT5 Lite или Pro с рассуждениями на выбор.
- умеет рассуждать
- понимает голосовые запросы
- есть поиск в интернете
- работает с файлами и изображениями
- создает картинки
работает, само-собой, без VPN
#yandexGPT #Яндекс #Алиса
———
@tsingular
👍11😁5❤1
Google Gemini получил золото на математической олимпиаде
Продвинутая версия Gemini Deep Think решила 5 из 6 задач Международной математической олимпиады, набрав 35 из 42 баллов — результат золотой медали.
Главный прорыв: система работает полностью на естественном языке, без перевода в формальные математические языки. Прошлогодние AlphaProof и AlphaGeometry требовали экспертного перевода задач и работали по несколько дней. Gemini уложился в стандартные 4,5 часа соревнований.
Основа успеха — параллельное мышление: модель одновременно исследует несколько путей решения, а не идет линейно. Плюс обучение на подкрепляющем обучении с корпусом качественных математических решений.
По словам президента олимпиады: «Их решения поразительны — четкие, точные и легко читаемые».
#Gemini #Mathematics #AI
------
@tsingular
Продвинутая версия Gemini Deep Think решила 5 из 6 задач Международной математической олимпиады, набрав 35 из 42 баллов — результат золотой медали.
Главный прорыв: система работает полностью на естественном языке, без перевода в формальные математические языки. Прошлогодние AlphaProof и AlphaGeometry требовали экспертного перевода задач и работали по несколько дней. Gemini уложился в стандартные 4,5 часа соревнований.
Основа успеха — параллельное мышление: модель одновременно исследует несколько путей решения, а не идет линейно. Плюс обучение на подкрепляющем обучении с корпусом качественных математических решений.
По словам президента олимпиады: «Их решения поразительны — четкие, точные и легко читаемые».
#Gemini #Mathematics #AI
------
@tsingular
🔥6⚡1
Каталог каталогов по ML и ИИ.
1. Мини-проекты по машинному обучению с Python
Небольшие проекты для понимания основных концепций. Создание моделей машинного обучения с Scikit-learn для регрессии и классификации.
2. Анализ данных и библиотека проектов машинного обучения
Учебные материалы, код и наборы данных для проектов анализа данных и машинного обучения.
3. Идеи для проектов машинного обучения
Идеи проектов: машинное обучение, НЛП, компьютерное зрение, рекомендательные системы.
4. 500+ проектов машинного обучения и ИИ с кодом
500+ реальных проектов: машинное обучение, глубокое обучение, компьютерное зрение, НЛП.
5. Проекты генеративного ИИ
Современные проекты и сервисы генеративного ИИ. Инструменты для генерации текста, изображений, аудио, видео.
6. Инструменты и проекты LangChain
Инструменты и проекты с фреймворком LangChain для приложений на основе больших языковых моделей и ИИ-агентов.
7. Решения Kaggle
Решения и идеи соревнований Kaggle. Лучшие подходы к решению задач машинного обучения.
8. Топ проектов глубокого обучения на GitHub
Популярные проекты глубокого обучения, ранжированные по количеству звезд. Фреймворки, инструменты и ресурсы.
9. Справочник по машинному обучению
Ссылки, учебные материалы и ресурсы по машинному обучению и глубокому обучению.
10. Ресурсы глубокого обучения
Учебники, проекты, книги и сообщества по глубокому обучению. Нейронные сети, обучение с подкреплением, исследования ИИ.
Обычно такое не люблю, но тут реально собраны тысячи полезных ссылок.
Тут и обучение и фреймворки и инструменты.
Все что может пригодиться в мире ИИ.
Подборки курируемые с десятками, а иногда и сотнями контрибьюторов.
И всё бесплатно. Лет на 5 обучения хватит.
#обучение #каталоги
———
@tsingular
1. Мини-проекты по машинному обучению с Python
Небольшие проекты для понимания основных концепций. Создание моделей машинного обучения с Scikit-learn для регрессии и классификации.
2. Анализ данных и библиотека проектов машинного обучения
Учебные материалы, код и наборы данных для проектов анализа данных и машинного обучения.
3. Идеи для проектов машинного обучения
Идеи проектов: машинное обучение, НЛП, компьютерное зрение, рекомендательные системы.
4. 500+ проектов машинного обучения и ИИ с кодом
500+ реальных проектов: машинное обучение, глубокое обучение, компьютерное зрение, НЛП.
5. Проекты генеративного ИИ
Современные проекты и сервисы генеративного ИИ. Инструменты для генерации текста, изображений, аудио, видео.
6. Инструменты и проекты LangChain
Инструменты и проекты с фреймворком LangChain для приложений на основе больших языковых моделей и ИИ-агентов.
7. Решения Kaggle
Решения и идеи соревнований Kaggle. Лучшие подходы к решению задач машинного обучения.
8. Топ проектов глубокого обучения на GitHub
Популярные проекты глубокого обучения, ранжированные по количеству звезд. Фреймворки, инструменты и ресурсы.
9. Справочник по машинному обучению
Ссылки, учебные материалы и ресурсы по машинному обучению и глубокому обучению.
10. Ресурсы глубокого обучения
Учебники, проекты, книги и сообщества по глубокому обучению. Нейронные сети, обучение с подкреплением, исследования ИИ.
Обычно такое не люблю, но тут реально собраны тысячи полезных ссылок.
Тут и обучение и фреймворки и инструменты.
Все что может пригодиться в мире ИИ.
Подборки курируемые с десятками, а иногда и сотнями контрибьюторов.
И всё бесплатно. Лет на 5 обучения хватит.
#обучение #каталоги
———
@tsingular
👍8✍7⚡3🔥1🆒1
Есть ощущение, что поисковик должен стать умнее.
Какой-нибудь локальный ИИ, скажем встроенный в браузер, который сверяется со списком РКН перед каждым запросом до отправки запроса в поиск может решить проблему риска нарваться на штраф.
#мысли #ркн
------
@tsingular
Какой-нибудь локальный ИИ, скажем встроенный в браузер, который сверяется со списком РКН перед каждым запросом до отправки запроса в поиск может решить проблему риска нарваться на штраф.
#мысли #ркн
------
@tsingular
👍21😁11🎉3
T-one — открытая русскоязычная потоковая модель для телефонии
Т-Банк выпустил открытую потоковую модель распознавания речи T-one с 71М параметров.
Обучена на 80 тысячах часов русскоязычных данных, 64% через псевдо-разметку ансамблем моделей.
Показывает лучшее качество в телефонии по сравнению с GigaAM-CTC при троекратно меньшем размере. Задержка 1-1.2 секунды.
Архитектура Conformer с модификациями: SwiGLU вместо feed-forward, RoPE-эмбеддинги, U-Net-структура со сжатием временной размерности в средних слоях.
Доступны код обучения, инференса, демо через Docker и языковая модель. Лицензия Apache 2.0.
GitHub репозиторий
#streaming #speech #Tbank
———
@tsingular
Т-Банк выпустил открытую потоковую модель распознавания речи T-one с 71М параметров.
Обучена на 80 тысячах часов русскоязычных данных, 64% через псевдо-разметку ансамблем моделей.
Показывает лучшее качество в телефонии по сравнению с GigaAM-CTC при троекратно меньшем размере. Задержка 1-1.2 секунды.
Архитектура Conformer с модификациями: SwiGLU вместо feed-forward, RoPE-эмбеддинги, U-Net-структура со сжатием временной размерности в средних слоях.
Доступны код обучения, инференса, демо через Docker и языковая модель. Лицензия Apache 2.0.
GitHub репозиторий
#streaming #speech #Tbank
———
@tsingular
👍8✍2❤1🤝1
Hugging Face запустил курс по аудио-трансформерам
Hugging Face выпустил бесплатный курс по применению трансформеров для обработки аудио.
Курс покрывает распознавание речи, классификацию звука и генерацию речи из текста. Включает теорию, квизы и практические задания с предобученными моделями.
Предназначен для разработчиков с базовыми знаниями по ML и трансформерам. Опыт работы с аудио не требуется.
Доступна сертификация после выполнения упражнений. Материалы выходят блоками в течение нескольких недель.
#HuggingFace #курсы #audio #обучение
———
@tsingular
Hugging Face выпустил бесплатный курс по применению трансформеров для обработки аудио.
Курс покрывает распознавание речи, классификацию звука и генерацию речи из текста. Включает теорию, квизы и практические задания с предобученными моделями.
Предназначен для разработчиков с базовыми знаниями по ML и трансформерам. Опыт работы с аудио не требуется.
Доступна сертификация после выполнения упражнений. Материалы выходят блоками в течение нескольких недель.
#HuggingFace #курсы #audio #обучение
———
@tsingular
👍5⚡3✍2❤1
Forwarded from эйай ньюз
Colossus 2 почти готов
xAI, уже через несколько недель, начнут вводить в строй кластер из 550к GB200/GB300 на жидкостном охлаждении. Чтобы запитать этого монстра, xAI купили электростанцию в другой стране и привезли её в США — обойтись мобильными генераторами, как в случае с оригинальным Colossus, не вышло.
Добро пожаловать в эру гигаваттных кластеров
@ai_newz
xAI, уже через несколько недель, начнут вводить в строй кластер из 550к GB200/GB300 на жидкостном охлаждении. Чтобы запитать этого монстра, xAI купили электростанцию в другой стране и привезли её в США — обойтись мобильными генераторами, как в случае с оригинальным Colossus, не вышло.
Добро пожаловать в эру гигаваттных кластеров
@ai_newz
🔥12 3 2
OpenAI и Великобритания подписали соглашение об использовании ИИ в госсекторе
Британия заключила партнёрство с OpenAI для внедрения искусственного интеллекта в государственные службы - образование, оборону, безопасность и судебную систему.
Соглашение предусматривает обмен информацией между правительством и компанией, а также расширение лондонского офиса OpenAI с нынешними 100+ сотрудниками.
Правозащитники критикуют сделку как "безнадёжно расплывчатую". Foxglove предупреждает, что государственные данные могут использоваться для обучения коммерческих моделей ChatGPT.
Технологический секретарь Питер Кайл уже ужинал с Сэмом Альтманом дважды в этом году. Правительство уже использует инструменты OpenAI в системе "Хамфри" для повышения продуктивности госслужбы.
Госслужащие скоро будут получать рекомендации от ChatGPT по поводу налогов и штрафов. Надеемся, он не будет галлюцинировать. :)
#OpenAI #ChatGPT #governance
------
@tsingular
Британия заключила партнёрство с OpenAI для внедрения искусственного интеллекта в государственные службы - образование, оборону, безопасность и судебную систему.
Соглашение предусматривает обмен информацией между правительством и компанией, а также расширение лондонского офиса OpenAI с нынешними 100+ сотрудниками.
Правозащитники критикуют сделку как "безнадёжно расплывчатую". Foxglove предупреждает, что государственные данные могут использоваться для обучения коммерческих моделей ChatGPT.
Технологический секретарь Питер Кайл уже ужинал с Сэмом Альтманом дважды в этом году. Правительство уже использует инструменты OpenAI в системе "Хамфри" для повышения продуктивности госслужбы.
Госслужащие скоро будут получать рекомендации от ChatGPT по поводу налогов и штрафов. Надеемся, он не будет галлюцинировать. :)
#OpenAI #ChatGPT #governance
------
@tsingular
🤔6❤1👍1
Microsoft выкатывает ИИ-агентов в Windows 11
Copilot Vision теперь доступен всем пользователям Windows 11 — сканирует экран и отвечает на вопросы о том, что видит.
Владельцы Copilot+ PC получают ИИ-агента в настройках, который понимает обычную речь: "включи тихие часы" или "подключи Bluetooth".
Click to Do расширяется новыми возможностями — от создания списков до планирования встреч Teams одним кликом.
В Paint появился генератор стикеров по текстовому описанию, а Photos получил ИИ-освещение для портретов.
По данным Microsoft, 60% пользователей уже применяют генеративный ИИ для работы, а 64% — для хобби.
Windows превращается в одну большую GPT с глазами. Скоро компьютер будет знать о ваших делах больше, чем вы сами.
#Windows #Copilot #Microsoft
------
@tsingular
Copilot Vision теперь доступен всем пользователям Windows 11 — сканирует экран и отвечает на вопросы о том, что видит.
Владельцы Copilot+ PC получают ИИ-агента в настройках, который понимает обычную речь: "включи тихие часы" или "подключи Bluetooth".
Click to Do расширяется новыми возможностями — от создания списков до планирования встреч Teams одним кликом.
В Paint появился генератор стикеров по текстовому описанию, а Photos получил ИИ-освещение для портретов.
По данным Microsoft, 60% пользователей уже применяют генеративный ИИ для работы, а 64% — для хобби.
Windows превращается в одну большую GPT с глазами. Скоро компьютер будет знать о ваших делах больше, чем вы сами.
#Windows #Copilot #Microsoft
------
@tsingular
⚡3👍2🤔1
Google Cloud собрал 25+ лучших гайдов по генеративному ИИ
Извините, но у нас снова каталог обучающих материалов.
Теперь от Google.
🚀 Быстрое развертывание моделей
1. CI/CD пайплайн для ML — автоматизация сборки и развертывания Vertex AI Pipeline
2. Развертывание Llama 3 на A3 VM) — Terraform скрипты для AI Hypercomputer кластера
3. DeepSeek и Llama 4 на AI Hypercomputer — развертывание с JetStream MaxText на Trillium TPU
4. Открытые модели в Vertex AI Studio — включая модели Claude
5. MCP сервер на Cloud Run за 10 минут — документация
🤖 Генеративные ИИ-приложения и агенты
6. Суммаризатор документов с Gemini Pro
7. Чат-приложения — сохранение истории разговора
8. Мультимодальный исследовательский агент с LangGraph
9. Text-to-SQL с ИИ — современные подходы к генерации SQL
10. A2A-совместимые агенты
11. Мультиагентная система планирования путешествий
12. Агент анонимизации данных
13. Логотипы с Imagen 3 и Gemini
🔧 Файнтюнинг, оценка и RAG
14. Supervised Fine Tuning с Gemini — репозиторий
15. Vertex AI RAG для начинающих
16. Production-ready RAG система — архитектурное руководство
17. Продвинутые техники RAG — оценка и настройка
18. RLHF тонкая настройка
19. Тонкая настройка видео
20. Быстрое сравнение промптов
21. Explainable AI — атрибуции признаков
22. Оптимизация RAG — минимизация галлюцинаций
🔗 Интеграции
23. Многоязычный мобильный чатбот
Добавляем в избранное, - обещают пополнять раздел регулярно.
#Google #обучение #каталоги
———
@tsingular
Извините, но у нас снова каталог обучающих материалов.
Теперь от Google.
🚀 Быстрое развертывание моделей
1. CI/CD пайплайн для ML — автоматизация сборки и развертывания Vertex AI Pipeline
2. Развертывание Llama 3 на A3 VM) — Terraform скрипты для AI Hypercomputer кластера
3. DeepSeek и Llama 4 на AI Hypercomputer — развертывание с JetStream MaxText на Trillium TPU
4. Открытые модели в Vertex AI Studio — включая модели Claude
5. MCP сервер на Cloud Run за 10 минут — документация
🤖 Генеративные ИИ-приложения и агенты
6. Суммаризатор документов с Gemini Pro
7. Чат-приложения — сохранение истории разговора
8. Мультимодальный исследовательский агент с LangGraph
9. Text-to-SQL с ИИ — современные подходы к генерации SQL
10. A2A-совместимые агенты
11. Мультиагентная система планирования путешествий
12. Агент анонимизации данных
13. Логотипы с Imagen 3 и Gemini
🔧 Файнтюнинг, оценка и RAG
14. Supervised Fine Tuning с Gemini — репозиторий
15. Vertex AI RAG для начинающих
16. Production-ready RAG система — архитектурное руководство
17. Продвинутые техники RAG — оценка и настройка
18. RLHF тонкая настройка
19. Тонкая настройка видео
20. Быстрое сравнение промптов
21. Explainable AI — атрибуции признаков
22. Оптимизация RAG — минимизация галлюцинаций
🔗 Интеграции
23. Многоязычный мобильный чатбот
Добавляем в избранное, - обещают пополнять раздел регулярно.
#Google #обучение #каталоги
———
@tsingular
✍2⚡1🔥1
Фотонный процессор NeuroCore может заменить GPU в дата-центрах
Стартап NeuroCore разработал концепт чипа, который заменяет электроны фотонами для ИИ-вычислений. Используют интерферометры Маха-Цендера для матричных операций на свете — быстрее и на порядки энергоэффективнее.
Трёхслойная архитектура: InP лазеры, SiN волноводы с низкими потерями, SiPh фазовращатели. Гибридная система — оптика для вычислений, электроника для управления.
Подходит для автопилотов, медицинской диагностики и серверов — везде, где нужна скорость без перегрева.
Рынок фотоники ждет рост до $321.9 млрд к 2028 году.
Наконец-то свет в конце туннеля для перегретых дата-центров. Буквально.
#NeuroCore #photonics #datacenter
------
@tsingular
Стартап NeuroCore разработал концепт чипа, который заменяет электроны фотонами для ИИ-вычислений. Используют интерферометры Маха-Цендера для матричных операций на свете — быстрее и на порядки энергоэффективнее.
Трёхслойная архитектура: InP лазеры, SiN волноводы с низкими потерями, SiPh фазовращатели. Гибридная система — оптика для вычислений, электроника для управления.
Подходит для автопилотов, медицинской диагностики и серверов — везде, где нужна скорость без перегрева.
Рынок фотоники ждет рост до $321.9 млрд к 2028 году.
Наконец-то свет в конце туннеля для перегретых дата-центров. Буквально.
#NeuroCore #photonics #datacenter
------
@tsingular
🔥8⚡1❤1
Qwen3-Coder: агентное программирование с 480B параметрами и CLI
Alibaba выпустила Qwen3-Coder - MoE-модель на 35B/480B параметрами, которая показывает результаты уровня Claude Sonnet 4 в задачах агентного программирования.
Ключевая особенность - Agent RL обучение через взаимодействие с окружением в 20,000 параллельных средах на инфраструктуре Alibaba Cloud. Модель достигла state-of-the-art на SWE-Bench среди открытых решений.
Вместе с моделью открыли Qwen Code - CLI-инструмент, по сути форк Gemini Code но с адаптированными промптами. Поддерживает контекст 256K токенов нативно и до 1M через экстраполяцию.
Интегрируется с Claude Code, Cline и доступен через API Alibaba Cloud Model Studio.
Самая вкуснота, - это, конечно, CLI.
Коллеги, использующие Claude CLI Coder пишут, что эффективность разработки в 10 раз взлетела, но расходы по $200+ на сотрудника в месяц в среднем.
Оно может и субъективно, но все-таки иметь такое бесплатно локально в opensource - очень круто.
GitHub
HuggingFace - полный размер 1Тб
#Qwen #dev #CLI
———
@tsingular
Alibaba выпустила Qwen3-Coder - MoE-модель на 35B/480B параметрами, которая показывает результаты уровня Claude Sonnet 4 в задачах агентного программирования.
Ключевая особенность - Agent RL обучение через взаимодействие с окружением в 20,000 параллельных средах на инфраструктуре Alibaba Cloud. Модель достигла state-of-the-art на SWE-Bench среди открытых решений.
Вместе с моделью открыли Qwen Code - CLI-инструмент, по сути форк Gemini Code но с адаптированными промптами. Поддерживает контекст 256K токенов нативно и до 1M через экстраполяцию.
Интегрируется с Claude Code, Cline и доступен через API Alibaba Cloud Model Studio.
Самая вкуснота, - это, конечно, CLI.
Коллеги, использующие Claude CLI Coder пишут, что эффективность разработки в 10 раз взлетела, но расходы по $200+ на сотрудника в месяц в среднем.
Оно может и субъективно, но все-таки иметь такое бесплатно локально в opensource - очень круто.
GitHub
HuggingFace - полный размер 1Тб
#Qwen #dev #CLI
———
@tsingular
🔥4 2⚡1👍1
Amazon Q Developer и MCP автоматизируют создание Deep Learning контейнеров
AWS представил интеграцию Amazon Q Developer с Model Context Protocol для упрощения работы с Deep Learning Containers.
Теперь создание и кастомизация контейнеров происходит через естественный диалог вместо сложных команд. Разработчики могут просто сказать "запусти PyTorch контейнер для обучения" — и система автоматически подберёт образ, настроит окружение и запустит тестирование.
В демо примере разобрана интеграция NeMo toolkit и DeepSeek модели через диалоговый интерфейс за минуты через MCP сервер с 6ю тулами для управления контейнерами.
AWS пишет об экономии времени по управлению инфраструктурой на 40% при использовании ИИ-инструментов.
DevOps-инженеры теперь могут поболтать с контейнерами как с коллегой.
#AmazonQ #MCP #DevOps #примеры #AWS #обучение
------
@tsingular
AWS представил интеграцию Amazon Q Developer с Model Context Protocol для упрощения работы с Deep Learning Containers.
Теперь создание и кастомизация контейнеров происходит через естественный диалог вместо сложных команд. Разработчики могут просто сказать "запусти PyTorch контейнер для обучения" — и система автоматически подберёт образ, настроит окружение и запустит тестирование.
В демо примере разобрана интеграция NeMo toolkit и DeepSeek модели через диалоговый интерфейс за минуты через MCP сервер с 6ю тулами для управления контейнерами.
AWS пишет об экономии времени по управлению инфраструктурой на 40% при использовании ИИ-инструментов.
DevOps-инженеры теперь могут поболтать с контейнерами как с коллегой.
#AmazonQ #MCP #DevOps #примеры #AWS #обучение
------
@tsingular
✍2⚡1