Gemini 2.5: Новая модель с размышлениями от Google DeepMind
Google выпустил Gemini 2.5 Pro – свою самую интеллектуальную модель ИИ.
Версия Pro Experimental заняла первое место в рейтинге LMArena с внушительным отрывом.
! на 18.8% выполнила "последний экзамен человечества"!
Ключевое новшество – размышления.
Система демонстрирует выдающиеся результаты в тестах по рассуждению, точным наукам и программированию.
На GPQA и AIME модель показывает рекордные показатели без дополнительных вычислительных трат.
В SWE-Bench Verified достигает 63,8%.
Контекстное окно расширено до 1 миллиона токенов с перспективой роста до 2 миллионов.
Обрабатывает данные различных форматов: текст, аудио, изображения, видео и программные репозитории.
Доступна в Google AI Studio и приложении для пользователей Gemini Advanced.
Подумалось, - Новый Год что ли? Откуда столько релизов?
Получается отмечаем Навруз! :)
#Gemini #Google #DeepMind
———
@tsingular
Google выпустил Gemini 2.5 Pro – свою самую интеллектуальную модель ИИ.
Версия Pro Experimental заняла первое место в рейтинге LMArena с внушительным отрывом.
! на 18.8% выполнила "последний экзамен человечества"!
Ключевое новшество – размышления.
Система демонстрирует выдающиеся результаты в тестах по рассуждению, точным наукам и программированию.
На GPQA и AIME модель показывает рекордные показатели без дополнительных вычислительных трат.
В SWE-Bench Verified достигает 63,8%.
Контекстное окно расширено до 1 миллиона токенов с перспективой роста до 2 миллионов.
Обрабатывает данные различных форматов: текст, аудио, изображения, видео и программные репозитории.
Доступна в Google AI Studio и приложении для пользователей Gemini Advanced.
Подумалось, - Новый Год что ли? Откуда столько релизов?
Получается отмечаем Навруз! :)
#Gemini #Google #DeepMind
———
@tsingular
🔥9❤4
Forwarded from Denis Sexy IT 🤖
ChatGPT сегодня обновится:
– gpt4o теперь умеет редактировать картинки, ака текстовый фотошоп (лицо adobe представили)
– умеет генерировать картинки намного лучше чем Dalle, с нормальным текстом и тп
– ChatGPT теперь может генерировать видео через Sora, не ходя на отдельный сайт (3 видео в сутки бесплатно)
– Можно удалять фон у картинок (привет нормальные png)
– Работает довольно медленно, сделал видео как оно работает
– gpt4o теперь умеет редактировать картинки, ака текстовый фотошоп (лицо adobe представили)
– умеет генерировать картинки намного лучше чем Dalle, с нормальным текстом и тп
– ChatGPT теперь может генерировать видео через Sora, не ходя на отдельный сайт (3 видео в сутки бесплатно)
– Можно удалять фон у картинок (привет нормальные png)
– Работает довольно медленно, сделал видео как оно работает
⚡15👍6
Media is too big
VIEW IN TELEGRAM
Продолжаем готовиться к Подмосковным Вечерам - Весна - 13-14 апреля.
Готовим секцию "Рассекреченные агенты", в которой рассмотрим:
• Пошаговое руководство по созданию ИИ-агентов и их интеграции в рабочие процессы компании.
• Обзор технологий low-code и no-code, которые позволяют создавать эффективные решения без глубоких знаний программирования.
• Демонстрацию разговорного агента, работающего на базе Giga Chat. Вы сможете увидеть, как он отвечает на вопросы и выполняет задачи в реальном времени — в том числе позвонить и поговорить с ним!
Ещё будет футурологическая сессия с Дмитрием Алтуховым про прекрасное прошлое и страшное будущее :)
Напишите, если планируете быть.
https://pvesna.4cio.ru/
#pvesna #4CIO
———
@tsingular
Готовим секцию "Рассекреченные агенты", в которой рассмотрим:
• Пошаговое руководство по созданию ИИ-агентов и их интеграции в рабочие процессы компании.
• Обзор технологий low-code и no-code, которые позволяют создавать эффективные решения без глубоких знаний программирования.
• Демонстрацию разговорного агента, работающего на базе Giga Chat. Вы сможете увидеть, как он отвечает на вопросы и выполняет задачи в реальном времени — в том числе позвонить и поговорить с ним!
Ещё будет футурологическая сессия с Дмитрием Алтуховым про прекрасное прошлое и страшное будущее :)
Напишите, если планируете быть.
https://pvesna.4cio.ru/
#pvesna #4CIO
———
@tsingular
👍13🔥1
Forwarded from Не баг, а фича
This media is not supported in your browser
VIEW IN TELEGRAM
Эту огромную 3D-сцену маленького Гарри Поттера на видео сделала нейронка БЕЗ участия человека всего за пару минут.
Гайд, как это повторить:
Сохраняем — тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👀3❤1
OpenAI добавили поддержку MCP протокола от Anthropic.
MCP штука не новая, но пока была больше в области экспериментов и прототипов.
Однако количество этих прототипов, быстрое развитие и перспективность технологии привели к тому, что OpenAI официально добавил поддержку Model Context Protocol (MCP) в свой Agents SDK.
Вчера, сразу после обновления спецификации MCP, Альтман подтвердил это в X, отметив, что поддержка уже доступна в Agents SDK, а скоро появится и в ChatGPT Desktop и Responses API.
MCP — это открытый протокол, который стандартизирует взаимодействие AI-моделей с внешними источниками данных и инструментами. Его часто сравнивают с USB-C для AI: универсальный интерфейс, позволяющий подключать различные инструменты к AI-моделям без необходимости создавать уникальные интеграции для каждого сервиса.
На практике это даст:
- Упрощение разработки AI-решений
- Стандартизация интеграций
- Расширение возможностей AI-агентов (доступ к большему количеству инструментов)
Что нового в обновлении MCP?
Вчерашнее обновление протокола включает несколько важных изменений:
- OAuth 2.1 для авторизации (повышение безопасности)
- Улучшенный HTTP Transport с поддержкой двунаправленного обмена
- JSON-RPC Batching (отправка нескольких запросов одновременно)
- Tool Annotations (метаданные для описания инструментов)
Накануне, 24 марта, Microsoft выпустила Playwright-MCP сервер, который позволяет AI-агентам автоматизировать взаимодействие с браузером с использованием MCP.
Кто ещё использует MCP?
Помимо гигантов OpenAI и Microsoft, протокол активно внедряется и другими игроками:
Такие компании как Block и Apollo интегрировали MCP в свои системы. Инструменты для разработчиков, включая Replit, Windsurf и Cursor, используют его для улучшения помощи при кодировании. Apify создала MCP-сервер для задач извлечения данных.
Техника:
MCP использует модульную архитектуру на базе JSON-RPC 2.0, разделенную на слои:
- Базовый транспорт
- Управление жизненным циклом
- Серверные возможности (ресурсы, промпты)
- Клиентские возможности (сэмплирование, логирование)
Разработчики могут выбирать компоненты в зависимости от своих задач.
Главный вопрос: становится ли MCP новым индустриальным стандартом?
С поддержкой от Anthropic, LangChain, и теперь Microsoft и OpenAI, по идее, имеет все шансы стать общим языком для агентских интеграций.
MCP документация от Anthropic
GitHub
Примеры от OpenAI
#MCP #OpenAI #Anthropic #Microsoft
———
@tsingular
MCP штука не новая, но пока была больше в области экспериментов и прототипов.
Однако количество этих прототипов, быстрое развитие и перспективность технологии привели к тому, что OpenAI официально добавил поддержку Model Context Protocol (MCP) в свой Agents SDK.
Вчера, сразу после обновления спецификации MCP, Альтман подтвердил это в X, отметив, что поддержка уже доступна в Agents SDK, а скоро появится и в ChatGPT Desktop и Responses API.
MCP — это открытый протокол, который стандартизирует взаимодействие AI-моделей с внешними источниками данных и инструментами. Его часто сравнивают с USB-C для AI: универсальный интерфейс, позволяющий подключать различные инструменты к AI-моделям без необходимости создавать уникальные интеграции для каждого сервиса.
На практике это даст:
- Упрощение разработки AI-решений
- Стандартизация интеграций
- Расширение возможностей AI-агентов (доступ к большему количеству инструментов)
Что нового в обновлении MCP?
Вчерашнее обновление протокола включает несколько важных изменений:
- OAuth 2.1 для авторизации (повышение безопасности)
- Улучшенный HTTP Transport с поддержкой двунаправленного обмена
- JSON-RPC Batching (отправка нескольких запросов одновременно)
- Tool Annotations (метаданные для описания инструментов)
Накануне, 24 марта, Microsoft выпустила Playwright-MCP сервер, который позволяет AI-агентам автоматизировать взаимодействие с браузером с использованием MCP.
Кто ещё использует MCP?
Помимо гигантов OpenAI и Microsoft, протокол активно внедряется и другими игроками:
Такие компании как Block и Apollo интегрировали MCP в свои системы. Инструменты для разработчиков, включая Replit, Windsurf и Cursor, используют его для улучшения помощи при кодировании. Apify создала MCP-сервер для задач извлечения данных.
Техника:
MCP использует модульную архитектуру на базе JSON-RPC 2.0, разделенную на слои:
- Базовый транспорт
- Управление жизненным циклом
- Серверные возможности (ресурсы, промпты)
- Клиентские возможности (сэмплирование, логирование)
Разработчики могут выбирать компоненты в зависимости от своих задач.
Главный вопрос: становится ли MCP новым индустриальным стандартом?
С поддержкой от Anthropic, LangChain, и теперь Microsoft и OpenAI, по идее, имеет все шансы стать общим языком для агентских интеграций.
MCP документация от Anthropic
GitHub
Примеры от OpenAI
#MCP #OpenAI #Anthropic #Microsoft
———
@tsingular
✍3❤🔥2👍1
Forwarded from Семейка продактов (Tatiana Sushchenko)
Эфир с CTO GigaChat B2B&Enterprise Денисом Маколиным
Про зарубежные нейросети говорили тут . Про B2B говорили. А вот про российские нейросети для B2B - ещё не было.
Теперь будет. Жутко интересно посмотреть на мир глазами команды GigaChat.
Когда: суббота 29 марта, 12-00 по мск
Кто и что: Денис Маколин, мой бывший коллега по Microsoft и CTO GigaChat B2B&Enterprise, расскажет про апдейт GigaChat и ответит на кучу вопросов, в том числе про использование нейросетей для российского B2B.
Ссылка на эфир
Если нужны напоминалки,⏰ можно зарегистрироваться на эфир через Timepad
✅ Оставляйте ваши вопросы в комментариях к этому посту
Таня, [ex-B2B 👩💻]
@productsgossip
Про зарубежные нейросети говорили
Теперь будет. Жутко интересно посмотреть на мир глазами команды GigaChat.
Когда: суббота 29 марта, 12-00 по мск
Кто и что: Денис Маколин, мой бывший коллега по Microsoft и CTO GigaChat B2B&Enterprise, расскажет про апдейт GigaChat и ответит на кучу вопросов, в том числе про использование нейросетей для российского B2B.
Ссылка на эфир
Если нужны напоминалки,⏰ можно зарегистрироваться на эфир через Timepad
Таня, [ex-B2B 👩💻]
@productsgossip
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9✍3🔥3
Forwarded from NN
В чат-бота Qwen добавили голосовые и видеозвонки. Теперь с топовой китайской нейронкой можно полноценно общаться.
Бот запоминает все, что вы ему скажете или покажете. Реагирует с минимальной задержкой и хорошо имитирует живой диалог. Понимает английский, но если начать говорить на русском, то он сразу перейдет на китайский.
Уже можно пробовать. Дают провести 10 разговоров в день.
Бот запоминает все, что вы ему скажете или покажете. Реагирует с минимальной задержкой и хорошо имитирует живой диалог. Понимает английский, но если начать говорить на русском, то он сразу перейдет на китайский.
Уже можно пробовать. Дают провести 10 разговоров в день.
🔥9🆒2😢1👾1
4о очень красиво, конечно, рисует иллюстрации вида "найди 100 инженерных ошибок на картинке"
Прям очень красиво. :)
Но, когда он перестанет ошибаться, как с пальцами, и начнёт рисовать технически достоверную эффективную оптимизированную инженерку - будет поздно.
#openai #нейрорендер
———
@tsingular
Прям очень красиво. :)
Но, когда он перестанет ошибаться, как с пальцами, и начнёт рисовать технически достоверную эффективную оптимизированную инженерку - будет поздно.
#openai #нейрорендер
———
@tsingular
🤣12😁6👍1
тем не менее для иллюстраций, - это просто огонь.
такие вот вещи из фото он делает за 3 минуты. рендер долгий, но достоверный по фото.
#openai #нейрорендер
———
@tsingular
такие вот вещи из фото он делает за 3 минуты. рендер долгий, но достоверный по фото.
#openai #нейрорендер
———
@tsingular
🔥12👍2❤1
Но, кстати, если точнее описать деталь и что именно и где менять или что именно показать, - то уже, пусть даже схематично, можно получить внятную наглядную инструкцию.
Оно может и не 100% достоверно, но понятно.
Думаю через год можно будет просто прогнать через ИИ любой мануал и оно мало того, что само научится, - так еще и новичку доступно объяснить сможет.
Переписав и перерисовав инструкцию под уровень понимания учащегося.
#openai #нейрорендер
———
@tsingular
Оно может и не 100% достоверно, но понятно.
Думаю через год можно будет просто прогнать через ИИ любой мануал и оно мало того, что само научится, - так еще и новичку доступно объяснить сможет.
Переписав и перерисовав инструкцию под уровень понимания учащегося.
#openai #нейрорендер
———
@tsingular
🔥56🤔26👍15🤨2😁1
Qwen2.5-Omni: мультимодальный интеллект в одной модели
Qwen2.5-Omni-7B воспринимает текст, изображения, аудио и видео одновременно, выдавая ответы в текстовом и голосовом форматах.
Уникальная архитектура Thinker-Talker с технологией TMRoPE обеспечивает идеальную синхронизацию видео и звука.
Система работает в полностью реальном времени, мгновенно обрабатывая фрагментированные данные.
Превосходит узкоспециализированные модели аналогичного размера, демонстрируя выдающиеся результаты в OmniBench.
Функционал включает выбор голоса (Chelsie/Daring) и поддержку FlashAttention-2 для оптимизации производительности.
Требования к памяти: 16 ГБ в стандартном режиме, 28 ГБ при использовании FlashAttention-2 с BF16.
Один интеллект чтобы править всеми. Наконец-то не нужно переключаться между разными моделями для разных задач!
Видеочат в реальном времени на 16 гигах!!!
Это же буквально локально в каждом смартфоне или роботе.
#Qwen #multimodal #Alibaba
-------
@tsingular
Qwen2.5-Omni-7B воспринимает текст, изображения, аудио и видео одновременно, выдавая ответы в текстовом и голосовом форматах.
Уникальная архитектура Thinker-Talker с технологией TMRoPE обеспечивает идеальную синхронизацию видео и звука.
Система работает в полностью реальном времени, мгновенно обрабатывая фрагментированные данные.
Превосходит узкоспециализированные модели аналогичного размера, демонстрируя выдающиеся результаты в OmniBench.
Функционал включает выбор голоса (Chelsie/Daring) и поддержку FlashAttention-2 для оптимизации производительности.
Требования к памяти: 16 ГБ в стандартном режиме, 28 ГБ при использовании FlashAttention-2 с BF16.
Один интеллект чтобы править всеми. Наконец-то не нужно переключаться между разными моделями для разных задач!
Видеочат в реальном времени на 16 гигах!!!
Это же буквально локально в каждом смартфоне или роботе.
#Qwen #multimodal #Alibaba
-------
@tsingular
🔥15👍4
Трассировка цепей в языковых моделях: новая методика от Anthropic
Новое исследование Anthropic раскрывает внутренние механизмы работы языковых моделей через трассировку вычислительных графов. Это прорыв в области интерпретируемого ИИ, показывающий, как модели на самом деле "думают".
Суть технологии
Команда разработала методологию, позволяющую создавать графы атрибуции - визуализации того, как информация проходит от входных токенов через внутренние компоненты модели к выходному предсказанию.
По сути, это создание анатомии или топологии нейросети.
Ключевая инновация — замена стандартных нейронных слоев (MLP) на кросс-слойные транскодеры (CLT), обучаемые реконструировать выходы исходной модели. CLT создает более интерпретируемые компоненты, которые активируются только когда встречают определенные значимые концепты.
Исследователи показали, как модель:
1. Поэтапно рассуждает при выполнении арифметики (36+59=95):
- Определяет группы десятков - 3_ и 5_
- Обрабатывает цифры по отдельности (_6+_9=_5)
- Параллельно оценивает приблизительные значения (~36+~60≈90)
- Комбинирует эти пути для точного ответа
2. Распознает акронимы и автоматически их формирует:
Модель выделяет первые буквы ключевых слов и складывает их в аббревиатуру.
3. Извлекает фактическую информацию:
Активируются два параллельных пути: от "Michael Jordan" к баскетболу и от "sports" к списку видов спорта, которые пересекаются на правильном ответе.
Технические ограничения
1. Отсутствие объяснений механизмов внимания — методология не показывает, как формируются паттерны внимания, что критично для некоторых задач.
2. Ошибки реконструкции — даже лучшие CLT восстанавливают только ~80% активаций оригинальной модели.
3. Проблемы масштабирования — для больших моделей требуется огромная вычислительная мощность. Пример: для модели Gemma 2 9B требуется ~3,844 часов на H100 GPU.
Практическое значение
Для бизнеса и разработчиков эта технология открывает:
1. Обнаружение и исправление слабых мест в моделях — можно точно определить, где модель "ломается" при решении задач.
2. Целенаправленная настройка — вместо случайного файнтюнинга можно сфокусироваться на конкретных компонентах.
3. Повышение безопасности — выявление механизмов, ответственных за нежелательное поведение (отказы, галлюцинации).
Например, исследование показало, как модель понимает, знает ли она ответ на вопрос или нет. Некорректная работа этого механизма приводит к галлюцинациям.
Будущие перспективы
Эта методология — только начало. С её помощью можно будет:
- Создавать модели с контролируемым поведением
- Внедрять проверяемые гарантии в критически важные системы
- Понимать, как масштабировать ИИ без потери интерпретируемости
Технология трассировки цепей — мост между "черным ящиком" современных ИИ-систем и прозрачными, объяснимыми инструментами будущего.
Антропик, конечно, делает невероятный вклад в науку о LLM.
Например, вот эта деталь с поэзией, - надо же сначала накидать смысл, потом рифму, потом от рифмы обратным счётом переписать смысловой блок.
Я поэтому Венком Сонетов проверяю модели - потому что это многослойная рекурсия. На ней сразу видно насколько сложные механизмы внутри работают.
И Антропиковский Claude всегда лучший в этих тестах.
#Anthropic #CircuitTracing
———
@tsingular
Новое исследование Anthropic раскрывает внутренние механизмы работы языковых моделей через трассировку вычислительных графов. Это прорыв в области интерпретируемого ИИ, показывающий, как модели на самом деле "думают".
Суть технологии
Команда разработала методологию, позволяющую создавать графы атрибуции - визуализации того, как информация проходит от входных токенов через внутренние компоненты модели к выходному предсказанию.
По сути, это создание анатомии или топологии нейросети.
Ключевая инновация — замена стандартных нейронных слоев (MLP) на кросс-слойные транскодеры (CLT), обучаемые реконструировать выходы исходной модели. CLT создает более интерпретируемые компоненты, которые активируются только когда встречают определенные значимые концепты.
Исследователи показали, как модель:
1. Поэтапно рассуждает при выполнении арифметики (36+59=95):
- Определяет группы десятков - 3_ и 5_
- Обрабатывает цифры по отдельности (_6+_9=_5)
- Параллельно оценивает приблизительные значения (~36+~60≈90)
- Комбинирует эти пути для точного ответа
2. Распознает акронимы и автоматически их формирует:
The National Digital Analytics Group (N → DAG)
Модель выделяет первые буквы ключевых слов и складывает их в аббревиатуру.
3. Извлекает фактическую информацию:
Fact: Michael Jordan plays the sport of → basketball
Активируются два параллельных пути: от "Michael Jordan" к баскетболу и от "sports" к списку видов спорта, которые пересекаются на правильном ответе.
Технические ограничения
1. Отсутствие объяснений механизмов внимания — методология не показывает, как формируются паттерны внимания, что критично для некоторых задач.
2. Ошибки реконструкции — даже лучшие CLT восстанавливают только ~80% активаций оригинальной модели.
3. Проблемы масштабирования — для больших моделей требуется огромная вычислительная мощность. Пример: для модели Gemma 2 9B требуется ~3,844 часов на H100 GPU.
Практическое значение
Для бизнеса и разработчиков эта технология открывает:
1. Обнаружение и исправление слабых мест в моделях — можно точно определить, где модель "ломается" при решении задач.
2. Целенаправленная настройка — вместо случайного файнтюнинга можно сфокусироваться на конкретных компонентах.
3. Повышение безопасности — выявление механизмов, ответственных за нежелательное поведение (отказы, галлюцинации).
Например, исследование показало, как модель понимает, знает ли она ответ на вопрос или нет. Некорректная работа этого механизма приводит к галлюцинациям.
Будущие перспективы
Эта методология — только начало. С её помощью можно будет:
- Создавать модели с контролируемым поведением
- Внедрять проверяемые гарантии в критически важные системы
- Понимать, как масштабировать ИИ без потери интерпретируемости
Технология трассировки цепей — мост между "черным ящиком" современных ИИ-систем и прозрачными, объяснимыми инструментами будущего.
Антропик, конечно, делает невероятный вклад в науку о LLM.
Например, вот эта деталь с поэзией, - надо же сначала накидать смысл, потом рифму, потом от рифмы обратным счётом переписать смысловой блок.
Я поэтому Венком Сонетов проверяю модели - потому что это многослойная рекурсия. На ней сразу видно насколько сложные механизмы внутри работают.
И Антропиковский Claude всегда лучший в этих тестах.
#Anthropic #CircuitTracing
———
@tsingular
👍15🔥5✍3❤1
Generate an image of what you think will happen to the humans after AGI
Возможно киберпанк нам покажется ещё цветочками.
По версии 4о мир после AGI будет выглядеть как-то так.
А мы уже на 92% его достигли.
Остался примерно год.
#openai #нейрорендер
———
@tsingular
🤔77🤯35🤣16👀9👍5🤗2
OpenAI, оказывается вчера выкатили обновление для 4o - и оно по тестам хуже, чем аналоги от конкурентов.
Другой вопрос, что это базовая модель, а весь топ уже состоит из моделей с размышлениями.
#opeanai #benchmark
———
@tsingular
Другой вопрос, что это базовая модель, а весь топ уже состоит из моделей с размышлениями.
#opeanai #benchmark
———
@tsingular
🤔13👍7
Forwarded from OpenAI Community
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ работает в аптеке: в Минске нашли первого «аптечного робота» — продаст вам лекарства без участия человека.
Нужно лишь приложить паспорт и подвердить оплату лицом. Дальше робот подаст ваши лекарства в окошко — одного нашли на нижнем этаже ЖД вокзала.
OpenAI Community | #neurointelligence
Нужно лишь приложить паспорт и подвердить оплату лицом. Дальше робот подаст ваши лекарства в окошко — одного нашли на нижнем этаже ЖД вокзала.
OpenAI Community | #neurointelligence
🤔5🔥4👍3
OpeanAI GPT 4o может нарисовать вам одним запросом раскадровку для разработки игры.
Запрос:
Source
#openai #GPT-4o #gamedev
------
@tsingular
Запрос:
Create a detailed pixel art frame animation for a game, where the final image is divided into multiple sub-images, each serving as a continuous animation keyframe. Design the sequence to depict [a wizard casting a spell: begin with intricate hand motions, then show the wizard conjuring a vibrant fireball, and finally capture the moment of casting the fireball.] Ensure the keyframes transition smoothly and continuously, and include as many frames as possible to achieve a high level of fluidity and detail in the animation.В принципе уже можно собирать пайплайн для автоматической сборки всей игры целиком.
Source
#openai #GPT-4o #gamedev
------
@tsingular
🔥11⚡3