Технозаметки Малышева
5.65K subscribers
2.82K photos
943 videos
38 files
3.1K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Gemini 2.5: Новая модель с размышлениями от Google DeepMind

Google выпустил Gemini 2.5 Pro – свою самую интеллектуальную модель ИИ.
Версия Pro Experimental заняла первое место в рейтинге LMArena с внушительным отрывом.

! на 18.8% выполнила "последний экзамен человечества"!

Ключевое новшество – размышления.

Система демонстрирует выдающиеся результаты в тестах по рассуждению, точным наукам и программированию.

На GPQA и AIME модель показывает рекордные показатели без дополнительных вычислительных трат.

В SWE-Bench Verified достигает 63,8%.

Контекстное окно расширено до 1 миллиона токенов с перспективой роста до 2 миллионов.

Обрабатывает данные различных форматов: текст, аудио, изображения, видео и программные репозитории.

Доступна в Google AI Studio и приложении для пользователей Gemini Advanced.

Подумалось, - Новый Год что ли? Откуда столько релизов?
Получается отмечаем Навруз! :)

#Gemini #Google #DeepMind
———
@tsingular
🔥94
Forwarded from Denis Sexy IT 🤖
ChatGPT сегодня обновится:

– gpt4o теперь умеет редактировать картинки, ака текстовый фотошоп (лицо adobe представили)

– умеет генерировать картинки намного лучше чем Dalle, с нормальным текстом и тп

– ChatGPT теперь может генерировать видео через Sora, не ходя на отдельный сайт (3 видео в сутки бесплатно)

– Можно удалять фон у картинок (привет нормальные png)

– Работает довольно медленно, сделал видео как оно работает
15👍6
Media is too big
VIEW IN TELEGRAM
Продолжаем готовиться к Подмосковным Вечерам - Весна - 13-14 апреля.

Готовим секцию "Рассекреченные агенты", в которой рассмотрим:


• Пошаговое руководство по созданию ИИ-агентов и их интеграции в рабочие процессы компании.

• Обзор технологий low-code и no-code, которые позволяют создавать эффективные решения без глубоких знаний программирования.

• Демонстрацию разговорного агента, работающего на базе Giga Chat. Вы сможете увидеть, как он отвечает на вопросы и выполняет задачи в реальном времени — в том числе позвонить и поговорить с ним!

Ещё будет футурологическая сессия с Дмитрием Алтуховым про прекрасное прошлое и страшное будущее :)

Напишите, если планируете быть.
https://pvesna.4cio.ru/

#pvesna #4CIO
———
@tsingular
👍13🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Новая Sora - просто тушите свет.

OpenAI удивили.

#OpenAI #Sora
———
@tsingular
👍10🔥9
Forwarded from Не баг, а фича
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 3D-СЦЕНА ИЗ ФОТКИ в Blender — новый MCP-плагин Tripo превращает любые изображения в трёхмерные локации в один клик!

Эту огромную 3D-сцену маленького Гарри Поттера на видео сделала нейронка БЕЗ участия человека всего за пару минут.

Гайд, как это повторить:

1️⃣ Качаем и устанавливаем плагин для Blender.
2️⃣ В появившийся чат загружаем картинку-референс и текстовый запрос.
3️⃣ Нейронка в реальном времени генерирует все 3D-объекты, располагает их как на фото и добавляет освещение.

Сохраняем — тут.

🙂 Не баг, а фича
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👀31
Grok для Премиумов в телеге подтвержден.

@GrokAI

#Grok #боты
------
@tsingular
🔥112
OpenAI добавили поддержку MCP протокола от Anthropic.

MCP штука не новая, но пока была больше в области экспериментов и прототипов.

Однако количество этих прототипов, быстрое развитие и перспективность технологии привели к тому, что OpenAI официально добавил поддержку Model Context Protocol (MCP) в свой Agents SDK.

Вчера, сразу после обновления спецификации MCP, Альтман подтвердил это в X, отметив, что поддержка уже доступна в Agents SDK, а скоро появится и в ChatGPT Desktop и Responses API.

MCP — это открытый протокол, который стандартизирует взаимодействие AI-моделей с внешними источниками данных и инструментами. Его часто сравнивают с USB-C для AI: универсальный интерфейс, позволяющий подключать различные инструменты к AI-моделям без необходимости создавать уникальные интеграции для каждого сервиса.

На практике это даст:
- Упрощение разработки AI-решений
- Стандартизация интеграций
- Расширение возможностей AI-агентов (доступ к большему количеству инструментов)

Что нового в обновлении MCP?
Вчерашнее обновление протокола включает несколько важных изменений:

- OAuth 2.1 для авторизации (повышение безопасности)
- Улучшенный HTTP Transport с поддержкой двунаправленного обмена
- JSON-RPC Batching (отправка нескольких запросов одновременно)
- Tool Annotations (метаданные для описания инструментов)

Накануне, 24 марта, Microsoft выпустила Playwright-MCP сервер, который позволяет AI-агентам автоматизировать взаимодействие с браузером с использованием MCP.

Кто ещё использует MCP?
Помимо гигантов OpenAI и Microsoft, протокол активно внедряется и другими игроками:
Такие компании как Block и Apollo интегрировали MCP в свои системы. Инструменты для разработчиков, включая Replit, Windsurf и Cursor, используют его для улучшения помощи при кодировании. Apify создала MCP-сервер для задач извлечения данных.

Техника:
MCP использует модульную архитектуру на базе JSON-RPC 2.0, разделенную на слои:

- Базовый транспорт
- Управление жизненным циклом
- Серверные возможности (ресурсы, промпты)
- Клиентские возможности (сэмплирование, логирование)

Разработчики могут выбирать компоненты в зависимости от своих задач.

Главный вопрос: становится ли MCP новым индустриальным стандартом?

С поддержкой от Anthropic, LangChain, и теперь Microsoft и OpenAI, по идее, имеет все шансы стать общим языком для агентских интеграций.

MCP документация от Anthropic
GitHub

Примеры от OpenAI

#MCP #OpenAI #Anthropic #Microsoft
———
@tsingular
3❤‍🔥2👍1
Forwarded from Семейка продактов (Tatiana Sushchenko)
Эфир с CTO GigaChat B2B&Enterprise Денисом Маколиным

Про зарубежные нейросети говорили тут. Про B2B говорили. А вот про российские нейросети для B2B - ещё не было.

Теперь будет. Жутко интересно посмотреть на мир глазами команды GigaChat.

Когда: суббота 29 марта, 12-00 по мск
Кто и что: Денис Маколин, мой бывший коллега по Microsoft и CTO GigaChat B2B&Enterprise, расскажет про апдейт GigaChat и ответит на кучу вопросов, в том числе про использование нейросетей для российского B2B.

Ссылка на эфир
Если нужны напоминалки, можно зарегистрироваться на эфир через Timepad

Оставляйте ваши вопросы в комментариях к этому посту

Таня, [ex-B2B 👩‍💻]
@productsgossip
Please open Telegram to view this post
VIEW IN TELEGRAM
👍93🔥3
Forwarded from NN
В чат-бота Qwen добавили голосовые и видеозвонки. Теперь с топовой китайской нейронкой можно полноценно общаться.

Бот запоминает все, что вы ему скажете или покажете. Реагирует с минимальной задержкой и хорошо имитирует живой диалог. Понимает английский, но если начать говорить на русском, то он сразу перейдет на китайский.

Уже можно пробовать. Дают провести 10 разговоров в день.
🔥9🆒2😢1👾1
4о очень красиво, конечно, рисует иллюстрации вида "найди 100 инженерных ошибок на картинке"

Прям очень красиво. :)

Но, когда он перестанет ошибаться, как с пальцами, и начнёт рисовать технически достоверную эффективную оптимизированную инженерку - будет поздно.

#openai #нейрорендер
———
@tsingular
🤣12😁6👍1
тем не менее для иллюстраций, - это просто огонь.

такие вот вещи из фото он делает за 3 минуты. рендер долгий, но достоверный по фото.

#openai #нейрорендер
———
@tsingular
🔥12👍21
Но, кстати, если точнее описать деталь и что именно и где менять или что именно показать, - то уже, пусть даже схематично, можно получить внятную наглядную инструкцию.

Оно может и не 100% достоверно, но понятно.

Думаю через год можно будет просто прогнать через ИИ любой мануал и оно мало того, что само научится, - так еще и новичку доступно объяснить сможет.
Переписав и перерисовав инструкцию под уровень понимания учащегося.

#openai #нейрорендер
———
@tsingular
🔥56🤔26👍15🤨2😁1
Qwen2.5-Omni: мультимодальный интеллект в одной модели

Qwen2.5-Omni-7B воспринимает текст, изображения, аудио и видео одновременно, выдавая ответы в текстовом и голосовом форматах.
Уникальная архитектура Thinker-Talker с технологией TMRoPE обеспечивает идеальную синхронизацию видео и звука.
Система работает в полностью реальном времени, мгновенно обрабатывая фрагментированные данные.
Превосходит узкоспециализированные модели аналогичного размера, демонстрируя выдающиеся результаты в OmniBench.
Функционал включает выбор голоса (Chelsie/Daring) и поддержку FlashAttention-2 для оптимизации производительности.
Требования к памяти: 16 ГБ в стандартном режиме, 28 ГБ при использовании FlashAttention-2 с BF16.

Один интеллект чтобы править всеми. Наконец-то не нужно переключаться между разными моделями для разных задач!

Видеочат в реальном времени на 16 гигах!!!
Это же буквально локально в каждом смартфоне или роботе.


#Qwen #multimodal #Alibaba
-------
@tsingular
🔥15👍4
Трассировка цепей в языковых моделях: новая методика от Anthropic

Новое исследование Anthropic раскрывает внутренние механизмы работы языковых моделей через трассировку вычислительных графов. Это прорыв в области интерпретируемого ИИ, показывающий, как модели на самом деле "думают".

Суть технологии
Команда разработала методологию, позволяющую создавать графы атрибуции - визуализации того, как информация проходит от входных токенов через внутренние компоненты модели к выходному предсказанию.
По сути, это создание анатомии или топологии нейросети.

Ключевая инновация — замена стандартных нейронных слоев (MLP) на кросс-слойные транскодеры (CLT), обучаемые реконструировать выходы исходной модели. CLT создает более интерпретируемые компоненты, которые активируются только когда встречают определенные значимые концепты.

Исследователи показали, как модель:

1. Поэтапно рассуждает при выполнении арифметики (36+59=95):
- Определяет группы десятков - 3_ и 5_
- Обрабатывает цифры по отдельности (_6+_9=_5)
- Параллельно оценивает приблизительные значения (~36+~60≈90)
- Комбинирует эти пути для точного ответа

2. Распознает акронимы и автоматически их формирует:

The National Digital Analytics Group (N → DAG)

Модель выделяет первые буквы ключевых слов и складывает их в аббревиатуру.

3. Извлекает фактическую информацию:

Fact: Michael Jordan plays the sport of → basketball

Активируются два параллельных пути: от "Michael Jordan" к баскетболу и от "sports" к списку видов спорта, которые пересекаются на правильном ответе.

Технические ограничения

1. Отсутствие объяснений механизмов внимания — методология не показывает, как формируются паттерны внимания, что критично для некоторых задач.

2. Ошибки реконструкции — даже лучшие CLT восстанавливают только ~80% активаций оригинальной модели.

3. Проблемы масштабирования — для больших моделей требуется огромная вычислительная мощность. Пример: для модели Gemma 2 9B требуется ~3,844 часов на H100 GPU.

Практическое значение
Для бизнеса и разработчиков эта технология открывает:

1. Обнаружение и исправление слабых мест в моделях — можно точно определить, где модель "ломается" при решении задач.

2. Целенаправленная настройка — вместо случайного файнтюнинга можно сфокусироваться на конкретных компонентах.

3. Повышение безопасности — выявление механизмов, ответственных за нежелательное поведение (отказы, галлюцинации).

Например, исследование показало, как модель понимает, знает ли она ответ на вопрос или нет. Некорректная работа этого механизма приводит к галлюцинациям.

Будущие перспективы

Эта методология — только начало. С её помощью можно будет:

- Создавать модели с контролируемым поведением
- Внедрять проверяемые гарантии в критически важные системы
- Понимать, как масштабировать ИИ без потери интерпретируемости

Технология трассировки цепей — мост между "черным ящиком" современных ИИ-систем и прозрачными, объяснимыми инструментами будущего.

Антропик, конечно, делает невероятный вклад в науку о LLM.
Например, вот эта деталь с поэзией, - надо же сначала накидать смысл, потом рифму, потом от рифмы обратным счётом переписать смысловой блок.
Я поэтому Венком Сонетов проверяю модели - потому что это многослойная рекурсия. На ней сразу видно насколько сложные механизмы внутри работают.
И Антропиковский Claude всегда лучший в этих тестах.

#Anthropic #CircuitTracing
———
@tsingular
👍15🔥531
Generate an image of what you think will happen to the humans after AGI


Возможно киберпанк нам покажется ещё цветочками.

По версии мир после AGI будет выглядеть как-то так.
А мы уже на 92% его достигли.
Остался примерно год.

#openai #нейрорендер
———
@tsingular
🤔77🤯35🤣16👀9👍5🤗2
OpenAI, оказывается вчера выкатили обновление для 4o - и оно по тестам хуже, чем аналоги от конкурентов.

Другой вопрос, что это базовая модель, а весь топ уже состоит из моделей с размышлениями.

#opeanai #benchmark
———
@tsingular
🤔13👍7
Forwarded from OpenAI Community
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ работает в аптеке: в Минске нашли первого «аптечного робота» — продаст вам лекарства без участия человека.

Нужно лишь приложить паспорт и подвердить оплату лицом. Дальше робот подаст ваши лекарства в окошко — одного нашли на нижнем этаже ЖД вокзала.

OpenAI Community | #neurointelligence
🤔5🔥4👍3
OpeanAI GPT 4o может нарисовать вам одним запросом раскадровку для разработки игры.

Запрос:

Create a detailed pixel art frame animation for a game, where the final image is divided into multiple sub-images, each serving as a continuous animation keyframe. Design the sequence to depict [a wizard casting a spell: begin with intricate hand motions, then show the wizard conjuring a vibrant fireball, and finally capture the moment of casting the fireball.] Ensure the keyframes transition smoothly and continuously, and include as many frames as possible to achieve a high level of fluidity and detail in the animation.
В принципе уже можно собирать пайплайн для автоматической сборки всей игры целиком.

Source

#openai #GPT-4o #gamedev
------
@tsingular
🔥113