Технозаметки Малышева
9.14K subscribers
3.94K photos
1.47K videos
41 files
4.1K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
🧠 Впихнуть невпихуемое, решить не решаемое - Новый фреймворк MIT заставил LLM решать "нерешаемые" задачи планирования

Исследователи из MIT создали очень интересный подход - LLMFP (LLM-Based Formalized Programming). Это решение покрывает одну из главных проблем современных LLM: они слабо справляются со сложными задачами планирования.

Суть проблемы в том, что даже GPT-4o и Claude 3.5 не могут сами по себе вырабатывать оптимальные решения для задач с множеством ограничений или многошаговым планированием.

Как это работает:

Вместо бесполезных попыток заставить LLM напрямую решать такие задачи, фреймворк использует языковую модель для формализации задачи, преобразуя её в задачу оптимизации:

1. Definer: определяет цель, переменные решения и ограничения
2. Formulator: создаёт JSON-представление всех переменных
3. Code Generator: пишет код для использования решателя SMT
4. Result Formatter: форматирует результат в понятном виде
5. Self Assessment: проверяет каждый шаг и исправляет ошибки

Фреймворк не требует специфических примеров для каждой задачи. Показал успех 83-87% на 9 разных задачах планирования.
При этом базовые методы едва дотягивают до 40%.

Практические применения в бизнесе:

- Оптимизация цепочек поставок (кейс с кофе из статьи)
- Планирование персонала и рабочих смен
- Управление производственными мощностями
- Распределение задач между роботами в автоматизированных средах

Классический кейс "делай то, в чем ты хорош". LLM понимают язык, решатели SMT решают структурированные задачи. Вместе они становятся намного сильнее.

Что это значит для нас?
Теперь можно не возиться с математическими моделями оптимизации, а просто описать задачу на человеческом языке - и получить оптимизированное решение, созданное LLM.

paper

#Оптимизация #MIT
———
@tsingular
🔥15👍81
Путин поручил рассмотреть вопрос о целесообразности признания в качестве отягчающего обстоятельства использование при совершении правонарушения технологий искусственного интеллекта

https://rapsinews.ru/incident_news/20250402/310755449.html

#закон
------
@tsingular
👍29🤣13931
DeepMind прогнозирует AGI к 2030: учёные в сомнениях

Google DeepMind опубликовал 145-страничный документ о безопасности AGI (искусственного интеллекта общего назначения).

Соавтор работы Шейн Легг утверждает, что AGI появится к 2030 году и сможет решать любые нефизические задачи на уровне 99-го процентиля квалифицированных сотрудников.

Документ предупреждает об экзистенциальных рисках, способных уничтожить человечество.

DeepMind критикует подходы конкурентов: Anthropic якобы пренебрегает надёжным обучением, а OpenAI чрезмерно полагается на автоматизацию.

Эксперты из академических кругов выражают скептицизм: Хейди Клааф считает концепцию AGI расплывчатой, Мэтью Гуздиал сомневается в рекурсивном самоулучшении ИИ.

Профессор Оксфорда Сандра Вахтер полагает, что реальная проблема — самоусиление ИИ неточными выводами и галлюцинациями.

Прогнозы по AGI — как прогнозы погоды на год вперёд: все о них говорят, но никто всерьёз не воспринимает.

#DeepMind #AGI #safety
-------
@tsingular
4👍1
Model Context Protocol завоёвывает технологический ландшафт

Уходящая неделя ознаменовалась 23 значимыми запусками в экосистеме MCP.
OpenAI и Microsoft активно внедряют поддержку протокола во всех своих продуктах.
Zapier обеспечил взаимодействие ИИ с более чем 8000 приложениями через свою платформу.
Инструментарий пополнился решениями от CAMEL-AI, Box, LiteLLM, Neon, Cursor и других разработчиков.
IBM выпустила краткое обучающее видео, раскрывающее преимущества использования MCP.
Индустрия получила специализированные серверы для Telegram, Rhino/Grasshopper, KiCad и elizaOS.
Новые компоненты включают CLI-инструменты для тестирования и фреймворки для построения эффективных агентов.

Похоже, эра изолированных ИИ-систем заканчивается. Скоро наши нейросети будут общаться между собой активнее, чем мы в мессенджерах.

#MCP #OpenAI #Zapier
-------
@tsingular
🤯6👌3👍21🔥1🥰1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
У меня в детстве не было интернета. В холодном Архангельске было 2 канала на телевизор. И по субботам, где-то в 16-00 показывали мультики. В программе было так и написано - 16:00. Мультфилмы

И ты такой сидишь и ждешь: а что сегодня покажут.

Если рисованные мультики, то праздник.
Если кукольные - суббота не удалась.

Это я к чему?

Вот эта вот генерация из Runway выглядит сильно лучше 99% кукольных мультиков из моего детства.

Просто вспомнилось...

Музыка - Суно. Реф - Midjourney. Видео - Runway 4.

И посмотрите у автора вот такую работу. Хорошо же.

@cgevent
👍237🔥5😁3🤔1
Сегодня на конференции TAdviser.

Пригласили модератором второй части.

Понравилась фундаментальная мысль от Дмитрия Калаева

"Если продукт не использует ИИ,- то возникает вопрос о его соответствии рынку"

Вообще все доклады - огонь.
Прям тема для прямого эфира с разбором докладов.
Как вам такая мысль?

#tadviser
------
@tsingular
🔥395👏5
- для валидации синтетических описаний мы используем DeepSeek

- а почему не свою модель?

- следующий вопрос пожалуйста.

#юмор
------
@tsingular
😁28👍3
- представьте, что вы наняли 3 автобуса выпускников Физтеха за 999 р. в месяц.

#юмор
------
@tsingular
😁193🔥2😈1
- мы сейчас проводим А/Б тесты и в 50% случаев, когда клиент просит позвать в чат оператора-человека, подключаем модель, которая делает вид, что она оператор 2й линии и ведёт себя более естественно.

👀
------
@tsingular
🤯21😁166🔥1
Forwarded from Data Secrets
Gemini 2.5 Pro порвала очередной бенчмарк

Появились результаты модели на USAMO 2025 (это главная американская математическая олимпиада) – она выбила невероятные 24.4%. До Gemini модели набирали максимум 4.76% (это результат R1). o1-pro заскорила всего 2.83.

Основной интерес здесь в том, что на данный момент это самый свежий мат.бенчмарк, он вышел всего две недели назад. А значит нет никакого лика данных, и результаты максимально чистые.

matharena.ai/
🔥13👍32🤔21
Ну, вот, смотрите:
- до изобретения мобильной связи мы никогда не использовали мобильные телефоны
- до изобретения интернета - мы никогда не использовали веб сайты и электронную почту
- до изобретения книгопечатания - мы никогда не использовали книги
- до изобретения колеса, - мы никогда не использовали колесо.

Поэтому все, кто сейчас говорит, - мы никогда не используем ИИ [дальше перечень аргументов в зависимости от отрасли] находятся примерно в этой ситуации.

#мысли
———
@tsingular
1👍1921🏆1
🎵 Mureka.AI: Китайский прорыв в ИИ-генерации музыки с архитектурой Chain-of-Thought

Китай снова удивляет технологическими инновациями!
Компания Mureka выпустила систему, которая переворачивает подход к ИИ-генерации музыки.

Технические особенности:

1. Архитектура MusiCoT — главная инновация! В отличие от стандартных авторегрессионных моделей (где аудио генерируется последовательно), система сначала создаёт структурную схему композиции, а потом уже предсказывает отдельные аудиотокены. Это как если бы композитор сначала набросал структуру, а потом наполнял её нотами — намного более осмысленный подход.

2. Эффективная работа с многоязычностью — генерация на 10 языках (включая русский) без потери качества.

3. Разделение на дорожки — получение отдельных треков для вокала, инструментов и дополнительных слоёв.

4. API-экосистема с двумя интересными вариантами:
- Стандартный API генерации
- API с дообучением на приватной библиотеке (до 200 треков) — можно создать собственный "музыкальный почерк" для бренда

По бенчмаркам обходит конкурентов в произношении, текстовой релевантности и сегментной точности.

Так же по API доступен обычный TTS с идеальной точностью!

Suno в опасности :).

#Music #CoT #Mureka #Китай
———
@tsingular
👍104🔥1
🎨 Как приручить MCP на примере Microsoft Paint

Джеффри Хантли выложил интересный проект - Model Context Protocol Server для Microsoft Paint. По сути, это Rust-драйвер, который позволяет LLM-интерфейсам типа Cursor или Claude Desktop управлять действиями в Paint.

Что это даёт на практике?
Проект позволяет AI-помощникам программно взаимодействовать с Win32 API приложения Paint - выбирать инструменты, рисовать линии, выбирать цвета и т.д. Это демонстрирует важный принцип MCP: возможность дать AI-ассистентам управлять любыми пользовательскими приложениями.

Технические детали:
- Реализовано через Win32 API в Rust
- Следует спецификации Model Context Protocol
- Repo: github.com/ghuntley/mcp-server-microsoft-paint
- Доставка инструкций через JSON-RPC

Почему это важно для бизнеса:
Хантли раскрывает ключевой момент - MCP это не просто "USB-C для API", как его называют, а фундаментальный способ создания собственных инструментов для автоматизации разработки.

Вместо использования общих инструментов, компании могут создавать специализированные MCP-инструменты, которые:

- "Понимают" внутренний код компании
- Соблюдают корпоративные стандарты и конвенции
- Автоматизируют рутинные задачи с учётом специфики бизнеса

"Если вы запустите это в бесконечном цикле while(true) с индивидуальными MCP-инструментами, понимающими вашу кодовую базу, вы получите невероятно мощный примитив, способный автоматизировать разработку ПО в компании"


В отличие от общих рассуждений о MCP, пример с Paint наглядно показывает, как можно начать экспериментировать с этой технологией прямо сейчас. Даже если это "не серьезный проект", как говорит автор.

#MCP #агенты
———
@tsingular
18👍4🔥3
Forwarded from Machinelearning
⚡️ Gemma 3 QAT

Google DeepMind выпустили обновленные версии своих языковых моделей Gemma 3, которые стали значительно эффективнее по использованию памяти без существенной потери производительности.

Ключевая технология: QAT (Quantization-Aware Training)

Что это? QAT — это техника обучения, при которой модель во время дообучения "учится" работать с пониженной точностью вычислений (используя меньше бит для представления чисел). Это имитирует условия, в которых модель будет работать после квантизации (сжатия).

Обычная квантизация после обучения может привести к падению точности. QAT позволяет модели заранее адаптироваться к работе в низкоточном режиме, минимизируя потерю качества после финальной квантизации.

Каждая модель (1B, 4B, 12B, 27B) была дообучена примерно на 5000 шагов с имитацией низкой разрядности весов​. При этом использовался приём, похожий на знание-дистилляцию: оригинальная неквантованная модель выступала в роли «учителя».

Преимущество QAT-подхода для Gemma 3 оказалось колоссальным. Официально заявлено, что квантованные модели Gemma 3 QAT сохраняют качество, практически не упало, при этом требуют в ~3 раза меньше памяти​.

Например, объём памяти для хранения весов самой крупной модели на 27B параметров сократился с ~54 ГБ (в формате bfloat16) до ~14 ГБ в 4-битном целочисленном формате​ – это экономия памяти примерно в ~3–4 раза.

ollama run hf(.)co/google/gemma-3-4b-it-qat-q4_0-gguf

✔️HF


@ai_machinelearning_big_data


#google #gemma #AI #ML #LLM #Quantization
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14❤‍🔥21👍1
Audio
MiniMax выпустил TTS обновление

MiniMax Audio обновился до Speech-02.

- более естественная многоязычная речь с 99% схожестью с человеческим голосом
- функция чтения файлов и URL
- режим для длинных текстов (до 200 000 символов)
- улучшенное управление историей
- новый раздел с обзором функций.

Есть API

#Китай #Minimax #TTS2
———
@tsingular
🔥13
Forwarded from Data Secrets
Media is too big
VIEW IN TELEGRAM
⚡️ Вышла Midjourney v7

Основное нововведение (помимо улучшения качества, фотореализма и анатомии) – драфт режим. Это скоростная генерация в голосовом моде: включаете conversational mode и наговариваете, что хотите, а модель в это время рисует и уточняет по вашим идеям наброски. Работает в 10 раз быстрее обычного режима и стоит в два раза дешевле.

Кроме того, это первая модель с персонализацией по умолчанию. Можно активировать, 5 минут потратить на небольшой опрос, и модель будет лучше понимать, что вы имеете в виду или что вам нравится.

Пока обе версии (Turbo и Relax) выкатили в альфа-тестирование и обещают обновлять еще несколько раз в течение последующих недель.

www.midjourney.com/updates/v7-alpha
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14
🚀 OpenRouter: Гигантский супермаркет нейросетей на любой вкус и кошелёк

Так, я тут наконец-то добрался до OpenRouter и в шоке от масштаба — 370+ моделей!

💥 Выбор
Тут есть вообще всё, что можно себе представить (и всё доступно через 1 API):
GPT, Claude, Gemini, Grok, Cohere, Nova, Qwen, Yi, DeepSeek, Mistral, Llama

Что важно, - очень многие из них доступны БЕСПЛАТНО.

А с учётом их количества можно спокойно переключаться между ними в зависимости от задач.

Что особенно круто с точки зрения девопса или техлида:
1. Один API для всего зоопарка моделей — не нужно писать код для каждой модели отдельно
2. Фолбэк-автоматизация — можно настроить автоматическое переключение между моделями при отказе
3. А/Б тестирование моделей — буквально в пару строк кода

Есть подробная документация и инструкция по созданию MCP серверов

#hub #OpenRouter #MCP
———
@tsingular
🔥19👍3
Forwarded from Эксплойт
Kawasaki анонсировали РОБО-КОНЯ Corleo, на котором можно ездить — на EXPO 2025 показали секретный проект японцев.

Вместо сердца у киберконя водородный двигатель, а вместо мозга — ИИ, который анализирует положение в пространстве, чтобы робот нормально балансировал, а вы не слетели с него.

Это не просто транспорт, а четырехногий внедорожник, который может передвигаться по любой местности, даже прыгать по заснеженным горам.

@exploitex
🔥24🤯7👀52🆒1