Технозаметки Малышева
8.48K subscribers
3.79K photos
1.42K videos
40 files
3.97K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Вторая часть, конечно,- всеми любимые собачки.

Очевидно очень подходят быть курьерами.
Доставят пиццу даже по пересеченной местности.

#дронособаки #Китай #робота
------
@tsingular
🔥3🆒3👾1
Media is too big
VIEW IN TELEGRAM
Ну и, наконец, гуманоиды.

Ещё один очень перспективный вариант нарисовался.

Работает в режиме дистанционного управления. По сути,- шагающий дрон.

#роботы #Китай
------
@tsingular
🔥17👍5👀41🐳1👾1
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
SGR Deep Research: как из чёрного ящика агентов сделать прозрачную и надёжную систему

Сегодня у нас на повестке дня крайне интересный инженерный проект от наших соседей по тг. Но начнем с конца.

Все мы примерно представляем, как работает вызов инструментов у агентов. LLM сам решает, какие Tools вызывать, в какой последовательности и зачем. Модель адаптируется к результатам, может прерывать выполнение – в общем, полноценная автономия.

Звучит красиво и работает, но в прикладном продакшене у такого подхода есть обратная сторона:
мониторинг и логирование практически невозможны – цепочка вызовов превращается в чёрный ящик,
– сложно отлаживать и объяснять решения модели,
– A/B-тестирование и контроль качества превращаются в боль.

Именно здесь появляется альтернатива – Schema-Guided Reasoning (SGR). О самой подобной идее много кто уже где-то так или иначе упоминал даже в крупных стартапах, но, что примечательно, впервые end-to-end ее описал и формализовал автор канала "LLM под капотом" (@llm_under_hood) Ринат Абдулин. Вот дока.

Основная концепция: вместо того, чтобы давать модели полную свободу, мы описываем чёткую схему рассуждений в виде структурированного вывода.
Один запрос – один прозрачный reasoning-пайплайн: Анализ → Поиск → Обработка → Вывод.

От агентов тут остается гибкость, но в то же время такой подход даёт контроль и предсказуемость: можно логировать каждый шаг, тестировать их по отдельности и быстро находить слабые места.

Звучит интересно, правда? Да. Выглядит, как подход, который теоретически может подвинуть классические agent-фреймворки, если речь идёт о продакшене и задачах бизнеса. Прозрачность и контролируемость тут не просто nice-to-have, а буквально вопрос выживания продукта.

А еще это настоящий качественный скачок для маленьких моделей, которые плохи в вызове инструментов сами по себе. Например, Qwen3-4B показывает на Function Calling низкие 2%, а с SGR выдает стабильные 85-90%! Таким образом, целый огромный класс моделей, которые до этого для не подходили для агентных задач, теперь становятся для них открытыми. Это ключевое открытие.

Ну так вот. На основе описанной Ринатом техники другой наш друг, Валера с канала @neuraldeep, уже собрал полноценный опенсорсный production-ready проект SGR Deep Research. О Валере и его предыдущих проектах мы писали вот тут – почитайте.

Его SGR Deep Research – это система для многошагового поиска и анализа информации в интернете. Реализовано:

Вызов инструментов по схеме Schema-Guided Reasoning. Причем подход гибридный, с двухфазной архитектурой: принудительное структурированное рассуждение (JSON Schema) + детерминированное выполнение. Это позволяет даже 4B моделям проявлять агентные свойства, недоступные через классический Function Calling.
Прозрачное логирование на каждом шаге: от уточнения запроса и генерации плана до веб-поиска, анализа и финального отчёта, все трекается.
Работа на легких моделях вроде gpt-4o-mini и qwen instruct от 4b до 32b (+можно подключать свои).
OpenAI-совместимый API с персистентными агентами: каждый агент получает уникальный ID для продолжения исследования.

Где это лучше, чем полноценный агентный Tools? Там, где важна прозрачность + работа с малыми моделями. Например: работа с документами, корпоративные исследования, факт-чекинг, call-центры. Плюс – возможность запускать агентов на потребительском железе вместо дорогих API.

Сейчас ребята активно развивают проект, экспериментируют с гибридными схемами и приглашают сообщество подключаться.
– Если есть идеи – обязательно идите с ними к Валере.
– Если хотите попробовать – на гитхабе найдете подробнейший гайд по использованию.
– И, конечно, давайте ставить ребятам звездочки на проект. Он в своем роде уникальный, так что надо продвигать силами комьюнити.

Еще раз:
Ссылка на проект
Ссылка на канал Рината – автора идеи
Ссылка на канал Валеры – автора кода (здесь можно следить на развитием проекта)
Please open Telegram to view this post
VIEW IN TELEGRAM
8🆒41❤‍🔥1👨‍💻1
🔥 THIS IS HUGE!!!

Agentic Design Patterns: Практическое руководство по созданию интеллектуальных систем

Только что закончил и опубликовал русский перевод книги Антонио Гулли, которую автор заботливо выложил в открытый доступ на английском языке.

Это первая в мире книга, которая систематизирует паттерны проектирования для AI-агентов. Автор собрал и структурировал лучшие практики создания интеллектуальных систем, которые могут планировать, использовать инструменты, взаимодействовать с пользователями и адаптироваться к новым задачам.

В книге 21 глава с практическими примерами, кодом и реальными кейсами. От простых цепочек промптов до сложных многоагентных систем - все паттерны протестированы в реальных проектах.

Особенно полезно будет тем, кто:
⭐️ Разрабатывает AI-приложения
⭐️ Интегрирует LLM в свои продукты
⭐️ Хочет понять, как создавать по-настоящему умные системы

Репозиторий открытый, можно читать прямо на GitHub, листинги кода тщательно отформатированы, проработана навигация для удобства чтения.

Делитесь с коллегами и подписывайтесь на @machine_head_ru!
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥29🆒41
Forwarded from Чуковский
Schema-Guided Reasoning

В профильных LLM-каналах начал набирать популярность термин SGR (Schema-Guided Reasoning), но по какой-то причине народ не всегда понимает, что он обозначает, и зачем нужен. Никакого секрета нет, главное запомнить одно уравнение:

SGR = SO + COT



Из чего складывается Schema-Guided Reasoning:

1️⃣Во-первых, нам нужна модель, которая поддерживает Stuctured Output (SO) - возможность управлять результатом работы LLM, "зануляя" вероятности токенов, не подходящих под описанную нами грамматику, прямо во время выполнения.

2️⃣Во-вторых, нам нужно определить структуру желаемого ответа так, чтобы она "помогала" модели мыслить (тот самый Chain-Of-Thought).
Мы как бы «заставляем» модель пройти определенные этапы размышления перед тем как дать ответ, чтобы в результате вероятность корректных токенов ответа была выше.

Отличным примером использования такой техники является бот для дип-ресерча на открытых модельках sgr-deep-research, разработанный автором канала @neuraldeep:

🟢Сначала (скриншот 1 в комментах) мы определяем несколько классов, которые описывают шаги размышления модели. Например, когда модель хочет сгенерировать список уточняющих вопросов - она должна сначала описать себе причину, зачем ей это уточнение потребовалось, далее перечислить список терминов, которые она не поняла, предположить что они обозначают, и только после этого сгенерировать вопросы пользователя

🟢Одновременно с этим, для описания шагов размышления мы используем Pydantic-классы. Зачем? Чтобы можно было их отправить в LLM в качестве грамматики, ограничивающей результат. Теперь, если LLM решит выполнить шаг «Уточнение вопроса», она обязательно должна будет пройти указанные выше шаги, и это ограничение будет завернуто прямо в движок ее инференса. Модель просто физически не сможет отойти от схемы и начать генерировать что-то нерелевантное (почти всегда, но об этом позже)

Далее, эти шаги объединяются в цепочку (скриншот 2), которая представляет собой финальный ответ, и структура которой будет отправлена в LLM в качестве промпта.

И вот на этом этапе, становится понятно, зачем понадобился вообще SGR, и в чем его преимущество относительно других методов. Для того, чтобы сгенерировать следующий шаг в размышлениях, LLM обязательно сгенерирует:
🟢1-4 предложения, как она видит текущую ситуацию;
🟢статус выполнения плана исследования, закончен ли он, сколько еще шагов нужно пройти
🟢сколько еще шагов поиска она может сделать
🟢достаточно ли ей данных для отчета
🟢и только после этого, она сможет выбрать инструмент, который будет запускать (или доуточнение, или веб-поиск, или генерация ответа).

Для больших моделей, такой подход часто избыточен - они и так достаточно умные, чтобы рассуждать прямо "из коробки", и всегда следовать нужной инструкции.
Но если ваша модель относительно небольшая, и может легко отклоняться от инструкций, или она недостаточно хорошо их выполняет, то такие вот "рельсы" в виде Structured Output + зашитый в ответ процесс размышлений в стиле Chain-Of-Thought могут дать значительный прирост качества на ряде задач.

Конечно, у такого подхода есть и минусы, и его тоже нужно правильно готовить, но об этом как-нибудь в другой раз

@korneychukov
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1152
Интересный кейс из Кении, показывающий высокий спрос на инструмент, облегчающий понимание действующего и будущего законодательства и выступающий посредником между юридически неподготовленным пользователем и законодателем.

13 июня 2024-го программист Келвин Онкунди Ндемо загрузил в сеть ИИ-помощника на основе ChatGPT, который отвечал пользователям на вопросы о законопроекте о бюджете и переводил его статьи с юридического жаргона на человеческий язык. Ндемо обучил своего чат-бота на тексте законопроекта и «нескольких журналистских материалах», а позднее – на докладе комитета по финансам и планированию.
 
В течение уже первой недели бот обработал 50 тыс. запросов: например, подсчитывал пользователям, сколько шиллингов им придется переплатить за буханку хлеба с повышением НДС или как новый экосбор скажется на стоимости масла и других продуктов.

Чем закончилось, читаем тут

#Кения #законы #боты
———-
@tsingular
5🔥421
Media is too big
VIEW IN TELEGRAM
FieldPrint: робот принтер

Ну, вот, а вы говорите, - игрушки.

Наконец-то по-настоящему полезный робот.
Точность 1,6мм. Есть защита от накопления ошибок.
Совместим с Автокадом, управляется с айпада.

#DustyRobotics #FieldPrinter
———
@tsingular
🔥4041👾1
🧲 Физики раскрыли причину галлюцинаций ChatGPT — AI оказался похож на систему спинов с предсказуемыми точками перехода

Исследователи из George Washington University математически доказали: галлюцинации AI — не баг, а физическое свойство архитектуры. И вывели формулу, позволяющую предсказать момент срыва.

Суть открытия простыми словами:
Представьте каждое слово в ChatGPT,- как магнит в многомерном пространстве.

Когда вы пишете промпт — вы ставите первые магниты на доску.
AI смотрит на их общее «магнитное поле» и выбирает следующее слово-магнит, которое лучше всего к нему притягивается.

Проблема: после определенного количества «правильных» слов система внезапно переключается на «неправильные» — даже если промпт был корректным.

Техническая механика срыва:
• Attention head (базовый блок любой LLM) работает как система взаимодействующих спинов
• Каждое взаимодействие = физический гамильтониан: H = −S₁·S₂
• Система всегда выбирает состояние с минимальной энергией
Критический момент: когда «плохой» контент становится энергетически выгоднее «хорошего»

Формула срыва — когда AI начнёт галлюцинировать:
n* = [сумма взаимодействий промпта с хорошим/плохим контентом] / 
[разница энергий между хорошим и плохим контентом]


Число n* показывает, сколько правильных токенов выдаст модель до срыва.
И это «зашито» с момента старта ответа — все векторы уже определены обучением и вашим промптом.
Судьба предопределена. :)

Почему в больших моделях проявляется хуже:
В многослойных LLM (типа GPT-4) происходит эффект усиления:
• Токены проходят десятки слоёв, испытывая «слияние и расщепление»
• Формируются гигантские кластеры, объединяющие правильный и неправильный контент
• К финальному слою они оказываются в одном подпространстве → срыв неизбежен

«Чем больше слоёв в модели (L_LLM), тем выше вероятность формирования супер-токенов, смешивающих хороший и плохой контент»


Предложенные решения:

1. Gap cooling — увеличение «расстояния» между правильными и неправильными ответами в пространстве смыслов перед критической точкой

2. Temperature annealing — динамическая регулировка «температуры» генерации для баланса между креативностью и стабильностью

Практическая ценность:
• Формула универсальна — работает для любого размера словаря и будущих версий ChatGPT
• Можно заранее оценить риск галлюцинаций для конкретного промпта
• Модели смогут предупреждать о приближении к точке срыва

Вывод: галлюцинации очень похожи по сути на физические процессы, а значит физика же и может помочь их снизить или даже убрать.

#Physics #галлюцинации
———
@tsingular
1163👍3🆒1
Нашел отличную подборку фоновой музыки для работы :)

https://sber.pro/events/forum-iskusstvo-transformatsii-put-k-operatsionnoi-effektivnosti/

Включаем, фоном смотрим/слушаем.
Очень интересно.
Видео внизу экрана

#конференции #агенты #кейсы
———
@tsingular
👍4🔥32
Шикарный обзор-исследование от Сбертеха по ИИ во всех сферах жизни.

Забираем в комментариях.

#Сбертех #обзоры
———
@tsingular
4🔥422
Media is too big
VIEW IN TELEGRAM
🔥DeepCode: Open Agentic Coding

Ну это бомба!
Китайская команда Data Intelligence Lab из University of Hong Kong выпустили DeepCode - мультиагента разработчика по типу Курсора, но только Opensource.

Ранее эта же команда выпустила уже успевшие зарекомендовать себя, тоже оупенсорс, фреймворки:
- LightRAG
- AutoAgent
- RAG-Anything

а так же:
- AI-Researcher
- MiniRAG

у DeepCode три основных модуля:
- Paper2Code: конвертирует академические документы в полнофункциональные релизы кода
- Text2Web: создаёт фронтенд из описаний на естественном языке
- Text2Backend: генерирует серверный код

Работает как в веб интерфейсе, так и в командной строке. Причем формат командной строки вообще становится все более популярным.
С ним, опять же, можно в агента подключить этого разраба как инструмент.

Отменям подписку на Курсор, выкидываем ClaudeCode, OpenAI Codex, Gemini CLI.

Кстати, Gartner прогнозирует, что 75% корпораций будут использовать ИИ-разрабов уже к 2028 году.

И похоже эти ИИ разрабы будут на китайском оупенсорсе :)

#DeepCode #Coding #Китай
———
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15🤩54
This media is not supported in your browser
VIEW IN TELEGRAM
Claude теперь может создавать и редактировать файлы напрямую в приложении Claude.ai и в десктоп-версии, включая:

- Excel-таблицы;
- Текстовые документы;
- Презентации PowerPoint;
- PDF-файлы.

Заходим в Settings > Features > Experimental и выбираем "Upgraded file creation and analysis".

Функция уже доступна для пользователей планов Max, Team и Enterprise. Для пользователей Pro доступ появится в течение ближайших недель.

Подробнее тут: https://www.anthropic.com/news/create-files

@ppprompt
🔥6👌32
IPhone 17 pro max не удивил.

Причём понятно это было уже во время презентации,- большинство из показанного уже есть в Самсунге.

Ждём Galaxy S26 в январе.

#iphone #Apple
------
@tsingular
🤣71👍25🗿186👌1😈1
Media is too big
VIEW IN TELEGRAM
Manus теперь умеет делать сайты

Достаточно странная у них продуктовая тактика.
Копируют популярные фишки без оглядки на то как целостно при этом продукт выглядит.
Вот теперь в меню - создание сайтов.
Чисто копия Lovable.
Ведь в интернете недостаточно сайтов.
Очень нужно еще вайбкода на фронтэнде (нет).

Но есть мысль, что тут нечто большее кроется.
Давно обсуждается, что с нынешним темпом развития автономных ИИ кодеров, - удвоение скорости работы каждые пол года принесёт возможность генерить UI интерфейсы в реальном времени, в прямом диалоге с пользователем.

И вот в таком ракурсе все эти ловабле-лайк песочницы обретают смысл.
Пуcть пользователи поиграются, понагенерят нам датасетов по запросам на UI и по удовлетворенности результатом, - а мы на этом создадим real-time UI генераторы.

#Manus #Lovable #UI
———
@tsingular
6🔥421👍1😁1
Сравнение iPhone с конкурентами от chatGPT.

Стало прям интересно насколько вот это ощущение отсутствия новизны верное.

Прогнал через разных исследователей, лучше всего получилось у GPT5.

Детальный отчет в комментарии.

#iPhone #Apple #Huawei #Xiaomi #Samsung
———
@tsingular
👍71
NVIDIA представила Rubin CPX для миллионных контекстов

NVIDIA анонсировала Rubin CPX — GPU специально для инференса с длинными контекстами.

Ключевые характеристики:
- 30 петафлопс вычислений NVFP4
- в 3 раза быстрее обработка attention по сравнению с GB300 NVL72
- поддержка контекстов до 1 миллиона токенов
- 100 ТБ высокоскоростной памяти
- 1.7 ПБ/с пропускной способности

В rack-конфигурации Vera Rubin NVL144 CPX выдает 8 экзафлопс — в 7.5 раз мощнее GB300 NVL72.

Разработан для сложных задач вроде многоэтапного анализа, генерации видео и разработки ПО где нужна обработка огромных объемов контекста за раз.

Наконец-то можно будет не собирать многокарточные конструкции из-за нехватки памяти на контекст или размер модели.

#NVIDIA #Rubin #CPX
———
@tsingular
🔥64👍42
AI Darwin Awards 2025: Когда искусственный интеллект встречается с человеческой глупостью 🏆

Подборка эпичных провалов года, где технооптимизм столкнулся с реальностью — и проиграл.

🍔 Taco Bell: ИИ vs креативные заказчики
Масштаб: 500+ ресторанов
Провал: ИИ-система приёма заказов не справилась с троллингом клиентов ("дайте соус без кинзы и что-нибудь странное")
Итог: Экстренный откат на людей в пиковые часы

📊 Deloitte: галлюцинации за госконтракт
Документ: Отчёт по соцобеспечению для правительства Австралии
Косяк: Фиктивные цитаты и ссылки на несуществующие материалы по делу Robodebt
Дилемма: Либо ИИ нафантазировал, либо люди настолько плохо работали, что все решили — без ИИ не обошлось

⚖️ Юристы и мифическая юриспруденция
Кейс 1: Австралийский адвокат использовал Claude + Copilot для поиска прецедентов

- 4 несуществующих судебных дела в документах
- Штраф $8,371 AUD

Кейс 2: Адвокаты MyPillow (дело Майка Линдэлла)

- 30 фиктивных ссылок в судебном меморандуме
- Штраф $3,000 каждому юристу
- Попытка скрыть использование ИИ под присягой

🧂 ChatGPT-диетолог: бромид вместо соли
Жертва: 60-летний ЗОЖник
Совет ИИ: Заменить пищевую соль на бромид натрия (дезинфектант!)
Результат: 3 месяца отравления → галлюцинации и паранойя → 3 недели в больнице
Статус: Слишком мал для AI Darwin Awards, недостаточно смертелен для классической премии Дарвина

🔓 Утечки данных: когда безопасность — это что то не важное

McDonald's + Paradox.ai:
ИИ-бот "Olivia" для найма сотрудников
- Пароль к базе: 123456
- Утечка: 64 млн резюме соискателей

Tea (приложение знакомств):
Позиционирование: "безопасное пространство для женщин"
Реальность: 72,000 фото (включая водительские права) в открытом облаке
Бонус: 1 млн приватных сообщений в открытом доступе

🤖 ИИ-агенты: когда автономность заходит слишком далеко
Replit: CEO дал ИИ-агенту прямой доступ к production БД
Удалено: 2,400+ критических записей
Попытка скрыть следы фальшивыми данными

OpenAI GPT-5: Взломан через час после релиза

Метод: Task-in-Prompt (TIP) — маскировка вредоносных команд под головоломки
Время на взлом: 60 минут
Месяцы разработки защиты → разрушены перебором слов

📚 Несуществующий контент в СМИ
Chicago Sun-Times + Philadelphia Inquirer:
15 книжных рекомендаций на лето
10 из них не существует
Примеры: "Tidewater Dreams" от Изабель Альенде, "The Last Algorithm" от Энди Вейра
Фейковые цитаты от вымышленных критиков

🎾 Уимблдон: человеческий фактор побеждает ИИ
Инцидент: Техник случайно выключил AI-судью кнопкой
Момент: Решающий розыгрыш на центральном корте
Пропущено: 3 аута за время "отключки"

💼 Microsoft/Xbox: ChatGPT вместо психолога для уволенных
Предложение менеджера: Использовать чатботов для "эмоциональной разгрузки" 9,000 сокращённых
Реакция: "Омерзительно и бесчувственно"
Контекст: Миллиарды на ИИ параллельно с массовыми увольнениями
Итог: Пост удалён, но скриншоты остались навсегда

🏠 Airbnb: ИИ-мошенничество суперхоста
Схема: Генерация фейковых фото ущерба нейросетью
Сумма требований: £12,000
Первичное решение Airbnb: Выставили счёт гостю на £5,314 после "тщательной проверки"
Разоблачение: Журналисты The Guardian указали на несовпадения в фото одного стола

Главный урок 2025: Проблема не в ИИ, а в слепой вере в его непогрешимость. Технологии усиливают как компетентность, так и глупость — и второе происходит эффектнее.

#Fails #DarwinAwards2025 #ИИпровалы
———
@tsingular
1❤‍🔥11🔥93
Все-таки очень удобно.
Просто скидываешь логи чата в бота и он сам двигает встречи.

Как мы раньше вручную за своим календарем следили, - не понимаю.
Динозавровые века какие-то были.

#боты #dev
———
@tsingular
🔥10
Forwarded from ИСП РАН
Лидеры мировой арены: русские архитекторы ИИ

👨‍💻 Исследователи Института системного программирования имени В.П. Иванникова Российской академии наук (ИСП РАН) совместно коллегами из Института искусственного интеллекта AIRI, Университета ИТМО и стартапа Coframe вошли в топ-5 финалистов соревнования Concordia Challenge, направленного на разработку универсальных ИИ-ассистентов.

Как отметили исследователи, разработка подобных систем приближает к созданию универсальных ИИ-ассистентов, способных решать сложные проблемы в реальном мире, и открывает перспективы для многопользовательских симуляций.

➡️Concordia Challenge проводился в рамках ведущей ежегодной международной конференции по развитию ИИ — NeurIPS. Основной задача конкурса — стимулирование международного сотрудничества среди ученых, направленного на разработку универсальных агентов ИИ, способных адаптироваться к различным условиям и эффективно функционировать в физической, социальной и цифровой средах.

⚡️Для решения этой задачи российские ученые разработали инновационную архитектуру ИИ, построенную на базе комбинации из нескольких экспертных нейросетей, адаптированных к решению конкретных относительно узких наборов задач.

▶️О решении:

Команда «in2AI» разработала инновационную архитектуру агентного Mixture-of-Experts. Ключевым элементом разработки стал многоуровневый роутер, который динамически выбирает наиболее подходящего «эксперта» для каждой ситуации. Выбор осуществляется на основе анализа поведения других агентов и особенностей окружающей среды, что позволяет значительно повысить эффективность взаимодействия и адаптацию к изменяющимся условиям.

В ходе исследования команда обнаружила, что повышение эмоциональности агента помогло успешно отвлекать противников от их целей и сделать их более сговорчивыми. Работа над проектом была проведена при активной образовательной поддержке LLM-трека магистратуры по искусственному интеллекту в ИТМО AI Talent Hub и Школе Анализа Данных в рамках научно-исследовательских проектов.

🔵Оценка проводилась по ключевым навыкам созданных систем: переговоры, выполнение обещаний, сотрудничество и другие аспекты взаимодействия агентов друг с другом.

🟠 Подписаться на ИСП РАН
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥652