Внутри AI | Кейсы ИИ Агентов в бизнесе
647 subscribers
11 photos
2 files
41 links
AI Агенты и их применение в бизнесе
Обзоры, кейсы, практика
Download Telegram
Привет!

Здесь мы будем рассказывать про то, как ИИ-агенты используются в бизнесе для повышения эффективности и простым языком объяснять, как они устроены внутри.

В канале будем рассказывать про:
– Кейсы крупных компаний и стартапов по всему миру
– Как мы сами внедряем AI в работу компании и что делаем для российских клиентов
– Устройство AI-агентов на понятном языке с упором на бизнес-эффект

Канал ведут основатели KTS — IT–компании со штатом в 170+ специалистов, основанной выпускниками МГТУ, которая создает IT-продукты для крупного бизнеса с 2015 года.

Что мы уже делали в ML и AI?
– Разработали MLOps-платформу вместе с Альфа-банком.
– Создавали виртуального помощника для банка ДОМ.РФ (читать кейс)
– Сделали собственную платформу для создания чат-ботов с ИИ
– Разработали ML–сервис с оценкой психологических характеристик кандидатов по резюме для автоматического подбора на массовые вакансии в США и Канаде.
– Сделали рекламный спецпроект с CV, который распознаёт родинки на фото и превращает их в мелодию. Проект выиграл премию Effie
– Занимались анализом временных рядов для приоритизации биржевых стратегий

и многое другое
🎉112
Внутри AI | Кейсы ИИ Агентов в бизнесе pinned «Привет! Здесь мы будем рассказывать про то, как ИИ-агенты используются в бизнесе для повышения эффективности и простым языком объяснять, как они устроены внутри. В канале будем рассказывать про: – Кейсы крупных компаний и стартапов по всему миру – Как мы…»
Что такое агенты?
На мой взгляд, одно из наиболее понятных объяснений сделал Anthropic. Кратко расскажу и дополню основные мысли статьи.

Из чего состоит агент?
- Ядро (LLM call) — планирует и принимает решения. Ядро анализирует входные данные, сопоставляет их с контекстом, решает, какой следующий шаг будет оптимальным, и вызывает его.
- Память (context) — здесь агент хранит контекст последнего взаимодействия и, опционально, долговременные данные, например: историю действий, результаты предыдущих операций и т.д.
- Действие (Action). Действия можно разделить на модули восприятия и исполнения. Модули восприятия обогащают контекст взаимодействия с окружающей средой. Так, например, они: получают данные из API, выполняют поиск по интернету и прочее. Модули исполнения — это руки агента; с помощью этих модулей агент может создавать задачи в трекере, отправлять письма, вызывать API и выполнять любые другие действия.

Ключевым отличием агента от LLM с “руками” является многоэтапность и цикл обратной связи. Агент не пытается решить поставленную задачу за одно действие, он автоматически разбивает ее на подзадачи. Выполняя подзадачи, он получает новые знания из окружающей среды и на основе этих новых знаний корректирует план выполнения, и таким образом точнее решает поставленную задачу.
52
Теперь разберемся, как работает кодовый агент, например: Claude Code. На картинке выше показана диаграмма последовательности работы агента. В главных ролях: Человек (Human), Интерфейс (Interface), Модель (LLM) и среда выполнения (Environment):

Запрос от человека (Human)
Пользователь формулирует задачу и отправляет запрос через интерфейс.

Стадия уточнения задачи (Interface LLM, “Until tasks clear”)
Пользователь «общается» с LLM, чтобы уточнить детали задачи:
- Clarify – модель может задавать наводящие вопросы или просить дополнительные данные, уточнения, форматы;
- Refine – модель (при необходимости вместе с человеком) переформулирует или корректирует задачу, пока её формулировка не станет конкретной и понятной.

Отправка контекста модели (Send context)
Как только задача сформулирована достаточно четко, передается контекст и вся необходимая информация модели.

Обогащение контекста: поиск файлов / данных в среде (Search files → Return paths)
LLM делает запрос в среду (Environment), чтобы найти необходимые ресурсы, файлы и участки кода.

Решение задачи (Until tests pass)
- Write code – модель (LLM) генерирует код.
- Status – модель или среда может сообщать текущее состояние работы, например, процесс компиляции.
- Test – запускаются тесты или проверки, чтобы понять, корректен ли полученный результат.
- Results – возвращаются результаты тестирования (успешные или с ошибками).
- GoTo “Write code” – на основе полученных результатов (ошибках компиляции / тестирования) агент обогащает контекст и с новыми знаниями переходит на этап Write code.
Этот цикл «Write code → Test → Results» повторяется, пока все тесты не будут пройдены успешно, либо пока не будет достигнут условленный критерий завершения.

Завершение и отправка результата
После успешного выполнения задачи модель возвращает итоговый результат (Complete).

Таким образом, агент не просто выдает ответ сразу, но и взаимодействует с пользователем для уточнения задачи, получает необходимые ресурсы от среды, итерируется, проверяет свою работу через тесты и только после успешного прохождения тестов возвращает итоговое решение.
32
Что такое RAG и почему он устарел?

Представьте, что у вас есть умный помощник (AI), который знает очень многое, но не всё. Что, если этому помощнику дать возможность что-то подсмотреть в справочнике или интернете, прежде чем ответить?

Именно эту идею реализует RAG (Retrieval-Augmented Generation) — «генерация с дополнением извлечённой информации». Проще говоря, благодаря RAG языковая модель не полагается только на свою внутреннюю «память», а подтягивает свежие данные из внешних источников, чтобы ответы были точнее и актуальнее. Такой подход помогает модели опираться на реальные факты и снижает риск, что она уверенно выдаст ложное утверждение.

Ограничения классического RAG

RAG-запросы стали и уже пару лет остаются популярным решением. Многие корпоративные чат-боты научились сначала выполнять дополнительный поиск по своей базе знаний перед тем, как дать ответ. Но у такого «классического» RAG-подхода есть и ряд ограничений:

- Он работает по жёсткой схеме «один поиск — один ответ» без возможности уточнить или повторить попытку. Если первый же поиск не нашёл нужных сведений, ответ получится слабым или вообще пустым. Нет возможности переформулировать вопрос и попробовать ещё раз — процесс не умеет разветвляться.

- Система не умеет рассуждать или планировать шаги: она берёт запрос как есть и ищет по нему, даже если он сформулирован неточно или расплывчато. RAG-пайплайн не адаптируется под сложные или многоэтапные вопросы. В результате сложные, многосоставные задачи (где, скажем, надо и поискать в нескольких местах, и сделать вычисления) ставят такую систему в тупик.

- RAG как самостоятельное решение заточен только под поиск текстовой информации. А если для ответа нужен ещё и расчёт, или нужно сходить на веб-сайт, или вызвать какой-то сервис? Старый RAG этого не умеет – он не подключит калькулятор и не напишет код, ведь изначально спроектирован только как связка «поиск текста → ответ».

Иными словами, традиционный RAG-подход хорош для ответов на простой фактологический вопрос из базы данных, но ему не хватает гибкости. Он не «подумает» сам, какой инструмент лучше использовать для решения нестандартной задачи, потому что умеет только искать по тексту. В эпоху, когда промпты пользователей становятся всё сложнее и разноплановее, такой узконаправленный подход начинает устаревать.
👍421
RAG умер. Да здравствует RAG!

Новая волна ИИ-систем идет по своему пути. Вместо того, чтобы жестко пришивать RAG ко всем запросам, современные подходы дают модели набор инструментов и возможность самостоятельно выбирать, что и когда использовать. Модель превращается в агента, который может планировать действия: если понадобилась актуальная информация — агент решает выполнить поиск через RAG, если нужно посчитать — берёт в руки калькулятор, и так далее.

В таких системах RAG интегрирован внутрь более общей архитектуры. Например, OpenAI в своем новом Agents API позволяет подключить сразу несколько разных инструментов. Один и тот же AI-ассистент может в ходе диалога по необходимости:

- искать информацию — в интернете или по внутренней базе знаний (тот самый RAG, но вызывается только при необходимости);

- считать на калькуляторе — если вопрос про цифры или требует расчётов;

- просматривать веб-страницы — например, открыть ссылку и прочитать содержимое;

- запускать код — чтобы, к примеру, трансформировать данные или выполнить сложные действия;

- и многое другое (запросить данные из базы через API, использовать календарь и т.п.).

Все это происходит незаметно для пользователя. Агент сам решает, какой инструмент ему применить в данный момент, и для выполнения одного запроса он может их комбинировать.

Если вы спросите у такого помощника что-то про статистику компании, он сначала дернет RAG, найдёт цифры в вашей корпоративной базе знаний, а потом может тут же вычислить проценты на калькуляторе и выдать связный ответ. Если же вы спросите прогноз погоды, он обратится к веб-API погоды, а RAG не потребуется вовсе. Важно, что RAG-инструмент используется только тогда, когда нужен, в контексте общего интеллектуального планирования.

От систем, где приходилось вручную склеивать поиск, модель и другие сервисы, мы пришли к универсальным агентам, которые сами определяют все необходимые действия. Такой подход упрощает разработку и повышает интеллект системы, ведь агент умеет адаптироваться под задачу. Для бизнеса же это означает появление более умных чат-ботов и ассистентов, которые могут и на вопрос по документации ответить, и расчёт сделать, и по необходимости свежие данные подтянуть.
4👍3🔥2
Какие существуют инструменты для создания агентов?

В 2024–2025 году появилось множество решений: от SDK для разработчиков до полностью готовых no-code и low-code платформ. В этом посте приводим краткий обзор инструментов для создания AI-агентов:

LangChain — библиотека (SDK) с открытым исходным кодом, позволяющая создавать приложения на базе больших языковых моделей. Подходит тем, кто готов программировать. Предоставляет модульные «строительные блоки»: от шаблонов подсказок до управления памятью диалога и подключения сторонних инструментов​. С LangChain можно быстро прототипировать чат-ботов, ассистентов, цепочки запросов к ИИ, интегрируя их с любыми API или данными.

Semantic Kernel — SDK с открытым исходным кодом от Microsoft, используется для интеграции ИИ в приложения. Рассчитана на разработчиков (особенно в корпоративной среде) и позволяет связывать работу LLM с традиционной бизнес-логикой. Эта SDK изначально создана для экосистемы .NET/C# (есть и версия для Python) и отличается более строгим, индустриальным подходом по сравнению с LangChain.

Flowise — no-code/low-code платформа с открытым исходным кодом, предоставляет drag-and-drop-интерфейс для создания приложений на базе LLM. Flowise работает на базе библиотек LangChain и LlamaIndex​, то есть «под капотом» использует те же возможности, что и девелоперские решения, но упакованные в удобный UI. Платформа ориентирована на быструю сборку прототипов без написания кода.

LangFlow — еще один опенсорсный визуальный инструмент для создания AI-агентов и чат-ботов, во многом похожий на Flowise. Интегрирован с экосистемой LangChain очень плотно: когда вы проектируете цепочку действий в интерфейсе, LangFlow может сгенерировать эквивалентный код на Python с использованием библиотек LangChain​. Это упрощает переход от прототипа к реальному приложению.

OpenAI Agents SDK — новая SDK от OpenAI для создания полноценных AI-агентов. Процесс планирования и выбора инструментов происходит “под капотом” OpenAI и прозрачен для разработчика. Agents SDK предоставляет специальный рантайм: вы описываете, что агент умеет, а он сам решает, когда вызвать тот или иной инструмент, и показывает ход рассуждений.

В отличие от библиотек вроде LangChain или Semantic Kernel, которые требуют самостоятельно связывать модели с инструментами и писать логику планирования, Agents SDK делает все это нативно внутри OpenAI-стека​.
👍5🔥43
Что такое MCP и почему это важно

В ноябре 2024 года Anthropic опубликовали анонс нового инструмента для больших языковых моделей — Model Context Protocol (сокращенно "MCP"). Это попытка стандартизировать протокол взаимодействия между LLM и внешним миром, и появилась она довольно своевременно. Сами Anthropic сравнивают свой инструмент с USB-C, называя его универсальным коннектором в мире LLM.

Если немного погрузиться в технику, то MCP — это протокол общения между клиентом и сервером, где клиент — это то, с чем взаимодействует пользователь, а сервер — то, что может получить дополнительные данные в зависимости от запроса. Очень напоминает традиционный Function Calling. По сути это он и есть, только завернутый в стандартный протокол, по которому можно вызывать функции ("tools" в терминах MCP), не прибегая к программированию. Иными словами, это своего рода плагины, которые можно применить к LLM.

Более того, функциональность MCP не ограничивается только вызовом функций. С его помощью также можно декларировать промпты и предоставлять некоторые удаленные ресурсы, и со временем список сценариев использования протокола наверняка будет только расширяться.

На данный момент MCP поддерживается наиболее широко в Claude Desktop (приложение для общения с Claude-моделями), различных IDE (Cursor, Windsurf, VS Code, Zed), и в некоторых других типах клиентов. Также OpenAI недавно заявили, что добавили поддержку MCP-серверов в свой Agents SDK, о котором мы писали выше.

Так почему же это важно?
Как и в случае с любой другой стандартизацией, MCP становится единой почвой, на которой может прорастать семейство самых разнообразных тулов, интегрируемых с различными API, базами данных, другими LLM, базами знаний, реальным миром — выбор неограничен. Все это открывает широкие возможности для AI-агентов и упрощает интеграции благодаря модульности и простому встраиванию.

Конечно, рано утверждать, что MCP будет единогласно признан универсальным стандартом. Индустрия достаточно быстро эволюционирует, и на замену одному протоколу всегда может прийти другой, более удобный и универсальный. Но уже сам факт, что многие большие игроки (Anthropic, OpenAI, Microsoft, Google) интегрируют MCP в свои сервисы, вызывает по меньшей мере любопытство.

Где найти MCP серверы?
Существует весьма удобный сайт с перечнем MCP-серверов (перечислены явно не все, но очень многие). А еще эти серверы можно создавать самостоятельно. На самом деле это не так сложно: для нескольких языков программирования уже существуют готовые SDK, а на официальном сайте MCP даже есть туториал о том, как с помощью LLM можно быстро создать себе MCP-сервер.
👍64🔥4
ИИ-агенты: как они уже меняют бизнес в России и мире

29 апреля в 11:00 команда KTS — IT–компания, основанная выпускниками МГТУ и создающая IT-продукты для крупного бизнеса с 2015 года, проведёт вебинар для руководителей проектов, продакт-менеджеров и разработчиков.

Что такое ИИ-агенты и чем они отличаются от LLM-моделей?
Покажем, как ИИ-агенты уже внедряются в российских компаниях
(на примере cloud.ru, iiko.ru) — и что происходит за рубежом
Как они решают задачи бизнеса?
Кратко расскажем как ИИ-агенты устроены (MCP)

📌И главное — как вы можете использовать их УЖЕ СЕЙЧАС, чтобы сэкономить время, деньги и силы?

Регистрация не требуется. Вебинар пройдет в этом Телеграм-канале. Следите за обновлениями!
8🔥8👍4🙏2
UI-агенты

Сегодня обсудим технологию, которая может серьезно изменить то, как мы взаимодействуем с софтом и автоматизируем рутину: AI-агенты для управления UI.

Представьте себе ИИ, который умеет пользоваться компьютером так же, как человек: видеть экран, двигать курсором, нажимать кнопки и печатать текст​. Именно это делают UI-агенты — автономные инструменты, способные выполнять действия в привычном графическом интерфейсе вместо пользователя. Они могут открывать приложения, браузеры и другие системы и работать с ними без специальных API.

Уже существует несколько вариантов реализации таких UI-агентов:

- Anthropic Claude (Computer Use): Claude 3.5 получила экспериментальную функцию «Computer Use», которая позволяет отдавать модели команды работать с компьютером через виртуальный рабочий стол. Это первая крупная AI-модель с такой способностью, и пока она в бета-режиме.

- OpenAI Operator: новый агент от OpenAI, который самостоятельно открывает встроенный браузер и выполняет в нем задачи по инструкции пользователя.

- Browser Use: открытая платформа, делающая веб-сайты «понятными» для AI-моделей. Этот инструмент подключается к браузеру и предоставляет ИИ структурированное представление страницы (включая распознавание элементов интерфейса), чтобы модель могла навигировать по сайту, кликать по ссылкам, вводить данные в поля и т.д.

🤔 Где это можно применить? Практически где угодно. Немного сузим круг и поговорим о том, как можно использовать UI-агенты бизнесу:

- Robotic Process Automation (RPA) и работа с legacy-системами: RPA давно использует скрипты для эмуляции действий человека в интерфейсе. Интеллектуальные UI-агенты выводят эту идею на новый уровень.

- Тестирование ПО: автоматизация регрессионного и UI-тестирования, проверка пользовательских сценариев без написания сложного кода.

- Сбор данных: автоматический парсинг сайтов и приложений, где нет готового API.

По сути, это возможность создать «макросы нового поколения», которые понимают естественный язык и могут адаптироваться к изменениям в интерфейсе.

🧐 А есть примеры? Да пожалуйста. Вот вам кейс Duolingo: автоматизация UI-тестирования

Вместо того чтобы разрабатывать регрессионные тесты, команда QA в Duolingo стала описывать шаги тест-кейса на естественном языке, а mobileboost.io сам выполнял эти шаги на эмуляторе устройства​. В результате удалось сократить объем ручных регрессионных тестов примерно на 70%​.

И напоследок предлагаю взглянуть, как работает UI-агент в реальном времени. Впечатляющая штука.
👍84🔥4
Гайд от OpenAI: как внедрять GenAI в бизнес

OpenAI подготовила набор рекомендаций и практик для компаний, которые хотят встроить генеративный ИИ в свои процессы:
🔗 https://openai.com/business/guides-and-resources/

Самая полезная, на мой взгляд, — Identifying and scaling AI use cases. Мы перевели её на русский:
🔗 https://kts.tech/posts/vyyavlenie-i-masshtabirovanie-variantov-ispolzovaniya-ii

В статье разбираются сценарии применения:
Создание контента — черновики, редактура, перевод, адаптация под разные каналы.
Исследования — быстрый сбор, анализ и структурирование информации.
Кодинг — генерация и отладка кода на любом языке; скрипты для «не-девов».
Анализ данных — извлечение инсайтов без deep-Excel/SQL; автогенерация графиков.
Идеация и стратегия — брейншторминг, проверка гипотез, составление планов.
Автоматизация — передача рутинных повторяемых шагов «на автопилот».

📅 Хотел напомнить, что 29 апреля в 11:00 проведём вебинар, где расскажем, что такое ИИ-агенты, покажем, как мы используем их у себя и как их внедряют российские компании. Подключайтесь!
🔥5👍43👏1
❗️Напоминаем: уже во вторник, 29 апреля в 11:00, встречаемся на вебинаре!

Тема: ИИ-агенты: как они уже меняют бизнес в России и мире

Что такое ИИ-агенты и чем они отличаются от LLM-моделей?
Покажем, как ИИ-агенты уже внедряются в российских компаниях
(на примере cloud.ru, iiko.ru) — и что происходит за рубежом
Как они решают задачи бизнеса?
Кратко расскажем как ИИ-агенты устроены (MCP)

Спикер мероприятия: Александр Опрышко, Управляющий партнер KTS, системный архитектор

Готовьте свои вопросы спикеру! 😉

Если не получится быть онлайн — не переживайте: запись вебинара мы выложим сюда же, в канал.

📎 Подключиться к вебинару можно будет по ссылке.

🗓 Чтобы не забыть, добавьте событие в календарь. Ссылка на добавление в календарь в комментариях под этим постом.

До встречи!
👍10🔥4
🔥Уже завтра — вебинар об ИИ-агентах! 🔥

Как они работают, где применяются и как их использовать прямо сейчас.

📅 29 апреля в 11:00 (по Мск)
👉 В Zoom, ссылка для входа завтра

Утром еще обязательно продублируем ссылку. Подключайтесь!
👍3🔥3
Стартуем уже через час!

В 11:00 начнётся вебинар «ИИ-агенты: как они уже меняют бизнес в России и мире»

👉Ссылка для подключения

Наливайте себе вкусный кофе и настраивайтесь на продуктивный час😉
🔥43
Спасибо всем, кто пришёл сегодня на вебинар и ответил на вопросы в наших опросах!

Ссылка на запись:
👉 YouTube
👉
RUTUBE

Хотел поделиться результатами одного из опросов - "Какими LLM вы пользуетесь в работе и в жизни?".

Gemini оказалось очень недооценена, модель 2.5 Pro показывает отличные результаты благодаря доступу к поисковому индексу Google, что существенно повышает качество и актуальность ответов.

Есть 2 пути использования:

1️⃣ https://gemini.google.com/app - интерфейс, похожий на ChatGPT (есть дневной лимит запросов).

2️⃣ https://aistudio.google.com/prompts/new_chat - Плейграунд моделей здесь не сталкивался с лимитом запросов в день

Рекомендую попробовать — понадобится только VPN.

Оставайтесь с нами и до встречи на других вебинарах!
🔥165
AI всех заменит?

Недавно опубликовали внутренние обращения CEO Shopify и CEO Duolingo.
- CEO Duolingo, Luis von Ahn - linked
- CEO Shopify, Tobi Lutke - x.com
- (копия обращений - telegra.ph)

Основные мысли, касающиеся сотрудников и процесса работы:
AI — базовый навык для всех. Использование ИИ становится обязательным требованием для каждого сотрудника – от стажёра до С-level. «Отказаться» от освоения инструментов ИИ практически равноценно стагнации.

Прототипы должны начинаться с ИИ-экспериментов. На этапе GSD-прототипирования (фрейворк Shopify) команды обязаны активно применять ИИ, чтобы быстрее учиться и выводить первые версии продукта.

ИИ-компетенции будут оцениваться в performance-review. Умение грамотно работать с ИИ — неочевидный навык. У многих складывается впечатление, что достаточно написать один запрос, и если сразу не получаешь идеальный результат, значит «не работает». На практике важно уметь формулировать промпты и правильно задавать контекст.

Проверка «можно ли это решить ИИ?». Постепенный отказ от подрядчиков там, где справится ИИ. Использование ИИ станет критерием при найме и в оценке эффективности. Новый штат одобряют, только если команду нельзя дальше автоматизировать.

Что это значит?
AI становится таким же базовым навыком, каким когда-то стала компьютерная грамотность и умение работать с Excel для «белых воротничков». Наступаем массовая адаптация технологии, необходимо менять привычных подход к выполнению задач. Острая необходимость в найме людей и подрядчиков трансформируется в острую необходимость создавать no-code прототипы агентов, которые смогут выполнить конечную задачу.
🔥6👍5
Перчатка бесконечности ИИ-агентов

Мы хотим построить инфраструктурную платформу, которая позволит создавать ИИ-агентов, работающих в рамках российских решений.

Что значит инфраструктурная платформа?
Это платформа, которая берёт на себя весь "геморрой" по эксплуатации решений, обеспечивает доступ к большим языковым моделям и локализуется в России для соблюдения законов о персональных данных.

Что нужно для создания ИИ-агента?
- Поддержка каналов коммуникации, в том числе российских — VK, Telegram, WhatsApp, Avito, Jivo и других.
- Доступ к лучшим коммерческим и open-source моделям.
- Инструмент или фреймворк для создания агентов.
- Векторное хранилище для реализации RAG.
- Поддержка интеграций с российскими платформами: amoCRM, Битрикс и т.д.

Первый каменьhttps://www.smartbotpro.ru/ — наша платформа, поддерживающая российские каналы коммуникации.

Второй камень — no-code инструмент для автоматизации и создания агентов — n8n. Его можно развернуть у нас в Nocode Cloud. В нём "из коробки" настроен доступ к OpenAI, Anthropic, Gemini и другим сетям, недоступным с российских серверов. При этом платформа расположена в России и соответствует требованиям 152-ФЗ.

Третий камень — хаб доступа к API OpenAI, Anthropic, Gemini. Обратившись к нам, можно получить доступ к последним state-of-the-art моделям с расширенными лимитами использования.

🕐 Четвёртый камень — маркетплейс MCP-серверов — https://mcplist.ru/. Сегодня мы запускаем платформу, где будем собирать MCP-серверы для локальных российских сервисов и популярных мировых инструментов. Следующим шагом станет реализация "развёртывания по кнопке" MCP-инструментов внутри nocodecloud, чтобы можно было сразу подключать их к n8n и реализовывать сценарии агентов.

🕐 Пятый камень — векторная база данных. Она нужна для реализации RAG. Что такое RAG и зачем он нужен, мы писали здесь. Сейчас находимся на стадии выбора и тестирования БД: Qdrant или Milvus.
🔥9👍3