Что такое Model Context Protocol и почему о нем все говорят в AI индустрии?
29 мая в 11:00 команда KTS — IT–компания, основанная выпускниками МГТУ и создающая IT-продукты для крупного бизнеса с 2015 года, проведёт вебинар для руководителей проектов и разработчиков. Если вы работаете с ИИ или просто следите за развитием LLM — этот вебинар для вас.
Model Context Protocol — один из новых стандартов взаимодействия LLM с реальным миром, выпущенный Anthropic. MCP активно внедряется во множество инструментов, таких как: Cursor, Claude, n8n, Zed и другие. Он открывает возможности по легкому встраиванию самых разнообразных систем в LLM, превращая языковые модели в "многоруких помощников", зачастую даже не прибегая программированию.
Что будет на вебинаре?
✅ Проведем экскурс в function/tool calling в LLM - как языковые модели могут оперировать фактами из реального мира
✅ Расскажем о появлении Model Context Protocol (MCP): что дает новый протокол?
✅ Продемонстрируем архитектуру взаимодействия MCP-серверов и клиентов
✅ Покажем практические примеры использования в Claude Desktop, Cursor, n8n
✅ Объясним, как написать свой собственный MCP-сервер (Python SDK, Node.js SDK) и интегрировать в свои процессы
Также на вебинаре поговорим о том, как собрать MCP-сервер без кода на n8n, где искать существующие MCP-серверы и что существует, кроме MCP?
Если вы хотите понять, куда движется интеграция ИИ, и как использовать это в своих продуктах или проектах — приходите.
❗️Регистрация на вебинар не требуется! Вся информация о вебинаре будет выложена в этом канале 😌
29 мая в 11:00 команда KTS — IT–компания, основанная выпускниками МГТУ и создающая IT-продукты для крупного бизнеса с 2015 года, проведёт вебинар для руководителей проектов и разработчиков. Если вы работаете с ИИ или просто следите за развитием LLM — этот вебинар для вас.
Model Context Protocol — один из новых стандартов взаимодействия LLM с реальным миром, выпущенный Anthropic. MCP активно внедряется во множество инструментов, таких как: Cursor, Claude, n8n, Zed и другие. Он открывает возможности по легкому встраиванию самых разнообразных систем в LLM, превращая языковые модели в "многоруких помощников", зачастую даже не прибегая программированию.
Что будет на вебинаре?
✅ Проведем экскурс в function/tool calling в LLM - как языковые модели могут оперировать фактами из реального мира
✅ Расскажем о появлении Model Context Protocol (MCP): что дает новый протокол?
✅ Продемонстрируем архитектуру взаимодействия MCP-серверов и клиентов
✅ Покажем практические примеры использования в Claude Desktop, Cursor, n8n
✅ Объясним, как написать свой собственный MCP-сервер (Python SDK, Node.js SDK) и интегрировать в свои процессы
Также на вебинаре поговорим о том, как собрать MCP-сервер без кода на n8n, где искать существующие MCP-серверы и что существует, кроме MCP?
Если вы хотите понять, куда движется интеграция ИИ, и как использовать это в своих продуктах или проектах — приходите.
❗️Регистрация на вебинар не требуется! Вся информация о вебинаре будет выложена в этом канале 😌
🔥21
NLWeb: новое применение MCP
На Microsoft Build 2025, конференции, начавшейся 19 мая 2025 года, Microsoft представили много новых ИИ-инструментов. Среди них:
➡️ интеграция ИИ-возможностей в Windows;
➡️ запуск платформы Windows AI Foundry;
➡️ AI-агент Github Copilot.
Все это очень значимые достижения, а AI-агент Copilot вообще заслуживает отдельного поста. Однако мое внимание особенно зацепили две новости:
✔️ поддержка MCP-серверов внедряется во многие инструменты Microsoft — GitHub, Copilot Studio, Dynamics 365, Azure AI Foundry, Semantic Kernel и даже в Windows 11;
✔️ был представлен новый протокол NLWeb для создания диалогового взаимодействия с сайтами в Интернете.
Немного остановимся на NLWeb (сокращение от Natural Language Web). Это протокол, основная задача которого — дать пользователю возможность запросить любую информацию, содержащуюся на сайте, на естественном языке, вместо того чтобы подолгу искать нужный раздел. Для этого NLWeb может использовать любые AI-модели и свои собственные данные.
Также NLWeb — это еще и MCP-сервер, поэтому контент сайтов становится легко “интегрировать” с любыми AI-инструментами, такими как Claude, n8n и Cursor (а теперь и с более “приближенными к пользователям” Windows 11 и другими).
Из описания в репозитории NLWeb:
По словам Microsoft, NLWeb уже интегрирован в качестве пилота в следующих сервисах:
На мой взгляд, это заметный виток эволюционного развития всей истории с AI, MCP и всего вокруг. Контента в интернете накопилось уже очень много, а ИИ-модели научились весьма неплохо понимать неструктурированные данные. Если дать им понятный механизм взаимодействия с любым сервисом, то это откроет новые крутые возможности для интеграций и унификации доступа к ресурсам.
Репозиторий NLWeb находится тут. Интересно посмотреть, что в комьюнити смогут построить на его базе.
На Microsoft Build 2025, конференции, начавшейся 19 мая 2025 года, Microsoft представили много новых ИИ-инструментов. Среди них:
Все это очень значимые достижения, а AI-агент Copilot вообще заслуживает отдельного поста. Однако мое внимание особенно зацепили две новости:
Немного остановимся на NLWeb (сокращение от Natural Language Web). Это протокол, основная задача которого — дать пользователю возможность запросить любую информацию, содержащуюся на сайте, на естественном языке, вместо того чтобы подолгу искать нужный раздел. Для этого NLWeb может использовать любые AI-модели и свои собственные данные.
Также NLWeb — это еще и MCP-сервер, поэтому контент сайтов становится легко “интегрировать” с любыми AI-инструментами, такими как Claude, n8n и Cursor (а теперь и с более “приближенными к пользователям” Windows 11 и другими).
Из описания в репозитории NLWeb:
"Каждый инстанс NLWeb — это еще и MCP-сервер, поддерживающий метод ask. Этот метод используется для того, чтобы задавать сайту вопросы на естественном языке. [...] Вкратце, MCP и NLWeb связаны примерно так же, как HTTP и HTML."
Оригинал: "Every NLWeb instance is also an MCP server, which supports one core method, ask, which is used to ask a website a question in natural language. [...] In short, MCP is to NLWeb what HTTP is to HTML."
По словам Microsoft, NLWeb уже интегрирован в качестве пилота в следующих сервисах:
Chicago Public Media
Common Sense Media
DDM (Allrecipes/Serious Eats)
Eventbrite
Hearst (Delish)
Inception Labs
Milvus
O’Reilly Media
Qdrant
Shopify
Snowflake
Tripadvisor
На мой взгляд, это заметный виток эволюционного развития всей истории с AI, MCP и всего вокруг. Контента в интернете накопилось уже очень много, а ИИ-модели научились весьма неплохо понимать неструктурированные данные. Если дать им понятный механизм взаимодействия с любым сервисом, то это откроет новые крутые возможности для интеграций и унификации доступа к ресурсам.
Репозиторий NLWeb находится тут. Интересно посмотреть, что в комьюнити смогут построить на его базе.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥3👏3
🔥 28 мая встречаемся на Data&ML2Business от Yandex Cloud
Конференция Data&ML2Business — это концентрат прикладного опыта в Data и ML для бизнеса: генеративные модели, ИИ-системы, речевые технологии, чат-боты, автоматизация процессов и колл-центров.
Залетайте к нам на зелёный стенд KTS — покажем, расскажем и вдохновим:
🟢Как построить классическую/ML инфраструктуру и эффективно ей управлять, на примере MLOps-платформы, которую мы разработали вместе с Альфа-банком.
🟢Как внедрить AI-агентов и эффективно управлять ML-процессами, расскажем на примере AI-агента, который умеет продавать бетон.
🎮 Бонус: сыграйте в AI-квест — станьте проектным менеджером, разберись с проектом внутри Yandex Tracker с AI помощником и получи призы
Когда: 28 мая 2025
Где: Москва, LOFT#8
Регистрируйтесь по ссылке и до встречи на конференции!
Конференция Data&ML2Business — это концентрат прикладного опыта в Data и ML для бизнеса: генеративные модели, ИИ-системы, речевые технологии, чат-боты, автоматизация процессов и колл-центров.
Залетайте к нам на зелёный стенд KTS — покажем, расскажем и вдохновим:
🟢Как построить классическую/ML инфраструктуру и эффективно ей управлять, на примере MLOps-платформы, которую мы разработали вместе с Альфа-банком.
🟢Как внедрить AI-агентов и эффективно управлять ML-процессами, расскажем на примере AI-агента, который умеет продавать бетон.
🎮 Бонус: сыграйте в AI-квест — станьте проектным менеджером, разберись с проектом внутри Yandex Tracker с AI помощником и получи призы
Когда: 28 мая 2025
Где: Москва, LOFT#8
Регистрируйтесь по ссылке и до встречи на конференции!
🔥6👍4
📢 Уже скоро! Вебинар «Что такое Model Context Protocol и почему о нем все говорят в AI-индустрии?»
🗓 29 мая в 11:00 по Москве
🎙 Спикер — Игорь Латкин, управляющий партнер KTS, системный архитектор
Разберем:
— как LLM работают с внешними данными
— что такое MCP и зачем он нужен
— примеры: Claude Desktop, Cursor, n8n
— как собрать свой MCP-сервер (даже без кода!)
❗️Регистрация не требуется — ссылочка на подключение в Zoom. В день вебинара обязательно продублируем и напомним!
📌 Также в комментариях прикрепляем ссылку на добавление мероприятия в календарь.
Увидимся!
🗓 29 мая в 11:00 по Москве
🎙 Спикер — Игорь Латкин, управляющий партнер KTS, системный архитектор
Разберем:
— как LLM работают с внешними данными
— что такое MCP и зачем он нужен
— примеры: Claude Desktop, Cursor, n8n
— как собрать свой MCP-сервер (даже без кода!)
❗️Регистрация не требуется — ссылочка на подключение в Zoom. В день вебинара обязательно продублируем и напомним!
📌 Также в комментариях прикрепляем ссылку на добавление мероприятия в календарь.
Увидимся!
🔥15❤5
Доброе утро!
Стартуем уже через час!
⏰ В 11:00 начнётся вебинар «Что такое Model Context Protocol и почему о нем все говорят в AI-индустрии?»
👉Ссылка для подключения
До встречи!
Стартуем уже через час!
⏰ В 11:00 начнётся вебинар «Что такое Model Context Protocol и почему о нем все говорят в AI-индустрии?»
👉Ссылка для подключения
До встречи!
Zoom
Video Conferencing, Web Conferencing, Webinars, Screen Sharing
Zoom is the leader in modern enterprise video communications, with an easy, reliable cloud platform for video and audio conferencing, chat, and webinars across mobile, desktop, and room systems. Zoom Rooms is the original software-based conference room solution…
🔥10❤2
Вебинар AI: MCP.pdf
50.5 MB
Всем привет! Спасибо, кто пришёл вчера на вебинар по MCP! Приятно было видеть вовлечение и крутые вопросы.
Прикладываем презентацию и ссылки на запись:
👉 YouTube
👉 RUTUBE
Напомню, что на вебинаре мы разобрали:
✔️ Поговорили о том, что такое function/tool calling в LLM - как языковые модели могут оперировать фактами из реального мира.
✔️ Рассказали о появлении Model Context Protocol (MCP): что дает новый протокол?
✔️ Посмотрели на архитектуру взаимодействия MCP-серверов и клиентов.
✔️ Разобрали примеры использования MCP в кейсах проведения ресерча, взаимодействия с Clickhouse, а также анализе задач в Яндекс Трекере.
✔️ Коротко посмотрели на то, как писать свои собственные MCP-серверы (Python SDK, Node.js SDK), а также как превратить workflow в n8n в полноценный MCP сервер.
Если появятся вопросы — пишите в комментариях, с удовольствием отвечу.
Ждем вновь на будущих встречах!
Прикладываем презентацию и ссылки на запись:
👉 YouTube
👉 RUTUBE
Напомню, что на вебинаре мы разобрали:
Если появятся вопросы — пишите в комментариях, с удовольствием отвечу.
Ждем вновь на будущих встречах!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20👍1
Как Morgan Stanley убедились, что AI поможет компании лучше обслуживать клиентов
Друзья, мы начинаем серию постов о том, как AI помогает развивать бизнес и расскажем вам про опыт мировых компаний и то, как они применяют искусственный интеллект (иногда самым неожиданным образом), чтобы улучшить клиентский опыт, процессы внутри компании и как итог вывести бизнес в лидеры рынка. Сегодня поговорим про компанию Morgan Stanley — это мировой лидер в сфере финансовых услуг. А как мы знаем, финансы — во многом бизнес взаимоотношений. Но даже в столь личной и чувствительной работе может помочь искусственный интеллект.
Идея проста: если финансовые советники в Morgan Stanley смогут быстрее получать информацию и тратить меньше времени на повторяющиеся задачи, то будут предлагать клиентам больше качественных идей.
Чтобы убедиться в том, что AI поможет в решении поставленной задачи, эксперты провели ряд тщательных оценок для каждого приложения — Evals.
Evals — это строгий, структурированный процесс измерения того, как модели ИИ реально работают по сравнению с бенчмарком в конкретном сценарии использования. Оценки помогают собирать экспертную обратную связь на каждом этапе внедрения и непрерывно улучшать работу ИИ.
Ключевые метрики зависят от того, что наиболее важно для каждого сценария использования. Оценка Morgan Stanley была сосредоточена на повышении эффективности и результативности их финансовых консультантов. Поэтому в первую очередь эксперты оценили:
Как AI переводит текст. Измерение точности и качества переводов, создаваемых моделью.
Как AI обобщает информацию. Оценка того, как модель сжимает информацию, используя согласованные метрики точности, релевантности и связности.
Как отвечает AI по сравнению с экспертами. Сопоставление результатов ИИ с ответами опытных консультантов, оценки выставлялись за точность и релевантность.
Итоги оценок придали Morgan Stanley уверенности и подтолкнули к интеграции AI в продакшн.
В результате 98 % консультантов Morgan Stanley ежедневно используют OpenAI. Доступ к документам вырос с 20 % до 80 %, время на поиск резко сократилось. И, как главный итог, консультанты проводят больше времени в общении с клиентами благодаря автоматизации задач и более быстрой генерации идей.
Кэйтлин Эллиотт, руководитель по генеративным ИИ‑решениям на уровне всей фирмы:
Источник
Друзья, мы начинаем серию постов о том, как AI помогает развивать бизнес и расскажем вам про опыт мировых компаний и то, как они применяют искусственный интеллект (иногда самым неожиданным образом), чтобы улучшить клиентский опыт, процессы внутри компании и как итог вывести бизнес в лидеры рынка. Сегодня поговорим про компанию Morgan Stanley — это мировой лидер в сфере финансовых услуг. А как мы знаем, финансы — во многом бизнес взаимоотношений. Но даже в столь личной и чувствительной работе может помочь искусственный интеллект.
Идея проста: если финансовые советники в Morgan Stanley смогут быстрее получать информацию и тратить меньше времени на повторяющиеся задачи, то будут предлагать клиентам больше качественных идей.
Чтобы убедиться в том, что AI поможет в решении поставленной задачи, эксперты провели ряд тщательных оценок для каждого приложения — Evals.
Evals — это строгий, структурированный процесс измерения того, как модели ИИ реально работают по сравнению с бенчмарком в конкретном сценарии использования. Оценки помогают собирать экспертную обратную связь на каждом этапе внедрения и непрерывно улучшать работу ИИ.
Ключевые метрики зависят от того, что наиболее важно для каждого сценария использования. Оценка Morgan Stanley была сосредоточена на повышении эффективности и результативности их финансовых консультантов. Поэтому в первую очередь эксперты оценили:
Как AI переводит текст. Измерение точности и качества переводов, создаваемых моделью.
Как AI обобщает информацию. Оценка того, как модель сжимает информацию, используя согласованные метрики точности, релевантности и связности.
Как отвечает AI по сравнению с экспертами. Сопоставление результатов ИИ с ответами опытных консультантов, оценки выставлялись за точность и релевантность.
Итоги оценок придали Morgan Stanley уверенности и подтолкнули к интеграции AI в продакшн.
В результате 98 % консультантов Morgan Stanley ежедневно используют OpenAI. Доступ к документам вырос с 20 % до 80 %, время на поиск резко сократилось. И, как главный итог, консультанты проводят больше времени в общении с клиентами благодаря автоматизации задач и более быстрой генерации идей.
Кэйтлин Эллиотт, руководитель по генеративным ИИ‑решениям на уровне всей фирмы:
Отзывы консультантов чрезвычайно положительные. Они активнее взаимодействуют с клиентами, а действия, на которые раньше уходили дни, теперь выполняются в течение нескольких часов.
Источник
👍6
Вебинар «Внедряем ИИ».ics
2.9 KB
«Внедряем ИИ в команды: руководство для не-технарей»
ИИ — это уже не будущее, а реальность. Если вы не используете нейросети в своей сфере, значит, тратите кучу времени на рутину.
🗓24 июня в 11:00 пройдет вебинар, на котором вы узнаете:
✔️ с чего начать работу с ИИ, если вы ещё не пробовали или сделали пару попыток, но вам не зашло
✔️ как оценить свои задачи и понять, что можно автоматизировать и упростить
✔️ какие есть базовые приёмы, которые реально работают - без технических заморочек
✔️ примеры из практики: от финансов и менеджмента до дизайна и маркетинга
✔️ примитивы использования ИИ из рекомендаций OpenAI
А еще мы немного затронем создание ИИ-агентов на n8n.
👥 Спикеры:
— Сергей Чернобровкин, управляющий партнер IT-компании KTS, основанной выпускниками МГТУ и создающей IT-продукты для крупного бизнеса с 2015 года
— Илона Кравченко, CEO & креативный директор в дизайн-студии Rojo
Будет практично, просто и без заумных словечек. Регистрация на вебинар не требуется!
🟢 Обязательно подписывайтесь на канал, чтобы не пропустить ссылку для подключения и добавляйте приглашение в свой календарь.
ИИ — это уже не будущее, а реальность. Если вы не используете нейросети в своей сфере, значит, тратите кучу времени на рутину.
🗓24 июня в 11:00 пройдет вебинар, на котором вы узнаете:
А еще мы немного затронем создание ИИ-агентов на n8n.
👥 Спикеры:
— Сергей Чернобровкин, управляющий партнер IT-компании KTS, основанной выпускниками МГТУ и создающей IT-продукты для крупного бизнеса с 2015 года
— Илона Кравченко, CEO & креативный директор в дизайн-студии Rojo
Будет практично, просто и без заумных словечек. Регистрация на вебинар не требуется!
🟢 Обязательно подписывайтесь на канал, чтобы не пропустить ссылку для подключения и добавляйте приглашение в свой календарь.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14
Как Indeed делает поиск работы более человечным
Продолжаем узнавать, как AI помогает компаниям развиваться.
Indeed — веб‑сайт № 1 в мире по поиску работы, аналог русского Head Hunter. Компания использует GPT‑4o mini, чтобы по‑новому подбирать подходящие вакансии для кандидатов.
Искусственный интеллект способен обрабатывать огромные объемы данных из множества источников, поэтому именно он формирует более релевантный и персонализированный пользовательский опыт. Именно так компания Indeed улучшила свою рекомендательную систему.
Команда Indeed поняла: чтобы повысить эффективность и увеличить число откликов, важно объяснять соискателю, почему именно ему рекомендована та или иная вакансия. Так компания начала не просто предлагать подходящие вакансии, но и дополнять их контекстом.
С помощью аналитических и языковых возможностей GPT‑4o mini система, при отправке уведомлений или писем на email, добавляет информацию о том, насколько вакансия соответствует опыту или образованию кандидата.
Команда Indeed сравнила прежний механизм подбора вакансий с новой версией на базе GPT, дополненной контекстом:
- Количество откликов на вакансии увеличилось на 20 %.
- На 13 % больше кандидатов получили офферы.
В масштабе Indeed эти улучшения дают значительный бизнес-эффект: сайт компании посещают более 350 млн раз в месяц.
Масштабирование привело к росту использования токенов. Но и эту проблему удалось решить. Чтобы повысить эффективность, OpenAI и Indeed совместно дообучили более компактную модель GPT, которая обеспечила сопоставимые результаты при снижении потребления токенов на 60 %.
— Крис Хайэмс, генеральный директор Indeed
Источник
Продолжаем узнавать, как AI помогает компаниям развиваться.
Indeed — веб‑сайт № 1 в мире по поиску работы, аналог русского Head Hunter. Компания использует GPT‑4o mini, чтобы по‑новому подбирать подходящие вакансии для кандидатов.
Искусственный интеллект способен обрабатывать огромные объемы данных из множества источников, поэтому именно он формирует более релевантный и персонализированный пользовательский опыт. Именно так компания Indeed улучшила свою рекомендательную систему.
Команда Indeed поняла: чтобы повысить эффективность и увеличить число откликов, важно объяснять соискателю, почему именно ему рекомендована та или иная вакансия. Так компания начала не просто предлагать подходящие вакансии, но и дополнять их контекстом.
С помощью аналитических и языковых возможностей GPT‑4o mini система, при отправке уведомлений или писем на email, добавляет информацию о том, насколько вакансия соответствует опыту или образованию кандидата.
Команда Indeed сравнила прежний механизм подбора вакансий с новой версией на базе GPT, дополненной контекстом:
- Количество откликов на вакансии увеличилось на 20 %.
- На 13 % больше кандидатов получили офферы.
В масштабе Indeed эти улучшения дают значительный бизнес-эффект: сайт компании посещают более 350 млн раз в месяц.
Масштабирование привело к росту использования токенов. Но и эту проблему удалось решить. Чтобы повысить эффективность, OpenAI и Indeed совместно дообучили более компактную модель GPT, которая обеспечила сопоставимые результаты при снижении потребления токенов на 60 %.
«Мы видим большой потенциал продолжать инвестировать в эту новую инфраструктуру — так, чтобы она помогала нам наращивать выручку».
— Крис Хайэмс, генеральный директор Indeed
Источник
❤6🤝3🤡1
Стартуем уже завтра! Вебинар «Внедряем ИИ в команды: руководство для не-технарей»
24 июня в 11-00 Сергей Чернобровкин, управляющий партнер KTS и Илона Кравченко, CEO & креативный директор Rojo расскажут:
✔️ с чего начать работу с ИИ
✔️ как автоматизировать и упростить свои задачи
✔️ базовые приёмы без технических заморочек
✔️ примеры из практики: от финансов и менеджмента до дизайна и маркетинга
✔️ примитивы использования ИИ из рекомендаций OpenAI
А еще мы немного затронем создание ИИ-агентов на n8n.
🟢 Регистрация на вебинар не требуется! Ссылку для подключения опубликуем завтра в этом канале
24 июня в 11-00 Сергей Чернобровкин, управляющий партнер KTS и Илона Кравченко, CEO & креативный директор Rojo расскажут:
А еще мы немного затронем создание ИИ-агентов на n8n.
🟢 Регистрация на вебинар не требуется! Ссылку для подключения опубликуем завтра в этом канале
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥17❤1
Запись вебинара «Внедряем ИИ в команды: руководство для не-технарей»
Мы часто встречаемся с проблемой, когда компании начинают внедрение AI со сложных систем: пытаются создавать ML-платформы, делают агентов или RAG.
Тогда как наибольшую эффективность от AI бизнес получает, когда команда использует простые инструменты: автоматизирует рутинную работу и выполняет задачи быстрее и качественнее.
На вебинаре Сергей Чернобровкин и Илона Кравченко разобрали примеры, когда и как применять ИИ в работе команд маркетинга, пиара, финансов, юристов и бэк-офиса: от создания контента до автоматизации.
На основании типичных задач вы сможете собрать более сложные процессы, приоритизировать идеи и пропагандировать AI внутри компании.
Для понимания контекста затронули теорию и познакомились с более сложными агентами, но все же рекомендуем начать внедрение ИИ с простых практик.
Запись уже доступна:
YouTube
VK Видео
RUTUBE
Мы часто встречаемся с проблемой, когда компании начинают внедрение AI со сложных систем: пытаются создавать ML-платформы, делают агентов или RAG.
Тогда как наибольшую эффективность от AI бизнес получает, когда команда использует простые инструменты: автоматизирует рутинную работу и выполняет задачи быстрее и качественнее.
На вебинаре Сергей Чернобровкин и Илона Кравченко разобрали примеры, когда и как применять ИИ в работе команд маркетинга, пиара, финансов, юристов и бэк-офиса: от создания контента до автоматизации.
На основании типичных задач вы сможете собрать более сложные процессы, приоритизировать идеи и пропагандировать AI внутри компании.
Для понимания контекста затронули теорию и познакомились с более сложными агентами, но все же рекомендуем начать внедрение ИИ с простых практик.
Запись уже доступна:
YouTube
VK Видео
RUTUBE
❤10🔥10🤝5
Что такое n8n и как он помогает создавать умных AI-агентов?
n8n — это open source ноукод платформа, которая позволяет без программирования связывать сервисы и создавать сложные сценарии работы.
n8n умеет интегрироваться с разными зарубежными сервисами, недавно там появился блок создания AI-агентов, в который можно подключить облачную LLM от ведущих производителей и создавать tool'ы из готовых инструментов. Или подключить свои MCP-сервера.
Вот пару примеров, которые мы разобрали на последнем вебинаре:
Мониторинг инцидентов. LLM обрабатывает поток инцидентов, выделяет критичные случаи и отправляет уведомления с предварительной обработкой и предложениями решения в Telegram-чат. Это уже применяется на нашей практике в ряде проектов.
Bitrix-бот. Telegram-бот, который с помощью LLM понимает голосовые запросы и ищет ответ (например, данные по сделкам, клиентам и т.д) в данных Bitrix, через MCP, подключенного в n8n. В пилотном режиме бот уже работает в KTS.
Для вдохновения загляните на n8n.io/workflows — там сотни готовых процессов: автопостинг в соцсети, парсинг сайтов, адаптация контента под разные каналы и автоматические рассылки.
n8n — это open source ноукод платформа, которая позволяет без программирования связывать сервисы и создавать сложные сценарии работы.
n8n умеет интегрироваться с разными зарубежными сервисами, недавно там появился блок создания AI-агентов, в который можно подключить облачную LLM от ведущих производителей и создавать tool'ы из готовых инструментов. Или подключить свои MCP-сервера.
Вот пару примеров, которые мы разобрали на последнем вебинаре:
Мониторинг инцидентов. LLM обрабатывает поток инцидентов, выделяет критичные случаи и отправляет уведомления с предварительной обработкой и предложениями решения в Telegram-чат. Это уже применяется на нашей практике в ряде проектов.
Bitrix-бот. Telegram-бот, который с помощью LLM понимает голосовые запросы и ищет ответ (например, данные по сделкам, клиентам и т.д) в данных Bitrix, через MCP, подключенного в n8n. В пилотном режиме бот уже работает в KTS.
Для вдохновения загляните на n8n.io/workflows — там сотни готовых процессов: автопостинг в соцсети, парсинг сайтов, адаптация контента под разные каналы и автоматические рассылки.
👍10🔥7❤3
This media is not supported in your browser
VIEW IN TELEGRAM
MCP-сервер для работы с задачами из Yandex Tracker
На прошлых вебинарах мы разобрали, что такое Model Context Protocol (MCP), из каких компонентов он состоит, и как написать собственный MCP-сервер на Python или n8n.
А недавно мы релизнули свой MCP-сервер для Yandex Tracker.
Сейчас с его помощью можно решить следующие задачи:
- получение и поиск очередей
- работа с пользователями
- поиск и фильтрация задач с использованием языка запросов Yandex Tracker
- получение комментариев и связей задач, а также логов времени
Также он поддерживает аутентификацию через OAuth 2.1, что улучшает безопасность и контроль доступа.
В ближайших планах у нас добавить "изменяющие" tool'ы, чтобы можно было создавать задачи, связывать их между собой прямо из LLM. Об этом и о других фичах еще обязательно напишем в канале.
MCP для Yandex Tracker опубликован в репозитории на нашем GitHub. Описали, как его подключить в различные клиенты, включая Claude Desktop, Cursor и другие. И вы уже сейчас можете создать своего агента с этим MCP-сервером.
Будем рады обратной связи тут и на GitHub. Если у вас есть кейс, который не терпится решить на основе агентов, LLM и MCP, обязательно пишите нам — с удовольствием обсудим.
На прошлых вебинарах мы разобрали, что такое Model Context Protocol (MCP), из каких компонентов он состоит, и как написать собственный MCP-сервер на Python или n8n.
А недавно мы релизнули свой MCP-сервер для Yandex Tracker.
Сейчас с его помощью можно решить следующие задачи:
- получение и поиск очередей
- работа с пользователями
- поиск и фильтрация задач с использованием языка запросов Yandex Tracker
- получение комментариев и связей задач, а также логов времени
Также он поддерживает аутентификацию через OAuth 2.1, что улучшает безопасность и контроль доступа.
В ближайших планах у нас добавить "изменяющие" tool'ы, чтобы можно было создавать задачи, связывать их между собой прямо из LLM. Об этом и о других фичах еще обязательно напишем в канале.
MCP для Yandex Tracker опубликован в репозитории на нашем GitHub. Описали, как его подключить в различные клиенты, включая Claude Desktop, Cursor и другие. И вы уже сейчас можете создать своего агента с этим MCP-сервером.
Будем рады обратной связи тут и на GitHub. Если у вас есть кейс, который не терпится решить на основе агентов, LLM и MCP, обязательно пишите нам — с удовольствием обсудим.
❤9🔥7
Как Klarna извлекает выгоду из «накопительного эффекта» знаний ИИ
Продолжаем делиться кейсами эффективного применения AI в бизнесе. Сегодня — опыт финтех-компании Klarna, глобальной платежной платформы. Это достаточно зарегулированный бизнес в ЕС, при этом компания смогла выполнить все юридические требования и внедрить ботов. С помощью системного подхода и дообучения удалось добиться хорошего качества и надежности без репутационных рисков для бизнеса.
Klarna запустила собственного AI-ассистента, чтобы автоматизировать поддержку клиентов. Модель была дообучена на исторических данных чатов и сценариях реальных диалогов, чтобы ускорить обработку обращений и снизить нагрузку на операторов.
Результаты:
— ИИ обрабатывает две трети всех обращений;
— Среднее время решения запроса — 2 минуты вместо 11;
— Потенциальный рост прибыли — на $40 млн в год.
Важно: ассистент прошёл многочисленные итерации дообучения, прежде чем стал точным и безопасным в применении. Klarna поэтапно внедряла более сложные сценарии, расширяла область ответственности модели и отслеживала метрики качества на каждом этапе.
Klarna не ограничилась решением в поддержке. Внутри компании AI стал частью корпоративной культуры:
— 90 % сотрудников ежедневно используют ИИ: в службе поддержки, продукте, маркетинге, аналитике, управлении рисками.
— Созданы внутренние гайды и инструменты для генерации контента, создания сценариев, обработки текстов и кода.
— Отдельные команды занимаются тестированием и настройкой моделей — не только внешних LLM, но и собственных доменных моделей.
— Инициативы запускаются снизу вверх — каждый может предложить AI-решение своей задачи.
Это даёт эффект масштаба: скорость вывода новых идей и продуктов растёт, а стоимость изменений снижается.
Klarna системно инвестирует в адаптацию ИИ и получила накопительный эффект: с каждой итерацией модель становится точнее, а процессы — быстрее. Начав с одного применения, компания выстроила платформенный подход к ИИ.
Если вы хотите таких же результатов — начните с малого, но начните системно: соберите данные, найдите точку боли, адаптируйте модель под себя и итегративно развивайте решение.
Источник
Продолжаем делиться кейсами эффективного применения AI в бизнесе. Сегодня — опыт финтех-компании Klarna, глобальной платежной платформы. Это достаточно зарегулированный бизнес в ЕС, при этом компания смогла выполнить все юридические требования и внедрить ботов. С помощью системного подхода и дообучения удалось добиться хорошего качества и надежности без репутационных рисков для бизнеса.
Klarna запустила собственного AI-ассистента, чтобы автоматизировать поддержку клиентов. Модель была дообучена на исторических данных чатов и сценариях реальных диалогов, чтобы ускорить обработку обращений и снизить нагрузку на операторов.
Результаты:
— ИИ обрабатывает две трети всех обращений;
— Среднее время решения запроса — 2 минуты вместо 11;
— Потенциальный рост прибыли — на $40 млн в год.
Важно: ассистент прошёл многочисленные итерации дообучения, прежде чем стал точным и безопасным в применении. Klarna поэтапно внедряла более сложные сценарии, расширяла область ответственности модели и отслеживала метрики качества на каждом этапе.
Klarna не ограничилась решением в поддержке. Внутри компании AI стал частью корпоративной культуры:
— 90 % сотрудников ежедневно используют ИИ: в службе поддержки, продукте, маркетинге, аналитике, управлении рисками.
— Созданы внутренние гайды и инструменты для генерации контента, создания сценариев, обработки текстов и кода.
— Отдельные команды занимаются тестированием и настройкой моделей — не только внешних LLM, но и собственных доменных моделей.
— Инициативы запускаются снизу вверх — каждый может предложить AI-решение своей задачи.
Это даёт эффект масштаба: скорость вывода новых идей и продуктов растёт, а стоимость изменений снижается.
Klarna системно инвестирует в адаптацию ИИ и получила накопительный эффект: с каждой итерацией модель становится точнее, а процессы — быстрее. Начав с одного применения, компания выстроила платформенный подход к ИИ.
Если вы хотите таких же результатов — начните с малого, но начните системно: соберите данные, найдите точку боли, адаптируйте модель под себя и итегративно развивайте решение.
Источник
🔥7❤2🤝2
Выпускаем Supabase внутри Nocode Cloud!
Мы собрали 5-й камень — базу данных для реализации RAG.
Почему мы начали с Supabase?
▫️Построена на базе Postgres — надёжный ACID-движок, строгие транзакции и репликация. Вы храните события агента, чат-историю и метаданные в одной базе, пользуясь чистым SQL.
▫️Векторное хранилище на основе pgvector — хранилище живёт в том же Postgres: RAG-запросы, семантический поиск и память агентов без отдельной базы данных.
▫️Opensource аналог firebase — бизнес-логика, векторные embedding’и и привычные реляционные записи собраны в одном месте, что упрощает архитектуру.
Supabase доступен в beta-режиме в Nocode Cloud для пользователей зарегистрированных в другом нашем продукте — конструкторе чат-ботов smartbotpro.ru.
Но скоро вынесем инфраструктурную платформу в отдельный сервис без привязки к Смартботу.
Мы собрали 5-й камень — базу данных для реализации RAG.
Почему мы начали с Supabase?
▫️Построена на базе Postgres — надёжный ACID-движок, строгие транзакции и репликация. Вы храните события агента, чат-историю и метаданные в одной базе, пользуясь чистым SQL.
▫️Векторное хранилище на основе pgvector — хранилище живёт в том же Postgres: RAG-запросы, семантический поиск и память агентов без отдельной базы данных.
▫️Opensource аналог firebase — бизнес-логика, векторные embedding’и и привычные реляционные записи собраны в одном месте, что упрощает архитектуру.
Supabase доступен в beta-режиме в Nocode Cloud для пользователей зарегистрированных в другом нашем продукте — конструкторе чат-ботов smartbotpro.ru.
Но скоро вынесем инфраструктурную платформу в отдельный сервис без привязки к Смартботу.
❤8
Дайте сотрудникам свободу: как внедрять ИИ «снизу вверх»
Сегодня посмотрим на опыт компаний, которые внедрили ИИ «снизу вверх»: сотрудники сами экспериментируют с технологией и решают, как ее применить в работе.
Самый быстрый способ — предоставить сотрудникам доступ к ChatGPT или другим LLM-моделям в качестве «цифровых ассистентов».
Так поступили в международном банке BBVA. Сотрудникам выдали доступ к ChatGPT. За пять месяцев команда BBVA создала 2 900 собственных GPTs:
— Credit Analysis Pro GPT: автоматизирует анализ кредитных рисков, извлекая данные из годовых отчётов и ESG-оценок.
— Legal Assistant GPT: обрабатывает ≈ 40 000 юридических запросов в год, снижая нагрузку на команду из 9 юристов.
— Client Experience Assistant GPT: анализирует отзывы клиентов, выявляя ключевые инсайты для улучшения сервиса.
Похожий путь прошла консалтинговая компания Bain & Company: команде выдали доступ к инструментам на базе ChatGPT. В результате получилось несколько успешных кейсов:
— Answer Copilot. Кастомный GPT на базе открытых данных из переписки партнёров компании.
— Бот для Due Diligence в сфере частного капитала. Персональный ассистент консультантов автоматизирует и ускоряет анализ документов из Data Room.
— Конструктор опросов. Специализированный GPT дорабатывает черновики анкет до готовых закодированных опросов.
— Аналитика. Бизнес-аналитики генерируют код на Python, чтобы анализировать данные и автоматизировать сложные процессы в Excel.
Чтобы усилить интерес к технологии, Bain запустила конкурс GPT Olympics. Сотрудники создали 2 000+ собственных MyGPT. Теперь 60% консультантов и проектных команд (12 000 человек) используют ИИ ежедневно.
В российских реалиях большая компания не может просто закупить лицензию OpenAI или Anthropic, поэтому корпорации строят внутренние LLM-платформы на базе open source моделей и инструментов. Один из примеров — X5 Tech и их внутренняя LLM-платформа.
А если вы не настолько большая компания, а комплаенс и информационная безопасность достаточно гибкие, дайте сотрудникам удобный доступ к инструментам и покажите, как пользоваться моделью. Пусть команда самостоятельно тестирует гипотезы на своем уровне. Из успешных кейсов делайте вебинары, чтобы другие сотрудники вдохновлялись результатами коллег.
Сегодня посмотрим на опыт компаний, которые внедрили ИИ «снизу вверх»: сотрудники сами экспериментируют с технологией и решают, как ее применить в работе.
Самый быстрый способ — предоставить сотрудникам доступ к ChatGPT или другим LLM-моделям в качестве «цифровых ассистентов».
Так поступили в международном банке BBVA. Сотрудникам выдали доступ к ChatGPT. За пять месяцев команда BBVA создала 2 900 собственных GPTs:
— Credit Analysis Pro GPT: автоматизирует анализ кредитных рисков, извлекая данные из годовых отчётов и ESG-оценок.
— Legal Assistant GPT: обрабатывает ≈ 40 000 юридических запросов в год, снижая нагрузку на команду из 9 юристов.
— Client Experience Assistant GPT: анализирует отзывы клиентов, выявляя ключевые инсайты для улучшения сервиса.
Похожий путь прошла консалтинговая компания Bain & Company: команде выдали доступ к инструментам на базе ChatGPT. В результате получилось несколько успешных кейсов:
— Answer Copilot. Кастомный GPT на базе открытых данных из переписки партнёров компании.
— Бот для Due Diligence в сфере частного капитала. Персональный ассистент консультантов автоматизирует и ускоряет анализ документов из Data Room.
— Конструктор опросов. Специализированный GPT дорабатывает черновики анкет до готовых закодированных опросов.
— Аналитика. Бизнес-аналитики генерируют код на Python, чтобы анализировать данные и автоматизировать сложные процессы в Excel.
Чтобы усилить интерес к технологии, Bain запустила конкурс GPT Olympics. Сотрудники создали 2 000+ собственных MyGPT. Теперь 60% консультантов и проектных команд (12 000 человек) используют ИИ ежедневно.
В российских реалиях большая компания не может просто закупить лицензию OpenAI или Anthropic, поэтому корпорации строят внутренние LLM-платформы на базе open source моделей и инструментов. Один из примеров — X5 Tech и их внутренняя LLM-платформа.
А если вы не настолько большая компания, а комплаенс и информационная безопасность достаточно гибкие, дайте сотрудникам удобный доступ к инструментам и покажите, как пользоваться моделью. Пусть команда самостоятельно тестирует гипотезы на своем уровне. Из успешных кейсов делайте вебинары, чтобы другие сотрудники вдохновлялись результатами коллег.
👍8🔥5
Что такое RL-агенты и как они работают?
Reinforcement Learning (RL) — подход, в котором модель обучается действовать в среде, получая положительные и отрицательные награды. Система учится получать максимальную суммарную награду за весь процесс, а не в моменте. Какие-то действия могут приводить к отрицательной награде, но суммарный результат все равно будет лучше. Понятный пример — «инвестиции»: в процессе где-то мы теряем, но в сумме по итогу стремимся получить больше, чем вложили.
Пример классической задачи для RL — CartPole
RL-агенту нужно сбалансировать шест на движущейся тележке. Как это выглядит, можно посмотреть по ссылке. Агент получает числовое «фото»: где находится тележка, с какой скоростью она едет, под каким углом наклонён шест.
У агента есть два действия на выбор: толкнуть тележку влево или вправо. Если шест не упал, а тележка не выехала за край, агент получает награду и запоминает ситуацию.
После тысяч итераций алгоритм подстраивает свою внутреннюю политику под максимизацию награды — учится заранее определять наклон шеста и двигаться так, чтобы он не упал. За счет подкрепления бонусами и постоянной обратной связи у агента рождается устойчивое чувство равновесия.
Почему CartPole решает RL, а не обычная ML или LLM
CartPole — это не разовая классификация «картинка → ярлык», а динамическая игра, где каждое действие влияет на будущие состояния. У нас нет готовых «правильных ответов» для каждого кадра, зато есть цепочка наград за долговременное удержание шеста. RL учится на последовательных взаимодействиях и оптимизирует политику под накопленную награду. Классический ML на статичном датасете не справится с задачей, так как не поймет, что считать успехом.
Между RL агентами и LLM агентами можно провести параллель:
RL-агент перебирает доступные действия, чтобы заработать максимальную награду.
LLM-агент делает то же самое, только его «действия» — это выбор генерировать ответ на основе текущей информации или вызвать дополнительные инструменты (search, code-exec, image-ген), которые изменяют информационную среду и приближают агента к лучшему ответу.
В обычной жизни вы уже сталкивались с RL, но могли не знать об этом:
Роботы — учатся хватать предметы или ходить на ногах.
Автопилоты — просчитывают траектории, избегают столкновений, адаптируются в реальном времени.
Игровые боты — побеждают людей, потому что играют миллионы матчей и учатся на каждом.
Почему мы решили упомянуть про RL? Алгоритм reinforcement learning from human feedback (RLHF) позволил GPT следовать инструкциям и превратиться в универсальный инструмент, которым сегодня пользуются миллиарды людей — ChatGPT от OpenAI, Claude от Anthropic, Gemini, Grok и далее. С помощью такого подхода можно fine tune”ить модели и обучать их решать более сложные “агентские” задачи, но об этом в следующих постах.
Reinforcement Learning (RL) — подход, в котором модель обучается действовать в среде, получая положительные и отрицательные награды. Система учится получать максимальную суммарную награду за весь процесс, а не в моменте. Какие-то действия могут приводить к отрицательной награде, но суммарный результат все равно будет лучше. Понятный пример — «инвестиции»: в процессе где-то мы теряем, но в сумме по итогу стремимся получить больше, чем вложили.
Пример классической задачи для RL — CartPole
RL-агенту нужно сбалансировать шест на движущейся тележке. Как это выглядит, можно посмотреть по ссылке. Агент получает числовое «фото»: где находится тележка, с какой скоростью она едет, под каким углом наклонён шест.
У агента есть два действия на выбор: толкнуть тележку влево или вправо. Если шест не упал, а тележка не выехала за край, агент получает награду и запоминает ситуацию.
После тысяч итераций алгоритм подстраивает свою внутреннюю политику под максимизацию награды — учится заранее определять наклон шеста и двигаться так, чтобы он не упал. За счет подкрепления бонусами и постоянной обратной связи у агента рождается устойчивое чувство равновесия.
Почему CartPole решает RL, а не обычная ML или LLM
CartPole — это не разовая классификация «картинка → ярлык», а динамическая игра, где каждое действие влияет на будущие состояния. У нас нет готовых «правильных ответов» для каждого кадра, зато есть цепочка наград за долговременное удержание шеста. RL учится на последовательных взаимодействиях и оптимизирует политику под накопленную награду. Классический ML на статичном датасете не справится с задачей, так как не поймет, что считать успехом.
Между RL агентами и LLM агентами можно провести параллель:
RL-агент перебирает доступные действия, чтобы заработать максимальную награду.
LLM-агент делает то же самое, только его «действия» — это выбор генерировать ответ на основе текущей информации или вызвать дополнительные инструменты (search, code-exec, image-ген), которые изменяют информационную среду и приближают агента к лучшему ответу.
В обычной жизни вы уже сталкивались с RL, но могли не знать об этом:
Роботы — учатся хватать предметы или ходить на ногах.
Автопилоты — просчитывают траектории, избегают столкновений, адаптируются в реальном времени.
Игровые боты — побеждают людей, потому что играют миллионы матчей и учатся на каждом.
Почему мы решили упомянуть про RL? Алгоритм reinforcement learning from human feedback (RLHF) позволил GPT следовать инструкциям и превратиться в универсальный инструмент, которым сегодня пользуются миллиарды людей — ChatGPT от OpenAI, Claude от Anthropic, Gemini, Grok и далее. С помощью такого подхода можно fine tune”ить модели и обучать их решать более сложные “агентские” задачи, но об этом в следующих постах.
🔥9❤5👍5
This media is not supported in your browser
VIEW IN TELEGRAM
KTS на митапе Cloud․ru Tech Lab
24 июля в Москве пройдет митап AI&ML от Cloud․ru. В программе — четыре доклада об AI-агентах, RAG, Ragas и сборке MCP-сервера без кода. Также вас ждут демозона с тестированием AI-решений, нетворкинг и afterparty.
Среди приглашённых спикеров — Игорь Латкин, управляющий партнёр и системный архитектор KTS. Он выступит с докладом «Model Context Protocol (MCP): главный тренд AI-индустрии».
Митап будет особенно полезен разработчикам, продуктовым менеджерам и архитекторам, а также всем, кто внедряет или планирует внедрять AI в свои сервисы.
Когда: 24 июля, 18:00
Где: Москва, Гоэлро Лофт
Для тех, кто не сможет присутствовать лично, будет доступен онлайн-формат. Cloud․ru поделится записями после мероприятия.
Регистрация обязательна. До встречи на митапе!
24 июля в Москве пройдет митап AI&ML от Cloud․ru. В программе — четыре доклада об AI-агентах, RAG, Ragas и сборке MCP-сервера без кода. Также вас ждут демозона с тестированием AI-решений, нетворкинг и afterparty.
Среди приглашённых спикеров — Игорь Латкин, управляющий партнёр и системный архитектор KTS. Он выступит с докладом «Model Context Protocol (MCP): главный тренд AI-индустрии».
Митап будет особенно полезен разработчикам, продуктовым менеджерам и архитекторам, а также всем, кто внедряет или планирует внедрять AI в свои сервисы.
Когда: 24 июля, 18:00
Где: Москва, Гоэлро Лофт
Для тех, кто не сможет присутствовать лично, будет доступен онлайн-формат. Cloud․ru поделится записями после мероприятия.
Регистрация обязательна. До встречи на митапе!
🔥7