Что такое RAG и почему он устарел?
Представьте, что у вас есть умный помощник (AI), который знает очень многое, но не всё. Что, если этому помощнику дать возможность что-то подсмотреть в справочнике или интернете, прежде чем ответить?
Именно эту идею реализует RAG (Retrieval-Augmented Generation) — «генерация с дополнением извлечённой информации». Проще говоря, благодаря RAG языковая модель не полагается только на свою внутреннюю «память», а подтягивает свежие данные из внешних источников, чтобы ответы были точнее и актуальнее. Такой подход помогает модели опираться на реальные факты и снижает риск, что она уверенно выдаст ложное утверждение.
Ограничения классического RAG
RAG-запросы стали и уже пару лет остаются популярным решением. Многие корпоративные чат-боты научились сначала выполнять дополнительный поиск по своей базе знаний перед тем, как дать ответ. Но у такого «классического» RAG-подхода есть и ряд ограничений:
- Он работает по жёсткой схеме «один поиск — один ответ» без возможности уточнить или повторить попытку. Если первый же поиск не нашёл нужных сведений, ответ получится слабым или вообще пустым. Нет возможности переформулировать вопрос и попробовать ещё раз — процесс не умеет разветвляться.
- Система не умеет рассуждать или планировать шаги: она берёт запрос как есть и ищет по нему, даже если он сформулирован неточно или расплывчато. RAG-пайплайн не адаптируется под сложные или многоэтапные вопросы. В результате сложные, многосоставные задачи (где, скажем, надо и поискать в нескольких местах, и сделать вычисления) ставят такую систему в тупик.
- RAG как самостоятельное решение заточен только под поиск текстовой информации. А если для ответа нужен ещё и расчёт, или нужно сходить на веб-сайт, или вызвать какой-то сервис? Старый RAG этого не умеет – он не подключит калькулятор и не напишет код, ведь изначально спроектирован только как связка «поиск текста → ответ».
Иными словами, традиционный RAG-подход хорош для ответов на простой фактологический вопрос из базы данных, но ему не хватает гибкости. Он не «подумает» сам, какой инструмент лучше использовать для решения нестандартной задачи, потому что умеет только искать по тексту. В эпоху, когда промпты пользователей становятся всё сложнее и разноплановее, такой узконаправленный подход начинает устаревать.
Представьте, что у вас есть умный помощник (AI), который знает очень многое, но не всё. Что, если этому помощнику дать возможность что-то подсмотреть в справочнике или интернете, прежде чем ответить?
Именно эту идею реализует RAG (Retrieval-Augmented Generation) — «генерация с дополнением извлечённой информации». Проще говоря, благодаря RAG языковая модель не полагается только на свою внутреннюю «память», а подтягивает свежие данные из внешних источников, чтобы ответы были точнее и актуальнее. Такой подход помогает модели опираться на реальные факты и снижает риск, что она уверенно выдаст ложное утверждение.
Ограничения классического RAG
RAG-запросы стали и уже пару лет остаются популярным решением. Многие корпоративные чат-боты научились сначала выполнять дополнительный поиск по своей базе знаний перед тем, как дать ответ. Но у такого «классического» RAG-подхода есть и ряд ограничений:
- Он работает по жёсткой схеме «один поиск — один ответ» без возможности уточнить или повторить попытку. Если первый же поиск не нашёл нужных сведений, ответ получится слабым или вообще пустым. Нет возможности переформулировать вопрос и попробовать ещё раз — процесс не умеет разветвляться.
- Система не умеет рассуждать или планировать шаги: она берёт запрос как есть и ищет по нему, даже если он сформулирован неточно или расплывчато. RAG-пайплайн не адаптируется под сложные или многоэтапные вопросы. В результате сложные, многосоставные задачи (где, скажем, надо и поискать в нескольких местах, и сделать вычисления) ставят такую систему в тупик.
- RAG как самостоятельное решение заточен только под поиск текстовой информации. А если для ответа нужен ещё и расчёт, или нужно сходить на веб-сайт, или вызвать какой-то сервис? Старый RAG этого не умеет – он не подключит калькулятор и не напишет код, ведь изначально спроектирован только как связка «поиск текста → ответ».
Иными словами, традиционный RAG-подход хорош для ответов на простой фактологический вопрос из базы данных, но ему не хватает гибкости. Он не «подумает» сам, какой инструмент лучше использовать для решения нестандартной задачи, потому что умеет только искать по тексту. В эпоху, когда промпты пользователей становятся всё сложнее и разноплановее, такой узконаправленный подход начинает устаревать.
👍4❤2⚡1
RAG умер. Да здравствует RAG!
Новая волна ИИ-систем идет по своему пути. Вместо того, чтобы жестко пришивать RAG ко всем запросам, современные подходы дают модели набор инструментов и возможность самостоятельно выбирать, что и когда использовать. Модель превращается в агента, который может планировать действия: если понадобилась актуальная информация — агент решает выполнить поиск через RAG, если нужно посчитать — берёт в руки калькулятор, и так далее.
В таких системах RAG интегрирован внутрь более общей архитектуры. Например, OpenAI в своем новом Agents API позволяет подключить сразу несколько разных инструментов. Один и тот же AI-ассистент может в ходе диалога по необходимости:
- искать информацию — в интернете или по внутренней базе знаний (тот самый RAG, но вызывается только при необходимости);
- считать на калькуляторе — если вопрос про цифры или требует расчётов;
- просматривать веб-страницы — например, открыть ссылку и прочитать содержимое;
- запускать код — чтобы, к примеру, трансформировать данные или выполнить сложные действия;
- и многое другое (запросить данные из базы через API, использовать календарь и т.п.).
Все это происходит незаметно для пользователя. Агент сам решает, какой инструмент ему применить в данный момент, и для выполнения одного запроса он может их комбинировать.
Если вы спросите у такого помощника что-то про статистику компании, он сначала дернет RAG, найдёт цифры в вашей корпоративной базе знаний, а потом может тут же вычислить проценты на калькуляторе и выдать связный ответ. Если же вы спросите прогноз погоды, он обратится к веб-API погоды, а RAG не потребуется вовсе. Важно, что RAG-инструмент используется только тогда, когда нужен, в контексте общего интеллектуального планирования.
От систем, где приходилось вручную склеивать поиск, модель и другие сервисы, мы пришли к универсальным агентам, которые сами определяют все необходимые действия. Такой подход упрощает разработку и повышает интеллект системы, ведь агент умеет адаптироваться под задачу. Для бизнеса же это означает появление более умных чат-ботов и ассистентов, которые могут и на вопрос по документации ответить, и расчёт сделать, и по необходимости свежие данные подтянуть.
Новая волна ИИ-систем идет по своему пути. Вместо того, чтобы жестко пришивать RAG ко всем запросам, современные подходы дают модели набор инструментов и возможность самостоятельно выбирать, что и когда использовать. Модель превращается в агента, который может планировать действия: если понадобилась актуальная информация — агент решает выполнить поиск через RAG, если нужно посчитать — берёт в руки калькулятор, и так далее.
В таких системах RAG интегрирован внутрь более общей архитектуры. Например, OpenAI в своем новом Agents API позволяет подключить сразу несколько разных инструментов. Один и тот же AI-ассистент может в ходе диалога по необходимости:
- искать информацию — в интернете или по внутренней базе знаний (тот самый RAG, но вызывается только при необходимости);
- считать на калькуляторе — если вопрос про цифры или требует расчётов;
- просматривать веб-страницы — например, открыть ссылку и прочитать содержимое;
- запускать код — чтобы, к примеру, трансформировать данные или выполнить сложные действия;
- и многое другое (запросить данные из базы через API, использовать календарь и т.п.).
Все это происходит незаметно для пользователя. Агент сам решает, какой инструмент ему применить в данный момент, и для выполнения одного запроса он может их комбинировать.
Если вы спросите у такого помощника что-то про статистику компании, он сначала дернет RAG, найдёт цифры в вашей корпоративной базе знаний, а потом может тут же вычислить проценты на калькуляторе и выдать связный ответ. Если же вы спросите прогноз погоды, он обратится к веб-API погоды, а RAG не потребуется вовсе. Важно, что RAG-инструмент используется только тогда, когда нужен, в контексте общего интеллектуального планирования.
От систем, где приходилось вручную склеивать поиск, модель и другие сервисы, мы пришли к универсальным агентам, которые сами определяют все необходимые действия. Такой подход упрощает разработку и повышает интеллект системы, ведь агент умеет адаптироваться под задачу. Для бизнеса же это означает появление более умных чат-ботов и ассистентов, которые могут и на вопрос по документации ответить, и расчёт сделать, и по необходимости свежие данные подтянуть.
❤4👍3🔥2
Какие существуют инструменты для создания агентов?
В 2024–2025 году появилось множество решений: от SDK для разработчиков до полностью готовых no-code и low-code платформ. В этом посте приводим краткий обзор инструментов для создания AI-агентов:
LangChain — библиотека (SDK) с открытым исходным кодом, позволяющая создавать приложения на базе больших языковых моделей. Подходит тем, кто готов программировать. Предоставляет модульные «строительные блоки»: от шаблонов подсказок до управления памятью диалога и подключения сторонних инструментов. С LangChain можно быстро прототипировать чат-ботов, ассистентов, цепочки запросов к ИИ, интегрируя их с любыми API или данными.
Semantic Kernel — SDK с открытым исходным кодом от Microsoft, используется для интеграции ИИ в приложения. Рассчитана на разработчиков (особенно в корпоративной среде) и позволяет связывать работу LLM с традиционной бизнес-логикой. Эта SDK изначально создана для экосистемы
Flowise — no-code/low-code платформа с открытым исходным кодом, предоставляет drag-and-drop-интерфейс для создания приложений на базе LLM. Flowise работает на базе библиотек LangChain и LlamaIndex, то есть «под капотом» использует те же возможности, что и девелоперские решения, но упакованные в удобный UI. Платформа ориентирована на быструю сборку прототипов без написания кода.
LangFlow — еще один опенсорсный визуальный инструмент для создания AI-агентов и чат-ботов, во многом похожий на Flowise. Интегрирован с экосистемой LangChain очень плотно: когда вы проектируете цепочку действий в интерфейсе, LangFlow может сгенерировать эквивалентный код на Python с использованием библиотек LangChain. Это упрощает переход от прототипа к реальному приложению.
OpenAI Agents SDK — новая SDK от OpenAI для создания полноценных AI-агентов. Процесс планирования и выбора инструментов происходит “под капотом” OpenAI и прозрачен для разработчика. Agents SDK предоставляет специальный рантайм: вы описываете, что агент умеет, а он сам решает, когда вызвать тот или иной инструмент, и показывает ход рассуждений.
В отличие от библиотек вроде LangChain или Semantic Kernel, которые требуют самостоятельно связывать модели с инструментами и писать логику планирования, Agents SDK делает все это нативно внутри OpenAI-стека.
В 2024–2025 году появилось множество решений: от SDK для разработчиков до полностью готовых no-code и low-code платформ. В этом посте приводим краткий обзор инструментов для создания AI-агентов:
LangChain — библиотека (SDK) с открытым исходным кодом, позволяющая создавать приложения на базе больших языковых моделей. Подходит тем, кто готов программировать. Предоставляет модульные «строительные блоки»: от шаблонов подсказок до управления памятью диалога и подключения сторонних инструментов. С LangChain можно быстро прототипировать чат-ботов, ассистентов, цепочки запросов к ИИ, интегрируя их с любыми API или данными.
Semantic Kernel — SDK с открытым исходным кодом от Microsoft, используется для интеграции ИИ в приложения. Рассчитана на разработчиков (особенно в корпоративной среде) и позволяет связывать работу LLM с традиционной бизнес-логикой. Эта SDK изначально создана для экосистемы
.NET/C#
(есть и версия для Python) и отличается более строгим, индустриальным подходом по сравнению с LangChain. Flowise — no-code/low-code платформа с открытым исходным кодом, предоставляет drag-and-drop-интерфейс для создания приложений на базе LLM. Flowise работает на базе библиотек LangChain и LlamaIndex, то есть «под капотом» использует те же возможности, что и девелоперские решения, но упакованные в удобный UI. Платформа ориентирована на быструю сборку прототипов без написания кода.
LangFlow — еще один опенсорсный визуальный инструмент для создания AI-агентов и чат-ботов, во многом похожий на Flowise. Интегрирован с экосистемой LangChain очень плотно: когда вы проектируете цепочку действий в интерфейсе, LangFlow может сгенерировать эквивалентный код на Python с использованием библиотек LangChain. Это упрощает переход от прототипа к реальному приложению.
OpenAI Agents SDK — новая SDK от OpenAI для создания полноценных AI-агентов. Процесс планирования и выбора инструментов происходит “под капотом” OpenAI и прозрачен для разработчика. Agents SDK предоставляет специальный рантайм: вы описываете, что агент умеет, а он сам решает, когда вызвать тот или иной инструмент, и показывает ход рассуждений.
В отличие от библиотек вроде LangChain или Semantic Kernel, которые требуют самостоятельно связывать модели с инструментами и писать логику планирования, Agents SDK делает все это нативно внутри OpenAI-стека.
👍5🔥4❤3
Что такое MCP и почему это важно
В ноябре 2024 года Anthropic опубликовали анонс нового инструмента для больших языковых моделей — Model Context Protocol (сокращенно "MCP"). Это попытка стандартизировать протокол взаимодействия между LLM и внешним миром, и появилась она довольно своевременно. Сами Anthropic сравнивают свой инструмент с USB-C, называя его универсальным коннектором в мире LLM.
Если немного погрузиться в технику, то MCP — это протокол общения между клиентом и сервером, где клиент — это то, с чем взаимодействует пользователь, а сервер — то, что может получить дополнительные данные в зависимости от запроса. Очень напоминает традиционный Function Calling. По сути это он и есть, только завернутый в стандартный протокол, по которому можно вызывать функции ("tools" в терминах MCP), не прибегая к программированию. Иными словами, это своего рода плагины, которые можно применить к LLM.
Более того, функциональность MCP не ограничивается только вызовом функций. С его помощью также можно декларировать промпты и предоставлять некоторые удаленные ресурсы, и со временем список сценариев использования протокола наверняка будет только расширяться.
На данный момент MCP поддерживается наиболее широко в Claude Desktop (приложение для общения с Claude-моделями), различных IDE (Cursor, Windsurf, VS Code, Zed), и в некоторых других типах клиентов. Также OpenAI недавно заявили, что добавили поддержку MCP-серверов в свой Agents SDK, о котором мы писали выше.
Так почему же это важно?
Как и в случае с любой другой стандартизацией, MCP становится единой почвой, на которой может прорастать семейство самых разнообразных тулов, интегрируемых с различными API, базами данных, другими LLM, базами знаний, реальным миром — выбор неограничен. Все это открывает широкие возможности для AI-агентов и упрощает интеграции благодаря модульности и простому встраиванию.
Конечно, рано утверждать, что MCP будет единогласно признан универсальным стандартом. Индустрия достаточно быстро эволюционирует, и на замену одному протоколу всегда может прийти другой, более удобный и универсальный. Но уже сам факт, что многие большие игроки (Anthropic, OpenAI, Microsoft, Google) интегрируют MCP в свои сервисы, вызывает по меньшей мере любопытство.
Где найти MCP серверы?
Существует весьма удобный сайт с перечнем MCP-серверов (перечислены явно не все, но очень многие). А еще эти серверы можно создавать самостоятельно. На самом деле это не так сложно: для нескольких языков программирования уже существуют готовые SDK, а на официальном сайте MCP даже есть туториал о том, как с помощью LLM можно быстро создать себе MCP-сервер.
В ноябре 2024 года Anthropic опубликовали анонс нового инструмента для больших языковых моделей — Model Context Protocol (сокращенно "MCP"). Это попытка стандартизировать протокол взаимодействия между LLM и внешним миром, и появилась она довольно своевременно. Сами Anthropic сравнивают свой инструмент с USB-C, называя его универсальным коннектором в мире LLM.
Если немного погрузиться в технику, то MCP — это протокол общения между клиентом и сервером, где клиент — это то, с чем взаимодействует пользователь, а сервер — то, что может получить дополнительные данные в зависимости от запроса. Очень напоминает традиционный Function Calling. По сути это он и есть, только завернутый в стандартный протокол, по которому можно вызывать функции ("tools" в терминах MCP), не прибегая к программированию. Иными словами, это своего рода плагины, которые можно применить к LLM.
Более того, функциональность MCP не ограничивается только вызовом функций. С его помощью также можно декларировать промпты и предоставлять некоторые удаленные ресурсы, и со временем список сценариев использования протокола наверняка будет только расширяться.
На данный момент MCP поддерживается наиболее широко в Claude Desktop (приложение для общения с Claude-моделями), различных IDE (Cursor, Windsurf, VS Code, Zed), и в некоторых других типах клиентов. Также OpenAI недавно заявили, что добавили поддержку MCP-серверов в свой Agents SDK, о котором мы писали выше.
Так почему же это важно?
Как и в случае с любой другой стандартизацией, MCP становится единой почвой, на которой может прорастать семейство самых разнообразных тулов, интегрируемых с различными API, базами данных, другими LLM, базами знаний, реальным миром — выбор неограничен. Все это открывает широкие возможности для AI-агентов и упрощает интеграции благодаря модульности и простому встраиванию.
Конечно, рано утверждать, что MCP будет единогласно признан универсальным стандартом. Индустрия достаточно быстро эволюционирует, и на замену одному протоколу всегда может прийти другой, более удобный и универсальный. Но уже сам факт, что многие большие игроки (Anthropic, OpenAI, Microsoft, Google) интегрируют MCP в свои сервисы, вызывает по меньшей мере любопытство.
Где найти MCP серверы?
Существует весьма удобный сайт с перечнем MCP-серверов (перечислены явно не все, но очень многие). А еще эти серверы можно создавать самостоятельно. На самом деле это не так сложно: для нескольких языков программирования уже существуют готовые SDK, а на официальном сайте MCP даже есть туториал о том, как с помощью LLM можно быстро создать себе MCP-сервер.
👍6❤4🔥4
ИИ-агенты: как они уже меняют бизнес в России и мире
29 апреля в 11:00 команда KTS — IT–компания, основанная выпускниками МГТУ и создающая IT-продукты для крупного бизнеса с 2015 года, проведёт вебинар для руководителей проектов, продакт-менеджеров и разработчиков.
✅ Что такое ИИ-агенты и чем они отличаются от LLM-моделей?
✅ Покажем, как ИИ-агенты уже внедряются в российских компаниях
(на примере cloud.ru, iiko.ru) — и что происходит за рубежом
✅ Как они решают задачи бизнеса?
✅ Кратко расскажем как ИИ-агенты устроены (MCP)
📌И главное — как вы можете использовать их УЖЕ СЕЙЧАС, чтобы сэкономить время, деньги и силы?
Регистрация не требуется. Вебинар пройдет в этом Телеграм-канале. Следите за обновлениями!
29 апреля в 11:00 команда KTS — IT–компания, основанная выпускниками МГТУ и создающая IT-продукты для крупного бизнеса с 2015 года, проведёт вебинар для руководителей проектов, продакт-менеджеров и разработчиков.
✅ Что такое ИИ-агенты и чем они отличаются от LLM-моделей?
✅ Покажем, как ИИ-агенты уже внедряются в российских компаниях
(на примере cloud.ru, iiko.ru) — и что происходит за рубежом
✅ Как они решают задачи бизнеса?
✅ Кратко расскажем как ИИ-агенты устроены (MCP)
📌И главное — как вы можете использовать их УЖЕ СЕЙЧАС, чтобы сэкономить время, деньги и силы?
Регистрация не требуется. Вебинар пройдет в этом Телеграм-канале. Следите за обновлениями!
❤8🔥8👍4🙏2
UI-агенты
Сегодня обсудим технологию, которая может серьезно изменить то, как мы взаимодействуем с софтом и автоматизируем рутину: AI-агенты для управления UI.
Представьте себе ИИ, который умеет пользоваться компьютером так же, как человек: видеть экран, двигать курсором, нажимать кнопки и печатать текст. Именно это делают UI-агенты — автономные инструменты, способные выполнять действия в привычном графическом интерфейсе вместо пользователя. Они могут открывать приложения, браузеры и другие системы и работать с ними без специальных API.
Уже существует несколько вариантов реализации таких UI-агентов:
- Anthropic Claude (Computer Use): Claude 3.5 получила экспериментальную функцию «Computer Use», которая позволяет отдавать модели команды работать с компьютером через виртуальный рабочий стол. Это первая крупная AI-модель с такой способностью, и пока она в бета-режиме.
- OpenAI Operator: новый агент от OpenAI, который самостоятельно открывает встроенный браузер и выполняет в нем задачи по инструкции пользователя.
- Browser Use: открытая платформа, делающая веб-сайты «понятными» для AI-моделей. Этот инструмент подключается к браузеру и предоставляет ИИ структурированное представление страницы (включая распознавание элементов интерфейса), чтобы модель могла навигировать по сайту, кликать по ссылкам, вводить данные в поля и т.д.
🤔 Где это можно применить? Практически где угодно. Немного сузим круг и поговорим о том, как можно использовать UI-агенты бизнесу:
- Robotic Process Automation (RPA) и работа с legacy-системами: RPA давно использует скрипты для эмуляции действий человека в интерфейсе. Интеллектуальные UI-агенты выводят эту идею на новый уровень.
- Тестирование ПО: автоматизация регрессионного и UI-тестирования, проверка пользовательских сценариев без написания сложного кода.
- Сбор данных: автоматический парсинг сайтов и приложений, где нет готового API.
По сути, это возможность создать «макросы нового поколения», которые понимают естественный язык и могут адаптироваться к изменениям в интерфейсе.
🧐 А есть примеры? Да пожалуйста. Вот вам кейс Duolingo: автоматизация UI-тестирования
Вместо того чтобы разрабатывать регрессионные тесты, команда QA в Duolingo стала описывать шаги тест-кейса на естественном языке, а mobileboost.io сам выполнял эти шаги на эмуляторе устройства. В результате удалось сократить объем ручных регрессионных тестов примерно на 70%.
И напоследок предлагаю взглянуть, как работает UI-агент в реальном времени. Впечатляющая штука.
Сегодня обсудим технологию, которая может серьезно изменить то, как мы взаимодействуем с софтом и автоматизируем рутину: AI-агенты для управления UI.
Представьте себе ИИ, который умеет пользоваться компьютером так же, как человек: видеть экран, двигать курсором, нажимать кнопки и печатать текст. Именно это делают UI-агенты — автономные инструменты, способные выполнять действия в привычном графическом интерфейсе вместо пользователя. Они могут открывать приложения, браузеры и другие системы и работать с ними без специальных API.
Уже существует несколько вариантов реализации таких UI-агентов:
- Anthropic Claude (Computer Use): Claude 3.5 получила экспериментальную функцию «Computer Use», которая позволяет отдавать модели команды работать с компьютером через виртуальный рабочий стол. Это первая крупная AI-модель с такой способностью, и пока она в бета-режиме.
- OpenAI Operator: новый агент от OpenAI, который самостоятельно открывает встроенный браузер и выполняет в нем задачи по инструкции пользователя.
- Browser Use: открытая платформа, делающая веб-сайты «понятными» для AI-моделей. Этот инструмент подключается к браузеру и предоставляет ИИ структурированное представление страницы (включая распознавание элементов интерфейса), чтобы модель могла навигировать по сайту, кликать по ссылкам, вводить данные в поля и т.д.
🤔 Где это можно применить? Практически где угодно. Немного сузим круг и поговорим о том, как можно использовать UI-агенты бизнесу:
- Robotic Process Automation (RPA) и работа с legacy-системами: RPA давно использует скрипты для эмуляции действий человека в интерфейсе. Интеллектуальные UI-агенты выводят эту идею на новый уровень.
- Тестирование ПО: автоматизация регрессионного и UI-тестирования, проверка пользовательских сценариев без написания сложного кода.
- Сбор данных: автоматический парсинг сайтов и приложений, где нет готового API.
По сути, это возможность создать «макросы нового поколения», которые понимают естественный язык и могут адаптироваться к изменениям в интерфейсе.
🧐 А есть примеры? Да пожалуйста. Вот вам кейс Duolingo: автоматизация UI-тестирования
Вместо того чтобы разрабатывать регрессионные тесты, команда QA в Duolingo стала описывать шаги тест-кейса на естественном языке, а mobileboost.io сам выполнял эти шаги на эмуляторе устройства. В результате удалось сократить объем ручных регрессионных тестов примерно на 70%.
И напоследок предлагаю взглянуть, как работает UI-агент в реальном времени. Впечатляющая штука.
👍8⚡4🔥4
Гайд от OpenAI: как внедрять GenAI в бизнес
OpenAI подготовила набор рекомендаций и практик для компаний, которые хотят встроить генеративный ИИ в свои процессы:
🔗 https://openai.com/business/guides-and-resources/
Самая полезная, на мой взгляд, — Identifying and scaling AI use cases. Мы перевели её на русский:
🔗 https://kts.tech/posts/vyyavlenie-i-masshtabirovanie-variantov-ispolzovaniya-ii
В статье разбираются сценарии применения:
Создание контента — черновики, редактура, перевод, адаптация под разные каналы.
Исследования — быстрый сбор, анализ и структурирование информации.
Кодинг — генерация и отладка кода на любом языке; скрипты для «не-девов».
Анализ данных — извлечение инсайтов без deep-Excel/SQL; автогенерация графиков.
Идеация и стратегия — брейншторминг, проверка гипотез, составление планов.
Автоматизация — передача рутинных повторяемых шагов «на автопилот».
📅 Хотел напомнить, что 29 апреля в 11:00 проведём вебинар, где расскажем, что такое ИИ-агенты, покажем, как мы используем их у себя и как их внедряют российские компании. Подключайтесь!
OpenAI подготовила набор рекомендаций и практик для компаний, которые хотят встроить генеративный ИИ в свои процессы:
🔗 https://openai.com/business/guides-and-resources/
Самая полезная, на мой взгляд, — Identifying and scaling AI use cases. Мы перевели её на русский:
🔗 https://kts.tech/posts/vyyavlenie-i-masshtabirovanie-variantov-ispolzovaniya-ii
В статье разбираются сценарии применения:
Создание контента — черновики, редактура, перевод, адаптация под разные каналы.
Исследования — быстрый сбор, анализ и структурирование информации.
Кодинг — генерация и отладка кода на любом языке; скрипты для «не-девов».
Анализ данных — извлечение инсайтов без deep-Excel/SQL; автогенерация графиков.
Идеация и стратегия — брейншторминг, проверка гипотез, составление планов.
Автоматизация — передача рутинных повторяемых шагов «на автопилот».
📅 Хотел напомнить, что 29 апреля в 11:00 проведём вебинар, где расскажем, что такое ИИ-агенты, покажем, как мы используем их у себя и как их внедряют российские компании. Подключайтесь!
kts.tech
Выявление и масштабирование вариантов использования ИИ
Ключевые принципы поиска кейсов применения ИИ и обучения команд в компании
🔥5👍4❤3👏1
❗️Напоминаем: уже во вторник, 29 апреля в 11:00, встречаемся на вебинаре!
Тема: ИИ-агенты: как они уже меняют бизнес в России и мире
✅ Что такое ИИ-агенты и чем они отличаются от LLM-моделей?
✅ Покажем, как ИИ-агенты уже внедряются в российских компаниях
(на примере cloud.ru, iiko.ru) — и что происходит за рубежом
✅ Как они решают задачи бизнеса?
✅ Кратко расскажем как ИИ-агенты устроены (MCP)
Спикер мероприятия: Александр Опрышко, Управляющий партнер KTS, системный архитектор
Готовьте свои вопросы спикеру! 😉
Если не получится быть онлайн — не переживайте: запись вебинара мы выложим сюда же, в канал.
📎 Подключиться к вебинару можно будет по ссылке.
🗓 Чтобы не забыть, добавьте событие в календарь. Ссылка на добавление в календарь в комментариях под этим постом.
До встречи!
Тема: ИИ-агенты: как они уже меняют бизнес в России и мире
✅ Что такое ИИ-агенты и чем они отличаются от LLM-моделей?
✅ Покажем, как ИИ-агенты уже внедряются в российских компаниях
(на примере cloud.ru, iiko.ru) — и что происходит за рубежом
✅ Как они решают задачи бизнеса?
✅ Кратко расскажем как ИИ-агенты устроены (MCP)
Спикер мероприятия: Александр Опрышко, Управляющий партнер KTS, системный архитектор
Готовьте свои вопросы спикеру! 😉
Если не получится быть онлайн — не переживайте: запись вебинара мы выложим сюда же, в канал.
📎 Подключиться к вебинару можно будет по ссылке.
🗓 Чтобы не забыть, добавьте событие в календарь. Ссылка на добавление в календарь в комментариях под этим постом.
До встречи!
👍10🔥4
🔥Уже завтра — вебинар об ИИ-агентах! 🔥
Как они работают, где применяются и как их использовать прямо сейчас.
📅 29 апреля в 11:00 (по Мск)
👉 В Zoom, ссылка для входа завтра
Утром еще обязательно продублируем ссылку. Подключайтесь!
Как они работают, где применяются и как их использовать прямо сейчас.
📅 29 апреля в 11:00 (по Мск)
👉 В Zoom, ссылка для входа завтра
Утром еще обязательно продублируем ссылку. Подключайтесь!
👍3🔥3
Стартуем уже через час!
⏰ В 11:00 начнётся вебинар «ИИ-агенты: как они уже меняют бизнес в России и мире»
👉Ссылка для подключения
Наливайте себе вкусный кофе и настраивайтесь на продуктивный час😉
⏰ В 11:00 начнётся вебинар «ИИ-агенты: как они уже меняют бизнес в России и мире»
👉Ссылка для подключения
Наливайте себе вкусный кофе и настраивайтесь на продуктивный час😉
🔥4❤3
Спасибо всем, кто пришёл сегодня на вебинар и ответил на вопросы в наших опросах!
Ссылка на запись:
👉 YouTube
👉 RUTUBE
Хотел поделиться результатами одного из опросов - "Какими LLM вы пользуетесь в работе и в жизни?".
Gemini оказалось очень недооценена, модель 2.5 Pro показывает отличные результаты благодаря доступу к поисковому индексу Google, что существенно повышает качество и актуальность ответов.
Есть 2 пути использования:
1️⃣ https://gemini.google.com/app - интерфейс, похожий на ChatGPT (есть дневной лимит запросов).
2️⃣ https://aistudio.google.com/prompts/new_chat - Плейграунд моделей здесь не сталкивался с лимитом запросов в день
⁃
Рекомендую попробовать — понадобится только VPN.
Оставайтесь с нами и до встречи на других вебинарах!
Ссылка на запись:
👉 YouTube
👉 RUTUBE
Хотел поделиться результатами одного из опросов - "Какими LLM вы пользуетесь в работе и в жизни?".
Gemini оказалось очень недооценена, модель 2.5 Pro показывает отличные результаты благодаря доступу к поисковому индексу Google, что существенно повышает качество и актуальность ответов.
Есть 2 пути использования:
1️⃣ https://gemini.google.com/app - интерфейс, похожий на ChatGPT (есть дневной лимит запросов).
2️⃣ https://aistudio.google.com/prompts/new_chat - Плейграунд моделей здесь не сталкивался с лимитом запросов в день
⁃
Рекомендую попробовать — понадобится только VPN.
Оставайтесь с нами и до встречи на других вебинарах!
🔥16❤5
AI всех заменит?
Недавно опубликовали внутренние обращения CEO Shopify и CEO Duolingo.
- CEO Duolingo, Luis von Ahn - linked
- CEO Shopify, Tobi Lutke - x.com
- (копия обращений - telegra.ph)
Основные мысли, касающиеся сотрудников и процесса работы:
AI — базовый навык для всех. Использование ИИ становится обязательным требованием для каждого сотрудника – от стажёра до С-level. «Отказаться» от освоения инструментов ИИ практически равноценно стагнации.
Прототипы должны начинаться с ИИ-экспериментов. На этапе GSD-прототипирования (фрейворк Shopify) команды обязаны активно применять ИИ, чтобы быстрее учиться и выводить первые версии продукта.
ИИ-компетенции будут оцениваться в performance-review. Умение грамотно работать с ИИ — неочевидный навык. У многих складывается впечатление, что достаточно написать один запрос, и если сразу не получаешь идеальный результат, значит «не работает». На практике важно уметь формулировать промпты и правильно задавать контекст.
Проверка «можно ли это решить ИИ?». Постепенный отказ от подрядчиков там, где справится ИИ. Использование ИИ станет критерием при найме и в оценке эффективности. Новый штат одобряют, только если команду нельзя дальше автоматизировать.
Что это значит?
AI становится таким же базовым навыком, каким когда-то стала компьютерная грамотность и умение работать с Excel для «белых воротничков». Наступаем массовая адаптация технологии, необходимо менять привычных подход к выполнению задач. Острая необходимость в найме людей и подрядчиков трансформируется в острую необходимость создавать no-code прототипы агентов, которые смогут выполнить конечную задачу.
Недавно опубликовали внутренние обращения CEO Shopify и CEO Duolingo.
- CEO Duolingo, Luis von Ahn - linked
- CEO Shopify, Tobi Lutke - x.com
- (копия обращений - telegra.ph)
Основные мысли, касающиеся сотрудников и процесса работы:
AI — базовый навык для всех. Использование ИИ становится обязательным требованием для каждого сотрудника – от стажёра до С-level. «Отказаться» от освоения инструментов ИИ практически равноценно стагнации.
Прототипы должны начинаться с ИИ-экспериментов. На этапе GSD-прототипирования (фрейворк Shopify) команды обязаны активно применять ИИ, чтобы быстрее учиться и выводить первые версии продукта.
ИИ-компетенции будут оцениваться в performance-review. Умение грамотно работать с ИИ — неочевидный навык. У многих складывается впечатление, что достаточно написать один запрос, и если сразу не получаешь идеальный результат, значит «не работает». На практике важно уметь формулировать промпты и правильно задавать контекст.
Проверка «можно ли это решить ИИ?». Постепенный отказ от подрядчиков там, где справится ИИ. Использование ИИ станет критерием при найме и в оценке эффективности. Новый штат одобряют, только если команду нельзя дальше автоматизировать.
Что это значит?
AI становится таким же базовым навыком, каким когда-то стала компьютерная грамотность и умение работать с Excel для «белых воротничков». Наступаем массовая адаптация технологии, необходимо менять привычных подход к выполнению задач. Острая необходимость в найме людей и подрядчиков трансформируется в острую необходимость создавать no-code прототипы агентов, которые смогут выполнить конечную задачу.
Telegraph
Обращения CEO Duolingo и CEO Shopify
Duolingo I’ve said this in Q&As and many meetings, but I want to make it official: Duolingo is going to be AI-first. AI is already changing how work gets done. It’s not a question of if or when. It’s happening now. When there’s a shift this big, the worst…
🔥6👍5
Перчатка бесконечности ИИ-агентов
Мы хотим построить инфраструктурную платформу, которая позволит создавать ИИ-агентов, работающих в рамках российских решений.
Что значит инфраструктурная платформа?
Это платформа, которая берёт на себя весь "геморрой" по эксплуатации решений, обеспечивает доступ к большим языковым моделям и локализуется в России для соблюдения законов о персональных данных.
Что нужно для создания ИИ-агента?
- Поддержка каналов коммуникации, в том числе российских — VK, Telegram, WhatsApp, Avito, Jivo и других.
- Доступ к лучшим коммерческим и open-source моделям.
- Инструмент или фреймворк для создания агентов.
- Векторное хранилище для реализации RAG.
- Поддержка интеграций с российскими платформами: amoCRM, Битрикс и т.д.
✅ Первый камень — https://www.smartbotpro.ru/ — наша платформа, поддерживающая российские каналы коммуникации.
✅ Второй камень — no-code инструмент для автоматизации и создания агентов — n8n. Его можно развернуть у нас в Nocode Cloud. В нём "из коробки" настроен доступ к OpenAI, Anthropic, Gemini и другим сетям, недоступным с российских серверов. При этом платформа расположена в России и соответствует требованиям 152-ФЗ.
✅ Третий камень — хаб доступа к API OpenAI, Anthropic, Gemini. Обратившись к нам, можно получить доступ к последним state-of-the-art моделям с расширенными лимитами использования.
🕐 Четвёртый камень — маркетплейс MCP-серверов — https://mcplist.ru/. Сегодня мы запускаем платформу, где будем собирать MCP-серверы для локальных российских сервисов и популярных мировых инструментов. Следующим шагом станет реализация "развёртывания по кнопке" MCP-инструментов внутри nocodecloud, чтобы можно было сразу подключать их к n8n и реализовывать сценарии агентов.
🕐 Пятый камень — векторная база данных. Она нужна для реализации RAG. Что такое RAG и зачем он нужен, мы писали здесь. Сейчас находимся на стадии выбора и тестирования БД: Qdrant или Milvus.
Мы хотим построить инфраструктурную платформу, которая позволит создавать ИИ-агентов, работающих в рамках российских решений.
Что значит инфраструктурная платформа?
Это платформа, которая берёт на себя весь "геморрой" по эксплуатации решений, обеспечивает доступ к большим языковым моделям и локализуется в России для соблюдения законов о персональных данных.
Что нужно для создания ИИ-агента?
- Поддержка каналов коммуникации, в том числе российских — VK, Telegram, WhatsApp, Avito, Jivo и других.
- Доступ к лучшим коммерческим и open-source моделям.
- Инструмент или фреймворк для создания агентов.
- Векторное хранилище для реализации RAG.
- Поддержка интеграций с российскими платформами: amoCRM, Битрикс и т.д.
✅ Первый камень — https://www.smartbotpro.ru/ — наша платформа, поддерживающая российские каналы коммуникации.
✅ Второй камень — no-code инструмент для автоматизации и создания агентов — n8n. Его можно развернуть у нас в Nocode Cloud. В нём "из коробки" настроен доступ к OpenAI, Anthropic, Gemini и другим сетям, недоступным с российских серверов. При этом платформа расположена в России и соответствует требованиям 152-ФЗ.
✅ Третий камень — хаб доступа к API OpenAI, Anthropic, Gemini. Обратившись к нам, можно получить доступ к последним state-of-the-art моделям с расширенными лимитами использования.
🕐 Четвёртый камень — маркетплейс MCP-серверов — https://mcplist.ru/. Сегодня мы запускаем платформу, где будем собирать MCP-серверы для локальных российских сервисов и популярных мировых инструментов. Следующим шагом станет реализация "развёртывания по кнопке" MCP-инструментов внутри nocodecloud, чтобы можно было сразу подключать их к n8n и реализовывать сценарии агентов.
🕐 Пятый камень — векторная база данных. Она нужна для реализации RAG. Что такое RAG и зачем он нужен, мы писали здесь. Сейчас находимся на стадии выбора и тестирования БД: Qdrant или Milvus.
🔥9👍3
Что такое Model Context Protocol и почему о нем все говорят в AI индустрии?
29 мая в 11:00 команда KTS — IT–компания, основанная выпускниками МГТУ и создающая IT-продукты для крупного бизнеса с 2015 года, проведёт вебинар для руководителей проектов и разработчиков. Если вы работаете с ИИ или просто следите за развитием LLM — этот вебинар для вас.
Model Context Protocol — один из новых стандартов взаимодействия LLM с реальным миром, выпущенный Anthropic. MCP активно внедряется во множество инструментов, таких как: Cursor, Claude, n8n, Zed и другие. Он открывает возможности по легкому встраиванию самых разнообразных систем в LLM, превращая языковые модели в "многоруких помощников", зачастую даже не прибегая программированию.
Что будет на вебинаре?
✅ Проведем экскурс в function/tool calling в LLM - как языковые модели могут оперировать фактами из реального мира
✅ Расскажем о появлении Model Context Protocol (MCP): что дает новый протокол?
✅ Продемонстрируем архитектуру взаимодействия MCP-серверов и клиентов
✅ Покажем практические примеры использования в Claude Desktop, Cursor, n8n
✅ Объясним, как написать свой собственный MCP-сервер (Python SDK, Node.js SDK) и интегрировать в свои процессы
Также на вебинаре поговорим о том, как собрать MCP-сервер без кода на n8n, где искать существующие MCP-серверы и что существует, кроме MCP?
Если вы хотите понять, куда движется интеграция ИИ, и как использовать это в своих продуктах или проектах — приходите.
❗️Регистрация на вебинар не требуется! Вся информация о вебинаре будет выложена в этом канале 😌
29 мая в 11:00 команда KTS — IT–компания, основанная выпускниками МГТУ и создающая IT-продукты для крупного бизнеса с 2015 года, проведёт вебинар для руководителей проектов и разработчиков. Если вы работаете с ИИ или просто следите за развитием LLM — этот вебинар для вас.
Model Context Protocol — один из новых стандартов взаимодействия LLM с реальным миром, выпущенный Anthropic. MCP активно внедряется во множество инструментов, таких как: Cursor, Claude, n8n, Zed и другие. Он открывает возможности по легкому встраиванию самых разнообразных систем в LLM, превращая языковые модели в "многоруких помощников", зачастую даже не прибегая программированию.
Что будет на вебинаре?
✅ Проведем экскурс в function/tool calling в LLM - как языковые модели могут оперировать фактами из реального мира
✅ Расскажем о появлении Model Context Protocol (MCP): что дает новый протокол?
✅ Продемонстрируем архитектуру взаимодействия MCP-серверов и клиентов
✅ Покажем практические примеры использования в Claude Desktop, Cursor, n8n
✅ Объясним, как написать свой собственный MCP-сервер (Python SDK, Node.js SDK) и интегрировать в свои процессы
Также на вебинаре поговорим о том, как собрать MCP-сервер без кода на n8n, где искать существующие MCP-серверы и что существует, кроме MCP?
Если вы хотите понять, куда движется интеграция ИИ, и как использовать это в своих продуктах или проектах — приходите.
❗️Регистрация на вебинар не требуется! Вся информация о вебинаре будет выложена в этом канале 😌
🔥21
NLWeb: новое применение MCP
На Microsoft Build 2025, конференции, начавшейся 19 мая 2025 года, Microsoft представили много новых ИИ-инструментов. Среди них:
➡️ интеграция ИИ-возможностей в Windows;
➡️ запуск платформы Windows AI Foundry;
➡️ AI-агент Github Copilot.
Все это очень значимые достижения, а AI-агент Copilot вообще заслуживает отдельного поста. Однако мое внимание особенно зацепили две новости:
✔️ поддержка MCP-серверов внедряется во многие инструменты Microsoft — GitHub, Copilot Studio, Dynamics 365, Azure AI Foundry, Semantic Kernel и даже в Windows 11;
✔️ был представлен новый протокол NLWeb для создания диалогового взаимодействия с сайтами в Интернете.
Немного остановимся на NLWeb (сокращение от Natural Language Web). Это протокол, основная задача которого — дать пользователю возможность запросить любую информацию, содержащуюся на сайте, на естественном языке, вместо того чтобы подолгу искать нужный раздел. Для этого NLWeb может использовать любые AI-модели и свои собственные данные.
Также NLWeb — это еще и MCP-сервер, поэтому контент сайтов становится легко “интегрировать” с любыми AI-инструментами, такими как Claude, n8n и Cursor (а теперь и с более “приближенными к пользователям” Windows 11 и другими).
Из описания в репозитории NLWeb:
По словам Microsoft, NLWeb уже интегрирован в качестве пилота в следующих сервисах:
На мой взгляд, это заметный виток эволюционного развития всей истории с AI, MCP и всего вокруг. Контента в интернете накопилось уже очень много, а ИИ-модели научились весьма неплохо понимать неструктурированные данные. Если дать им понятный механизм взаимодействия с любым сервисом, то это откроет новые крутые возможности для интеграций и унификации доступа к ресурсам.
Репозиторий NLWeb находится тут. Интересно посмотреть, что в комьюнити смогут построить на его базе.
На Microsoft Build 2025, конференции, начавшейся 19 мая 2025 года, Microsoft представили много новых ИИ-инструментов. Среди них:
Все это очень значимые достижения, а AI-агент Copilot вообще заслуживает отдельного поста. Однако мое внимание особенно зацепили две новости:
Немного остановимся на NLWeb (сокращение от Natural Language Web). Это протокол, основная задача которого — дать пользователю возможность запросить любую информацию, содержащуюся на сайте, на естественном языке, вместо того чтобы подолгу искать нужный раздел. Для этого NLWeb может использовать любые AI-модели и свои собственные данные.
Также NLWeb — это еще и MCP-сервер, поэтому контент сайтов становится легко “интегрировать” с любыми AI-инструментами, такими как Claude, n8n и Cursor (а теперь и с более “приближенными к пользователям” Windows 11 и другими).
Из описания в репозитории NLWeb:
"Каждый инстанс NLWeb — это еще и MCP-сервер, поддерживающий метод ask. Этот метод используется для того, чтобы задавать сайту вопросы на естественном языке. [...] Вкратце, MCP и NLWeb связаны примерно так же, как HTTP и HTML."
Оригинал: "Every NLWeb instance is also an MCP server, which supports one core method, ask, which is used to ask a website a question in natural language. [...] In short, MCP is to NLWeb what HTTP is to HTML."
По словам Microsoft, NLWeb уже интегрирован в качестве пилота в следующих сервисах:
Chicago Public Media
Common Sense Media
DDM (Allrecipes/Serious Eats)
Eventbrite
Hearst (Delish)
Inception Labs
Milvus
O’Reilly Media
Qdrant
Shopify
Snowflake
Tripadvisor
На мой взгляд, это заметный виток эволюционного развития всей истории с AI, MCP и всего вокруг. Контента в интернете накопилось уже очень много, а ИИ-модели научились весьма неплохо понимать неструктурированные данные. Если дать им понятный механизм взаимодействия с любым сервисом, то это откроет новые крутые возможности для интеграций и унификации доступа к ресурсам.
Репозиторий NLWeb находится тут. Интересно посмотреть, что в комьюнити смогут построить на его базе.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥3👏3
🔥 28 мая встречаемся на Data&ML2Business от Yandex Cloud
Конференция Data&ML2Business — это концентрат прикладного опыта в Data и ML для бизнеса: генеративные модели, ИИ-системы, речевые технологии, чат-боты, автоматизация процессов и колл-центров.
Залетайте к нам на зелёный стенд KTS — покажем, расскажем и вдохновим:
🟢Как построить классическую/ML инфраструктуру и эффективно ей управлять, на примере MLOps-платформы, которую мы разработали вместе с Альфа-банком.
🟢Как внедрить AI-агентов и эффективно управлять ML-процессами, расскажем на примере AI-агента, который умеет продавать бетон.
🎮 Бонус: сыграйте в AI-квест — станьте проектным менеджером, разберись с проектом внутри Yandex Tracker с AI помощником и получи призы
Когда: 28 мая 2025
Где: Москва, LOFT#8
Регистрируйтесь по ссылке и до встречи на конференции!
Конференция Data&ML2Business — это концентрат прикладного опыта в Data и ML для бизнеса: генеративные модели, ИИ-системы, речевые технологии, чат-боты, автоматизация процессов и колл-центров.
Залетайте к нам на зелёный стенд KTS — покажем, расскажем и вдохновим:
🟢Как построить классическую/ML инфраструктуру и эффективно ей управлять, на примере MLOps-платформы, которую мы разработали вместе с Альфа-банком.
🟢Как внедрить AI-агентов и эффективно управлять ML-процессами, расскажем на примере AI-агента, который умеет продавать бетон.
🎮 Бонус: сыграйте в AI-квест — станьте проектным менеджером, разберись с проектом внутри Yandex Tracker с AI помощником и получи призы
Когда: 28 мая 2025
Где: Москва, LOFT#8
Регистрируйтесь по ссылке и до встречи на конференции!
🔥6👍4
📢 Уже скоро! Вебинар «Что такое Model Context Protocol и почему о нем все говорят в AI-индустрии?»
🗓 29 мая в 11:00 по Москве
🎙 Спикер — Игорь Латкин, управляющий партнер KTS, системный архитектор
Разберем:
— как LLM работают с внешними данными
— что такое MCP и зачем он нужен
— примеры: Claude Desktop, Cursor, n8n
— как собрать свой MCP-сервер (даже без кода!)
❗️Регистрация не требуется — ссылочка на подключение в Zoom. В день вебинара обязательно продублируем и напомним!
📌 Также в комментариях прикрепляем ссылку на добавление мероприятия в календарь.
Увидимся!
🗓 29 мая в 11:00 по Москве
🎙 Спикер — Игорь Латкин, управляющий партнер KTS, системный архитектор
Разберем:
— как LLM работают с внешними данными
— что такое MCP и зачем он нужен
— примеры: Claude Desktop, Cursor, n8n
— как собрать свой MCP-сервер (даже без кода!)
❗️Регистрация не требуется — ссылочка на подключение в Zoom. В день вебинара обязательно продублируем и напомним!
📌 Также в комментариях прикрепляем ссылку на добавление мероприятия в календарь.
Увидимся!
🔥15❤5
Доброе утро!
Стартуем уже через час!
⏰ В 11:00 начнётся вебинар «Что такое Model Context Protocol и почему о нем все говорят в AI-индустрии?»
👉Ссылка для подключения
До встречи!
Стартуем уже через час!
⏰ В 11:00 начнётся вебинар «Что такое Model Context Protocol и почему о нем все говорят в AI-индустрии?»
👉Ссылка для подключения
До встречи!
Zoom
Video Conferencing, Web Conferencing, Webinars, Screen Sharing
Zoom is the leader in modern enterprise video communications, with an easy, reliable cloud platform for video and audio conferencing, chat, and webinars across mobile, desktop, and room systems. Zoom Rooms is the original software-based conference room solution…
🔥10❤2