Мы растим AI-команду и ищем лидера, который возьмёт под своё крыло всё направление.
С первого дня ты будешь работать с реальными задачами для крупных заказчиков. Тебе предстоит: создание метрик, проверка гипотез, fine-tuning существующих LLM, разработка сервисов для решения бизнес-задач, а также найм и развитие своей команды.
Откликайся, если узнал себя:
— 5+ лет коммерческого опыта в NLP;
— создавал проекты на основе LLM и RAG, работал с агентными системами;
— умеешь решать ML-задачи полного цикла;
— нанимал и развивал DS/ML-специалистов, руководил командой от 2 человек;
— видишь ценность ИИ в решении реальных бизнес-задач;
— умеешь выстраивать коммуникацию с заказчиком.
Если хочешь создавать собственных RAG- и AI-агентов, развиваться в NLP и при этом держать фокус на пользе технологий для бизнеса — откликайся и добро пожаловать в KTS!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤1
Быстрое решение с LLM: доступ к аналитике Redash через чат-бота
Сделали инструмент, который упрощает работу менеджеров с данными.
Redash — система аналитики, которая строит графики и отвечает на запросы к базам данных. Вместо SQL-запросов к системе можно задать вопрос через бота: «сколько пользователей зарегистрировалось?» или «какие продуктовые метрики можно собрать по базе».
Бот сам обращается к API, строит корректные SQL-запросы и возвращает результат. Для тех, кто не уверен, какие именно данные нужны, бот сканирует структуру базы и предлагает релевантные метрики.
Такой подход снижает барьер входа в аналитику: менеджеры получают доступ к ключевым показателям без участия аналитиков или разработчиков.
Сделали инструмент, который упрощает работу менеджеров с данными.
Redash — система аналитики, которая строит графики и отвечает на запросы к базам данных. Вместо SQL-запросов к системе можно задать вопрос через бота: «сколько пользователей зарегистрировалось?» или «какие продуктовые метрики можно собрать по базе».
Бот сам обращается к API, строит корректные SQL-запросы и возвращает результат. Для тех, кто не уверен, какие именно данные нужны, бот сканирует структуру базы и предлагает релевантные метрики.
Такой подход снижает барьер входа в аналитику: менеджеры получают доступ к ключевым показателям без участия аналитиков или разработчиков.
🔥11
Новинка от OpenAI
Лучше поздно, чем никогда. Рассказываем:
OpenAI представила Prompt Packs — свыше 300 шаблонов промптов для конкретных ролей (разработчики, HR, маркетологи, продавцы и др.) Рабочие промпты под повседневные задачи: письма, анализ, планирование, код, скрипты переговоров.
Зачем это сегодня:
- Быстрый старт без изучение особенностей «промпт-инженерии»: выбираете роль, берете шаблон, добавляете свой контекст и получаете пригодный к делу результат.
- Стандарты для команды: одна библиотека промптов снижает разброс качества и ускоряет онбординг.
Забирайте и адаптируйте под свой стек задач: клик
Лучше поздно, чем никогда. Рассказываем:
OpenAI представила Prompt Packs — свыше 300 шаблонов промптов для конкретных ролей (разработчики, HR, маркетологи, продавцы и др.) Рабочие промпты под повседневные задачи: письма, анализ, планирование, код, скрипты переговоров.
Зачем это сегодня:
- Быстрый старт без изучение особенностей «промпт-инженерии»: выбираете роль, берете шаблон, добавляете свой контекст и получаете пригодный к делу результат.
- Стандарты для команды: одна библиотека промптов снижает разброс качества и ускоряет онбординг.
Забирайте и адаптируйте под свой стек задач: клик
❤4👍1
Подборка полезных AI ресурсов, которые дадут и базу и практику.
Впереди длинные выходные, делимся, что можно почитать/посмотреть по теме AI, чтобы провести их с пользой.
▫️Agentic AI от Andrew Ng (очень известный автор блестящих курсов по ML). Курс с четырьмя ключевыми паттернами: рефлексия, использование инструментов, планирование, мультиагентность. Код — на чистом Python, с акцентом на эвалах и анализе ошибок. На выходе — полнофункциональный research-agent.
▫️Stanford CME295 (Transformers & LLMs). Лаконичный курс, который охватывает фундамент трансформеров и прикладные темы: RAG, LLM-as-a-judge, квантизация, Mixture-of-Experts. Подойдёт, если хотите быстро систематизировать знания и обновить стек.
▫️Хабр: «Как я победил в RAG Challenge». Если разрабатывайте свой RAG, рекомендуем почитать, как спец выиграл челлендж. Подробный разбор рабочего пайплайна с кодом: парсинг, ретривал, роутинг, реранкинг, промпты. Можно адаптировать под свои данные.
Впереди длинные выходные, делимся, что можно почитать/посмотреть по теме AI, чтобы провести их с пользой.
▫️Agentic AI от Andrew Ng (очень известный автор блестящих курсов по ML). Курс с четырьмя ключевыми паттернами: рефлексия, использование инструментов, планирование, мультиагентность. Код — на чистом Python, с акцентом на эвалах и анализе ошибок. На выходе — полнофункциональный research-agent.
▫️Stanford CME295 (Transformers & LLMs). Лаконичный курс, который охватывает фундамент трансформеров и прикладные темы: RAG, LLM-as-a-judge, квантизация, Mixture-of-Experts. Подойдёт, если хотите быстро систематизировать знания и обновить стек.
▫️Хабр: «Как я победил в RAG Challenge». Если разрабатывайте свой RAG, рекомендуем почитать, как спец выиграл челлендж. Подробный разбор рабочего пайплайна с кодом: парсинг, ретривал, роутинг, реранкинг, промпты. Можно адаптировать под свои данные.
👍7❤1
Вас уже больше тысячи! 🔥
Кажется, пора познакомиться и рассказать, кто стоит за продуктом и идеями, которые здесь появляются.
Один из авторов канала — Александр Опрышко, сооснователь и управляющий партнёр IT-компании KTS. Саша в этой сфере с подросткового возраста: в 14 лет поступил в МГТУ им. Баумана, в 18 уже работал в Mail.ru, а в 2015 году вместе с одногруппниками основал KTS. Сегодня компания создаёт цифровые сервисы для бизнеса в разных направлениях, в числе которых AI.
Александр отвечает за технологическое развитие и новые направления. Под его руководством KTS запускает продукты и внедряет подходы, которые помогают бизнесу работать быстрее и надёжнее. Среди ключевых инициатив:
• запуск направления MLOps, которое ускорило развертывание ML-моделей с месяцев до дней;
• внедрение ИИ-агентов в платформу Smartbot, что позволило клиентам платформы автоматизировать коммуникацию с их клиентами и техническую поддержку;
• развитие No-code-облака в Smartbot — теперь пользователи могут разворачивать инструменты и собирать свои бизнес-процессы без администрирования;
• запуск платформы — Agent Platform.
В следующих постах расскажем про второго автора канала, Игоря Латкина.
Спасибо, что вы с нами!
#александр_опрышко
Кажется, пора познакомиться и рассказать, кто стоит за продуктом и идеями, которые здесь появляются.
Один из авторов канала — Александр Опрышко, сооснователь и управляющий партнёр IT-компании KTS. Саша в этой сфере с подросткового возраста: в 14 лет поступил в МГТУ им. Баумана, в 18 уже работал в Mail.ru, а в 2015 году вместе с одногруппниками основал KTS. Сегодня компания создаёт цифровые сервисы для бизнеса в разных направлениях, в числе которых AI.
Александр отвечает за технологическое развитие и новые направления. Под его руководством KTS запускает продукты и внедряет подходы, которые помогают бизнесу работать быстрее и надёжнее. Среди ключевых инициатив:
• запуск направления MLOps, которое ускорило развертывание ML-моделей с месяцев до дней;
• внедрение ИИ-агентов в платформу Smartbot, что позволило клиентам платформы автоматизировать коммуникацию с их клиентами и техническую поддержку;
• развитие No-code-облака в Smartbot — теперь пользователи могут разворачивать инструменты и собирать свои бизнес-процессы без администрирования;
• запуск платформы — Agent Platform.
В следующих постах расскажем про второго автора канала, Игоря Латкина.
Спасибо, что вы с нами!
#александр_опрышко
❤14🔥7👏6
Как оценить агентскую систему?
Агентскую систему удобнее рассматривать как pipeline из шагов. Поэтому одной метрики success rate недостаточно: нужны два уровня оценки: качество каждого шага и итоговое поведение end-to-end.
1. Оценка каждого шага. Для каждого этапа определяем, что значит «хорошо», и задаём метрики.
Оценка шага даёт прозрачную зону ответственности и упрощает дебаг.
2. End-to-end оценка. End-to-end показывает, насколько система полезна бизнесу.
Например, лайк/дизлайк пользователя или ручная разметка.
Пример: упрощённая агентская система, RAG как двухшаговый агент
Шаг 1: retriever. Tool call к векторному индексу или поиску для получения контекста.
Шаг 2: LLM. Генерация ответа на основе retrieved context.
Даже в таком pipeline нельзя ограничиться одной метрикой.
1. Оценка retriever’а. Оцениваем только первый шаг:
▫️recall@k — нашёл ли нужные документы
▫️precision@k — доля релевантных среди top_k
Retriever прогоняем отдельно от LLM. Если он работает плохо, смотреть на ответы модели бессмысленно — она просто не видит нужный контекст.
2. Оценка LLM (step-level). Фиксируем retriever или используем заранее собранные контексты:
▫️faithfulness / groundedness — опирается ли ответ на context,
▫️factuality — совпадают ли факты с документами,
▫️hallucination rate — доля ответов, где модель что-то придумала,
▫️format compliance — соблюдение требуемого формата (буллеты, markdown и т.д.).
3. End-to-end RAG evaluation. Смотрим на полную цепочку: query -> retriever -> LLM -> answer.
Для стартовой оценки хватает 50–100 вручную размеченных примеров.
Если виден только «плохой ответ», нельзя сказать, виноват retriever или модель. Пошаговая оценка превращает RAG из случайного поведения в инженерный pipeline с понятными точками улучшения.
В следующем посте разберу, как автоматически генерировать датасеты для каждого этапа и сократить объём ручной разметки.
#александр_опрышко
Агентскую систему удобнее рассматривать как pipeline из шагов. Поэтому одной метрики success rate недостаточно: нужны два уровня оценки: качество каждого шага и итоговое поведение end-to-end.
1. Оценка каждого шага. Для каждого этапа определяем, что значит «хорошо», и задаём метрики.
Оценка шага даёт прозрачную зону ответственности и упрощает дебаг.
2. End-to-end оценка. End-to-end показывает, насколько система полезна бизнесу.
Например, лайк/дизлайк пользователя или ручная разметка.
Пример: упрощённая агентская система, RAG как двухшаговый агент
Шаг 1: retriever. Tool call к векторному индексу или поиску для получения контекста.
Шаг 2: LLM. Генерация ответа на основе retrieved context.
Даже в таком pipeline нельзя ограничиться одной метрикой.
1. Оценка retriever’а. Оцениваем только первый шаг:
▫️recall@k — нашёл ли нужные документы
▫️precision@k — доля релевантных среди top_k
Retriever прогоняем отдельно от LLM. Если он работает плохо, смотреть на ответы модели бессмысленно — она просто не видит нужный контекст.
2. Оценка LLM (step-level). Фиксируем retriever или используем заранее собранные контексты:
▫️faithfulness / groundedness — опирается ли ответ на context,
▫️factuality — совпадают ли факты с документами,
▫️hallucination rate — доля ответов, где модель что-то придумала,
▫️format compliance — соблюдение требуемого формата (буллеты, markdown и т.д.).
3. End-to-end RAG evaluation. Смотрим на полную цепочку: query -> retriever -> LLM -> answer.
Для стартовой оценки хватает 50–100 вручную размеченных примеров.
Если виден только «плохой ответ», нельзя сказать, виноват retriever или модель. Пошаговая оценка превращает RAG из случайного поведения в инженерный pipeline с понятными точками улучшения.
В следующем посте разберу, как автоматически генерировать датасеты для каждого этапа и сократить объём ручной разметки.
#александр_опрышко
🔥7❤4👍3
Forwarded from Программисты делают бизнес
Делимся инсайтами с Yandex B2B Tech
Уже в пятый раз Yandex B2B Tech собирает на одной площадке лидеров IT-рынка России. KTS давний партнер Яндекса и традиционный участник конференции. Но в этот раз залетели на главную сцену: доклад управляющего партнёра Александра Опрышко стал частью ключевого выступления.
Александр рассказал:
— как мы вместе с Яндексом росли последние годы,
— как облачные сервисы стали фундаментом большого числа проектов,
— и как мы используем ИИ инструменты, в том числе AI-studio Яндекса в задачах для крупного российского бизнеса.
Ну и вишенка на торте — мы взяли награду «Партнёр года: DevOps Yandex Cloud 2025». Спасибо коллегам, радуемся вместе в комментариях и заряжаемся на победы в следующем году
#александр_опрышко
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7
Forwarded from Программисты делают бизнес
This media is not supported in your browser
VIEW IN TELEGRAM
🔥12❤4
MCP выкатили MCP Apps — расширение протокола, которое позволяет серверам отдавать интерактивный UI прямо в чат.
Проще всего думать об этом как о мини-аппах, нативно встроенных в ChatGPT / Claude / любые MCP-хосты: формы, таблицы, настройки, визуализации, которые живут прямо в диалоге с LLM, а не где-то «сбоку» в отдельном веб-интерфейсе.
Главный пойнт: это резко расширяет возможности по интерактивному взаимодействию с моделями — не только текст, но и полноценные рабочие интерфейсы внутри чата. Забавно, как всё идёт по спирали: из классических UI пришли в чаты, а теперь из чатов возвращаемся в UI, только уже динамичный и управляемый моделью.
Почитать детали можно тут
Проще всего думать об этом как о мини-аппах, нативно встроенных в ChatGPT / Claude / любые MCP-хосты: формы, таблицы, настройки, визуализации, которые живут прямо в диалоге с LLM, а не где-то «сбоку» в отдельном веб-интерфейсе.
Главный пойнт: это резко расширяет возможности по интерактивному взаимодействию с моделями — не только текст, но и полноценные рабочие интерфейсы внутри чата. Забавно, как всё идёт по спирали: из классических UI пришли в чаты, а теперь из чатов возвращаемся в UI, только уже динамичный и управляемый моделью.
Почитать детали можно тут
❤8👍3
Как DeepEval обеспечивает детерминированную оценку LLM
Делимся статьей о том, как устроена детерминированная оценка LLM и почему классические метрики перестают подходить, когда дело касается RAG-пайплайнов, агентов и суммаризации.
Команды DeepEval, которая столкнулась с тем, что встроенные метрики не закрывают потребности пользователей. Кастомная логика и нестабильные ответы модели приводили к сотням строк ручных проверок в каждом проекте.
Разбираемся:
▫️как DeepEval подошёл к этой проблеме
▫️почему перешёл к детерминированным деревьям решений на базе LLM
▫️как работает DAG-метрика и зачем она нужна
▫️чем отличается от привычных подходов к оценке качества нейросетевых ответов
Если вы работаете с RAG, пишете агентов или строите пайплайны вокруг LLM — статья поможет понять, как выстроить прозрачную и воспроизводимую систему оценки, не собирая собственный фреймворк с нуля.
Читайте на сайте KTS.
Делимся статьей о том, как устроена детерминированная оценка LLM и почему классические метрики перестают подходить, когда дело касается RAG-пайплайнов, агентов и суммаризации.
Команды DeepEval, которая столкнулась с тем, что встроенные метрики не закрывают потребности пользователей. Кастомная логика и нестабильные ответы модели приводили к сотням строк ручных проверок в каждом проекте.
Разбираемся:
▫️как DeepEval подошёл к этой проблеме
▫️почему перешёл к детерминированным деревьям решений на базе LLM
▫️как работает DAG-метрика и зачем она нужна
▫️чем отличается от привычных подходов к оценке качества нейросетевых ответов
Если вы работаете с RAG, пишете агентов или строите пайплайны вокруг LLM — статья поможет понять, как выстроить прозрачную и воспроизводимую систему оценки, не собирая собственный фреймворк с нуля.
Читайте на сайте KTS.
❤5
Внедряем AI в операционное управление: кейс OKRsana
OKRsana — AI-помощник руководителя, который берет на себя операционную часть стратегических процессов и делает работу с целями прозрачнее и быстрее.
Инструмент использует LLM и данные компании через RAG, чтобы учитывать реальные процессы, культуру и историю решений. Он помогает согласовывать планы между подразделениями, выявлять риски, ускорять принятие решений и облегчать онбординг руководителей.
OKRsana выросла из практики работы со стратегией в крупных компаниях: от интеграций с текущими системами целей — до собственного приложения, которое сейчас проходит бета-тест.
Что получает бизнес:
— меньше рутинных операций и несогласованностей
— более точная картина происходящего благодаря актуальным данным
— снижение рисков за счет прозрачности процессов
Точность ответов OKRsana растёт за счёт интеграции с системами заказчика и настройки сценариев под особенности управления. Внедрение и поддержка переданы в KTS — мы адаптируем решение под задачи каждого клиента.
Если хотите глубже понять, как управлять целями в условиях неопределенности и использовать OKR в масштабе, присоединяйтесь к конференции OKR Russia. Она пройдет 10 декабря в Москве. Мы выступаем партнером конференции и будем рады обсудить практические кейсы внедрения.
OKRsana — AI-помощник руководителя, который берет на себя операционную часть стратегических процессов и делает работу с целями прозрачнее и быстрее.
Инструмент использует LLM и данные компании через RAG, чтобы учитывать реальные процессы, культуру и историю решений. Он помогает согласовывать планы между подразделениями, выявлять риски, ускорять принятие решений и облегчать онбординг руководителей.
OKRsana выросла из практики работы со стратегией в крупных компаниях: от интеграций с текущими системами целей — до собственного приложения, которое сейчас проходит бета-тест.
Что получает бизнес:
— меньше рутинных операций и несогласованностей
— более точная картина происходящего благодаря актуальным данным
— снижение рисков за счет прозрачности процессов
Точность ответов OKRsana растёт за счёт интеграции с системами заказчика и настройки сценариев под особенности управления. Внедрение и поддержка переданы в KTS — мы адаптируем решение под задачи каждого клиента.
Если хотите глубже понять, как управлять целями в условиях неопределенности и использовать OKR в масштабе, присоединяйтесь к конференции OKR Russia. Она пройдет 10 декабря в Москве. Мы выступаем партнером конференции и будем рады обсудить практические кейсы внедрения.
👍7❤5🔥3👏1
Как Anthropic учит AI-агентов «не забывать»?
AI-агенты часто проваливают сложные задачи, требующие многих шагов. Причина — ограниченное окно контекста LLM. Как только задача выходит за его пределы, агент «забывает» предыдущие действия и теряет прогресс.
Инженеры Anthropic предложили решение (подробнее читайте в статье Effective harnesses for long-running agents): использовать специальный каркас (harness) для агента, который позволяет работать итеративно, а не пытаться удержать всё в памяти. Каркас превращает процесс в управляемый pipeline.
Вот как это работает:
• Инициализация: Сначала специальный агент-инициализатор создаёт подробный список фич, отмечая все как «невыполненные». Он также создаёт файл для логов claude-progress.txt и делает первый коммит в git.
• Инкрементальная работа: Следующие агенты работают над одной фичей за раз. После каждого изменения они делают коммит с описанием и записывают итоги в лог-файл.
• Сохранение состояния: Git и лог-файл служат внешней памятью. Когда новый агент «приходит на смену», он читает историю коммитов и логи, чтобы понять текущее состояние проекта, и продолжает работу с того же места.
Агент может отложить задачу и вернуться к ней позже, не теряя прогресса и не тратя токены на восстановление контекста.
Такой подход можно применять не только в кодовых агентах , но и в любых которые вы реализуете.
Чтобы агент не забыл шаги , можно давать ему готовый план (или генерировать моделью), далее отправлять выполнять шаги.
Это значительно увеличивает качество и предсказуемость результата.
#александр_опрышко
AI-агенты часто проваливают сложные задачи, требующие многих шагов. Причина — ограниченное окно контекста LLM. Как только задача выходит за его пределы, агент «забывает» предыдущие действия и теряет прогресс.
Инженеры Anthropic предложили решение (подробнее читайте в статье Effective harnesses for long-running agents): использовать специальный каркас (harness) для агента, который позволяет работать итеративно, а не пытаться удержать всё в памяти. Каркас превращает процесс в управляемый pipeline.
Вот как это работает:
• Инициализация: Сначала специальный агент-инициализатор создаёт подробный список фич, отмечая все как «невыполненные». Он также создаёт файл для логов claude-progress.txt и делает первый коммит в git.
• Инкрементальная работа: Следующие агенты работают над одной фичей за раз. После каждого изменения они делают коммит с описанием и записывают итоги в лог-файл.
• Сохранение состояния: Git и лог-файл служат внешней памятью. Когда новый агент «приходит на смену», он читает историю коммитов и логи, чтобы понять текущее состояние проекта, и продолжает работу с того же места.
Агент может отложить задачу и вернуться к ней позже, не теряя прогресса и не тратя токены на восстановление контекста.
Такой подход можно применять не только в кодовых агентах , но и в любых которые вы реализуете.
Чтобы агент не забыл шаги , можно давать ему готовый план (или генерировать моделью), далее отправлять выполнять шаги.
Это значительно увеличивает качество и предсказуемость результата.
#александр_опрышко
👍5❤2
Codex как новый член команды: смена парадигмы от OpenAI
Руководство OpenAI меняет позиционирование Codex: теперь это партнёр по кодингу и ускоритель команды, а не умный автокомплит или замена разработчикам. Что это меняет в рабочем процессе?
▫️ От синхронности к асинхронности. Вместо парного программирования в реальном времени, разработчик переходит в режим делегирования. Можно поставить задачу (например, рефакторинг модуля), а модель будет работать автономно в своём окружении.
▫️ Best of N. Codex генерирует несколько вариантов решения задачи. Разработчик не пишет код с нуля, а выступает в роли Tech Lead: ревьюит предложенные варианты, выбирает лучший и мерджит его.
▫️ Фокус на коллаборации. Это не попытка убрать человека из цикла, а создание пары «Человек + AI». Человек управляет интентом и принимает финальные решения, AI берет на себя реализацию, прогон тестов и исправление ошибок.
Технически это подкрепляется переходом на модель codex-1 (на базе o3), которая заточена на итеративное выполнение задач: написание плана → написание кода → запуск тестов → фикс багов → создание PR. OpenAI пытается превратить разработку из набора микро-действий в IDE в управление высокоуровневыми задачами.
Руководство OpenAI меняет позиционирование Codex: теперь это партнёр по кодингу и ускоритель команды, а не умный автокомплит или замена разработчикам. Что это меняет в рабочем процессе?
▫️ От синхронности к асинхронности. Вместо парного программирования в реальном времени, разработчик переходит в режим делегирования. Можно поставить задачу (например, рефакторинг модуля), а модель будет работать автономно в своём окружении.
▫️ Best of N. Codex генерирует несколько вариантов решения задачи. Разработчик не пишет код с нуля, а выступает в роли Tech Lead: ревьюит предложенные варианты, выбирает лучший и мерджит его.
▫️ Фокус на коллаборации. Это не попытка убрать человека из цикла, а создание пары «Человек + AI». Человек управляет интентом и принимает финальные решения, AI берет на себя реализацию, прогон тестов и исправление ошибок.
Технически это подкрепляется переходом на модель codex-1 (на базе o3), которая заточена на итеративное выполнение задач: написание плана → написание кода → запуск тестов → фикс багов → создание PR. OpenAI пытается превратить разработку из набора микро-действий в IDE в управление высокоуровневыми задачами.
Openai
OpenAI Codex
Codex is OpenAI’s series of AI coding tools that help developers move faster by delegating tasks to powerful cloud and local coding agents.
🔥8
Продолжаем знакомить вас с теми, кто стоит за продуктом и идеями, которые появляются в этом канале.
Сегодня расскажем про Игоря Латкина, сооснователя и управляющего партнёра KTS.
Игорь пришёл в разработку рано: ещё в школе писал расширения для MCEdit на Python и делал игры на C++. Затем в МГТУ им. Н.Э. Баумана и на стажировке в Mail.ru погрузился в асинхронное программирование — экспериментировал с C, C++, Python, Perl, Lua, Go, JavaScript.
С ростом запросов бизнеса к ML-решениям Игорь сосредоточился на машинном обучении:
• участвовал в Kaggle-соревнованиях
• формировал AI-юнит в KTS
• решал прикладные ML-задачи клиентов
• преподавал курс по нейронным сетям и машинному обучению в МГТУ им. Н.Э. Баумана
• запускал платформу ML-соревнований TrainMyData и проводил крупные чемпионаты, включая кейс для Pik Digital Day совместно со Spinon.
Сегодня в KTS Игорь отвечает за архитектуру сложных распределённых систем, экспериментальные механики, развитие инфраструктуры и DevOps-подходов. Он руководит командами разработки и совместно с Александром Опрышко занимается пресейлом и solution-архитектурой AI-проектов.
#игорь_латкин
Сегодня расскажем про Игоря Латкина, сооснователя и управляющего партнёра KTS.
Игорь пришёл в разработку рано: ещё в школе писал расширения для MCEdit на Python и делал игры на C++. Затем в МГТУ им. Н.Э. Баумана и на стажировке в Mail.ru погрузился в асинхронное программирование — экспериментировал с C, C++, Python, Perl, Lua, Go, JavaScript.
«Мне всегда было интересно пробовать всё на свете — успел и бэкенд, разумеется, пописать, и фронтенд, и мобильные приложения под Android и даже под Windows Phone, много времени посвятил DevOps в KTS — удалось выстроить в компании новую инфраструктуру на основе Kubernetes, когда он только набирал популярность, и, конечно же, ML.»
С ростом запросов бизнеса к ML-решениям Игорь сосредоточился на машинном обучении:
• участвовал в Kaggle-соревнованиях
• формировал AI-юнит в KTS
• решал прикладные ML-задачи клиентов
• преподавал курс по нейронным сетям и машинному обучению в МГТУ им. Н.Э. Баумана
• запускал платформу ML-соревнований TrainMyData и проводил крупные чемпионаты, включая кейс для Pik Digital Day совместно со Spinon.
Сегодня в KTS Игорь отвечает за архитектуру сложных распределённых систем, экспериментальные механики, развитие инфраструктуры и DevOps-подходов. Он руководит командами разработки и совместно с Александром Опрышко занимается пресейлом и solution-архитектурой AI-проектов.
#игорь_латкин
🔥14👏3