Progres Post
273 subscribers
37 photos
1 video
16 files
180 links
Как собирать, анализировать и зарабатывать на данных.

Присылайте новости: @progrespost_bot

Редактор: @honeybalism
Download Telegram
Пока они там у себя суетятся, мы тут уже монетизируем

В России работает уже более 130 отечественных ИИ-сервисов в разных сферах: от создания презентаций до оптимизации производственных цепочек.

В «Инке» представили карту российского генеративного ИИ — удобный каталог всех отечественных решений, уже меняющих бизнес-процессы. К карте прилагается детальный обзор.

Пока DeepSeek и OpenAI меряются бенчмарками и дерутся за глобальных пользователей, российские разработчики продуктов на базе искусственного интеллекта может только и рады.

Конкурировать за клиентов с мировыми гигантами не надо, ведь программа перехода на отечественное ПО создает достаточно спроса и на внутреннем рынке.

Парадоксально ярко цветут корпоративные решения: пока западные гиганты борются за создание универсального суперинтеллекта, российские разработчики уже монетизируют узкоспециализированные решения — от анализа звонков до генерации презентаций. 

#ии #статьи
👍5🔥4❤‍🔥3
Progres Post
Нейросети вовсе не уравнивают людей, а увеличивают расслоение GitHub проводил контролируемый эксперимент: группа программистов с Copilot завершала задачи на 55 % быстрее, чем без него. Но если вы не знаете, зачем именно нужен этот код, как его безопасно…
Если вы все-таки решили стать дата-инженером

Ну или если кто-то из ваших знакомых решил им стать, несмотря ни на что. Тогда обязательно сохраните и распространите: Data Engineer Handbook — ультимативно полезный репозиторий на Гитхабе для джунов и мидлов, которые хотят стать сеньорами.

Внутри:

- Понятный план обучения: какие скилы и инструменты осваивать, чтобы цениться на рынке труда.

- Видеокурс на 6 недель обо всем: от установки софта до отладки пайплайнов.

- Список литературы: главные мастриды для тех, у кого мало времени, и более 25 полезных книг, если хотите знать все.

- Ютуб-каналы, подкасты, блоги и рассылки: актуальные источники знаний, лайфхаков и приемов.

- Подборка профессиональных сообществ для дата-инженеров.

- Реальные проекты и задачи для закрепления знаний и опыта: ETL, пайплайны, стриминг, облако.

Репозиторий развивается и регулярно дополняется: 34000 звезд, 6600 форков и 120 контрибьютеров.

Смотрите на Гитхабе, советуйте коллегам и знакомым.
👍7🔥54
Вы уверены, что готовы довериться машине?

Сегодня многие мечтают называться data-driven. Это звучит современно, технологично, даже немного элитно — как будто вы уже в клубе тех, кто доверил принятие решений алгоритмам и теперь движется быстрее остальных.

На самом деле, data-driven — это не про моду. Это про зрелость. Это не стартовая точка, а финальная стадия развития, к которой ещё нужно дорасти.

Чтобы система принимала решения сама, она должна пройти длинный путь: собрать достаточно чистых данных, научиться извлекать закономерности, выдержать тест на устойчивость. Должны быть не только цифры, но и уверенность в том, что модель понимает происходящее не хуже, чем человек. В идеале — лучше.

Такой уровень достигается не сразу, а только после десятков и сотен итераций, наблюдений, ошибок, улучшений.

Data-driven в промышленности

В промышленности такой переход возможен уже сегодня. Там процессы стабильны: двигатель либо перегревается, либо нет. Станок либо вибрирует, либо работает в норме. Если система фиксирует отклонение, она может отключить оборудование без участия инженера.

Потому что она обучена, проверена, и последствия предсказуемы. Там, где цена ошибки известна и допустима, можно делегировать решение машине.

Data-informed в медицине

Теперь представим врача, который получает от ИИ диагноз на основе анализа МРТ. В большинстве случаев модель действительно права. И все же врач не просто соглашается, а анализирует, сопоставляет, взвешивает.

Потому что в медицине каждый случай может быть уникален. Потому что ИИ пока не умеет объяснять свои решения так, как это нужно человеку. Потому что врач — не просто исполнитель, а носитель контекста, который алгоритму недоступен. И потому что ошибка может стоить слишком дорого, а нейросеть не накажешь.

Можно ошибиться и с готовностью, и с неготовностью

Data-informed — это когда вы за рулем, и навигатор подсказывает: «Через 300 метров сверните направо», но вы знаете, что там вчера вечером коммунальщики разрыли яму, и едете другим путем.

Data-driven — это автопилот: машина сама рулит, зная и ямы, и пробки, и все засады гаишников. Это круто, но вы должны быть уверены, что она не ошибается. Проблема не столько в несовершенстве технологий и данных, сколько в доверии к ним.

Можно излишне доверять плохим данным и потерпеть фиаско. Или не доверять надежным данным и отстать в цифровой трансформации.

Быть data-informed — не значит не доверять данным. Это значит — не снимать с себя ответственность. И только когда выстроена инфраструктура, очищены данные, понятны метрики, описаны риски — только тогда можно всерьез говорить о переходе к data-driven. Не как о модной вывеске, а как о новой точке зрелости. И даже тогда — не везде, не во всем, не сразу.

Так что если вы сейчас совмещаете интуицию с аналитикой — вы не отстали. Вы на правильном этапе.
🔥6👍53❤‍🔥2
Качественные ли Ваши данные?

У всех есть данные. У огромных организаций и индивидуальных предпринимателей, у больших начальников и маленьких детей. Только они разные, и масштаб проблем, если данные окажутся некачественными, разный.

Ребёнок может пропустить урок или уехать не туда, куда хотел, взрослый может попасть в неудобную ситуацию на работе, а организации могут потерять деньги, если у них будут плохие данные.

Всё больше времени уделяется этому направлению управления данными - качеству данных. Арина Шахтарина в своём канале Data Quality пишет о качестве данных, о разных подходах к пониманию, о его внедрении, о проверках и возможных подводных камнях и других нюансах работы с качеством данных. Делится полезными документами и разбирает книги, связанные с качеством данных.

Несколько интересных постов из канала:
➡️ Об окупаемости инвестиций в качество данных
➡️ Об обнаружении аномалий в данных
➡️ Рекомендации по работе с данными

Подписывайтесь на канал о качестве данных и пусть Ваши данные будут качественными!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥85👍4
OpenAI меняет свою структуру: что это значит и чем это грозит?

Сверху структура OpenAI как исследовательской лаборатории в 2015 году. Снизу примерная структура OpenAI на 2025 год.

Независимые исследователи опубликовали отчет об изменениях в OpenAI, в котором упрекают компанию в фокусе на выручке и снижении требований к безопасности ИИ-моделей.

Когда OpenAI создавалась в 2015 году, ее манифест звучал почти романтично: никакой погони за прибылью, только благо человечества. Некоммерческая миссия, кап на доходах инвесторов и обещание, что успех AGI не достанется узкой группе акционеров, а будет служить всем.

Сегодня все иначе. В 2025 году компания официально отказалась от ключевых принципов: снят потолок доходности для инвесторов, роль некоммерческого совета ослаблена, а сама структура переходит к Public Benefit Corporation — гибриду, который учитывает интересы общества, но все равно обязан заботиться о доходах акционеров.

Что это значит на практике?

- Инвесторы теперь смогут зарабатывать бесконечно много, а не в 100 раз больше вложенного.

- Некоммерческая часть больше не управляет компанией, а лишь назначает наблюдателей.

- Скорость разработки и коммерциализации ставится выше вопросов безопасности и этики, отмечают исследователи.

К чему это может привести?

- Усиление гонки вооружений на рынке ИИ: больше денег — быстрее разработки, но выше риск ошибок.

- Отчуждение от публичного интереса: не факт, что в будущем AGI принесет пользу всем, как было обещано.

- Снижение прозрачности: уже сейчас сотрудников принуждали к NDA под угрозой лишения доли, а требования к безопасности снижаются.

По сути, OpenAI повторяет путь многих стартапов Кремниевой долины: ради миссии вначале, а затем — ради прибыли. Это не обязательно плохо, но наивно полагать, что разработка AGI и дальше будет вестись только ради всеобщего блага.

Сейчас перед индустрией встает главный вопрос: кто должен контролировать технологии, которые потенциально могут изменить мир? Ответа пока нет.

#ии #безопасность #деньги #статьи
👍3🔥3❤‍🔥21
Из каких профессий приходят Data Product Managers — и как сделать так, чтобы они приносили бизнесу ценность

Представьте ресторан с идеально оборудованной кухней: плиты сверкают, ножи наточены, продукты отобраны с педантичной тщательностью. Команда поваров отрабатывает каждый рецепт до совершенства. Но гости за столами остаются недовольны: кто-то так и не дождался блюда, кому-то не понравился вкус, а кто-то вообще ушел, не сделав заказ.

Так часто выглядит работа департамента данных. Вы вкладываете ресурсы в архитектуру, нанимаете сильных инженеров, строите отказоустойчивые системы, сокращаете задержки и повышаете производительность. Внутри все работает идеально. но бизнес жалуется, что данные не помогают, что отчеты готовятся неделями, что сегментация клиентов по-прежнему делается вручную.

Почему так происходит? Потому что роль Data Product Manager чаще всего достается тем, кто вырос из инженеров, архитекторов или аналитиков. Эти люди отлично разбираются в том, как данные устроены внутри: умеют строить пайплайны, оптимизировать запросы, развертывать хранилища. Они блестяще решают технические задачи, но редко слышат, что именно нужно гостям в зале.

Чтобы переломить эту ситуацию, стоит пересмотреть подход к подбору и развитию DPM. На собеседовании не достаточно спрашивать про архитектурные паттерны и знание API — важно понять, умеет ли кандидат разговаривать с бизнесом, выявлять приоритеты и объяснять свои решения понятным языком.

Хороший DPM не только знает, как устроена кухня, но и выходит в зал к гостям: общается с маркетингом, продажами, операциями, узнает, какие у них метрики успеха и какие данные им действительно нужны. Он умеет рассказывать истории про то, как его проект снизит отток клиентов или повысит прибыль, а не только про то, на сколько нодов уменьшится нагрузка.

Внутри команды важно закрепить за DPM понятные бизнес-метрики: скорость принятия решений, вовлеченность пользователей, возврат инвестиций. Полезно организовать регулярные встречи с ключевыми подразделениями, чтобы он слышал их боль и корректировал приоритеты. И конечно, поддерживайте развитие таких навыков: учите сторителлингу, объясняйте, как работают метрики компании, и помогайте формулировать ценность инициатив для руководства.

Сильный DPM — это не тот, кто превращает данные в красивые пайплайны, а тот, кто превращает их в ощутимую пользу для бизнеса. Такой человек соединяет кухню и зал ресторана и делает так, чтобы гости не только ушли сытыми, но и захотели вернуться снова.
👍4🔥3🆒3
Разыскиваете свежие тренды в аналитике, big data и AI? Подписывайтесь на Data Place — здесь собраны лучшие материалы для дата-аналитиков, инженеров, архитекторов и всех, кто работает с данными.

О чём пишут на канале:

Глубокое обучение при помощи Spark и Hadoop: знакомство #Deeplearning4j
Что нужно знать дата-саентисту? (на англ. языке)
26 принципов построения промптов для LLaMA-1/2, GPT-3.5/4
Как стать дата-инженером? Подборка статей и список вопросов и ответов для прохождения интервью

Присоединяйтесь к Data Place и прокачивайте навыки работы с данными!
3👍3🔥2
Рассуждений от ИИ больше недостаточно, теперь нужны еще и объяснения

ИИ уже умеет принимать решения: кому выдать кредит, какой диагноз поставить, кого позвать на собеседование. И нередко делает это лучше человека. Еще 6 лет назад исследование Google и Nature Medicine показало, что их ИИ для скрининга рака легких на КТ добился 94% точности. Это выше, чем у среднего радиолога.

Но ключевая проблема в том, что эти решения остаются черным ящиком.

Что в черном ящике?

Нейросети выдают результат, но не объясняют, почему именно такой. В большинстве задач это приемлемо: например, в чат-ботах или системах рекомендаций.

В Евросоюзе вступает в силу The EU Artificial Intelligence Act, закон уровня регламента, как GDPR. В нем описывается категория ИИ с высоким риском, в которую попадают решения для медицины, финансов, судов, образования и так далее. В этих вопросах неприемлемо скрывать логику принятия решения в черном ящике.

Кстати, в GDPR уже сейчас есть пункт, согласно которому «субъект имеет право не подвергаться воздействию решения, основанного исключительно на автоматизированной обработке».

Поэтому набирает силу подход Explainable AI (XAI) — ИИ, который показывает не только результат, но и обоснование.

Как объяснения решают проблемы?

В здравоохранении это может быть тепловая карта поражённых участков снимка, в кредитовании — вес каждого критерия в решении о выдаче кредита. В отчете McKinsey говорится, что внедрение XAI в чувствительных областях повышает доверие пользователей на 30–50%, снижает число юридических претензий и улучшает качество моделей.

XAI также помогает выявлять системные ошибки и предвзятость. На Viso описан кейс банка, где модель отклоняла заявки женщин на кредит в два раза чаще, чем мужчин. Объяснимость позволила увидеть, что модель обучена на исторических данных с гендерным смещением, и исправить алгоритм.

XAI не убирает риск полностью, а сдвигает его на новый уровень — теперь разработчикам предстоит встраивать объяснения так, чтобы они соответствовали не только здравому смыслу, но и формальным требованиям.

ИИ уже достаточно зрел, чтобы принимать решения лучше человека. Но пока не созрели люди, чтобы слепо доверять машине. Задача не в том, чтобы сделать ИИ еще умнее, а в том, чтобы разработать понятные правила и механизмы доверия — так же, как врач доверяет клиническим рекомендациям Минздрава и несет ответственность в рамках рекомендаций.

Только тогда ИИ станет полноценным партнером, а не источником новых рисков.

#ии
❤‍🔥4🔥32
Сколько людей, на каких ролях и за какие деньги работают с данными в Revolut, Zoom, Notion и так далее

Сколько человек должно быть в дата-команде? На каких ролях? Каким стеком они должны владеть и сколько им надо платить?

На databenchmarks.com можно узнать, как с этим обстоят дела в крупных и крутых компаниях Европы и США:

- Размер дата-команды относительно всего штата компании.

- Состав команды: какой там процент аналитиков, инженеров, продактов, дата-сайентистов и так далее.

- Стек.

- Зарплаты.

Вероятно, данные по зарплатам не особо актуальны для России, ибо там данные по Европе и США, но в остальном информация полезная: можно сравнить свою дата-команду по составу с теми, которые работают над чем-то похожим в успешных компаниях.

#исследования
👍3🔥32❤‍🔥1
Предиктивная аналитика - навигатор для бизнеса🗺

Куда идти дальше, чтобы не заблудиться и не потратить лишнее время и деньги?

Ответит предиктивная аналитика - это когда ИИ берёт огромное количество данных, ищет в них закономерности и делает прогнозы на будущее.

В чём польза для бизнеса?
Экономия времени - больше не нужно вручную анализировать тонны данных.
Экономия денег - меньше ошибок, меньше лишних закупок, меньше простоев.
Лучшее обслуживание клиентов - можно заранее предугадать их потребности.
Быстрое принятие решений - все данные всегда под рукой и готовы к анализу.

Как это работает?
1️⃣Сбор и очистка данных
Всё начинается с данных - информации о прошлых продажах, заказах, работе оборудования и так далее. Сначала эту информацию приводят в порядок: убирают ошибки, добавляют недостающие данные, делают всё единообразным. Это как генеральная уборка перед праздником - чтобы потом всё работало гладко.

2️⃣Постановка цели
Следующий шаг - понять, что именно мы хотим узнать или спрогнозировать. Например, хотим узнать, сколько сырья нужно закупить на следующий месяц, или как лучше обслуживать клиентов.

3️⃣Создание и обучение модели
После этого специалисты создают специальные программы (модели), которые учатся на этих данных и начинают делать прогнозы. Это похоже на то, как учишься математике: сначала решаешь задачи по примерам, а потом можешь решать новые сам.

4️⃣Проверка и запуск
Модель сначала проверяют на тестовых данных, чтобы убедиться, что она не ошибается. Если всё хорошо - её внедряют в работу компании. После этого модель постоянно мониторят и обновляют, чтобы она не устаревала.

Какие задачи решает предиктивная аналитика?
Прогнозирование спроса
Оптимизация загрузки оборудования
Планирование закупок сырья
Улучшение клиентского сервиса
Расчёт стоимости заказов

Кейс Университета Иннополис для Danaflex

Больше контента об экономике данных, искусственном интеллекте, трендах, цифровом будущем для бизнеса и организаций — в канале The Data Economy.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5👌43❤‍🔥1
Как компании монетизируют данные через API?

Они превращают их в сервис: не просто передают файлы или выгрузки, а дают клиентам удобный, контролируемый доступ к данным. Клиенты сами подключаются к API и забирают нужные данные в нужном объеме, платя за запросы или подписку.

С помощью API компания превращает данные в продукт с интерфейсом. Набор данных стоит денег, но работающий на этом наборе DaaS создает добавленную стоимость и за него вам заплатят заметно больше.

Откуда дополнительная ценность?

1. Клиенту не нужно разбираться в форматах, выгрузках и структуре — он просто подключается и получает нужное.

2. Сделайте за клиента обработку, фильтрацию, агрегацию и тогда сможете брать за данные больше. Сильно больше.

3. Можно упаковать одни и те же данные в разные API и продавать их разным сегментам по разной цене. Сырые аналитикам, агрегированные SMB-клиентам, скоринг банкам.

4. Можно создавать наборы API под конкретные ниши: например, API для финтеха, API для ритейла и так далее. Появляется возможность партнериться и получать процент от использования.

5. С API видно, какие данные востребованы, когда пики спроса, кто потребляет больше всего и как меняется поведение. Это позволяет адаптировать продукт, улучшать структуру, выявлять новые точки роста.

Получается, что API создает уровни ценности, даже если изначально у вас только один набор данных.

Какие данные подходят для такой модели?

Продажа данных по API не дает обойти законы вроде GDPR или HIPAA, но есть способы легально продавать производные от персональных данных. Например: «оценка кредитного риска по сегментам», «популярность товаров по регионам», «обобщенные демографические профили».

Reddit продает доступ к пользовательскому контенту для обучения ИИ, но через API, который отдает посты без привязки к конкретным людям.

Zillow продает индекс цен на жилье по районам через API, который выдает агрегированные рейтинги и динамику без информации о конкретных владельцах недвижимости.

Experian продает через API кредитные скоринги и риск-профили, выдавая только баллы и рекомендации без личных данных клиентов.

Продажа данных по API выгодна продавцам, чьи данные регулярно обновляются, а вот данные, не требующие постоянного доступа, лучше продавать сразу пакетами.

#деньги
5👍4🔥2❤‍🔥1
Если ваш сайт посещают ИИ-боты, вы можете на этом заработать

Сегодня боты вроде OpenAI, Anthropic, Perplexity и других массово собирают данные для обучения моделей и формирования ответов, но:

- Не возвращают пользователей на сайты.

- Не платят владельцам контента.

Поисковики еще как-то делятся трафиком и рекламными доходами, а вот ИИ-боты — нет. Контент создается за дорого, но доходы от него падают.

Cloudflare предложила решение: монетизировать доступ ИИ-ботов к контенту сайтов.

Владелец сайта через панель Cloudflare выставляет цену за один запрос. Бот перед отправкой запроса указывает, готов ли платить, и подтверждает свою личность с помощью подписи. Если бот согласен заплатить, сервер возвращает данные и списывает платеж. Cloudflare собирает платежи и перечисляет их владельцу сайта.

Технология уже поддержана крупными игроками вроде Condé Nast, Associated Press и Reddit, а Cloudflare запустила решение в режиме закрытой беты. По сути, это первый шаг к полноценному рынку данных для ИИ, основанному на прозрачности и стандартных интернет-технологиях.

Reddit, кстати, показал пример: он уже продает свои данные Google, но параллельно судится с Anthropic за нелицензионное использование своих данных.

#ии #деньги
4❤‍🔥3🔥3👍2
Можно продавать данные, чтобы покупатели получали из них инсайты, а можно сразу продавать инсайты

Разбираемся, как это так.

Model Context Protocols — способ превращать данные в готовые контекстные ответы прямо внутри бизнес-процессов.

Вместо того, чтобы продавать таблицы или графики, компании с помощью MCP могут вшивать данные в решения так, чтобы нужный инсайт появлялся точно в нужный момент.

Звучит невероятно, но это уже нон-фикшн. MCP меняет подход к монетизации: продавать можно не данные, а сразу действия на их основе, подсказки и решения.

В чем цимес?

Купили вы данные. Вот они лежат у вас мертвым грузом. Пару раз в неделю ими пользуется три сотрудника. Только один из этих трех умеет извлекать из данных инсайты, которые помогают больше заработать в моменте. Печально.

MCP решает проблему системно: подход избавляет покупателя от необходимости разбираться в данных и искать моменты, когда их применить.

Вместо того, чтобы нагружать команду аналитиков, MCP автоматически подбирает, интерпретирует и встраивает данные в процесс именно там, где от них есть толк.

Многие данные раньше вообще не удавалось монетизировать — слишком специфичные, сложные или кусочные. MCP делает их коммерчески пригодными: включает в сценарии, где они внезапно становятся ценными, потому что закрывают конкретные вопросы в конкретное время.

Как это реализуется технически?

1. Триггер

На стороне покупателя происходит событие (например, нажата кнопка «Подобрать ассортимент» или «Выбрать блюдо дня»), MCP фиксирует его и определяет нужные данные и инструменты.

2. Оркестрация

MCP запускает сценарий: собирает данные из источников, применяет к ним модели, бизнес-правила и экспертизу владельца.

3. Формирование и доставка ответа

MCP объединяет данные, интерпретирует по заданным правилам и возвращает готовый, понятный результат прямо в интерфейс пользователя (CRM, сайт, приложение) за доли секунд, скрывая всю кухню.

4. Монетизация

Каждый вызов MCP учитывается, и можно выставлять счет за готовые ответы, а не за общий доступ к сырым данным.

Пример

Когда кассир на экране выбирает опцию «Выбрать блюдо дня», MCP в фоне собирает необходимые данные: продажи за прошлую неделю, запасы на складе, погоду на завтра и отзывы клиентов.

Затем применяет бизнес-правила (например, не предлагать блюда, ингредиентов для которых мало на складе, и учитывать сезонность и популярность) и формирует готовое предложение: «Сегодня рекомендуем продвигать комбо с курицей и лимонадом — спрос высок, маржа максимальная».

Все это происходит за секунды, за кулисами, через облачный сервис, и кассир видит готовый совет прямо в своем интерфейсе, не зная и не думая о том, откуда и как пришли данные.

В таком подходе данные — не новая нефть, а сразу бензин. Причем сразу в баке, а не на заправке.

#деньги
❤‍🔥4👍3🔥21
Если друг оказался вдруг и не друг, и не враг, а дипфейк

Контур.Толк представили инструмент, который выявляет дипфейки прямо во время видеозвонков. Сервис уже работает в формате «один на один» и скоро будет доступен для конференций.

Технология анализирует видеопоток на артефакты, изменения положения и несоответствия в кадре, чтобы выявлять поддельные изображения, созданные нейросетями.

Решение помогает бизнесу защищать удаленные переговоры от атак, снижает нагрузку на проверяющих и соответствует новым законодательным требованиям о дистанционной идентификации и онлайн-собраниях.

Инструмент уже тестируется крупнейшим российским банком.

Вы тоже можете подключить детектор дипфейков по запросу. Для этого нужно обратиться в службу поддержки Толка.

#ии #безопасность
🔥4❤‍🔥3👍32
OpenAI и AFT обучат 400 000 американских учителей работе с ИИ

OpenAI совместно с Американской федерацией учителей (AFT) запускают National Academy for AI Instruction — пятилетнюю программу, которая поможет 400 000 педагогам в США освоить ИИ и научиться применять его в школах. Это около 10% всех учителей страны.

OpenAI выделит на проект $10 млн, из которых $8 млн — прямое финансирование, а $2 млн — техническая поддержка, доступ к вычислительным мощностям и консультации.

В программе бесплатные курсы, мастер-классы и практика. В Нью-Йорке откроется флагманский кампус, а к 2030 году академия развернет сеть центров по всей стране.

Проблема с ИИ в школах и вузах по большей части заключается не в самом ИИ, а в том, что ученики в нем разбираются на порядок лучше, чем учителя. Если это перевернуть, то ИИ без проблем встроится и в школьную, и в вузовскую программу.

#ии
3👍3🔥3
Progres Post
Можно продавать данные, чтобы покупатели получали из них инсайты, а можно сразу продавать инсайты Разбираемся, как это так. Model Context Protocols — способ превращать данные в готовые контекстные ответы прямо внутри бизнес-процессов. Вместо того, чтобы…
Если вы тоже захотели себе решение на базе MCP

В Anthropic говорят о важности интеграции контекста в ИИ-решения:

Самые продвинутые модели все равно ограничены своей изоляцией от данных — они заперты в информационных силосах и легаси-системах.


Крупные игроки ИИ-индустрии и опенсорс-сообщества начали активно поддерживать MCP, видя в нем потенциально революционный инструмент для построения агентных систем на базе LLM.

В Microsoft опубликовали бесплатный курс по MCP для начинающих. С актуальным переводом на русский язык и примерами использования разных языков программирования.

В Google опубликовали бета-версию MCP Toolbox — опенсорсного инструмента, который помогает разработчикам быстрее, удобнее и безопаснее создавать приложения для работы с базами данных.

MCP Toolbox экономит время. Под капотом: запросы на естественном языке, автоматизация управления базами данных, контекстно-зависимый код, а также автоматизация настройки подключений, управления схемами и обработки ошибок миграции.

Забирайте, пользуйтесь, делитесь.

#ии #опенсорс
🔥3👾32👍2
Как данные помогают бизнесу получать кредиты без твердого залога

В 40% случаев банки отказывают малому и среднему бизнесу по двум причинам: отсутствие залога и недоверие к отчетности.

В мае этого года Тун Юй из Имперского колледжа Лондона объяснил, как доступ к живым данным помогает малому бизнесу получать кредиты, снижает риски для банков и сокращает время одобрения заявок.

Open Banking — система, которая позволяет клиентам банков безопасно делиться своими финансовыми данными с другими банками, финтех‑компаниями и сервисами.

В чем идея?

Раньше бизнес, чтобы получить кредит, приносил банку отчетность, но эти данные устаревали, могли быть приукрашены, их сложно было проверять.

Open Banking передает данные прямо c банковских счетов.

Кредитор видит реальные финансовые потоки, задолженности и запасы. Это позволяет принимать в обеспечение текущие активы, которые раньше считались слишком ненадежными.

Как это работает?

На техническом уровне Open Banking — это API.

1. Компания дает согласие кредитору на доступ к данным.

2. Кредитор подключается через API к банку компании.

3. Кредитор получает данные в стандартизированном виде: история поступлений, платежей, задолженности, остатки.

4. Система анализирует данные и оценивает риск.

5. Если риск приемлемый, бизнес получает кредит, обеспеченный текущими активами.

Какой от этого всего эффект?

Система заработала в 2018 году.

В Великобритании 18% малого бизнеса использует Open Banking. Всего у системы 13 млн пользователей, включая физлиц.

Компании, использующие Open Banking, на 4 процентных пункта чаще получают кредит под текущие активы.

Банки сократили время рассмотрения заявок от малого и среднего бизнеса с нескольких недель до нескольких минут.

Модели скоринга с использованием Open Banking снизили кредитные потери на 20-40 % по сравнению с традиционными методами.

#деньги #исследования
👍3❤‍🔥22🔥2
В Slack без остановки сыпятся алерты, тесты уже месяц висят красными и непонятно, кто за что отвечает и что на самом деле важно

Нередко из-за хаоса в тестах дела у дата-команды идут даже хуже, чем во времена, когда они эти тесты еще не написали.

Штука в том, что данные — это сложно. Они не статичны и иногда меняются назад во времени. Источники данных — тоже сложные системы. Ну а люди вообще коллекционируют несовершенства.

Миккель Денгсё и Петр Янда вместе с дата-отделами сотен стартапов и компаний из Fortune 500 составили «Гайд по созданию высококачественных дата‑продуктов» для тех, кто устал от хаоса и хочет навести порядок в тестах, управлении качеством и инцидентами.

Если сжать его в 69 раз, то гайд объясняет, как:

1. Определить, какие данные действительно являются продуктами

У платформы для работы с данными Aiven не было четких границ для продуктов. И система превратилась в спагетти из 900 взаимосвязанных моделей.

Категории были большими и размытыми: «Маркетинг», «Продажи», «Продукт». Когда где‑то ломались данные, алерты сообщали, что сломался, допустим, «Маркетинг», но никто толком не понимал:

Что именно сломалось?
Насколько это критично?
Кто за это отвечает?
На какие бизнес‑процессы это влияет?

Проблемы диагностировали медленно, а решали с большим трудом.

Методично выделяя из больших продуктов вроде «Маркетинга» продукты поменьше, например, «Атрибуция маркетинга», в Aiven стали быстрее находить ошибки и понимать, кто за них отвечает.

2. Назначить ответственных и расставить приоритеты, чтобы сбои не были сиротами

Если попробовать присвоить максимальный приоритет вообще всему, то ни у чего вообще приоритета не прибавится. Так было в Lunar, где каждая команда считала свои данные самыми важными. Это мешало работе.

Каждая команда была права: ее данные — самые важные, но только для нее самой. Важность элементов системы не могут оценивать эти же элементы.

Решение простое: раз в квартал руководство, стоящее над всеми командами, стало собираться, чтобы определить самые критичные данные на ближайшее время и установить понятные SLA, например, время реакции на сбои.

3. Выстроить тесты, которые ловят ошибки, а не шумят

В Google и Monzo на первых порах придавали огромное значение проверкам всех таблиц и столбцов. В результате получали сотни алертов, большинство из которых не имело вообще никакого значения.

Помогла смена стратегии: тестировать стали в первую очередь источники данных, которые влияют на все остальное. Шум стих, система стала надежнее.

Мораль: устранять ошибки в производных — вычерпывать воду, а исправить ошибки в источнике данных — залатать течь.

4. Не терять и быстро устранять инциденты

Пользователи Shalion следят за данными на дашбордах в реальном времени. Малейшая ошибка в данных сразу бьет по доверию клиентов сервису.

Команда внедрила автоматические уведомления с указанием ответственного и контекста, а также установила SLA не только на сами данные, но и на скорость уведомления пользователей о проблемах.

Угроза клиентскому доверию стала источником этого доверия. Снимаем шляпу.

5. Измерять качество данных не ради отчета, а ради пользы для бизнеса.

Метрики нужно поделить на «какая доля данных под контролем» и «какая доля проходит проверки». Сперва проверяйте, проверяете ли вы какие-то данные, а уже потом проверяйте эти данные.

Иначе появятся слепые пятна:

Если все данные, которые вы проверили, в порядке, это значит, что вы не проверили все те, которые не в порядке (если они есть, а они наверняка есть).

* * *

Гайд не привязывается к инструментам, а учит принципам. Подходит командам из 5 человек и большим отделам. Полезен, независимо от масштаба компании и зрелости дата-культуры.

Сохраните себе, расскажите коллегам.
👍5👀5❤‍🔥3
Путь в тысячу ли начинается с найма Chief Data Officer. Или нет?

Николай Валиотти на «Сабстаке» рассказывает, что если вы хотите стать data driven, то первым делом нанимать CDO или Head of Data на фултайм — фатальная ошибка.

Разбираемся, почему так.

Многие нанимают дорогого CDO на ранней стадии, а спустя полгода все еще видят хаос: данные в Excel, KPI непонятны, отчеты на решения не влияют.

Почему?

Потому что высокие затраты стратегию не компенсируют готовность компании эту стратегию проводить в жизнь. Это как пытаться откупиться от ребенка подарками — ему на самом деле нужно ваше внимание, а не деньги.

Попытка вбухать много денег в стратегию на ранней стадии приводит к тому, что появляются не практические изменения, а декоративные. Когда куда-то направляется неразумно много денег, то люди там стараются изо всех сил показать изменения, а не добиться их.

В реальности проблемы компаний чаще всего не стратегические, а чисто организационные:

- Каждый департамент считает по‑своему.

- Никто не понимает, какие метрики на самом деле отражают успех.

- Отчеты формируются вручную.

- На подготовку слайдов у аналитиков уходят часы.

- К моменту обсуждения данные уже устаревают.

Смена стратегии тут не поможет.

Как быть?

Вместо того, чтобы на раннем этапе пытаться проработать стратегию работы с данными на 3 года вперед, нужно сфокусироваться на результате, который можно получить на следующей неделе.

Решение:

Привлечь Fractional Head of Data — временного управляющего, который не будет строить многолетних планов, а прямо сегодня наведет порядок и выстроит базовую работу с данными.

Это быстрее, дешевле и эффективнее.

Fractional Head of Data может быстро привести к маленьким победам, которые сформируют у команды веру в данные, как в источник правильных решений.

По сути, fractional‑подход позволяет получить одновременно архитектора и исполнителя, который быстро строит работающую систему, а не предлагает лишь ее чертеж в виде стратегии на 3 года.

Такой эксперт поможет определить, какие данные и процессы действительно важны, выстроить прозрачную систему отчетности, а уже потом — спланировать, кого и когда нанимать, что можно отдать на аутсорс, а что стоит развивать внутри.

Вывод:

Если вы в самом начале пути, то решите сперва организационные и технические проблемы по работе с данными, и только затем нанимайте CDO. Иначе ему попросту нечем будет управлять.

#деньги #статьи
👍5🔥3❤‍🔥21