Качественные ли Ваши данные?
У всех есть данные. У огромных организаций и индивидуальных предпринимателей, у больших начальников и маленьких детей. Только они разные, и масштаб проблем, если данные окажутся некачественными, разный.
Ребёнок может пропустить урок или уехать не туда, куда хотел, взрослый может попасть в неудобную ситуацию на работе, а организации могут потерять деньги, если у них будут плохие данные.
Всё больше времени уделяется этому направлению управления данными - качеству данных. Арина Шахтарина в своём канале Data Quality пишет о качестве данных, о разных подходах к пониманию, о его внедрении, о проверках и возможных подводных камнях и других нюансах работы с качеством данных. Делится полезными документами и разбирает книги, связанные с качеством данных.
Несколько интересных постов из канала:
➡️ Об окупаемости инвестиций в качество данных
➡️ Об обнаружении аномалий в данных
➡️ Рекомендации по работе с данными
Подписывайтесь на канал о качестве данных и пусть Ваши данные будут качественными!
У всех есть данные. У огромных организаций и индивидуальных предпринимателей, у больших начальников и маленьких детей. Только они разные, и масштаб проблем, если данные окажутся некачественными, разный.
Ребёнок может пропустить урок или уехать не туда, куда хотел, взрослый может попасть в неудобную ситуацию на работе, а организации могут потерять деньги, если у них будут плохие данные.
Всё больше времени уделяется этому направлению управления данными - качеству данных. Арина Шахтарина в своём канале Data Quality пишет о качестве данных, о разных подходах к пониманию, о его внедрении, о проверках и возможных подводных камнях и других нюансах работы с качеством данных. Делится полезными документами и разбирает книги, связанные с качеством данных.
Несколько интересных постов из канала:
Подписывайтесь на канал о качестве данных и пусть Ваши данные будут качественными!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8❤5👍4
OpenAI меняет свою структуру: что это значит и чем это грозит?
Сверху структура OpenAI как исследовательской лаборатории в 2015 году. Снизу примерная структура OpenAI на 2025 год.
Независимые исследователи опубликовали отчет об изменениях в OpenAI, в котором упрекают компанию в фокусе на выручке и снижении требований к безопасности ИИ-моделей.
Когда OpenAI создавалась в 2015 году, ее манифест звучал почти романтично: никакой погони за прибылью, только благо человечества. Некоммерческая миссия, кап на доходах инвесторов и обещание, что успех AGI не достанется узкой группе акционеров, а будет служить всем.
Сегодня все иначе. В 2025 году компания официально отказалась от ключевых принципов: снят потолок доходности для инвесторов, роль некоммерческого совета ослаблена, а сама структура переходит к Public Benefit Corporation — гибриду, который учитывает интересы общества, но все равно обязан заботиться о доходах акционеров.
Что это значит на практике?
- Инвесторы теперь смогут зарабатывать бесконечно много, а не в 100 раз больше вложенного.
- Некоммерческая часть больше не управляет компанией, а лишь назначает наблюдателей.
- Скорость разработки и коммерциализации ставится выше вопросов безопасности и этики, отмечают исследователи.
К чему это может привести?
- Усиление гонки вооружений на рынке ИИ: больше денег — быстрее разработки, но выше риск ошибок.
- Отчуждение от публичного интереса: не факт, что в будущем AGI принесет пользу всем, как было обещано.
- Снижение прозрачности: уже сейчас сотрудников принуждали к NDA под угрозой лишения доли, а требования к безопасности снижаются.
По сути, OpenAI повторяет путь многих стартапов Кремниевой долины: ради миссии вначале, а затем — ради прибыли. Это не обязательно плохо, но наивно полагать, что разработка AGI и дальше будет вестись только ради всеобщего блага.
Сейчас перед индустрией встает главный вопрос: кто должен контролировать технологии, которые потенциально могут изменить мир? Ответа пока нет.
#ии #безопасность #деньги #статьи
Сверху структура OpenAI как исследовательской лаборатории в 2015 году. Снизу примерная структура OpenAI на 2025 год.
Независимые исследователи опубликовали отчет об изменениях в OpenAI, в котором упрекают компанию в фокусе на выручке и снижении требований к безопасности ИИ-моделей.
Когда OpenAI создавалась в 2015 году, ее манифест звучал почти романтично: никакой погони за прибылью, только благо человечества. Некоммерческая миссия, кап на доходах инвесторов и обещание, что успех AGI не достанется узкой группе акционеров, а будет служить всем.
Сегодня все иначе. В 2025 году компания официально отказалась от ключевых принципов: снят потолок доходности для инвесторов, роль некоммерческого совета ослаблена, а сама структура переходит к Public Benefit Corporation — гибриду, который учитывает интересы общества, но все равно обязан заботиться о доходах акционеров.
Что это значит на практике?
- Инвесторы теперь смогут зарабатывать бесконечно много, а не в 100 раз больше вложенного.
- Некоммерческая часть больше не управляет компанией, а лишь назначает наблюдателей.
- Скорость разработки и коммерциализации ставится выше вопросов безопасности и этики, отмечают исследователи.
К чему это может привести?
- Усиление гонки вооружений на рынке ИИ: больше денег — быстрее разработки, но выше риск ошибок.
- Отчуждение от публичного интереса: не факт, что в будущем AGI принесет пользу всем, как было обещано.
- Снижение прозрачности: уже сейчас сотрудников принуждали к NDA под угрозой лишения доли, а требования к безопасности снижаются.
По сути, OpenAI повторяет путь многих стартапов Кремниевой долины: ради миссии вначале, а затем — ради прибыли. Это не обязательно плохо, но наивно полагать, что разработка AGI и дальше будет вестись только ради всеобщего блага.
Сейчас перед индустрией встает главный вопрос: кто должен контролировать технологии, которые потенциально могут изменить мир? Ответа пока нет.
#ии #безопасность #деньги #статьи
👍3🔥3❤🔥2❤1
Из каких профессий приходят Data Product Managers — и как сделать так, чтобы они приносили бизнесу ценность
Представьте ресторан с идеально оборудованной кухней: плиты сверкают, ножи наточены, продукты отобраны с педантичной тщательностью. Команда поваров отрабатывает каждый рецепт до совершенства. Но гости за столами остаются недовольны: кто-то так и не дождался блюда, кому-то не понравился вкус, а кто-то вообще ушел, не сделав заказ.
Так часто выглядит работа департамента данных. Вы вкладываете ресурсы в архитектуру, нанимаете сильных инженеров, строите отказоустойчивые системы, сокращаете задержки и повышаете производительность. Внутри все работает идеально. но бизнес жалуется, что данные не помогают, что отчеты готовятся неделями, что сегментация клиентов по-прежнему делается вручную.
Почему так происходит? Потому что роль Data Product Manager чаще всего достается тем, кто вырос из инженеров, архитекторов или аналитиков. Эти люди отлично разбираются в том, как данные устроены внутри: умеют строить пайплайны, оптимизировать запросы, развертывать хранилища. Они блестяще решают технические задачи, но редко слышат, что именно нужно гостям в зале.
Чтобы переломить эту ситуацию, стоит пересмотреть подход к подбору и развитию DPM. На собеседовании не достаточно спрашивать про архитектурные паттерны и знание API — важно понять, умеет ли кандидат разговаривать с бизнесом, выявлять приоритеты и объяснять свои решения понятным языком.
Хороший DPM не только знает, как устроена кухня, но и выходит в зал к гостям: общается с маркетингом, продажами, операциями, узнает, какие у них метрики успеха и какие данные им действительно нужны. Он умеет рассказывать истории про то, как его проект снизит отток клиентов или повысит прибыль, а не только про то, на сколько нодов уменьшится нагрузка.
Внутри команды важно закрепить за DPM понятные бизнес-метрики: скорость принятия решений, вовлеченность пользователей, возврат инвестиций. Полезно организовать регулярные встречи с ключевыми подразделениями, чтобы он слышал их боль и корректировал приоритеты. И конечно, поддерживайте развитие таких навыков: учите сторителлингу, объясняйте, как работают метрики компании, и помогайте формулировать ценность инициатив для руководства.
Сильный DPM — это не тот, кто превращает данные в красивые пайплайны, а тот, кто превращает их в ощутимую пользу для бизнеса. Такой человек соединяет кухню и зал ресторана и делает так, чтобы гости не только ушли сытыми, но и захотели вернуться снова.
Представьте ресторан с идеально оборудованной кухней: плиты сверкают, ножи наточены, продукты отобраны с педантичной тщательностью. Команда поваров отрабатывает каждый рецепт до совершенства. Но гости за столами остаются недовольны: кто-то так и не дождался блюда, кому-то не понравился вкус, а кто-то вообще ушел, не сделав заказ.
Так часто выглядит работа департамента данных. Вы вкладываете ресурсы в архитектуру, нанимаете сильных инженеров, строите отказоустойчивые системы, сокращаете задержки и повышаете производительность. Внутри все работает идеально. но бизнес жалуется, что данные не помогают, что отчеты готовятся неделями, что сегментация клиентов по-прежнему делается вручную.
Почему так происходит? Потому что роль Data Product Manager чаще всего достается тем, кто вырос из инженеров, архитекторов или аналитиков. Эти люди отлично разбираются в том, как данные устроены внутри: умеют строить пайплайны, оптимизировать запросы, развертывать хранилища. Они блестяще решают технические задачи, но редко слышат, что именно нужно гостям в зале.
Чтобы переломить эту ситуацию, стоит пересмотреть подход к подбору и развитию DPM. На собеседовании не достаточно спрашивать про архитектурные паттерны и знание API — важно понять, умеет ли кандидат разговаривать с бизнесом, выявлять приоритеты и объяснять свои решения понятным языком.
Хороший DPM не только знает, как устроена кухня, но и выходит в зал к гостям: общается с маркетингом, продажами, операциями, узнает, какие у них метрики успеха и какие данные им действительно нужны. Он умеет рассказывать истории про то, как его проект снизит отток клиентов или повысит прибыль, а не только про то, на сколько нодов уменьшится нагрузка.
Внутри команды важно закрепить за DPM понятные бизнес-метрики: скорость принятия решений, вовлеченность пользователей, возврат инвестиций. Полезно организовать регулярные встречи с ключевыми подразделениями, чтобы он слышал их боль и корректировал приоритеты. И конечно, поддерживайте развитие таких навыков: учите сторителлингу, объясняйте, как работают метрики компании, и помогайте формулировать ценность инициатив для руководства.
Сильный DPM — это не тот, кто превращает данные в красивые пайплайны, а тот, кто превращает их в ощутимую пользу для бизнеса. Такой человек соединяет кухню и зал ресторана и делает так, чтобы гости не только ушли сытыми, но и захотели вернуться снова.
👍4🔥3🆒3
Разыскиваете свежие тренды в аналитике, big data и AI? Подписывайтесь на Data Place — здесь собраны лучшие материалы для дата-аналитиков, инженеров, архитекторов и всех, кто работает с данными.
О чём пишут на канале:
— Глубокое обучение при помощи Spark и Hadoop: знакомство #Deeplearning4j
— Что нужно знать дата-саентисту? (на англ. языке)
— 26 принципов построения промптов для LLaMA-1/2, GPT-3.5/4
— Как стать дата-инженером? Подборка статей и список вопросов и ответов для прохождения интервью
Присоединяйтесь к Data Place и прокачивайте навыки работы с данными!
О чём пишут на канале:
— Глубокое обучение при помощи Spark и Hadoop: знакомство #Deeplearning4j
— Что нужно знать дата-саентисту? (на англ. языке)
— 26 принципов построения промптов для LLaMA-1/2, GPT-3.5/4
— Как стать дата-инженером? Подборка статей и список вопросов и ответов для прохождения интервью
Присоединяйтесь к Data Place и прокачивайте навыки работы с данными!
❤3👍3🔥2
Рассуждений от ИИ больше недостаточно, теперь нужны еще и объяснения
ИИ уже умеет принимать решения: кому выдать кредит, какой диагноз поставить, кого позвать на собеседование. И нередко делает это лучше человека. Еще 6 лет назад исследование Google и Nature Medicine показало, что их ИИ для скрининга рака легких на КТ добился 94% точности. Это выше, чем у среднего радиолога.
Но ключевая проблема в том, что эти решения остаются черным ящиком.
Что в черном ящике?
Нейросети выдают результат, но не объясняют, почему именно такой. В большинстве задач это приемлемо: например, в чат-ботах или системах рекомендаций.
В Евросоюзе вступает в силу The EU Artificial Intelligence Act, закон уровня регламента, как GDPR. В нем описывается категория ИИ с высоким риском, в которую попадают решения для медицины, финансов, судов, образования и так далее. В этих вопросах неприемлемо скрывать логику принятия решения в черном ящике.
Кстати, в GDPR уже сейчас есть пункт, согласно которому «субъект имеет право не подвергаться воздействию решения, основанного исключительно на автоматизированной обработке».
Поэтому набирает силу подход Explainable AI (XAI) — ИИ, который показывает не только результат, но и обоснование.
Как объяснения решают проблемы?
В здравоохранении это может быть тепловая карта поражённых участков снимка, в кредитовании — вес каждого критерия в решении о выдаче кредита. В отчете McKinsey говорится, что внедрение XAI в чувствительных областях повышает доверие пользователей на 30–50%, снижает число юридических претензий и улучшает качество моделей.
XAI также помогает выявлять системные ошибки и предвзятость. На Viso описан кейс банка, где модель отклоняла заявки женщин на кредит в два раза чаще, чем мужчин. Объяснимость позволила увидеть, что модель обучена на исторических данных с гендерным смещением, и исправить алгоритм.
XAI не убирает риск полностью, а сдвигает его на новый уровень — теперь разработчикам предстоит встраивать объяснения так, чтобы они соответствовали не только здравому смыслу, но и формальным требованиям.
ИИ уже достаточно зрел, чтобы принимать решения лучше человека. Но пока не созрели люди, чтобы слепо доверять машине. Задача не в том, чтобы сделать ИИ еще умнее, а в том, чтобы разработать понятные правила и механизмы доверия — так же, как врач доверяет клиническим рекомендациям Минздрава и несет ответственность в рамках рекомендаций.
Только тогда ИИ станет полноценным партнером, а не источником новых рисков.
#ии
ИИ уже умеет принимать решения: кому выдать кредит, какой диагноз поставить, кого позвать на собеседование. И нередко делает это лучше человека. Еще 6 лет назад исследование Google и Nature Medicine показало, что их ИИ для скрининга рака легких на КТ добился 94% точности. Это выше, чем у среднего радиолога.
Но ключевая проблема в том, что эти решения остаются черным ящиком.
Что в черном ящике?
Нейросети выдают результат, но не объясняют, почему именно такой. В большинстве задач это приемлемо: например, в чат-ботах или системах рекомендаций.
В Евросоюзе вступает в силу The EU Artificial Intelligence Act, закон уровня регламента, как GDPR. В нем описывается категория ИИ с высоким риском, в которую попадают решения для медицины, финансов, судов, образования и так далее. В этих вопросах неприемлемо скрывать логику принятия решения в черном ящике.
Кстати, в GDPR уже сейчас есть пункт, согласно которому «субъект имеет право не подвергаться воздействию решения, основанного исключительно на автоматизированной обработке».
Поэтому набирает силу подход Explainable AI (XAI) — ИИ, который показывает не только результат, но и обоснование.
Как объяснения решают проблемы?
В здравоохранении это может быть тепловая карта поражённых участков снимка, в кредитовании — вес каждого критерия в решении о выдаче кредита. В отчете McKinsey говорится, что внедрение XAI в чувствительных областях повышает доверие пользователей на 30–50%, снижает число юридических претензий и улучшает качество моделей.
XAI также помогает выявлять системные ошибки и предвзятость. На Viso описан кейс банка, где модель отклоняла заявки женщин на кредит в два раза чаще, чем мужчин. Объяснимость позволила увидеть, что модель обучена на исторических данных с гендерным смещением, и исправить алгоритм.
XAI не убирает риск полностью, а сдвигает его на новый уровень — теперь разработчикам предстоит встраивать объяснения так, чтобы они соответствовали не только здравому смыслу, но и формальным требованиям.
ИИ уже достаточно зрел, чтобы принимать решения лучше человека. Но пока не созрели люди, чтобы слепо доверять машине. Задача не в том, чтобы сделать ИИ еще умнее, а в том, чтобы разработать понятные правила и механизмы доверия — так же, как врач доверяет клиническим рекомендациям Минздрава и несет ответственность в рамках рекомендаций.
Только тогда ИИ станет полноценным партнером, а не источником новых рисков.
#ии
❤🔥4🔥3❤2
Сколько людей, на каких ролях и за какие деньги работают с данными в Revolut, Zoom, Notion и так далее
Сколько человек должно быть в дата-команде? На каких ролях? Каким стеком они должны владеть и сколько им надо платить?
На databenchmarks.com можно узнать, как с этим обстоят дела в крупных и крутых компаниях Европы и США:
- Размер дата-команды относительно всего штата компании.
- Состав команды: какой там процент аналитиков, инженеров, продактов, дата-сайентистов и так далее.
- Стек.
- Зарплаты.
Вероятно, данные по зарплатам не особо актуальны для России, ибо там данные по Европе и США, но в остальном информация полезная: можно сравнить свою дата-команду по составу с теми, которые работают над чем-то похожим в успешных компаниях.
#исследования
Сколько человек должно быть в дата-команде? На каких ролях? Каким стеком они должны владеть и сколько им надо платить?
На databenchmarks.com можно узнать, как с этим обстоят дела в крупных и крутых компаниях Европы и США:
- Размер дата-команды относительно всего штата компании.
- Состав команды: какой там процент аналитиков, инженеров, продактов, дата-сайентистов и так далее.
- Стек.
- Зарплаты.
Вероятно, данные по зарплатам не особо актуальны для России, ибо там данные по Европе и США, но в остальном информация полезная: можно сравнить свою дата-команду по составу с теми, которые работают над чем-то похожим в успешных компаниях.
#исследования
👍3🔥3❤2❤🔥1
Предиктивная аналитика - навигатор для бизнеса🗺
Куда идти дальше, чтобы не заблудиться и не потратить лишнее время и деньги?
Ответит предиктивная аналитика- это когда ИИ берёт огромное количество данных, ищет в них закономерности и делает прогнозы на будущее.
В чём польза для бизнеса?
➕ Экономия времени - больше не нужно вручную анализировать тонны данных.
➕ Экономия денег - меньше ошибок, меньше лишних закупок, меньше простоев.
➕ Лучшее обслуживание клиентов - можно заранее предугадать их потребности.
➕ Быстрое принятие решений - все данные всегда под рукой и готовы к анализу.
Как это работает?
1️⃣ Сбор и очистка данных
Всё начинается с данных - информации о прошлых продажах, заказах, работе оборудования и так далее. Сначала эту информацию приводят в порядок: убирают ошибки, добавляют недостающие данные, делают всё единообразным. Это как генеральная уборка перед праздником - чтобы потом всё работало гладко.
2️⃣ Постановка цели
Следующий шаг - понять, что именно мы хотим узнать или спрогнозировать. Например, хотим узнать, сколько сырья нужно закупить на следующий месяц, или как лучше обслуживать клиентов.
3️⃣ Создание и обучение модели
После этого специалисты создают специальные программы (модели), которые учатся на этих данных и начинают делать прогнозы. Это похоже на то, как учишься математике: сначала решаешь задачи по примерам, а потом можешь решать новые сам.
4️⃣ Проверка и запуск
Модель сначала проверяют на тестовых данных, чтобы убедиться, что она не ошибается. Если всё хорошо - её внедряют в работу компании. После этого модель постоянно мониторят и обновляют, чтобы она не устаревала.
Какие задачи решает предиктивная аналитика?
Прогнозирование спроса
Оптимизация загрузки оборудования
Планирование закупок сырья
Улучшение клиентского сервиса
Расчёт стоимости заказов
Кейс Университета Иннополис для Danaflex
Больше контента об экономике данных, искусственном интеллекте, трендах, цифровом будущем для бизнеса и организаций — в канале The Data Economy.
Куда идти дальше, чтобы не заблудиться и не потратить лишнее время и деньги?
Ответит предиктивная аналитика
В чём польза для бизнеса?
Как это работает?
Всё начинается с данных - информации о прошлых продажах, заказах, работе оборудования и так далее. Сначала эту информацию приводят в порядок: убирают ошибки, добавляют недостающие данные, делают всё единообразным. Это как генеральная уборка перед праздником - чтобы потом всё работало гладко.
Следующий шаг - понять, что именно мы хотим узнать или спрогнозировать. Например, хотим узнать, сколько сырья нужно закупить на следующий месяц, или как лучше обслуживать клиентов.
После этого специалисты создают специальные программы (модели), которые учатся на этих данных и начинают делать прогнозы. Это похоже на то, как учишься математике: сначала решаешь задачи по примерам, а потом можешь решать новые сам.
Модель сначала проверяют на тестовых данных, чтобы убедиться, что она не ошибается. Если всё хорошо - её внедряют в работу компании. После этого модель постоянно мониторят и обновляют, чтобы она не устаревала.
Какие задачи решает предиктивная аналитика?
Прогнозирование спроса
Оптимизация загрузки оборудования
Планирование закупок сырья
Улучшение клиентского сервиса
Расчёт стоимости заказов
Кейс Университета Иннополис для Danaflex
Больше контента об экономике данных, искусственном интеллекте, трендах, цифровом будущем для бизнеса и организаций — в канале The Data Economy.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5👌4❤3❤🔥1
Как компании монетизируют данные через API?
Они превращают их в сервис: не просто передают файлы или выгрузки, а дают клиентам удобный, контролируемый доступ к данным. Клиенты сами подключаются к API и забирают нужные данные в нужном объеме, платя за запросы или подписку.
С помощью API компания превращает данные в продукт с интерфейсом. Набор данных стоит денег, но работающий на этом наборе DaaS создает добавленную стоимость и за него вам заплатят заметно больше.
Откуда дополнительная ценность?
1. Клиенту не нужно разбираться в форматах, выгрузках и структуре — он просто подключается и получает нужное.
2. Сделайте за клиента обработку, фильтрацию, агрегацию и тогда сможете брать за данные больше. Сильно больше.
3. Можно упаковать одни и те же данные в разные API и продавать их разным сегментам по разной цене. Сырые аналитикам, агрегированные SMB-клиентам, скоринг банкам.
4. Можно создавать наборы API под конкретные ниши: например, API для финтеха, API для ритейла и так далее. Появляется возможность партнериться и получать процент от использования.
5. С API видно, какие данные востребованы, когда пики спроса, кто потребляет больше всего и как меняется поведение. Это позволяет адаптировать продукт, улучшать структуру, выявлять новые точки роста.
Получается, что API создает уровни ценности, даже если изначально у вас только один набор данных.
Какие данные подходят для такой модели?
Продажа данных по API не дает обойти законы вроде GDPR или HIPAA, но есть способы легально продавать производные от персональных данных. Например: «оценка кредитного риска по сегментам», «популярность товаров по регионам», «обобщенные демографические профили».
Reddit продает доступ к пользовательскому контенту для обучения ИИ, но через API, который отдает посты без привязки к конкретным людям.
Zillow продает индекс цен на жилье по районам через API, который выдает агрегированные рейтинги и динамику без информации о конкретных владельцах недвижимости.
Experian продает через API кредитные скоринги и риск-профили, выдавая только баллы и рекомендации без личных данных клиентов.
Продажа данных по API выгодна продавцам, чьи данные регулярно обновляются, а вот данные, не требующие постоянного доступа, лучше продавать сразу пакетами.
#деньги
Они превращают их в сервис: не просто передают файлы или выгрузки, а дают клиентам удобный, контролируемый доступ к данным. Клиенты сами подключаются к API и забирают нужные данные в нужном объеме, платя за запросы или подписку.
С помощью API компания превращает данные в продукт с интерфейсом. Набор данных стоит денег, но работающий на этом наборе DaaS создает добавленную стоимость и за него вам заплатят заметно больше.
Откуда дополнительная ценность?
1. Клиенту не нужно разбираться в форматах, выгрузках и структуре — он просто подключается и получает нужное.
2. Сделайте за клиента обработку, фильтрацию, агрегацию и тогда сможете брать за данные больше. Сильно больше.
3. Можно упаковать одни и те же данные в разные API и продавать их разным сегментам по разной цене. Сырые аналитикам, агрегированные SMB-клиентам, скоринг банкам.
4. Можно создавать наборы API под конкретные ниши: например, API для финтеха, API для ритейла и так далее. Появляется возможность партнериться и получать процент от использования.
5. С API видно, какие данные востребованы, когда пики спроса, кто потребляет больше всего и как меняется поведение. Это позволяет адаптировать продукт, улучшать структуру, выявлять новые точки роста.
Получается, что API создает уровни ценности, даже если изначально у вас только один набор данных.
Какие данные подходят для такой модели?
Продажа данных по API не дает обойти законы вроде GDPR или HIPAA, но есть способы легально продавать производные от персональных данных. Например: «оценка кредитного риска по сегментам», «популярность товаров по регионам», «обобщенные демографические профили».
Reddit продает доступ к пользовательскому контенту для обучения ИИ, но через API, который отдает посты без привязки к конкретным людям.
Zillow продает индекс цен на жилье по районам через API, который выдает агрегированные рейтинги и динамику без информации о конкретных владельцах недвижимости.
Experian продает через API кредитные скоринги и риск-профили, выдавая только баллы и рекомендации без личных данных клиентов.
Продажа данных по API выгодна продавцам, чьи данные регулярно обновляются, а вот данные, не требующие постоянного доступа, лучше продавать сразу пакетами.
#деньги
❤5👍4🔥2❤🔥1
Если ваш сайт посещают ИИ-боты, вы можете на этом заработать
Сегодня боты вроде OpenAI, Anthropic, Perplexity и других массово собирают данные для обучения моделей и формирования ответов, но:
- Не возвращают пользователей на сайты.
- Не платят владельцам контента.
Поисковики еще как-то делятся трафиком и рекламными доходами, а вот ИИ-боты — нет. Контент создается за дорого, но доходы от него падают.
Cloudflare предложила решение: монетизировать доступ ИИ-ботов к контенту сайтов.
Владелец сайта через панель Cloudflare выставляет цену за один запрос. Бот перед отправкой запроса указывает, готов ли платить, и подтверждает свою личность с помощью подписи. Если бот согласен заплатить, сервер возвращает данные и списывает платеж. Cloudflare собирает платежи и перечисляет их владельцу сайта.
Технология уже поддержана крупными игроками вроде Condé Nast, Associated Press и Reddit, а Cloudflare запустила решение в режиме закрытой беты. По сути, это первый шаг к полноценному рынку данных для ИИ, основанному на прозрачности и стандартных интернет-технологиях.
Reddit, кстати, показал пример: он уже продает свои данные Google, но параллельно судится с Anthropic за нелицензионное использование своих данных.
#ии #деньги
Сегодня боты вроде OpenAI, Anthropic, Perplexity и других массово собирают данные для обучения моделей и формирования ответов, но:
- Не возвращают пользователей на сайты.
- Не платят владельцам контента.
Поисковики еще как-то делятся трафиком и рекламными доходами, а вот ИИ-боты — нет. Контент создается за дорого, но доходы от него падают.
Cloudflare предложила решение: монетизировать доступ ИИ-ботов к контенту сайтов.
Владелец сайта через панель Cloudflare выставляет цену за один запрос. Бот перед отправкой запроса указывает, готов ли платить, и подтверждает свою личность с помощью подписи. Если бот согласен заплатить, сервер возвращает данные и списывает платеж. Cloudflare собирает платежи и перечисляет их владельцу сайта.
Технология уже поддержана крупными игроками вроде Condé Nast, Associated Press и Reddit, а Cloudflare запустила решение в режиме закрытой беты. По сути, это первый шаг к полноценному рынку данных для ИИ, основанному на прозрачности и стандартных интернет-технологиях.
Reddit, кстати, показал пример: он уже продает свои данные Google, но параллельно судится с Anthropic за нелицензионное использование своих данных.
#ии #деньги
❤4❤🔥3🔥3👍2
Можно продавать данные, чтобы покупатели получали из них инсайты, а можно сразу продавать инсайты
Разбираемся, как это так.
Model Context Protocols — способ превращать данные в готовые контекстные ответы прямо внутри бизнес-процессов.
Вместо того, чтобы продавать таблицы или графики, компании с помощью MCP могут вшивать данные в решения так, чтобы нужный инсайт появлялся точно в нужный момент.
Звучит невероятно, но это уже нон-фикшн. MCP меняет подход к монетизации: продавать можно не данные, а сразу действия на их основе, подсказки и решения.
В чем цимес?
Купили вы данные. Вот они лежат у вас мертвым грузом. Пару раз в неделю ими пользуется три сотрудника. Только один из этих трех умеет извлекать из данных инсайты, которые помогают больше заработать в моменте. Печально.
MCP решает проблему системно: подход избавляет покупателя от необходимости разбираться в данных и искать моменты, когда их применить.
Вместо того, чтобы нагружать команду аналитиков, MCP автоматически подбирает, интерпретирует и встраивает данные в процесс именно там, где от них есть толк.
Многие данные раньше вообще не удавалось монетизировать — слишком специфичные, сложные или кусочные. MCP делает их коммерчески пригодными: включает в сценарии, где они внезапно становятся ценными, потому что закрывают конкретные вопросы в конкретное время.
Как это реализуется технически?
1. Триггер
На стороне покупателя происходит событие (например, нажата кнопка «Подобрать ассортимент» или «Выбрать блюдо дня»), MCP фиксирует его и определяет нужные данные и инструменты.
2. Оркестрация
MCP запускает сценарий: собирает данные из источников, применяет к ним модели, бизнес-правила и экспертизу владельца.
3. Формирование и доставка ответа
MCP объединяет данные, интерпретирует по заданным правилам и возвращает готовый, понятный результат прямо в интерфейс пользователя (CRM, сайт, приложение) за доли секунд, скрывая всю кухню.
4. Монетизация
Каждый вызов MCP учитывается, и можно выставлять счет за готовые ответы, а не за общий доступ к сырым данным.
Пример
Когда кассир на экране выбирает опцию «Выбрать блюдо дня», MCP в фоне собирает необходимые данные: продажи за прошлую неделю, запасы на складе, погоду на завтра и отзывы клиентов.
Затем применяет бизнес-правила (например, не предлагать блюда, ингредиентов для которых мало на складе, и учитывать сезонность и популярность) и формирует готовое предложение: «Сегодня рекомендуем продвигать комбо с курицей и лимонадом — спрос высок, маржа максимальная».
Все это происходит за секунды, за кулисами, через облачный сервис, и кассир видит готовый совет прямо в своем интерфейсе, не зная и не думая о том, откуда и как пришли данные.
В таком подходе данные — не новая нефть, а сразу бензин. Причем сразу в баке, а не на заправке.
#деньги
Разбираемся, как это так.
Model Context Protocols — способ превращать данные в готовые контекстные ответы прямо внутри бизнес-процессов.
Вместо того, чтобы продавать таблицы или графики, компании с помощью MCP могут вшивать данные в решения так, чтобы нужный инсайт появлялся точно в нужный момент.
Звучит невероятно, но это уже нон-фикшн. MCP меняет подход к монетизации: продавать можно не данные, а сразу действия на их основе, подсказки и решения.
В чем цимес?
Купили вы данные. Вот они лежат у вас мертвым грузом. Пару раз в неделю ими пользуется три сотрудника. Только один из этих трех умеет извлекать из данных инсайты, которые помогают больше заработать в моменте. Печально.
MCP решает проблему системно: подход избавляет покупателя от необходимости разбираться в данных и искать моменты, когда их применить.
Вместо того, чтобы нагружать команду аналитиков, MCP автоматически подбирает, интерпретирует и встраивает данные в процесс именно там, где от них есть толк.
Многие данные раньше вообще не удавалось монетизировать — слишком специфичные, сложные или кусочные. MCP делает их коммерчески пригодными: включает в сценарии, где они внезапно становятся ценными, потому что закрывают конкретные вопросы в конкретное время.
Как это реализуется технически?
1. Триггер
На стороне покупателя происходит событие (например, нажата кнопка «Подобрать ассортимент» или «Выбрать блюдо дня»), MCP фиксирует его и определяет нужные данные и инструменты.
2. Оркестрация
MCP запускает сценарий: собирает данные из источников, применяет к ним модели, бизнес-правила и экспертизу владельца.
3. Формирование и доставка ответа
MCP объединяет данные, интерпретирует по заданным правилам и возвращает готовый, понятный результат прямо в интерфейс пользователя (CRM, сайт, приложение) за доли секунд, скрывая всю кухню.
4. Монетизация
Каждый вызов MCP учитывается, и можно выставлять счет за готовые ответы, а не за общий доступ к сырым данным.
Пример
Когда кассир на экране выбирает опцию «Выбрать блюдо дня», MCP в фоне собирает необходимые данные: продажи за прошлую неделю, запасы на складе, погоду на завтра и отзывы клиентов.
Затем применяет бизнес-правила (например, не предлагать блюда, ингредиентов для которых мало на складе, и учитывать сезонность и популярность) и формирует готовое предложение: «Сегодня рекомендуем продвигать комбо с курицей и лимонадом — спрос высок, маржа максимальная».
Все это происходит за секунды, за кулисами, через облачный сервис, и кассир видит готовый совет прямо в своем интерфейсе, не зная и не думая о том, откуда и как пришли данные.
В таком подходе данные — не новая нефть, а сразу бензин. Причем сразу в баке, а не на заправке.
#деньги
❤🔥4👍3🔥2❤1
Если друг оказался вдруг и не друг, и не враг, а дипфейк
Контур.Толк представили инструмент, который выявляет дипфейки прямо во время видеозвонков. Сервис уже работает в формате «один на один» и скоро будет доступен для конференций.
Технология анализирует видеопоток на артефакты, изменения положения и несоответствия в кадре, чтобы выявлять поддельные изображения, созданные нейросетями.
Решение помогает бизнесу защищать удаленные переговоры от атак, снижает нагрузку на проверяющих и соответствует новым законодательным требованиям о дистанционной идентификации и онлайн-собраниях.
Инструмент уже тестируется крупнейшим российским банком.
Вы тоже можете подключить детектор дипфейков по запросу. Для этого нужно обратиться в службу поддержки Толка.
#ии #безопасность
Контур.Толк представили инструмент, который выявляет дипфейки прямо во время видеозвонков. Сервис уже работает в формате «один на один» и скоро будет доступен для конференций.
Технология анализирует видеопоток на артефакты, изменения положения и несоответствия в кадре, чтобы выявлять поддельные изображения, созданные нейросетями.
Решение помогает бизнесу защищать удаленные переговоры от атак, снижает нагрузку на проверяющих и соответствует новым законодательным требованиям о дистанционной идентификации и онлайн-собраниях.
Инструмент уже тестируется крупнейшим российским банком.
Вы тоже можете подключить детектор дипфейков по запросу. Для этого нужно обратиться в службу поддержки Толка.
#ии #безопасность
🔥4❤🔥3👍3❤2
OpenAI и AFT обучат 400 000 американских учителей работе с ИИ
OpenAI совместно с Американской федерацией учителей (AFT) запускают National Academy for AI Instruction — пятилетнюю программу, которая поможет 400 000 педагогам в США освоить ИИ и научиться применять его в школах. Это около 10% всех учителей страны.
OpenAI выделит на проект $10 млн, из которых $8 млн — прямое финансирование, а $2 млн — техническая поддержка, доступ к вычислительным мощностям и консультации.
В программе бесплатные курсы, мастер-классы и практика. В Нью-Йорке откроется флагманский кампус, а к 2030 году академия развернет сеть центров по всей стране.
Проблема с ИИ в школах и вузах по большей части заключается не в самом ИИ, а в том, что ученики в нем разбираются на порядок лучше, чем учителя. Если это перевернуть, то ИИ без проблем встроится и в школьную, и в вузовскую программу.
#ии
OpenAI совместно с Американской федерацией учителей (AFT) запускают National Academy for AI Instruction — пятилетнюю программу, которая поможет 400 000 педагогам в США освоить ИИ и научиться применять его в школах. Это около 10% всех учителей страны.
OpenAI выделит на проект $10 млн, из которых $8 млн — прямое финансирование, а $2 млн — техническая поддержка, доступ к вычислительным мощностям и консультации.
В программе бесплатные курсы, мастер-классы и практика. В Нью-Йорке откроется флагманский кампус, а к 2030 году академия развернет сеть центров по всей стране.
Проблема с ИИ в школах и вузах по большей части заключается не в самом ИИ, а в том, что ученики в нем разбираются на порядок лучше, чем учителя. Если это перевернуть, то ИИ без проблем встроится и в школьную, и в вузовскую программу.
#ии
❤3👍3🔥3
Progres Post
Можно продавать данные, чтобы покупатели получали из них инсайты, а можно сразу продавать инсайты Разбираемся, как это так. Model Context Protocols — способ превращать данные в готовые контекстные ответы прямо внутри бизнес-процессов. Вместо того, чтобы…
Если вы тоже захотели себе решение на базе MCP
В Anthropic говорят о важности интеграции контекста в ИИ-решения:
Крупные игроки ИИ-индустрии и опенсорс-сообщества начали активно поддерживать MCP, видя в нем потенциально революционный инструмент для построения агентных систем на базе LLM.
В Microsoft опубликовали бесплатный курс по MCP для начинающих. С актуальным переводом на русский язык и примерами использования разных языков программирования.
В Google опубликовали бета-версию MCP Toolbox — опенсорсного инструмента, который помогает разработчикам быстрее, удобнее и безопаснее создавать приложения для работы с базами данных.
MCP Toolbox экономит время. Под капотом: запросы на естественном языке, автоматизация управления базами данных, контекстно-зависимый код, а также автоматизация настройки подключений, управления схемами и обработки ошибок миграции.
Забирайте, пользуйтесь, делитесь.
#ии #опенсорс
В Anthropic говорят о важности интеграции контекста в ИИ-решения:
Самые продвинутые модели все равно ограничены своей изоляцией от данных — они заперты в информационных силосах и легаси-системах.
Крупные игроки ИИ-индустрии и опенсорс-сообщества начали активно поддерживать MCP, видя в нем потенциально революционный инструмент для построения агентных систем на базе LLM.
В Microsoft опубликовали бесплатный курс по MCP для начинающих. С актуальным переводом на русский язык и примерами использования разных языков программирования.
В Google опубликовали бета-версию MCP Toolbox — опенсорсного инструмента, который помогает разработчикам быстрее, удобнее и безопаснее создавать приложения для работы с базами данных.
MCP Toolbox экономит время. Под капотом: запросы на естественном языке, автоматизация управления базами данных, контекстно-зависимый код, а также автоматизация настройки подключений, управления схемами и обработки ошибок миграции.
Забирайте, пользуйтесь, делитесь.
#ии #опенсорс
🔥3👾3❤2👍2
Как данные помогают бизнесу получать кредиты без твердого залога
В 40% случаев банки отказывают малому и среднему бизнесу по двум причинам: отсутствие залога и недоверие к отчетности.
В мае этого года Тун Юй из Имперского колледжа Лондона объяснил, как доступ к живым данным помогает малому бизнесу получать кредиты, снижает риски для банков и сокращает время одобрения заявок.
Open Banking — система, которая позволяет клиентам банков безопасно делиться своими финансовыми данными с другими банками, финтех‑компаниями и сервисами.
В чем идея?
Раньше бизнес, чтобы получить кредит, приносил банку отчетность, но эти данные устаревали, могли быть приукрашены, их сложно было проверять.
Open Banking передает данные прямо c банковских счетов.
Кредитор видит реальные финансовые потоки, задолженности и запасы. Это позволяет принимать в обеспечение текущие активы, которые раньше считались слишком ненадежными.
Как это работает?
На техническом уровне Open Banking — это API.
1. Компания дает согласие кредитору на доступ к данным.
2. Кредитор подключается через API к банку компании.
3. Кредитор получает данные в стандартизированном виде: история поступлений, платежей, задолженности, остатки.
4. Система анализирует данные и оценивает риск.
5. Если риск приемлемый, бизнес получает кредит, обеспеченный текущими активами.
Какой от этого всего эффект?
Система заработала в 2018 году.
В Великобритании 18% малого бизнеса использует Open Banking. Всего у системы 13 млн пользователей, включая физлиц.
Компании, использующие Open Banking, на 4 процентных пункта чаще получают кредит под текущие активы.
Банки сократили время рассмотрения заявок от малого и среднего бизнеса с нескольких недель до нескольких минут.
Модели скоринга с использованием Open Banking снизили кредитные потери на 20-40 % по сравнению с традиционными методами.
#деньги #исследования
В 40% случаев банки отказывают малому и среднему бизнесу по двум причинам: отсутствие залога и недоверие к отчетности.
В мае этого года Тун Юй из Имперского колледжа Лондона объяснил, как доступ к живым данным помогает малому бизнесу получать кредиты, снижает риски для банков и сокращает время одобрения заявок.
Open Banking — система, которая позволяет клиентам банков безопасно делиться своими финансовыми данными с другими банками, финтех‑компаниями и сервисами.
В чем идея?
Раньше бизнес, чтобы получить кредит, приносил банку отчетность, но эти данные устаревали, могли быть приукрашены, их сложно было проверять.
Open Banking передает данные прямо c банковских счетов.
Кредитор видит реальные финансовые потоки, задолженности и запасы. Это позволяет принимать в обеспечение текущие активы, которые раньше считались слишком ненадежными.
Как это работает?
На техническом уровне Open Banking — это API.
1. Компания дает согласие кредитору на доступ к данным.
2. Кредитор подключается через API к банку компании.
3. Кредитор получает данные в стандартизированном виде: история поступлений, платежей, задолженности, остатки.
4. Система анализирует данные и оценивает риск.
5. Если риск приемлемый, бизнес получает кредит, обеспеченный текущими активами.
Какой от этого всего эффект?
Система заработала в 2018 году.
В Великобритании 18% малого бизнеса использует Open Banking. Всего у системы 13 млн пользователей, включая физлиц.
Компании, использующие Open Banking, на 4 процентных пункта чаще получают кредит под текущие активы.
Банки сократили время рассмотрения заявок от малого и среднего бизнеса с нескольких недель до нескольких минут.
Модели скоринга с использованием Open Banking снизили кредитные потери на 20-40 % по сравнению с традиционными методами.
#деньги #исследования
👍3❤🔥2❤2🔥2
В Slack без остановки сыпятся алерты, тесты уже месяц висят красными и непонятно, кто за что отвечает и что на самом деле важно
Нередко из-за хаоса в тестах дела у дата-команды идут даже хуже, чем во времена, когда они эти тесты еще не написали.
Штука в том, что данные — это сложно. Они не статичны и иногда меняются назад во времени. Источники данных — тоже сложные системы. Ну а люди вообще коллекционируют несовершенства.
Миккель Денгсё и Петр Янда вместе с дата-отделами сотен стартапов и компаний из Fortune 500 составили «Гайд по созданию высококачественных дата‑продуктов» для тех, кто устал от хаоса и хочет навести порядок в тестах, управлении качеством и инцидентами.
Если сжать его в 69 раз, то гайд объясняет, как:
1. Определить, какие данные действительно являются продуктами
У платформы для работы с данными Aiven не было четких границ для продуктов. И система превратилась в спагетти из 900 взаимосвязанных моделей.
Категории были большими и размытыми: «Маркетинг», «Продажи», «Продукт». Когда где‑то ломались данные, алерты сообщали, что сломался, допустим, «Маркетинг», но никто толком не понимал:
Что именно сломалось?
Насколько это критично?
Кто за это отвечает?
На какие бизнес‑процессы это влияет?
Проблемы диагностировали медленно, а решали с большим трудом.
Методично выделяя из больших продуктов вроде «Маркетинга» продукты поменьше, например, «Атрибуция маркетинга», в Aiven стали быстрее находить ошибки и понимать, кто за них отвечает.
2. Назначить ответственных и расставить приоритеты, чтобы сбои не были сиротами
Если попробовать присвоить максимальный приоритет вообще всему, то ни у чего вообще приоритета не прибавится. Так было в Lunar, где каждая команда считала свои данные самыми важными. Это мешало работе.
Каждая команда была права: ее данные — самые важные, но только для нее самой. Важность элементов системы не могут оценивать эти же элементы.
Решение простое: раз в квартал руководство, стоящее над всеми командами, стало собираться, чтобы определить самые критичные данные на ближайшее время и установить понятные SLA, например, время реакции на сбои.
3. Выстроить тесты, которые ловят ошибки, а не шумят
В Google и Monzo на первых порах придавали огромное значение проверкам всех таблиц и столбцов. В результате получали сотни алертов, большинство из которых не имело вообще никакого значения.
Помогла смена стратегии: тестировать стали в первую очередь источники данных, которые влияют на все остальное. Шум стих, система стала надежнее.
Мораль: устранять ошибки в производных — вычерпывать воду, а исправить ошибки в источнике данных — залатать течь.
4. Не терять и быстро устранять инциденты
Пользователи Shalion следят за данными на дашбордах в реальном времени. Малейшая ошибка в данных сразу бьет по доверию клиентов сервису.
Команда внедрила автоматические уведомления с указанием ответственного и контекста, а также установила SLA не только на сами данные, но и на скорость уведомления пользователей о проблемах.
Угроза клиентскому доверию стала источником этого доверия. Снимаем шляпу.
5. Измерять качество данных не ради отчета, а ради пользы для бизнеса.
Метрики нужно поделить на «какая доля данных под контролем» и «какая доля проходит проверки». Сперва проверяйте, проверяете ли вы какие-то данные, а уже потом проверяйте эти данные.
Иначе появятся слепые пятна:
Если все данные, которые вы проверили, в порядке, это значит, что вы не проверили все те, которые не в порядке (если они есть, а они наверняка есть).
* * *
Гайд не привязывается к инструментам, а учит принципам. Подходит командам из 5 человек и большим отделам. Полезен, независимо от масштаба компании и зрелости дата-культуры.
Сохраните себе, расскажите коллегам.
Нередко из-за хаоса в тестах дела у дата-команды идут даже хуже, чем во времена, когда они эти тесты еще не написали.
Штука в том, что данные — это сложно. Они не статичны и иногда меняются назад во времени. Источники данных — тоже сложные системы. Ну а люди вообще коллекционируют несовершенства.
Миккель Денгсё и Петр Янда вместе с дата-отделами сотен стартапов и компаний из Fortune 500 составили «Гайд по созданию высококачественных дата‑продуктов» для тех, кто устал от хаоса и хочет навести порядок в тестах, управлении качеством и инцидентами.
Если сжать его в 69 раз, то гайд объясняет, как:
1. Определить, какие данные действительно являются продуктами
У платформы для работы с данными Aiven не было четких границ для продуктов. И система превратилась в спагетти из 900 взаимосвязанных моделей.
Категории были большими и размытыми: «Маркетинг», «Продажи», «Продукт». Когда где‑то ломались данные, алерты сообщали, что сломался, допустим, «Маркетинг», но никто толком не понимал:
Что именно сломалось?
Насколько это критично?
Кто за это отвечает?
На какие бизнес‑процессы это влияет?
Проблемы диагностировали медленно, а решали с большим трудом.
Методично выделяя из больших продуктов вроде «Маркетинга» продукты поменьше, например, «Атрибуция маркетинга», в Aiven стали быстрее находить ошибки и понимать, кто за них отвечает.
2. Назначить ответственных и расставить приоритеты, чтобы сбои не были сиротами
Если попробовать присвоить максимальный приоритет вообще всему, то ни у чего вообще приоритета не прибавится. Так было в Lunar, где каждая команда считала свои данные самыми важными. Это мешало работе.
Каждая команда была права: ее данные — самые важные, но только для нее самой. Важность элементов системы не могут оценивать эти же элементы.
Решение простое: раз в квартал руководство, стоящее над всеми командами, стало собираться, чтобы определить самые критичные данные на ближайшее время и установить понятные SLA, например, время реакции на сбои.
3. Выстроить тесты, которые ловят ошибки, а не шумят
В Google и Monzo на первых порах придавали огромное значение проверкам всех таблиц и столбцов. В результате получали сотни алертов, большинство из которых не имело вообще никакого значения.
Помогла смена стратегии: тестировать стали в первую очередь источники данных, которые влияют на все остальное. Шум стих, система стала надежнее.
Мораль: устранять ошибки в производных — вычерпывать воду, а исправить ошибки в источнике данных — залатать течь.
4. Не терять и быстро устранять инциденты
Пользователи Shalion следят за данными на дашбордах в реальном времени. Малейшая ошибка в данных сразу бьет по доверию клиентов сервису.
Команда внедрила автоматические уведомления с указанием ответственного и контекста, а также установила SLA не только на сами данные, но и на скорость уведомления пользователей о проблемах.
Угроза клиентскому доверию стала источником этого доверия. Снимаем шляпу.
5. Измерять качество данных не ради отчета, а ради пользы для бизнеса.
Метрики нужно поделить на «какая доля данных под контролем» и «какая доля проходит проверки». Сперва проверяйте, проверяете ли вы какие-то данные, а уже потом проверяйте эти данные.
Иначе появятся слепые пятна:
Если все данные, которые вы проверили, в порядке, это значит, что вы не проверили все те, которые не в порядке (если они есть, а они наверняка есть).
* * *
Гайд не привязывается к инструментам, а учит принципам. Подходит командам из 5 человек и большим отделам. Полезен, независимо от масштаба компании и зрелости дата-культуры.
Сохраните себе, расскажите коллегам.
👍5👀5❤🔥3
Путь в тысячу ли начинается с найма Chief Data Officer. Или нет?
Николай Валиотти на «Сабстаке» рассказывает, что если вы хотите стать data driven, то первым делом нанимать CDO или Head of Data на фултайм — фатальная ошибка.
Разбираемся, почему так.
Многие нанимают дорогого CDO на ранней стадии, а спустя полгода все еще видят хаос: данные в Excel, KPI непонятны, отчеты на решения не влияют.
Почему?
Потому что высокие затраты стратегию не компенсируют готовность компании эту стратегию проводить в жизнь. Это как пытаться откупиться от ребенка подарками — ему на самом деле нужно ваше внимание, а не деньги.
Попытка вбухать много денег в стратегию на ранней стадии приводит к тому, что появляются не практические изменения, а декоративные. Когда куда-то направляется неразумно много денег, то люди там стараются изо всех сил показать изменения, а не добиться их.
В реальности проблемы компаний чаще всего не стратегические, а чисто организационные:
- Каждый департамент считает по‑своему.
- Никто не понимает, какие метрики на самом деле отражают успех.
- Отчеты формируются вручную.
- На подготовку слайдов у аналитиков уходят часы.
- К моменту обсуждения данные уже устаревают.
Смена стратегии тут не поможет.
Как быть?
Вместо того, чтобы на раннем этапе пытаться проработать стратегию работы с данными на 3 года вперед, нужно сфокусироваться на результате, который можно получить на следующей неделе.
Решение:
Привлечь Fractional Head of Data — временного управляющего, который не будет строить многолетних планов, а прямо сегодня наведет порядок и выстроит базовую работу с данными.
Это быстрее, дешевле и эффективнее.
Fractional Head of Data может быстро привести к маленьким победам, которые сформируют у команды веру в данные, как в источник правильных решений.
По сути, fractional‑подход позволяет получить одновременно архитектора и исполнителя, который быстро строит работающую систему, а не предлагает лишь ее чертеж в виде стратегии на 3 года.
Такой эксперт поможет определить, какие данные и процессы действительно важны, выстроить прозрачную систему отчетности, а уже потом — спланировать, кого и когда нанимать, что можно отдать на аутсорс, а что стоит развивать внутри.
Вывод:
Если вы в самом начале пути, то решите сперва организационные и технические проблемы по работе с данными, и только затем нанимайте CDO. Иначе ему попросту нечем будет управлять.
#деньги #статьи
Николай Валиотти на «Сабстаке» рассказывает, что если вы хотите стать data driven, то первым делом нанимать CDO или Head of Data на фултайм — фатальная ошибка.
Разбираемся, почему так.
Многие нанимают дорогого CDO на ранней стадии, а спустя полгода все еще видят хаос: данные в Excel, KPI непонятны, отчеты на решения не влияют.
Почему?
Потому что высокие затраты стратегию не компенсируют готовность компании эту стратегию проводить в жизнь. Это как пытаться откупиться от ребенка подарками — ему на самом деле нужно ваше внимание, а не деньги.
Попытка вбухать много денег в стратегию на ранней стадии приводит к тому, что появляются не практические изменения, а декоративные. Когда куда-то направляется неразумно много денег, то люди там стараются изо всех сил показать изменения, а не добиться их.
В реальности проблемы компаний чаще всего не стратегические, а чисто организационные:
- Каждый департамент считает по‑своему.
- Никто не понимает, какие метрики на самом деле отражают успех.
- Отчеты формируются вручную.
- На подготовку слайдов у аналитиков уходят часы.
- К моменту обсуждения данные уже устаревают.
Смена стратегии тут не поможет.
Как быть?
Вместо того, чтобы на раннем этапе пытаться проработать стратегию работы с данными на 3 года вперед, нужно сфокусироваться на результате, который можно получить на следующей неделе.
Решение:
Привлечь Fractional Head of Data — временного управляющего, который не будет строить многолетних планов, а прямо сегодня наведет порядок и выстроит базовую работу с данными.
Это быстрее, дешевле и эффективнее.
Fractional Head of Data может быстро привести к маленьким победам, которые сформируют у команды веру в данные, как в источник правильных решений.
По сути, fractional‑подход позволяет получить одновременно архитектора и исполнителя, который быстро строит работающую систему, а не предлагает лишь ее чертеж в виде стратегии на 3 года.
Такой эксперт поможет определить, какие данные и процессы действительно важны, выстроить прозрачную систему отчетности, а уже потом — спланировать, кого и когда нанимать, что можно отдать на аутсорс, а что стоит развивать внутри.
Вывод:
Если вы в самом начале пути, то решите сперва организационные и технические проблемы по работе с данными, и только затем нанимайте CDO. Иначе ему попросту нечем будет управлять.
#деньги #статьи
👍5🔥3❤🔥2❤1
Теперь официально: вместо «уверенных пользователей ПК» работодатели ищут «уверенных пользователей ИИ»
В Сбере намерены нанимать на все ключевые позиции только кандидатов с навыками работы с искусственным интеллектом. Все уже трудоустроенные сотрудники тоже в обязательном порядке учатся работать с ИИ.
К специалистам первой линии ключевое требование — умение применять ИИ для эффективного решения повседневных задач. Каких — не уточняют. Это базовые навыки работы с нейросетями — о них спрашивают на собеседовании.
Специалистам аналитических и айти-направлений нужны более глубокие знания и интеграция ИИ в профессиональную деятельность. Для проверки на собеседованиях будут практические задания. Какие — не говорят. Также будут тестировать способность переписывать тексты и проверять факты при помощи нейросетей.
Разработчики должны свободно ориентироваться в ИИ-инструментах, понимать принципы работы и в идеале уметь создавать ИИ-решения. Руководителям же критически важно понимать возможности ИИ и принимать решения с опорой на данные, полученные от него.
Стажерам и студентам нужно только желание обучиться работе с ИИ, этому их научат во время работы. Кроме того, если кандидат подходит, но еще не использовал нейросети, банк готов нанять его с обязательным прохождением базовых курсов Сбера. Среди них: про ИИ-агентов, генерацию видео и аудио, машинное обучение, промпт-инжиринг и другие.
— Нас всех заменит ИИ?
— Нет, вас всех заменят люди, которые владеют ИИ.
#ии #исследования
В Сбере намерены нанимать на все ключевые позиции только кандидатов с навыками работы с искусственным интеллектом. Все уже трудоустроенные сотрудники тоже в обязательном порядке учатся работать с ИИ.
К специалистам первой линии ключевое требование — умение применять ИИ для эффективного решения повседневных задач. Каких — не уточняют. Это базовые навыки работы с нейросетями — о них спрашивают на собеседовании.
Специалистам аналитических и айти-направлений нужны более глубокие знания и интеграция ИИ в профессиональную деятельность. Для проверки на собеседованиях будут практические задания. Какие — не говорят. Также будут тестировать способность переписывать тексты и проверять факты при помощи нейросетей.
Разработчики должны свободно ориентироваться в ИИ-инструментах, понимать принципы работы и в идеале уметь создавать ИИ-решения. Руководителям же критически важно понимать возможности ИИ и принимать решения с опорой на данные, полученные от него.
Стажерам и студентам нужно только желание обучиться работе с ИИ, этому их научат во время работы. Кроме того, если кандидат подходит, но еще не использовал нейросети, банк готов нанять его с обязательным прохождением базовых курсов Сбера. Среди них: про ИИ-агентов, генерацию видео и аудио, машинное обучение, промпт-инжиринг и другие.
— Нас всех заменит ИИ?
— Нет, вас всех заменят люди, которые владеют ИИ.
#ии #исследования
🔥6❤4👍4🤔2
Контекст важнее промпта
Тренер ставит новичку задачу: прыгнуть в длину на 8 метров. У того не получается. Тогда тренер в подробностях объясняет технику: как разбегаться, в какой момент отталкиваться, как группироваться и все такое. У того опять не получается.
Неважно, насколько хорошо тренер объяснит новичку технику, если тому не хватает опыта и тренировок, ничего не выйдет.
В работе с LLM бывает так же: можно написать предельно точный и учитывающий все тонкости промпт, но если модели не хватает контекста, задачу она не решит.
И это работа для контекст-инженера.
Это кто? Это специалист, который отвечает за то, чтобы модель получила все нужное для выполнения задачи: данные, инструкции, формат ответа, историю, внешние источники и доступ к инструментам.
Если вчера главным было мастерство формулировки промпта, то сегодня куда важнее качество всей среды, в которой модель принимает решение.
Представьте, что ИИ просят назначить встречу на основе письма: «Привет, ты завтра свободен для быстрой встречи?»
Если у агента нет контекста, он видит только этот текст и отвечает формально и бесполезно: «Спасибо за сообщение. Завтра мне подходит. В какое время?»
Такой ответ — результат работы модели без понимания ситуации. Он может быть технически корректным, но не помогает делу.
Теперь сравните с агентом, у которого есть контекст:
- Он видит ваш календарь и знает, что вы заняты весь день.
- Считывает стиль общения из предыдущих писем.
- Знает, кто вам пишет.
- Имеет доступ к инструментам и может отправить приглашение на встречу.
В этом случае ответ будет таким: «Привет! Завтра я весь день занят, но в четверг утром свободен. Отправил приглашение — дай знать, если все окей».
Магия не в более умной модели или более хитром алгоритме. Она в предоставлении правильного контекста для задачи. Поэтому контекстная инженерия будет важна. Неудачи агентов — это не только неудачи модели, это неудачи контекста.
Сегодня в работе с ИИ куда важнее не то, что и как мы спрашиваем у модели, а что она уже знает и умеет в этот момент.
#ии
Тренер ставит новичку задачу: прыгнуть в длину на 8 метров. У того не получается. Тогда тренер в подробностях объясняет технику: как разбегаться, в какой момент отталкиваться, как группироваться и все такое. У того опять не получается.
Неважно, насколько хорошо тренер объяснит новичку технику, если тому не хватает опыта и тренировок, ничего не выйдет.
В работе с LLM бывает так же: можно написать предельно точный и учитывающий все тонкости промпт, но если модели не хватает контекста, задачу она не решит.
И это работа для контекст-инженера.
Это кто? Это специалист, который отвечает за то, чтобы модель получила все нужное для выполнения задачи: данные, инструкции, формат ответа, историю, внешние источники и доступ к инструментам.
Если вчера главным было мастерство формулировки промпта, то сегодня куда важнее качество всей среды, в которой модель принимает решение.
Представьте, что ИИ просят назначить встречу на основе письма: «Привет, ты завтра свободен для быстрой встречи?»
Если у агента нет контекста, он видит только этот текст и отвечает формально и бесполезно: «Спасибо за сообщение. Завтра мне подходит. В какое время?»
Такой ответ — результат работы модели без понимания ситуации. Он может быть технически корректным, но не помогает делу.
Теперь сравните с агентом, у которого есть контекст:
- Он видит ваш календарь и знает, что вы заняты весь день.
- Считывает стиль общения из предыдущих писем.
- Знает, кто вам пишет.
- Имеет доступ к инструментам и может отправить приглашение на встречу.
В этом случае ответ будет таким: «Привет! Завтра я весь день занят, но в четверг утром свободен. Отправил приглашение — дай знать, если все окей».
Магия не в более умной модели или более хитром алгоритме. Она в предоставлении правильного контекста для задачи. Поэтому контекстная инженерия будет важна. Неудачи агентов — это не только неудачи модели, это неудачи контекста.
Сегодня в работе с ИИ куда важнее не то, что и как мы спрашиваем у модели, а что она уже знает и умеет в этот момент.
#ии
❤8🔥4👍3❤🔥2
Качественные данные ≠ готовые для ИИ данные
В 2016 году аналитики IBM посчитали, что из-за некачественных данных экономика США теряет $3 трлн ежегодно. До 80% проектов по внедрению ИИ проваливаются из-за некачественных данных.
И сегодня все бьются над качеством данных. Но штука в том, что мы уже не в 2016 году, и сегодня этого недостаточно.
Ваши данные должны быть не только качественными в традиционном смысле, а готовыми к использованию в ИИ.
Самим качеством, кстати, можно пожертвовать.
В статья на Financial Times Маккензи Хоу из Atheni выдала такой пассаж:
Однако выводы в статье не такие однозначные:
В чем разница между качественными данными и готовыми для ИИ данными?
Качественные данные — это про корректность. Готовые к ИИ данные — это еще и про релевантность, доступность и управляемость.
ИИ требует, чтобы данные не только были чистыми, но и легко встраивались в процессы.
Качественные данные — это данные, которые:
- Точные, полные, актуальные.
- Не содержат дубликатов и ошибок.
- Согласованы по форматам и источникам.
Такие данные подходят для отчетности, BI и аналитики.
Готовые для ИИ данные — понятие шире.
Помимо качества, готовые для ИИ данные должны:
- Быть релевантны конкретной задаче ИИ (подобраны под конкретный use case).
- Быть доступны в нужной форме и скорости (API, потоки, батчи).
- Быть интероперабельными и описанными (метаданные, словари).
- Учитывать правовые, этические и безопасностные требования.
- Постоянно обновляться и отслеживаться для предотвращения дрейфа данных.
Данные о транзакциях клиентов, например, могут быть качественными, но для предсказания оттока нужны еще поведенческие данные, метаданные, история изменений и контроль доступности этих данных.
Как подготовить данные для ИИ?
В Gartner сделали неплохой гайд по подготовке данные для ИИ.
1. Увязка данных с задачей ИИ
Подготовка начинается с увязки бизнес‑задачи с нужными источниками и атрибутами, включая поиск недостающих данных.
Для прогноза коррозии на буровых к датчикам добавляют десятилетние ряды погоды, химсостав воды и историю ремонтов.
2. Управление и соблюдение норм
Данные очищаются от персональной информации, снабжаются правилами использования и частотой обновления под конкретный сценарий.
В фарме при обучении моделей на медицинских картах автоматические фильтры блокируют записи с истекшим согласием.
3. Метаданные и контекст
Создается слой активных метаданных, который хранит происхождение, смысл и условия применения данных и управляет их выбором.
В телекоме прогноз нагрузки учитывает не только трафик, но и метаданные об архитектуре сети и параметрах оборудования.
4. Автоматизация потоков
Разнородные данные очищаются, нормализуются и объединяются в сквозные конвейеры, дающие модели стабильный поток.
В агротехе данные с дронов и сенсоров приводят к общей сетке координат и времени, чтобы ИИ корректно интерпретировал их.
5. Валидация и контроль
Новые данные и потоки постоянно тестируются и мониторятся, чтобы предотвратить дрейф и деградацию модели.
В кредитном скоринге система замечает изменение поведения заемщиков и автоматически перестраивает данные и модель, чтобы сохранять точность прогноза.
Чистота — это прошлый век?
Чистить данные, конечно, нужно, но если раньше почистить их было достаточно, то теперь этого мало. ИИ требует данных, которые живут вместе с процессами компании, а не лежат чистенькие в хранилищах.
#ии
В 2016 году аналитики IBM посчитали, что из-за некачественных данных экономика США теряет $3 трлн ежегодно. До 80% проектов по внедрению ИИ проваливаются из-за некачественных данных.
И сегодня все бьются над качеством данных. Но штука в том, что мы уже не в 2016 году, и сегодня этого недостаточно.
Ваши данные должны быть не только качественными в традиционном смысле, а готовыми к использованию в ИИ.
Самим качеством, кстати, можно пожертвовать.
В статья на Financial Times Маккензи Хоу из Atheni выдала такой пассаж:
Ждать идеальных данных — все равно что ждать, когда освободятся дороги, чтобы научиться водить.
Однако выводы в статье не такие однозначные:
Не стоит по полной вкладываться в ИИ, если ваши данные не готовы. Но и откладывать внедрение ИИ, сетуя на плохие данные, не стоит.
В чем разница между качественными данными и готовыми для ИИ данными?
Качественные данные — это про корректность. Готовые к ИИ данные — это еще и про релевантность, доступность и управляемость.
ИИ требует, чтобы данные не только были чистыми, но и легко встраивались в процессы.
Качественные данные — это данные, которые:
- Точные, полные, актуальные.
- Не содержат дубликатов и ошибок.
- Согласованы по форматам и источникам.
Такие данные подходят для отчетности, BI и аналитики.
Готовые для ИИ данные — понятие шире.
Помимо качества, готовые для ИИ данные должны:
- Быть релевантны конкретной задаче ИИ (подобраны под конкретный use case).
- Быть доступны в нужной форме и скорости (API, потоки, батчи).
- Быть интероперабельными и описанными (метаданные, словари).
- Учитывать правовые, этические и безопасностные требования.
- Постоянно обновляться и отслеживаться для предотвращения дрейфа данных.
Данные о транзакциях клиентов, например, могут быть качественными, но для предсказания оттока нужны еще поведенческие данные, метаданные, история изменений и контроль доступности этих данных.
Как подготовить данные для ИИ?
В Gartner сделали неплохой гайд по подготовке данные для ИИ.
1. Увязка данных с задачей ИИ
Подготовка начинается с увязки бизнес‑задачи с нужными источниками и атрибутами, включая поиск недостающих данных.
Для прогноза коррозии на буровых к датчикам добавляют десятилетние ряды погоды, химсостав воды и историю ремонтов.
2. Управление и соблюдение норм
Данные очищаются от персональной информации, снабжаются правилами использования и частотой обновления под конкретный сценарий.
В фарме при обучении моделей на медицинских картах автоматические фильтры блокируют записи с истекшим согласием.
3. Метаданные и контекст
Создается слой активных метаданных, который хранит происхождение, смысл и условия применения данных и управляет их выбором.
В телекоме прогноз нагрузки учитывает не только трафик, но и метаданные об архитектуре сети и параметрах оборудования.
4. Автоматизация потоков
Разнородные данные очищаются, нормализуются и объединяются в сквозные конвейеры, дающие модели стабильный поток.
В агротехе данные с дронов и сенсоров приводят к общей сетке координат и времени, чтобы ИИ корректно интерпретировал их.
5. Валидация и контроль
Новые данные и потоки постоянно тестируются и мониторятся, чтобы предотвратить дрейф и деградацию модели.
В кредитном скоринге система замечает изменение поведения заемщиков и автоматически перестраивает данные и модель, чтобы сохранять точность прогноза.
Чистота — это прошлый век?
Чистить данные, конечно, нужно, но если раньше почистить их было достаточно, то теперь этого мало. ИИ требует данных, которые живут вместе с процессами компании, а не лежат чистенькие в хранилищах.
#ии
👍4🔥4❤3❤🔥1