Как посчитать профит дата-команды
Однажды аналитик Максим получил задачу от продуктового директора Марии: «Максим, докажи, что ваша дата-команда реально приносит пользу». Максим вспомнил статью How to think about the ROI of data work и решил с помощью простой формулы и эмодзи доказать зумеру Марии, что его команда не зря получает зарплату.
Максим объяснил Марии:
🎳 — Это число специалистов или систем, которые пользуются нашим решением.
🖇 — Насколько наша работа ускоряет или упрощает их жизнь.
💰 — Сколько каждая единица этой экономии стоит для бизнеса.
⏳ — Сколько человеко-дней мы потратили.
Чтобы убедить Марию, Максим привел свой недавний кейс:
Он автоматизировал отчет, который раньше вручную собирали шесть аналитиков по два часа каждый рабочий день. Новая система стала делать все сама — экономия 100% времени. Один час работы аналитика в их компании стоит примерно $50, значит каждый из шести коллег теперь зарабатывал для бизнеса по $100 в день. Сам проект занял у команды 8 человеко-дней.
Подставив все это в формулу, Максим получил:
Столько выгоды в день получает компания от работы команды.
Когда Мария увидела цифру, она улыбнулась: «Понятно и наглядно!»
Но Максим предупредил: «Не все так просто. Вендоры часто рисуют красивые ROI-презентации, обещают сверхприбыль от еще несуществующих фич — это больше маркетинг, чем реальность. Реальный ROI всегда ниже, потому что мы забываем учесть скрытые издержки: зарплаты, поддержку, последующие доработки».
Вместо того, чтобы увязнуть в бесконечных расчетах, Максим предложил переходить на OKR-подход: привязывать каждую задачу к бизнес-целям и ключевым результатам, чтобы уже по факту спринта можно было увидеть Impact и Value. Так дата-команда получала четкий фокус на самых окупаемых задачах и одновременно создавала платформы и инструменты для масштабного эффекта.
Когда в конце встречи Мария спросила: «А как быть с ROI, например, от покупки нового iPhone для работы?»
Максим улыбнулся и ответил: «Здесь та же формула: посчитайте, сколько вы сэкономите времени и получите пользы, и поделите на затраты. Но сначала лучше завести OKR и измерять настоящий вклад данных!»
И с тех пор в их команде ROI перестал быть пугающим набором цифр — он превратился в понятный инструмент, который помогает выбирать правильные проекты и показывать реальную ценность данных.
#аналитика #деньги #статьи
Однажды аналитик Максим получил задачу от продуктового директора Марии: «Максим, докажи, что ваша дата-команда реально приносит пользу». Максим вспомнил статью How to think about the ROI of data work и решил с помощью простой формулы и эмодзи доказать зумеру Марии, что его команда не зря получает зарплату.
ROI = (🎳 × 🖇 × 💰) / ⏳
Максим объяснил Марии:
🎳 — Это число специалистов или систем, которые пользуются нашим решением.
🖇 — Насколько наша работа ускоряет или упрощает их жизнь.
💰 — Сколько каждая единица этой экономии стоит для бизнеса.
⏳ — Сколько человеко-дней мы потратили.
Чтобы убедить Марию, Максим привел свой недавний кейс:
Он автоматизировал отчет, который раньше вручную собирали шесть аналитиков по два часа каждый рабочий день. Новая система стала делать все сама — экономия 100% времени. Один час работы аналитика в их компании стоит примерно $50, значит каждый из шести коллег теперь зарабатывал для бизнеса по $100 в день. Сам проект занял у команды 8 человеко-дней.
Подставив все это в формулу, Максим получил:
ROI = (6 🎳 × 1 🖇 × $50 💰) / 8 дн ⏳ ≈ $37,5
Столько выгоды в день получает компания от работы команды.
Когда Мария увидела цифру, она улыбнулась: «Понятно и наглядно!»
Но Максим предупредил: «Не все так просто. Вендоры часто рисуют красивые ROI-презентации, обещают сверхприбыль от еще несуществующих фич — это больше маркетинг, чем реальность. Реальный ROI всегда ниже, потому что мы забываем учесть скрытые издержки: зарплаты, поддержку, последующие доработки».
Вместо того, чтобы увязнуть в бесконечных расчетах, Максим предложил переходить на OKR-подход: привязывать каждую задачу к бизнес-целям и ключевым результатам, чтобы уже по факту спринта можно было увидеть Impact и Value. Так дата-команда получала четкий фокус на самых окупаемых задачах и одновременно создавала платформы и инструменты для масштабного эффекта.
Когда в конце встречи Мария спросила: «А как быть с ROI, например, от покупки нового iPhone для работы?»
Максим улыбнулся и ответил: «Здесь та же формула: посчитайте, сколько вы сэкономите времени и получите пользы, и поделите на затраты. Но сначала лучше завести OKR и измерять настоящий вклад данных!»
И с тех пор в их команде ROI перестал быть пугающим набором цифр — он превратился в понятный инструмент, который помогает выбирать правильные проекты и показывать реальную ценность данных.
#аналитика #деньги #статьи
👍5🙏3❤🔥2🔥1
Сколько денег уйдет на модернизацию дата-центров в ближайшие 5 лет
По прогнозам McKinsey, к 2030 году мировые расходы на расширение и модернизацию дата-центров достигнут $6,7 трлн, из которых $5,2 трлн — только на удовлетворение потребностей ИИ.
Это базовый сценарий. При ускоренном росте к 2030 году на покрытие ИИ-потребностей уйдет и того больше — $7,9 трлн.
Откуда такие цифры?
Потребление искусственным интеллектом электричества стабильно растет. Если график этого роста продлить до 2030 года, то выйдет, что через 5 лет ИИ потребует дополнительных 156 ГВт.
Остается посчитать, сколько будет стоить произвести 156 ГВт энергии и нарастить сами вычислительные мощности.
И в McKinsey посчитали:
- $0,8 трлн на землю и строительство.
- $1,3 трлн на электроснабжение и охлаждение.
- $3,1 трлн на оборудование.
Итого $5,2 трлн.
Очевидное невероятное:
На возобновляемые источники приходится 33% в энергетическом балансе дата-центров. К 2030 году их доля может вырасти до 50%, если вложить еще $1 трлн в чистую энергогенерацию и сеть.
Верим?
#ии #деньги #исследования
По прогнозам McKinsey, к 2030 году мировые расходы на расширение и модернизацию дата-центров достигнут $6,7 трлн, из которых $5,2 трлн — только на удовлетворение потребностей ИИ.
Это базовый сценарий. При ускоренном росте к 2030 году на покрытие ИИ-потребностей уйдет и того больше — $7,9 трлн.
Откуда такие цифры?
Потребление искусственным интеллектом электричества стабильно растет. Если график этого роста продлить до 2030 года, то выйдет, что через 5 лет ИИ потребует дополнительных 156 ГВт.
Остается посчитать, сколько будет стоить произвести 156 ГВт энергии и нарастить сами вычислительные мощности.
И в McKinsey посчитали:
- $0,8 трлн на землю и строительство.
- $1,3 трлн на электроснабжение и охлаждение.
- $3,1 трлн на оборудование.
Итого $5,2 трлн.
Очевидное невероятное:
На возобновляемые источники приходится 33% в энергетическом балансе дата-центров. К 2030 году их доля может вырасти до 50%, если вложить еще $1 трлн в чистую энергогенерацию и сеть.
Верим?
#ии #деньги #исследования
👍4❤🔥2⚡2🔥2
Кейс: как наружка заменяет таргетинг. И причем тут большие данные и нейросети
Рекламные бюджеты все чаще уходят в цифру, но коллаборация Билайна и Делимобиля показывает: наружная реклама может быть не менее эффективной, особенно когда ее подкрепляет аналитика больших данных и ИИ.
Суть проекта
Делимобиль разместил стикеры на 300 авто в Москве, чтобы продвинуть новый сервис. Раньше метрики ограничивались подсчетом арендаторов оклеенных машин каршеринга, но это не отражало реального охвата — рекламу видели и пешеходы, и другие водители. Задача была амбициозной: оцифровать охват, частоту контактов и процент аудитории, которая фактически видела сообщение.
Роль больших данных и искусственного интеллекта
1. Геоданные от Делимобиля
Автомобили оснащены телематикой, фиксирующей их местоположение каждые 5–10 секунд. Это дало точную карту маршрутов.
2. Анонимизированные данные Билайна
Сотовый оператор предоставил агрегированные данные о перемещении людей через нагрузку на базовые станции. Так можно было определить, сколько пользователей находились рядом с рекламными авто.
3. Искусственный интеллект для очистки данных
Алгоритмы исключили шум — места вроде торговых центров или развязок, где высокая проходимость не гарантирует внимания к рекламе. Также ИИ сегментировал аудиторию и рассчитал частоту контактов.
Результаты, которые перевернули подход к наружке
Охват: 7,6 млн уникальных пользователей за кампанию против прежних 100 тысяч (только арендаторы).
Частота: до 20 контактов с сообщением на человека.
39% жителей Москвы увидели рекламу уже в первый месяц.
Парковки против движения: припаркованные машины генерировали на 16% больше просмотров благодаря пешеходному трафику. Старыми методами аналитики это вообще не учитывалось.
Вывод
Этот кейс — пример того, как большие данные и ИИ превращают наружную рекламу в умный инструмент с измеримой эффективностью. Вместо точечного таргетинга — широкий охват с аналитикой, которая раньше была недоступна. Для брендов это шанс выйти за рамки диджитал-пузыря и достучаться до аудитории там, где она живет: в офлайне.
Поделитесь со знакомыми таргетологами. Интересно, что они скажут.
#ии #аналитика #деньги
Рекламные бюджеты все чаще уходят в цифру, но коллаборация Билайна и Делимобиля показывает: наружная реклама может быть не менее эффективной, особенно когда ее подкрепляет аналитика больших данных и ИИ.
Суть проекта
Делимобиль разместил стикеры на 300 авто в Москве, чтобы продвинуть новый сервис. Раньше метрики ограничивались подсчетом арендаторов оклеенных машин каршеринга, но это не отражало реального охвата — рекламу видели и пешеходы, и другие водители. Задача была амбициозной: оцифровать охват, частоту контактов и процент аудитории, которая фактически видела сообщение.
Роль больших данных и искусственного интеллекта
1. Геоданные от Делимобиля
Автомобили оснащены телематикой, фиксирующей их местоположение каждые 5–10 секунд. Это дало точную карту маршрутов.
2. Анонимизированные данные Билайна
Сотовый оператор предоставил агрегированные данные о перемещении людей через нагрузку на базовые станции. Так можно было определить, сколько пользователей находились рядом с рекламными авто.
3. Искусственный интеллект для очистки данных
Алгоритмы исключили шум — места вроде торговых центров или развязок, где высокая проходимость не гарантирует внимания к рекламе. Также ИИ сегментировал аудиторию и рассчитал частоту контактов.
Результаты, которые перевернули подход к наружке
Охват: 7,6 млн уникальных пользователей за кампанию против прежних 100 тысяч (только арендаторы).
Частота: до 20 контактов с сообщением на человека.
39% жителей Москвы увидели рекламу уже в первый месяц.
Парковки против движения: припаркованные машины генерировали на 16% больше просмотров благодаря пешеходному трафику. Старыми методами аналитики это вообще не учитывалось.
Вывод
Этот кейс — пример того, как большие данные и ИИ превращают наружную рекламу в умный инструмент с измеримой эффективностью. Вместо точечного таргетинга — широкий охват с аналитикой, которая раньше была недоступна. Для брендов это шанс выйти за рамки диджитал-пузыря и достучаться до аудитории там, где она живет: в офлайне.
Поделитесь со знакомыми таргетологами. Интересно, что они скажут.
#ии #аналитика #деньги
👍5❤🔥4🔥3👌1
Архитектура_и_моделирование_данных.pdf
560 KB
Рекомендации по архитектуре и моделированию данных от Банка России
Свежее руководство для организаций, стремящихся систематизировать работу с данными и повысить их ценность для бизнеса.
Что внутри?
Практические инструменты: шаблоны, концептуальные модели, регламенты, метрики эффективности, примеры типовых проблем и решений.
В рекомендациях учитывается как внутренняя разработка, так и интеграция с коробочными айти-решениями. Авторы сделали акцент на гибкость и адаптивность архитектуры данных к изменениям бизнес-требований.
Кому пригодится?
Участникам финансового рынка: банкам, страховым компаниям, инвестиционным фондам.
Специалистам по данным: архитекторам, руководителям айти-проектов, аналитикам.
Руководителям, заинтересованным в трансформации управления данными и повышении зрелости СУД.
Делитесь с коллегами из финансового сектора.
#деньги
Свежее руководство для организаций, стремящихся систематизировать работу с данными и повысить их ценность для бизнеса.
Что внутри?
Практические инструменты: шаблоны, концептуальные модели, регламенты, метрики эффективности, примеры типовых проблем и решений.
В рекомендациях учитывается как внутренняя разработка, так и интеграция с коробочными айти-решениями. Авторы сделали акцент на гибкость и адаптивность архитектуры данных к изменениям бизнес-требований.
Кому пригодится?
Участникам финансового рынка: банкам, страховым компаниям, инвестиционным фондам.
Специалистам по данным: архитекторам, руководителям айти-проектов, аналитикам.
Руководителям, заинтересованным в трансформации управления данными и повышении зрелости СУД.
Делитесь с коллегами из финансового сектора.
#деньги
👍5🙏4🔥2❤🔥1
Смерть оригинальности
Современное кино намеренно убивает оригинальность. Оригинальные сценарии не пускают в производство, потому что оригинальность непредсказуема, а непредсказуемость приносит киностудиям убытки.
Как же быть? Надо быть, как Доктор Стрендж с камнем времени. Просто загляните в будущее и узнаете, какой фильм понравится публике, а какой нет.
Как? С помощью дата-аналитики, конечно.
Если вы не смотрели «Карточный домик» с отмененным Кевином Спейси, то наверняка хотя бы слышали про него. Если бы не дата-аналитики, этот сериал не случился бы.
Обычно все устроено так: нашли сценарий, собрали актеров, наняли режиссера, сняли пилотную серию, показали и только потом вам разрешат тратить большие деньги на производство. Пилотный выпуск — типа MVP в мире телевидения.
И в 2011 году в Нетфликсе поступили немыслимо самонадеянно: сразу заказали в производство 2 сезона «Карточного домика», съемки которых обошлись в $100 млн. Без пилотной серии и сомнений в будущем успехе.
Почему они так рискнули?
Риска не было. Аналитики сопоставили 3 фактора, обработав колоссальные объемы данных: зрителям нравятся сериалы с Кевином Спейси, зрители любят Дэвида Финчера, просмотры политических драм растут.
В Нетфликсе предсказали 20 млн зрителей в первый месяц, фактически вышло 23. Это невероятная точность для кинобизнеса.
Отрывок из книги Бена Фритца «Битва за прокат. Как легендарные франшизы убивают оригинальность в Голливуде»:
То, что режиссеры-визионеры создавали, прислушиваясь к своему профессиональному чутью и таланту мировосприятия, Нетфликс оцифровал, разложил на дашборды и поставил на конвейер.
Сегодня в Нетфликсе работает 350 собственных исследователей, ML-инженеров и аналитиков. В Диснее, Ворнер Бразерс и Юниверсал по 100-200 человек в командах Data & Analytics, Marketing Science и Audience Insights.
Эпоха, когда ради сборов в фильме нужно было непременно снять звезду, прошла. Раньше гарантировать прибыль могли только те проекты, у которых хватало бюджета на заоблачные гонорары Тому Крузу, Брэду Питту и Ди Каприо. Сегодня можно обойтись без актеров первого эшелона, если вместо них пригласить дата-аналитиков.
Первые Мстители не произвели фурора в китайских кинотеатрах? Изучите, сколько экранного времени у китайских актеров в западных фильмах, тепло встреченных китайской публикой. Если у ваших китайцев этого времени меньше, поправьте сценарий.
Если не знаете, какого персонажа следующим лучше ввести в сюжет, чтобы история была более захватывающей, то вы не о том думаете. Хотите, чтобы зрителю понравился новый герой? Обратитесь к исследованиям в других индустриях: от каких игрушек дети пищат и какие принты на футболках у взрослых фанатов?
Причем тут Человек Паук?
Не только дата-аналитики убили оригинальность, но и киновселенные.
Зачем рисковать, снимая фильм по оригинальному сценарию, если можно просто выпустить следующую часть успешной франшизы? А началось засилие кинофраншиз не с киновселенной Марвел, а с Человека Паука в исполнении Тоби Магуайра.
Теперь кино — это про простые и развлекательные проекты, а телевидение и сериалы — про сложные авторские идеи. Все перевернулось, как только пришли аналитики и начали считать.
#аналитика #деньги
Современное кино намеренно убивает оригинальность. Оригинальные сценарии не пускают в производство, потому что оригинальность непредсказуема, а непредсказуемость приносит киностудиям убытки.
Как же быть? Надо быть, как Доктор Стрендж с камнем времени. Просто загляните в будущее и узнаете, какой фильм понравится публике, а какой нет.
Как? С помощью дата-аналитики, конечно.
Если вы не смотрели «Карточный домик» с отмененным Кевином Спейси, то наверняка хотя бы слышали про него. Если бы не дата-аналитики, этот сериал не случился бы.
Обычно все устроено так: нашли сценарий, собрали актеров, наняли режиссера, сняли пилотную серию, показали и только потом вам разрешат тратить большие деньги на производство. Пилотный выпуск — типа MVP в мире телевидения.
И в 2011 году в Нетфликсе поступили немыслимо самонадеянно: сразу заказали в производство 2 сезона «Карточного домика», съемки которых обошлись в $100 млн. Без пилотной серии и сомнений в будущем успехе.
Почему они так рискнули?
Риска не было. Аналитики сопоставили 3 фактора, обработав колоссальные объемы данных: зрителям нравятся сериалы с Кевином Спейси, зрители любят Дэвида Финчера, просмотры политических драм растут.
В Нетфликсе предсказали 20 млн зрителей в первый месяц, фактически вышло 23. Это невероятная точность для кинобизнеса.
Отрывок из книги Бена Фритца «Битва за прокат. Как легендарные франшизы убивают оригинальность в Голливуде»:
Если Нетфликс не может рассчитывать на Голливуд [телеканалы и студии отказывались продавать Нетфликсу контент, видя в нем опасного конкурента], значит, ему придется производить контент самому. Но процесс его отбора должен быть совершенно иным. Вместо того чтобы полагаться на фокус-группы, субъективные сравнения с аналогичным контентом и интуицию руководителей, Нетфликс использовал данные.
То, что режиссеры-визионеры создавали, прислушиваясь к своему профессиональному чутью и таланту мировосприятия, Нетфликс оцифровал, разложил на дашборды и поставил на конвейер.
Сегодня в Нетфликсе работает 350 собственных исследователей, ML-инженеров и аналитиков. В Диснее, Ворнер Бразерс и Юниверсал по 100-200 человек в командах Data & Analytics, Marketing Science и Audience Insights.
Эпоха, когда ради сборов в фильме нужно было непременно снять звезду, прошла. Раньше гарантировать прибыль могли только те проекты, у которых хватало бюджета на заоблачные гонорары Тому Крузу, Брэду Питту и Ди Каприо. Сегодня можно обойтись без актеров первого эшелона, если вместо них пригласить дата-аналитиков.
Первые Мстители не произвели фурора в китайских кинотеатрах? Изучите, сколько экранного времени у китайских актеров в западных фильмах, тепло встреченных китайской публикой. Если у ваших китайцев этого времени меньше, поправьте сценарий.
Если не знаете, какого персонажа следующим лучше ввести в сюжет, чтобы история была более захватывающей, то вы не о том думаете. Хотите, чтобы зрителю понравился новый герой? Обратитесь к исследованиям в других индустриях: от каких игрушек дети пищат и какие принты на футболках у взрослых фанатов?
Причем тут Человек Паук?
Не только дата-аналитики убили оригинальность, но и киновселенные.
Зачем рисковать, снимая фильм по оригинальному сценарию, если можно просто выпустить следующую часть успешной франшизы? А началось засилие кинофраншиз не с киновселенной Марвел, а с Человека Паука в исполнении Тоби Магуайра.
Теперь кино — это про простые и развлекательные проекты, а телевидение и сериалы — про сложные авторские идеи. Все перевернулось, как только пришли аналитики и начали считать.
#аналитика #деньги
👍8❤🔥6🎉4
Искусственный интеллект в российском здравоохранении
В Superjob выяснили, что только 1% россиян готов довериться искусственному интеллекту в случае болезни. При этом в «Яков и Партнеры» и «Медси» считают, что к 2030 году российский рынок ИИ в медицине может вырасти в 6 раз и достичь ₽78 млрд.
Мнение людей:
- В случае болезни 52% россиян предпочли бы, чтобы их лечил человек с применением ИИ, 38% хотят, чтобы в лечении принимал участие только человек, 1% — чтобы только ИИ.
- Полностью или частично довериться искусственному интеллекту готовы 57% мужчин и 44% женщин. К применению ИИ более склонны люди до 35 лет (53%) и россияне с доходом от 100 тысяч (54%).
- 38% респондентов против ИИ в медицине. Их основные аргументы: «ИИ недостаточно развит», «Человека должен лечить только человек», «Должна быть ответственность за диагноз и лечение».
Мнение аналитиков:
- Российский рынок ИИ в медицине может вырасти более чем в шесть раз и достигнуть ₽78 млрд к 2030 году, составив 1% от мирового. В 2024 году показатель находился на уровне ₽12 млрд. Рост заметен и на мировом рынке: в 2024 году он оценивался в $22 млрд, а через пять лет показатель увеличится до $130–160 млрд, доля медицины составит около 8% всего рынка ИИ (расчет на основе данных MarketsandMarkets, Grand View Research).
- Всего эксперты выделили четыре направления продуктов с наибольшим потенциалом внедрения в российских медицинских учреждениях: цифровые ассистенты, клиническая сводка, помощник врача, экспертный контроль. Их объем к 2030 году может составить ₽65 млрд.
- Отдельно аналитики рассмотрели продуктовое и техническое описание этих четырех групп продуктов, в частности обозначили основные риски их внедрения. Для категории «Цифровые ассистенты» это галлюцинации и низкое качество ответов; для «Клинической сводки» — ошибки и галлюцинации в суммаризации, в том числе упущение фактов из анамнеза; для «Помощника врача» — потеря важной информации из транскрипта на этапе суммаризации, а для «Экспертного контроля» — недоверие врачей к рекомендациям, подсказкам и предиктивным моделям.
Думаем, здесь нет противоречия. Врачи будут пользоваться ИИ, вряд ли этому что-то помешает. Но вот собственную практику машине не дадут открыть, все-таки принимать решение должен врач. Хотя бы потому, что его можно наказать, если что.
#ии #деньги
В Superjob выяснили, что только 1% россиян готов довериться искусственному интеллекту в случае болезни. При этом в «Яков и Партнеры» и «Медси» считают, что к 2030 году российский рынок ИИ в медицине может вырасти в 6 раз и достичь ₽78 млрд.
Мнение людей:
- В случае болезни 52% россиян предпочли бы, чтобы их лечил человек с применением ИИ, 38% хотят, чтобы в лечении принимал участие только человек, 1% — чтобы только ИИ.
- Полностью или частично довериться искусственному интеллекту готовы 57% мужчин и 44% женщин. К применению ИИ более склонны люди до 35 лет (53%) и россияне с доходом от 100 тысяч (54%).
- 38% респондентов против ИИ в медицине. Их основные аргументы: «ИИ недостаточно развит», «Человека должен лечить только человек», «Должна быть ответственность за диагноз и лечение».
Мнение аналитиков:
- Российский рынок ИИ в медицине может вырасти более чем в шесть раз и достигнуть ₽78 млрд к 2030 году, составив 1% от мирового. В 2024 году показатель находился на уровне ₽12 млрд. Рост заметен и на мировом рынке: в 2024 году он оценивался в $22 млрд, а через пять лет показатель увеличится до $130–160 млрд, доля медицины составит около 8% всего рынка ИИ (расчет на основе данных MarketsandMarkets, Grand View Research).
- Всего эксперты выделили четыре направления продуктов с наибольшим потенциалом внедрения в российских медицинских учреждениях: цифровые ассистенты, клиническая сводка, помощник врача, экспертный контроль. Их объем к 2030 году может составить ₽65 млрд.
- Отдельно аналитики рассмотрели продуктовое и техническое описание этих четырех групп продуктов, в частности обозначили основные риски их внедрения. Для категории «Цифровые ассистенты» это галлюцинации и низкое качество ответов; для «Клинической сводки» — ошибки и галлюцинации в суммаризации, в том числе упущение фактов из анамнеза; для «Помощника врача» — потеря важной информации из транскрипта на этапе суммаризации, а для «Экспертного контроля» — недоверие врачей к рекомендациям, подсказкам и предиктивным моделям.
Думаем, здесь нет противоречия. Врачи будут пользоваться ИИ, вряд ли этому что-то помешает. Но вот собственную практику машине не дадут открыть, все-таки принимать решение должен врач. Хотя бы потому, что его можно наказать, если что.
#ии #деньги
❤🔥3👍3🔥2👌2
Шифрование больших данных — это не издержки, а экономия
На SSRN опубликовали исследование о том, как шифрование помогает экономить миллионы долларов компаниям, использующим большие данные.
Название, если не боитесь сломать язык:«Изучение экономического влияния утечек данных и роли технологий шифрования в снижении финансовых потерь для компаний, использующих аналитику больших данных для персонализированного маркетинга».
Кейсы
В исследовании разобраны 2 примера.
Первый:
Хакеры взломали базу онлайн-ритейлера на 50 млн клиентов с адресами, именами и номерами кредиток. Данные были зашифрованы с помощью AES-256, и злоумышленники не получили к ним доступ.
Компания избежала убытков в $200 млн: $120 млн на штрафы GDPR (до 4% годового оборота), $50 млн — на юридические издержки и компенсации и $30 млн — на восстановление репутации.
Среднее время восстановления (MTTR) сократилось на 61%: с 72 до 28 часов, потому что не требовалась полная перестройка хранилищ и индексов: достаточно было заменить ключи и провести тестирование среды.
Второй:
В аналитической платформе банка было 80 млн записей о транзакциях. Внедрение AES-256 для данных в покое и TLS 1.3 для данных в пути сократило расходы на ликвидацию последствий взлома на 45%: с €90 млн до €49,5 млн.
MTTR снизился на 53%: с 96 до 45 часов. Ежеквартальные затраты на аудит ключей и протоколов составляют всего €50–75 тысяч, а каждые полгода ротация ключей обходится примерно в €30 тысяч.
Выводы
Современные протоколы шифрования AES-256 для данных в покое и TLS 1.3 для данных в пути снижают затраты на ликвидацию последствий утечек в среднем на 60%, а также сокращают время простоя систем на 50–60%.
Кроме прямой экономии на штрафах и юридических издержках шифрование повышает лояльность клиентов. Компании, раскрывающие меры защиты, удерживают на 15% больше пользователей. Повышенная скорость обработки данных дает прирост выручки за счет более точной персонализации. Даже при ежегодных расходах на поддержку шифрования окупаемость достигается уже после первой серьезной утечки.
Не то чтобы мы всего этого не знали, но теперь у нас есть пруфы.
#деньги #исследования
На SSRN опубликовали исследование о том, как шифрование помогает экономить миллионы долларов компаниям, использующим большие данные.
Название, если не боитесь сломать язык:
Кейсы
В исследовании разобраны 2 примера.
Первый:
Хакеры взломали базу онлайн-ритейлера на 50 млн клиентов с адресами, именами и номерами кредиток. Данные были зашифрованы с помощью AES-256, и злоумышленники не получили к ним доступ.
Компания избежала убытков в $200 млн: $120 млн на штрафы GDPR (до 4% годового оборота), $50 млн — на юридические издержки и компенсации и $30 млн — на восстановление репутации.
Среднее время восстановления (MTTR) сократилось на 61%: с 72 до 28 часов, потому что не требовалась полная перестройка хранилищ и индексов: достаточно было заменить ключи и провести тестирование среды.
Второй:
В аналитической платформе банка было 80 млн записей о транзакциях. Внедрение AES-256 для данных в покое и TLS 1.3 для данных в пути сократило расходы на ликвидацию последствий взлома на 45%: с €90 млн до €49,5 млн.
MTTR снизился на 53%: с 96 до 45 часов. Ежеквартальные затраты на аудит ключей и протоколов составляют всего €50–75 тысяч, а каждые полгода ротация ключей обходится примерно в €30 тысяч.
Выводы
Современные протоколы шифрования AES-256 для данных в покое и TLS 1.3 для данных в пути снижают затраты на ликвидацию последствий утечек в среднем на 60%, а также сокращают время простоя систем на 50–60%.
Кроме прямой экономии на штрафах и юридических издержках шифрование повышает лояльность клиентов. Компании, раскрывающие меры защиты, удерживают на 15% больше пользователей. Повышенная скорость обработки данных дает прирост выручки за счет более точной персонализации. Даже при ежегодных расходах на поддержку шифрования окупаемость достигается уже после первой серьезной утечки.
Не то чтобы мы всего этого не знали, но теперь у нас есть пруфы.
#деньги #исследования
👍4🔥4❤🔥3❤2
Перспективы развития рынка СУБД до 2031 года
В ЦСР выкатили исследование «Рынок систем управления и обработки данных в России: текущее состояние и перспективы развития до 2031 года».
Разбираемся в главных инсайтах и прогнозах.
Объем рынка
Общая оценка по итогам 2024 года — ₽90 млрд. К 2031 году объем рынка вырастет на 180% и составит ₽251 млрд.
Проекты «Экономика данных» (₽1,4 трлн) и «Цифровое государственное управление» (₽0,5 трлн) нуждаются в больших цифровых платформах для всех ключевых отраслей. Так что этот сценарий кажется даже не оптимистичным, а вполне себе базовым.
Топ 10 компаний
На десятку лидеров приходится 28% рынка.
1. PostgresPro — 10,4% (₽9,3 млрд)
2. Группа Arenadata — 6,7% (₽6 млрд)
3. Yandex Cloud — 2,5% (₽2,2 млрд)
4. DIS Group — 2,2% (₽2 млрд)
5. Тантор Лабс — 1,5% (₽1,4 млрд)
6. VK Tech — 0,8% (₽0,7 млрд)
7. Ростелеком — 0,7% (₽0,6 млрд)
8. СберТех — 0,3% (₽0,3 млрд)
9. Газинформсервис — 0,3% (₽0,3 млрд)
10. Orion Soft — 0,2% (₽0,2 млрд)
Импортозамещение
В 2024 году доля продаж зарубежного ПО на рынке СУБД и сервисов составила около 10%, при этом в инсталлированной базе все еще более 60% активных СУБД — зарубежные решения.
Около 58% опрошенных считают, что западные вендоры могут вернуться на российский рынок до 2031 года, но уже не на доминирующие позиции.
К 2031 году российские вендоры могут захватить до 99% новых продаж СУБД, однако высокий уровень установленной базы западных решений сохранится.
Импортозамещение останется главным драйвером роста до 2027 года, после чего ключевыми станут ИИ-технологии, цифровизация отраслей и экспорт российских решений в дружественные страны.
#субд #деньги #исследования
В ЦСР выкатили исследование «Рынок систем управления и обработки данных в России: текущее состояние и перспективы развития до 2031 года».
Разбираемся в главных инсайтах и прогнозах.
Объем рынка
Общая оценка по итогам 2024 года — ₽90 млрд. К 2031 году объем рынка вырастет на 180% и составит ₽251 млрд.
Проекты «Экономика данных» (₽1,4 трлн) и «Цифровое государственное управление» (₽0,5 трлн) нуждаются в больших цифровых платформах для всех ключевых отраслей. Так что этот сценарий кажется даже не оптимистичным, а вполне себе базовым.
Топ 10 компаний
На десятку лидеров приходится 28% рынка.
1. PostgresPro — 10,4% (₽9,3 млрд)
2. Группа Arenadata — 6,7% (₽6 млрд)
3. Yandex Cloud — 2,5% (₽2,2 млрд)
4. DIS Group — 2,2% (₽2 млрд)
5. Тантор Лабс — 1,5% (₽1,4 млрд)
6. VK Tech — 0,8% (₽0,7 млрд)
7. Ростелеком — 0,7% (₽0,6 млрд)
8. СберТех — 0,3% (₽0,3 млрд)
9. Газинформсервис — 0,3% (₽0,3 млрд)
10. Orion Soft — 0,2% (₽0,2 млрд)
Импортозамещение
В 2024 году доля продаж зарубежного ПО на рынке СУБД и сервисов составила около 10%, при этом в инсталлированной базе все еще более 60% активных СУБД — зарубежные решения.
Около 58% опрошенных считают, что западные вендоры могут вернуться на российский рынок до 2031 года, но уже не на доминирующие позиции.
К 2031 году российские вендоры могут захватить до 99% новых продаж СУБД, однако высокий уровень установленной базы западных решений сохранится.
Импортозамещение останется главным драйвером роста до 2027 года, после чего ключевыми станут ИИ-технологии, цифровизация отраслей и экспорт российских решений в дружественные страны.
#субд #деньги #исследования
🔥8❤🔥5👍5
Российский рынок СХД в 2025 году
В CNews опубликовали карту и обзор российского рынка СХД, а в Аквариусе — исследование практики использования СХД в российских компаниях.
Разбираемся, что да как.
По оценке CNews, объем всего российского рынка СХД в 2024 составил ₽50 млрд, а в 2025 вырастет на 8% до ₽54 млрд.
При этом спрос смещается в пользу отечественных решений. Если в 2024 только 34% крупных компаний использовали российские СХД, то в планы закупок на 2025 российские СХД включили уже в 41% таких компаний. Доля иностранных решений, наоборот, снизилась с 55% до 31%.
В опросе 75% респондентов назвали приоритетной задачей виртуализацию, 73% — файловые хранилища, а 63% — резервное копирование, что подчеркивает многообразие сценариев использования.
По данным IDC, ключевым драйвером мирового рынка СХД остается экспоненциальный рост объемов данных. Может и так. Но куда важнее понимать качественные, а не количественные изменения на рынке:
Главным трендом первой половины 2025 стало резкое смещение к объектным хранилищам, которые из дополнительного решения превратились в самый востребованный сегмент. Они позволяют консолидировать горячие и холодные данные в рамках единого пула, снижая TCO и обеспечивая высокие показатели IOPS за счет параллельной архитектуры.
С одной стороны, по данным опроса Аквариуса, уже сейчас 89% компаний, использующих российские СХД, довольны качеством решений. С другой стороны, в CNews говорят, что хотя российские СХД активно догоняют западные аналоги, у них все еще существуют узкие места:
- Ограниченная горизонтальная и вертикальная масштабируемость.
- Более узкий функционал управления.
- Отсутствие полноценного GUI.
Это все еще вынуждает некоторых заказчиков обращаться к импортным решениям в самых критичных сценариях.
Однако господдержка работает и создает благоприятные условия для развития отечественных продуктов. По прогнозам, в 2025–2026 спрос на российские СХД в сегменте начального и среднего уровня вырастет ещё на 30–40%.
#деньги #исследования
В CNews опубликовали карту и обзор российского рынка СХД, а в Аквариусе — исследование практики использования СХД в российских компаниях.
Разбираемся, что да как.
По оценке CNews, объем всего российского рынка СХД в 2024 составил ₽50 млрд, а в 2025 вырастет на 8% до ₽54 млрд.
При этом спрос смещается в пользу отечественных решений. Если в 2024 только 34% крупных компаний использовали российские СХД, то в планы закупок на 2025 российские СХД включили уже в 41% таких компаний. Доля иностранных решений, наоборот, снизилась с 55% до 31%.
В опросе 75% респондентов назвали приоритетной задачей виртуализацию, 73% — файловые хранилища, а 63% — резервное копирование, что подчеркивает многообразие сценариев использования.
По данным IDC, ключевым драйвером мирового рынка СХД остается экспоненциальный рост объемов данных. Может и так. Но куда важнее понимать качественные, а не количественные изменения на рынке:
Главным трендом первой половины 2025 стало резкое смещение к объектным хранилищам, которые из дополнительного решения превратились в самый востребованный сегмент. Они позволяют консолидировать горячие и холодные данные в рамках единого пула, снижая TCO и обеспечивая высокие показатели IOPS за счет параллельной архитектуры.
С одной стороны, по данным опроса Аквариуса, уже сейчас 89% компаний, использующих российские СХД, довольны качеством решений. С другой стороны, в CNews говорят, что хотя российские СХД активно догоняют западные аналоги, у них все еще существуют узкие места:
- Ограниченная горизонтальная и вертикальная масштабируемость.
- Более узкий функционал управления.
- Отсутствие полноценного GUI.
Это все еще вынуждает некоторых заказчиков обращаться к импортным решениям в самых критичных сценариях.
Однако господдержка работает и создает благоприятные условия для развития отечественных продуктов. По прогнозам, в 2025–2026 спрос на российские СХД в сегменте начального и среднего уровня вырастет ещё на 30–40%.
#деньги #исследования
❤🔥4👍3🔥3
Почему фактический бюджет на внедрение BI в 2-4 раза выше запланированного
Ребята из GlowByte в статье на Хабре разобрали причины.
Помимо очевидных расходов на лицензии и оборудование, существуют затраты на интеграцию, доработку отчетов, миграцию данных, тестирование, обучение и поддержку. В 80% проектов фактический бюджет оказывается в 2-4 раза выше запланированного, а до 40% расходов и вовсе изначально не были предусмотрены сметой.
Если собрать в кучу разрозненные подсчеты авторов статьи, получится примерно следующее:
1. Интеграция с существующими системами (ERP, CRM): 20-40% от базового бюджета
Компании часто полагают, что штатные коннекторы из коробки справятся с задачей, и не закладывают дополнительные ресурсы на анализ форматов, разработку адаптивных API и обработку ошибок при нестабильности источников.
2. Подготовка и перенос исторических данных: 10-15% от базового бюджета
Руководство склонно считать, что данные просто выгрузятся из старых систем, не учитывая потребности в очистке, нормализации и многократных тестовых прогонах, что приводит к недооценке трудозатрат на валидацию и исправление дырявых записей.
3. Настройка ETL-процессов: 30-35% от базового бюджета
Часто исходят из предположения, что стандартные схемы загрузки подходят под любые сценарии, и не предусматривают времени на адаптацию бизнес-правил, переработку справочников и доработку конвейеров под уникальную структуру данных.
4. Кастомизация отчетов и дашбордов: 20-25% от базового бюджета
Компаниям кажется, что типовых шаблонов достаточно, поэтому они до последнего откладывают обсуждение специфических KPI и интерактивных элементов, из-за чего потом приходится перерабатывать функциональные решения на коленке.
5. Многоступенчатое тестирование (unit-, интеграционные и UAT-сценарии): 10-15% от базового бюджета
Полагают, что можно сэкономить время за счет сокращения тестовых итераций, не учитывая, что обнаружение ошибок на продакшене оборачивается простоем и откатом, который в разы дороже любого планового QA.
6. Ежегодная поддержка и развитие BI: 15-20% от первоначального бюджета
Менеджеры иногда считают, что после запуска, когда проект сдан в эксплуатацию, деньги больше не нужны, и не закладывают в смету расходы на мониторинг, апдейты, обучение новых сотрудников и расширение инфраструктуры, хотя без этого BI быстро теряет актуальность.
Мораль:
Если недосчитать бюджет до начала работ, то после вы недосчитаетесь ROI.
#деньги #аналитика #статьи
Ребята из GlowByte в статье на Хабре разобрали причины.
Помимо очевидных расходов на лицензии и оборудование, существуют затраты на интеграцию, доработку отчетов, миграцию данных, тестирование, обучение и поддержку. В 80% проектов фактический бюджет оказывается в 2-4 раза выше запланированного, а до 40% расходов и вовсе изначально не были предусмотрены сметой.
Если собрать в кучу разрозненные подсчеты авторов статьи, получится примерно следующее:
1. Интеграция с существующими системами (ERP, CRM): 20-40% от базового бюджета
Компании часто полагают, что штатные коннекторы из коробки справятся с задачей, и не закладывают дополнительные ресурсы на анализ форматов, разработку адаптивных API и обработку ошибок при нестабильности источников.
2. Подготовка и перенос исторических данных: 10-15% от базового бюджета
Руководство склонно считать, что данные просто выгрузятся из старых систем, не учитывая потребности в очистке, нормализации и многократных тестовых прогонах, что приводит к недооценке трудозатрат на валидацию и исправление дырявых записей.
3. Настройка ETL-процессов: 30-35% от базового бюджета
Часто исходят из предположения, что стандартные схемы загрузки подходят под любые сценарии, и не предусматривают времени на адаптацию бизнес-правил, переработку справочников и доработку конвейеров под уникальную структуру данных.
4. Кастомизация отчетов и дашбордов: 20-25% от базового бюджета
Компаниям кажется, что типовых шаблонов достаточно, поэтому они до последнего откладывают обсуждение специфических KPI и интерактивных элементов, из-за чего потом приходится перерабатывать функциональные решения на коленке.
5. Многоступенчатое тестирование (unit-, интеграционные и UAT-сценарии): 10-15% от базового бюджета
Полагают, что можно сэкономить время за счет сокращения тестовых итераций, не учитывая, что обнаружение ошибок на продакшене оборачивается простоем и откатом, который в разы дороже любого планового QA.
6. Ежегодная поддержка и развитие BI: 15-20% от первоначального бюджета
Менеджеры иногда считают, что после запуска, когда проект сдан в эксплуатацию, деньги больше не нужны, и не закладывают в смету расходы на мониторинг, апдейты, обучение новых сотрудников и расширение инфраструктуры, хотя без этого BI быстро теряет актуальность.
Мораль:
Если недосчитать бюджет до начала работ, то после вы недосчитаетесь ROI.
#деньги #аналитика #статьи
❤🔥4👍4🔥3
Сколько зарабатывают на больших данных в крупной промышленности
В Ведомостях пишут, что в 2023 году крупные промышленные компании увеличили инвестиции в большие данные и аналитику до 23% от операционного бюджета, а в 2024 году — до 30%.
Потому что увидели эффект:
При работе с большими данными расходы на производство и логистику сокращаются на 15-30%, еще на 30% сокращаются простои техники.
В нефтянке от внедрения технологии маржа увеличивается на 1-2%: в России это дало бы ₽100 млрд для Роснефти и ₽320 млрд для всей отрасли в год.
Где клад зарыт
Недавно компания De Beers, которая добывает алмазы в Ботсване уже 54 года, сократила время на разведку месторождений на 40% за счет анализа спутниковых данных.
Предположим, что затраты на разведку пропорциональны их продолжительности. Тогда в De Beers экономят $20 млн в год. Почти столько же могли бы экономить и в Алросе — $19 млн, то есть ₽1,5 млрд.
Кто не работает, тот ест
В грузовом парке горнодобывающей компании Anglo American внедрили прогнозное техническое обслуживание на основе анализа данных и искусственного интеллекта. Это сократило внеплановые простои на 30%.
Если до внедрения компания теряла до 1200 часов на простоях в год, то после обкатки технологии начала экономить до $45 млн ежегодно.
А у нас в квартире газ
По данным IDC и РАЭК, рынок больших данных в России растет на 15-25% в год, а в промышленности — аж на 30%.
Так что с внедрением больших данных и аналитики, включая цифровых двойников, у нас все хорошо.
Самые популярные кейсы в промышленности связаны с прогнозом ремонта оборудования. Это потенциально снижает затраты на ремонт от 15 до 30%.
Пофантазируем немного.
Если завтра на всех российских предприятиях внедрят системы предикативного обслуживания станков и техники, то суммарно сэкономят более ₽7 трлн за год.
#деньги #статьи
В Ведомостях пишут, что в 2023 году крупные промышленные компании увеличили инвестиции в большие данные и аналитику до 23% от операционного бюджета, а в 2024 году — до 30%.
Потому что увидели эффект:
При работе с большими данными расходы на производство и логистику сокращаются на 15-30%, еще на 30% сокращаются простои техники.
В нефтянке от внедрения технологии маржа увеличивается на 1-2%: в России это дало бы ₽100 млрд для Роснефти и ₽320 млрд для всей отрасли в год.
Где клад зарыт
Недавно компания De Beers, которая добывает алмазы в Ботсване уже 54 года, сократила время на разведку месторождений на 40% за счет анализа спутниковых данных.
Предположим, что затраты на разведку пропорциональны их продолжительности. Тогда в De Beers экономят $20 млн в год. Почти столько же могли бы экономить и в Алросе — $19 млн, то есть ₽1,5 млрд.
Кто не работает, тот ест
В грузовом парке горнодобывающей компании Anglo American внедрили прогнозное техническое обслуживание на основе анализа данных и искусственного интеллекта. Это сократило внеплановые простои на 30%.
Если до внедрения компания теряла до 1200 часов на простоях в год, то после обкатки технологии начала экономить до $45 млн ежегодно.
А у нас в квартире газ
По данным IDC и РАЭК, рынок больших данных в России растет на 15-25% в год, а в промышленности — аж на 30%.
Так что с внедрением больших данных и аналитики, включая цифровых двойников, у нас все хорошо.
Самые популярные кейсы в промышленности связаны с прогнозом ремонта оборудования. Это потенциально снижает затраты на ремонт от 15 до 30%.
Пофантазируем немного.
Если завтра на всех российских предприятиях внедрят системы предикативного обслуживания станков и техники, то суммарно сэкономят более ₽7 трлн за год.
#деньги #статьи
👍6❤3🔥3
Опыт ЕС: как превратить данные из источника риска в экономический актив
Европейская комиссия прогнозирует, что экономика данных ЕС достигнет €829 млрд в этом году, а число специалистов в сфере данных превысит 10,9 миллиона человек.
Однако только около 30% компаний в ЕС активно используют внешние данные в своих бизнес-процессах, и еще меньше — извлекают из них прямую прибыль.
Главные барьеры — это юридическая неясность, риски утечек, отсутствие прозрачных механизмов оценки и доверия.
В статье Data Trading and Monetization: Challenges and Open Research Directions авторы рассматривают инициативы IDS-RAM и Gaia-X как то, что поможет преодолеть эти барьеры.
IDS-RAM обеспечивает архитектуру, где владельцы данных сохраняют полный контроль над условиями доступа и использования — вплоть до автоматической проверки соблюдения лицензионных ограничений.
Gaia-X, в свою очередь, объединяет более 350 компаний и институтов в рамках единой федеративной инфраструктуры, позволяя обмениваться данными между странами и отраслями по единым стандартам, включая соблюдение GDPR. Это делает возможным безопасный трансграничный рынок данных, а не просто разовые сделки.
В Fraunhofer Institute прикинули, что использование IDS-архитектуры позволит снизить время подготовки соглашений на 30–50%, а юридические издержки — до 70%.
Кроме того, переход от модели продажи датасета к модели data-as-a-service (например, подписка на потоковые данные или доступ к аналитике без раскрытия сырых данных) обеспечивает устойчивый доход и повторное использование активов.
Без описанных инициатив это практически невозможно.
Нам кажется, что инициативы вроде IDS-RAM и Gaia-X делают нечто большее, чем просто создание правовой базы для торговли данными. Подобные инициативы в умах директоров превращают данные из источника риска в полноценный экономический актив.
Если в компании данные воспринимаются не как актив, а как источник потенциальных убытков, это и становится главным барьером для монетизации.
Опять выходит, что все дело не в технических деталях, а в ментальности.
#деньги #статьи #исследования
Европейская комиссия прогнозирует, что экономика данных ЕС достигнет €829 млрд в этом году, а число специалистов в сфере данных превысит 10,9 миллиона человек.
Однако только около 30% компаний в ЕС активно используют внешние данные в своих бизнес-процессах, и еще меньше — извлекают из них прямую прибыль.
Главные барьеры — это юридическая неясность, риски утечек, отсутствие прозрачных механизмов оценки и доверия.
В статье Data Trading and Monetization: Challenges and Open Research Directions авторы рассматривают инициативы IDS-RAM и Gaia-X как то, что поможет преодолеть эти барьеры.
IDS-RAM обеспечивает архитектуру, где владельцы данных сохраняют полный контроль над условиями доступа и использования — вплоть до автоматической проверки соблюдения лицензионных ограничений.
Gaia-X, в свою очередь, объединяет более 350 компаний и институтов в рамках единой федеративной инфраструктуры, позволяя обмениваться данными между странами и отраслями по единым стандартам, включая соблюдение GDPR. Это делает возможным безопасный трансграничный рынок данных, а не просто разовые сделки.
В Fraunhofer Institute прикинули, что использование IDS-архитектуры позволит снизить время подготовки соглашений на 30–50%, а юридические издержки — до 70%.
Кроме того, переход от модели продажи датасета к модели data-as-a-service (например, подписка на потоковые данные или доступ к аналитике без раскрытия сырых данных) обеспечивает устойчивый доход и повторное использование активов.
Без описанных инициатив это практически невозможно.
Нам кажется, что инициативы вроде IDS-RAM и Gaia-X делают нечто большее, чем просто создание правовой базы для торговли данными. Подобные инициативы в умах директоров превращают данные из источника риска в полноценный экономический актив.
Если в компании данные воспринимаются не как актив, а как источник потенциальных убытков, это и становится главным барьером для монетизации.
Опять выходит, что все дело не в технических деталях, а в ментальности.
#деньги #статьи #исследования
🔥4👍3❤2❤🔥1
Вы не представляете, сколько стоит доступ к персональным данным пассажиров американских авиакомпаний
Американская ARC (Airlines Reporting Corporation), принадлежащая крупнейшим авиакомпаниям вроде Delta и United, продала данные о внутренних авиаперелетах пассажиров федеральной службе CBP (Служба таможни и охраны границ США).
Данные включают имена, маршруты, информацию об оплате и передаются в рамках многолетнего контракта, подписанного в 2024 году. При этом CBP обязана не раскрывать, что именно ARC является источником информации. Это подтверждают опубликованные в статье документы, полученные журналистами 404Media через запрос FOIA.
Правозащитники бьют тревогу: вместо получения данных через суд или по ордеру, власти США просто покупают их у частных брокеров, обходя законодательные ограничения. Этот случай — пример того, как госструктуры США используют лазейку брокеров данных, чтобы вернуться к модели массового сбора информации.
Сама ARC позиционирует передачу данных как часть борьбы с преступностью и террористическими угрозами, но фактически это масштабный и скрытный рынок чувствительных данных.
С точки зрения монетизации — перед нами зрелая экономика данных. Есть поставщик, продукт и стабильный покупатель — государство. Именно оно здесь играет роль маркетмейкера: формирует спрос, платит за доступ, а не изымает данные напрямую.
Вот тут и хочется сказать:
Однако подождите. Знаете, сколько федеральная служба заплатила за доступ к миллиардам строк данных?
В июне 2024 года ARC получила $11025. И в мае 2025 года еще $6847.
Утверждать ничего не будем, но либо оставшиеся суммы где-то спрятаны так, что журналисты до них не докопались, либо эти платежи — просто формальность, а передать данные авиакомпании банально обязали.
Как ни крути, на практике для граждан разницы немного: и там и там государство получает доступ к личной информации.
Но в США хотя бы существует экономическая оболочка процесса — рынок, где данные, пусть и формально, становятся товаром. В России же данные чаще всего изымаются как ресурс, без возможности влиять на их оборот или использовать их экономически.
#безопасность #деньги #статьи
Американская ARC (Airlines Reporting Corporation), принадлежащая крупнейшим авиакомпаниям вроде Delta и United, продала данные о внутренних авиаперелетах пассажиров федеральной службе CBP (Служба таможни и охраны границ США).
Данные включают имена, маршруты, информацию об оплате и передаются в рамках многолетнего контракта, подписанного в 2024 году. При этом CBP обязана не раскрывать, что именно ARC является источником информации. Это подтверждают опубликованные в статье документы, полученные журналистами 404Media через запрос FOIA.
Правозащитники бьют тревогу: вместо получения данных через суд или по ордеру, власти США просто покупают их у частных брокеров, обходя законодательные ограничения. Этот случай — пример того, как госструктуры США используют лазейку брокеров данных, чтобы вернуться к модели массового сбора информации.
Сама ARC позиционирует передачу данных как часть борьбы с преступностью и террористическими угрозами, но фактически это масштабный и скрытный рынок чувствительных данных.
С точки зрения монетизации — перед нами зрелая экономика данных. Есть поставщик, продукт и стабильный покупатель — государство. Именно оно здесь играет роль маркетмейкера: формирует спрос, платит за доступ, а не изымает данные напрямую.
Вот тут и хочется сказать:
Это резкий контраст с Россией, где данные чаще всего передаются властям в обязательном порядке, а попытки построить рынок ограничиваются административным регулированием.
Однако подождите. Знаете, сколько федеральная служба заплатила за доступ к миллиардам строк данных?
В июне 2024 года ARC получила $11025. И в мае 2025 года еще $6847.
Утверждать ничего не будем, но либо оставшиеся суммы где-то спрятаны так, что журналисты до них не докопались, либо эти платежи — просто формальность, а передать данные авиакомпании банально обязали.
Как ни крути, на практике для граждан разницы немного: и там и там государство получает доступ к личной информации.
Но в США хотя бы существует экономическая оболочка процесса — рынок, где данные, пусть и формально, становятся товаром. В России же данные чаще всего изымаются как ресурс, без возможности влиять на их оборот или использовать их экономически.
#безопасность #деньги #статьи
👍3🔥3😁2 1
OpenAI меняет свою структуру: что это значит и чем это грозит?
Сверху структура OpenAI как исследовательской лаборатории в 2015 году. Снизу примерная структура OpenAI на 2025 год.
Независимые исследователи опубликовали отчет об изменениях в OpenAI, в котором упрекают компанию в фокусе на выручке и снижении требований к безопасности ИИ-моделей.
Когда OpenAI создавалась в 2015 году, ее манифест звучал почти романтично: никакой погони за прибылью, только благо человечества. Некоммерческая миссия, кап на доходах инвесторов и обещание, что успех AGI не достанется узкой группе акционеров, а будет служить всем.
Сегодня все иначе. В 2025 году компания официально отказалась от ключевых принципов: снят потолок доходности для инвесторов, роль некоммерческого совета ослаблена, а сама структура переходит к Public Benefit Corporation — гибриду, который учитывает интересы общества, но все равно обязан заботиться о доходах акционеров.
Что это значит на практике?
- Инвесторы теперь смогут зарабатывать бесконечно много, а не в 100 раз больше вложенного.
- Некоммерческая часть больше не управляет компанией, а лишь назначает наблюдателей.
- Скорость разработки и коммерциализации ставится выше вопросов безопасности и этики, отмечают исследователи.
К чему это может привести?
- Усиление гонки вооружений на рынке ИИ: больше денег — быстрее разработки, но выше риск ошибок.
- Отчуждение от публичного интереса: не факт, что в будущем AGI принесет пользу всем, как было обещано.
- Снижение прозрачности: уже сейчас сотрудников принуждали к NDA под угрозой лишения доли, а требования к безопасности снижаются.
По сути, OpenAI повторяет путь многих стартапов Кремниевой долины: ради миссии вначале, а затем — ради прибыли. Это не обязательно плохо, но наивно полагать, что разработка AGI и дальше будет вестись только ради всеобщего блага.
Сейчас перед индустрией встает главный вопрос: кто должен контролировать технологии, которые потенциально могут изменить мир? Ответа пока нет.
#ии #безопасность #деньги #статьи
Сверху структура OpenAI как исследовательской лаборатории в 2015 году. Снизу примерная структура OpenAI на 2025 год.
Независимые исследователи опубликовали отчет об изменениях в OpenAI, в котором упрекают компанию в фокусе на выручке и снижении требований к безопасности ИИ-моделей.
Когда OpenAI создавалась в 2015 году, ее манифест звучал почти романтично: никакой погони за прибылью, только благо человечества. Некоммерческая миссия, кап на доходах инвесторов и обещание, что успех AGI не достанется узкой группе акционеров, а будет служить всем.
Сегодня все иначе. В 2025 году компания официально отказалась от ключевых принципов: снят потолок доходности для инвесторов, роль некоммерческого совета ослаблена, а сама структура переходит к Public Benefit Corporation — гибриду, который учитывает интересы общества, но все равно обязан заботиться о доходах акционеров.
Что это значит на практике?
- Инвесторы теперь смогут зарабатывать бесконечно много, а не в 100 раз больше вложенного.
- Некоммерческая часть больше не управляет компанией, а лишь назначает наблюдателей.
- Скорость разработки и коммерциализации ставится выше вопросов безопасности и этики, отмечают исследователи.
К чему это может привести?
- Усиление гонки вооружений на рынке ИИ: больше денег — быстрее разработки, но выше риск ошибок.
- Отчуждение от публичного интереса: не факт, что в будущем AGI принесет пользу всем, как было обещано.
- Снижение прозрачности: уже сейчас сотрудников принуждали к NDA под угрозой лишения доли, а требования к безопасности снижаются.
По сути, OpenAI повторяет путь многих стартапов Кремниевой долины: ради миссии вначале, а затем — ради прибыли. Это не обязательно плохо, но наивно полагать, что разработка AGI и дальше будет вестись только ради всеобщего блага.
Сейчас перед индустрией встает главный вопрос: кто должен контролировать технологии, которые потенциально могут изменить мир? Ответа пока нет.
#ии #безопасность #деньги #статьи
👍3🔥3❤🔥2❤1
Как компании монетизируют данные через API?
Они превращают их в сервис: не просто передают файлы или выгрузки, а дают клиентам удобный, контролируемый доступ к данным. Клиенты сами подключаются к API и забирают нужные данные в нужном объеме, платя за запросы или подписку.
С помощью API компания превращает данные в продукт с интерфейсом. Набор данных стоит денег, но работающий на этом наборе DaaS создает добавленную стоимость и за него вам заплатят заметно больше.
Откуда дополнительная ценность?
1. Клиенту не нужно разбираться в форматах, выгрузках и структуре — он просто подключается и получает нужное.
2. Сделайте за клиента обработку, фильтрацию, агрегацию и тогда сможете брать за данные больше. Сильно больше.
3. Можно упаковать одни и те же данные в разные API и продавать их разным сегментам по разной цене. Сырые аналитикам, агрегированные SMB-клиентам, скоринг банкам.
4. Можно создавать наборы API под конкретные ниши: например, API для финтеха, API для ритейла и так далее. Появляется возможность партнериться и получать процент от использования.
5. С API видно, какие данные востребованы, когда пики спроса, кто потребляет больше всего и как меняется поведение. Это позволяет адаптировать продукт, улучшать структуру, выявлять новые точки роста.
Получается, что API создает уровни ценности, даже если изначально у вас только один набор данных.
Какие данные подходят для такой модели?
Продажа данных по API не дает обойти законы вроде GDPR или HIPAA, но есть способы легально продавать производные от персональных данных. Например: «оценка кредитного риска по сегментам», «популярность товаров по регионам», «обобщенные демографические профили».
Reddit продает доступ к пользовательскому контенту для обучения ИИ, но через API, который отдает посты без привязки к конкретным людям.
Zillow продает индекс цен на жилье по районам через API, который выдает агрегированные рейтинги и динамику без информации о конкретных владельцах недвижимости.
Experian продает через API кредитные скоринги и риск-профили, выдавая только баллы и рекомендации без личных данных клиентов.
Продажа данных по API выгодна продавцам, чьи данные регулярно обновляются, а вот данные, не требующие постоянного доступа, лучше продавать сразу пакетами.
#деньги
Они превращают их в сервис: не просто передают файлы или выгрузки, а дают клиентам удобный, контролируемый доступ к данным. Клиенты сами подключаются к API и забирают нужные данные в нужном объеме, платя за запросы или подписку.
С помощью API компания превращает данные в продукт с интерфейсом. Набор данных стоит денег, но работающий на этом наборе DaaS создает добавленную стоимость и за него вам заплатят заметно больше.
Откуда дополнительная ценность?
1. Клиенту не нужно разбираться в форматах, выгрузках и структуре — он просто подключается и получает нужное.
2. Сделайте за клиента обработку, фильтрацию, агрегацию и тогда сможете брать за данные больше. Сильно больше.
3. Можно упаковать одни и те же данные в разные API и продавать их разным сегментам по разной цене. Сырые аналитикам, агрегированные SMB-клиентам, скоринг банкам.
4. Можно создавать наборы API под конкретные ниши: например, API для финтеха, API для ритейла и так далее. Появляется возможность партнериться и получать процент от использования.
5. С API видно, какие данные востребованы, когда пики спроса, кто потребляет больше всего и как меняется поведение. Это позволяет адаптировать продукт, улучшать структуру, выявлять новые точки роста.
Получается, что API создает уровни ценности, даже если изначально у вас только один набор данных.
Какие данные подходят для такой модели?
Продажа данных по API не дает обойти законы вроде GDPR или HIPAA, но есть способы легально продавать производные от персональных данных. Например: «оценка кредитного риска по сегментам», «популярность товаров по регионам», «обобщенные демографические профили».
Reddit продает доступ к пользовательскому контенту для обучения ИИ, но через API, который отдает посты без привязки к конкретным людям.
Zillow продает индекс цен на жилье по районам через API, который выдает агрегированные рейтинги и динамику без информации о конкретных владельцах недвижимости.
Experian продает через API кредитные скоринги и риск-профили, выдавая только баллы и рекомендации без личных данных клиентов.
Продажа данных по API выгодна продавцам, чьи данные регулярно обновляются, а вот данные, не требующие постоянного доступа, лучше продавать сразу пакетами.
#деньги
❤5👍4🔥2❤🔥1
Если ваш сайт посещают ИИ-боты, вы можете на этом заработать
Сегодня боты вроде OpenAI, Anthropic, Perplexity и других массово собирают данные для обучения моделей и формирования ответов, но:
- Не возвращают пользователей на сайты.
- Не платят владельцам контента.
Поисковики еще как-то делятся трафиком и рекламными доходами, а вот ИИ-боты — нет. Контент создается за дорого, но доходы от него падают.
Cloudflare предложила решение: монетизировать доступ ИИ-ботов к контенту сайтов.
Владелец сайта через панель Cloudflare выставляет цену за один запрос. Бот перед отправкой запроса указывает, готов ли платить, и подтверждает свою личность с помощью подписи. Если бот согласен заплатить, сервер возвращает данные и списывает платеж. Cloudflare собирает платежи и перечисляет их владельцу сайта.
Технология уже поддержана крупными игроками вроде Condé Nast, Associated Press и Reddit, а Cloudflare запустила решение в режиме закрытой беты. По сути, это первый шаг к полноценному рынку данных для ИИ, основанному на прозрачности и стандартных интернет-технологиях.
Reddit, кстати, показал пример: он уже продает свои данные Google, но параллельно судится с Anthropic за нелицензионное использование своих данных.
#ии #деньги
Сегодня боты вроде OpenAI, Anthropic, Perplexity и других массово собирают данные для обучения моделей и формирования ответов, но:
- Не возвращают пользователей на сайты.
- Не платят владельцам контента.
Поисковики еще как-то делятся трафиком и рекламными доходами, а вот ИИ-боты — нет. Контент создается за дорого, но доходы от него падают.
Cloudflare предложила решение: монетизировать доступ ИИ-ботов к контенту сайтов.
Владелец сайта через панель Cloudflare выставляет цену за один запрос. Бот перед отправкой запроса указывает, готов ли платить, и подтверждает свою личность с помощью подписи. Если бот согласен заплатить, сервер возвращает данные и списывает платеж. Cloudflare собирает платежи и перечисляет их владельцу сайта.
Технология уже поддержана крупными игроками вроде Condé Nast, Associated Press и Reddit, а Cloudflare запустила решение в режиме закрытой беты. По сути, это первый шаг к полноценному рынку данных для ИИ, основанному на прозрачности и стандартных интернет-технологиях.
Reddit, кстати, показал пример: он уже продает свои данные Google, но параллельно судится с Anthropic за нелицензионное использование своих данных.
#ии #деньги
❤4❤🔥3🔥3👍2
Можно продавать данные, чтобы покупатели получали из них инсайты, а можно сразу продавать инсайты
Разбираемся, как это так.
Model Context Protocols — способ превращать данные в готовые контекстные ответы прямо внутри бизнес-процессов.
Вместо того, чтобы продавать таблицы или графики, компании с помощью MCP могут вшивать данные в решения так, чтобы нужный инсайт появлялся точно в нужный момент.
Звучит невероятно, но это уже нон-фикшн. MCP меняет подход к монетизации: продавать можно не данные, а сразу действия на их основе, подсказки и решения.
В чем цимес?
Купили вы данные. Вот они лежат у вас мертвым грузом. Пару раз в неделю ими пользуется три сотрудника. Только один из этих трех умеет извлекать из данных инсайты, которые помогают больше заработать в моменте. Печально.
MCP решает проблему системно: подход избавляет покупателя от необходимости разбираться в данных и искать моменты, когда их применить.
Вместо того, чтобы нагружать команду аналитиков, MCP автоматически подбирает, интерпретирует и встраивает данные в процесс именно там, где от них есть толк.
Многие данные раньше вообще не удавалось монетизировать — слишком специфичные, сложные или кусочные. MCP делает их коммерчески пригодными: включает в сценарии, где они внезапно становятся ценными, потому что закрывают конкретные вопросы в конкретное время.
Как это реализуется технически?
1. Триггер
На стороне покупателя происходит событие (например, нажата кнопка «Подобрать ассортимент» или «Выбрать блюдо дня»), MCP фиксирует его и определяет нужные данные и инструменты.
2. Оркестрация
MCP запускает сценарий: собирает данные из источников, применяет к ним модели, бизнес-правила и экспертизу владельца.
3. Формирование и доставка ответа
MCP объединяет данные, интерпретирует по заданным правилам и возвращает готовый, понятный результат прямо в интерфейс пользователя (CRM, сайт, приложение) за доли секунд, скрывая всю кухню.
4. Монетизация
Каждый вызов MCP учитывается, и можно выставлять счет за готовые ответы, а не за общий доступ к сырым данным.
Пример
Когда кассир на экране выбирает опцию «Выбрать блюдо дня», MCP в фоне собирает необходимые данные: продажи за прошлую неделю, запасы на складе, погоду на завтра и отзывы клиентов.
Затем применяет бизнес-правила (например, не предлагать блюда, ингредиентов для которых мало на складе, и учитывать сезонность и популярность) и формирует готовое предложение: «Сегодня рекомендуем продвигать комбо с курицей и лимонадом — спрос высок, маржа максимальная».
Все это происходит за секунды, за кулисами, через облачный сервис, и кассир видит готовый совет прямо в своем интерфейсе, не зная и не думая о том, откуда и как пришли данные.
В таком подходе данные — не новая нефть, а сразу бензин. Причем сразу в баке, а не на заправке.
#деньги
Разбираемся, как это так.
Model Context Protocols — способ превращать данные в готовые контекстные ответы прямо внутри бизнес-процессов.
Вместо того, чтобы продавать таблицы или графики, компании с помощью MCP могут вшивать данные в решения так, чтобы нужный инсайт появлялся точно в нужный момент.
Звучит невероятно, но это уже нон-фикшн. MCP меняет подход к монетизации: продавать можно не данные, а сразу действия на их основе, подсказки и решения.
В чем цимес?
Купили вы данные. Вот они лежат у вас мертвым грузом. Пару раз в неделю ими пользуется три сотрудника. Только один из этих трех умеет извлекать из данных инсайты, которые помогают больше заработать в моменте. Печально.
MCP решает проблему системно: подход избавляет покупателя от необходимости разбираться в данных и искать моменты, когда их применить.
Вместо того, чтобы нагружать команду аналитиков, MCP автоматически подбирает, интерпретирует и встраивает данные в процесс именно там, где от них есть толк.
Многие данные раньше вообще не удавалось монетизировать — слишком специфичные, сложные или кусочные. MCP делает их коммерчески пригодными: включает в сценарии, где они внезапно становятся ценными, потому что закрывают конкретные вопросы в конкретное время.
Как это реализуется технически?
1. Триггер
На стороне покупателя происходит событие (например, нажата кнопка «Подобрать ассортимент» или «Выбрать блюдо дня»), MCP фиксирует его и определяет нужные данные и инструменты.
2. Оркестрация
MCP запускает сценарий: собирает данные из источников, применяет к ним модели, бизнес-правила и экспертизу владельца.
3. Формирование и доставка ответа
MCP объединяет данные, интерпретирует по заданным правилам и возвращает готовый, понятный результат прямо в интерфейс пользователя (CRM, сайт, приложение) за доли секунд, скрывая всю кухню.
4. Монетизация
Каждый вызов MCP учитывается, и можно выставлять счет за готовые ответы, а не за общий доступ к сырым данным.
Пример
Когда кассир на экране выбирает опцию «Выбрать блюдо дня», MCP в фоне собирает необходимые данные: продажи за прошлую неделю, запасы на складе, погоду на завтра и отзывы клиентов.
Затем применяет бизнес-правила (например, не предлагать блюда, ингредиентов для которых мало на складе, и учитывать сезонность и популярность) и формирует готовое предложение: «Сегодня рекомендуем продвигать комбо с курицей и лимонадом — спрос высок, маржа максимальная».
Все это происходит за секунды, за кулисами, через облачный сервис, и кассир видит готовый совет прямо в своем интерфейсе, не зная и не думая о том, откуда и как пришли данные.
В таком подходе данные — не новая нефть, а сразу бензин. Причем сразу в баке, а не на заправке.
#деньги
❤🔥4👍3🔥2❤1
Как данные помогают бизнесу получать кредиты без твердого залога
В 40% случаев банки отказывают малому и среднему бизнесу по двум причинам: отсутствие залога и недоверие к отчетности.
В мае этого года Тун Юй из Имперского колледжа Лондона объяснил, как доступ к живым данным помогает малому бизнесу получать кредиты, снижает риски для банков и сокращает время одобрения заявок.
Open Banking — система, которая позволяет клиентам банков безопасно делиться своими финансовыми данными с другими банками, финтех‑компаниями и сервисами.
В чем идея?
Раньше бизнес, чтобы получить кредит, приносил банку отчетность, но эти данные устаревали, могли быть приукрашены, их сложно было проверять.
Open Banking передает данные прямо c банковских счетов.
Кредитор видит реальные финансовые потоки, задолженности и запасы. Это позволяет принимать в обеспечение текущие активы, которые раньше считались слишком ненадежными.
Как это работает?
На техническом уровне Open Banking — это API.
1. Компания дает согласие кредитору на доступ к данным.
2. Кредитор подключается через API к банку компании.
3. Кредитор получает данные в стандартизированном виде: история поступлений, платежей, задолженности, остатки.
4. Система анализирует данные и оценивает риск.
5. Если риск приемлемый, бизнес получает кредит, обеспеченный текущими активами.
Какой от этого всего эффект?
Система заработала в 2018 году.
В Великобритании 18% малого бизнеса использует Open Banking. Всего у системы 13 млн пользователей, включая физлиц.
Компании, использующие Open Banking, на 4 процентных пункта чаще получают кредит под текущие активы.
Банки сократили время рассмотрения заявок от малого и среднего бизнеса с нескольких недель до нескольких минут.
Модели скоринга с использованием Open Banking снизили кредитные потери на 20-40 % по сравнению с традиционными методами.
#деньги #исследования
В 40% случаев банки отказывают малому и среднему бизнесу по двум причинам: отсутствие залога и недоверие к отчетности.
В мае этого года Тун Юй из Имперского колледжа Лондона объяснил, как доступ к живым данным помогает малому бизнесу получать кредиты, снижает риски для банков и сокращает время одобрения заявок.
Open Banking — система, которая позволяет клиентам банков безопасно делиться своими финансовыми данными с другими банками, финтех‑компаниями и сервисами.
В чем идея?
Раньше бизнес, чтобы получить кредит, приносил банку отчетность, но эти данные устаревали, могли быть приукрашены, их сложно было проверять.
Open Banking передает данные прямо c банковских счетов.
Кредитор видит реальные финансовые потоки, задолженности и запасы. Это позволяет принимать в обеспечение текущие активы, которые раньше считались слишком ненадежными.
Как это работает?
На техническом уровне Open Banking — это API.
1. Компания дает согласие кредитору на доступ к данным.
2. Кредитор подключается через API к банку компании.
3. Кредитор получает данные в стандартизированном виде: история поступлений, платежей, задолженности, остатки.
4. Система анализирует данные и оценивает риск.
5. Если риск приемлемый, бизнес получает кредит, обеспеченный текущими активами.
Какой от этого всего эффект?
Система заработала в 2018 году.
В Великобритании 18% малого бизнеса использует Open Banking. Всего у системы 13 млн пользователей, включая физлиц.
Компании, использующие Open Banking, на 4 процентных пункта чаще получают кредит под текущие активы.
Банки сократили время рассмотрения заявок от малого и среднего бизнеса с нескольких недель до нескольких минут.
Модели скоринга с использованием Open Banking снизили кредитные потери на 20-40 % по сравнению с традиционными методами.
#деньги #исследования
👍3❤🔥2❤2🔥2
Путь в тысячу ли начинается с найма Chief Data Officer. Или нет?
Николай Валиотти на «Сабстаке» рассказывает, что если вы хотите стать data driven, то первым делом нанимать CDO или Head of Data на фултайм — фатальная ошибка.
Разбираемся, почему так.
Многие нанимают дорогого CDO на ранней стадии, а спустя полгода все еще видят хаос: данные в Excel, KPI непонятны, отчеты на решения не влияют.
Почему?
Потому что высокие затраты стратегию не компенсируют готовность компании эту стратегию проводить в жизнь. Это как пытаться откупиться от ребенка подарками — ему на самом деле нужно ваше внимание, а не деньги.
Попытка вбухать много денег в стратегию на ранней стадии приводит к тому, что появляются не практические изменения, а декоративные. Когда куда-то направляется неразумно много денег, то люди там стараются изо всех сил показать изменения, а не добиться их.
В реальности проблемы компаний чаще всего не стратегические, а чисто организационные:
- Каждый департамент считает по‑своему.
- Никто не понимает, какие метрики на самом деле отражают успех.
- Отчеты формируются вручную.
- На подготовку слайдов у аналитиков уходят часы.
- К моменту обсуждения данные уже устаревают.
Смена стратегии тут не поможет.
Как быть?
Вместо того, чтобы на раннем этапе пытаться проработать стратегию работы с данными на 3 года вперед, нужно сфокусироваться на результате, который можно получить на следующей неделе.
Решение:
Привлечь Fractional Head of Data — временного управляющего, который не будет строить многолетних планов, а прямо сегодня наведет порядок и выстроит базовую работу с данными.
Это быстрее, дешевле и эффективнее.
Fractional Head of Data может быстро привести к маленьким победам, которые сформируют у команды веру в данные, как в источник правильных решений.
По сути, fractional‑подход позволяет получить одновременно архитектора и исполнителя, который быстро строит работающую систему, а не предлагает лишь ее чертеж в виде стратегии на 3 года.
Такой эксперт поможет определить, какие данные и процессы действительно важны, выстроить прозрачную систему отчетности, а уже потом — спланировать, кого и когда нанимать, что можно отдать на аутсорс, а что стоит развивать внутри.
Вывод:
Если вы в самом начале пути, то решите сперва организационные и технические проблемы по работе с данными, и только затем нанимайте CDO. Иначе ему попросту нечем будет управлять.
#деньги #статьи
Николай Валиотти на «Сабстаке» рассказывает, что если вы хотите стать data driven, то первым делом нанимать CDO или Head of Data на фултайм — фатальная ошибка.
Разбираемся, почему так.
Многие нанимают дорогого CDO на ранней стадии, а спустя полгода все еще видят хаос: данные в Excel, KPI непонятны, отчеты на решения не влияют.
Почему?
Потому что высокие затраты стратегию не компенсируют готовность компании эту стратегию проводить в жизнь. Это как пытаться откупиться от ребенка подарками — ему на самом деле нужно ваше внимание, а не деньги.
Попытка вбухать много денег в стратегию на ранней стадии приводит к тому, что появляются не практические изменения, а декоративные. Когда куда-то направляется неразумно много денег, то люди там стараются изо всех сил показать изменения, а не добиться их.
В реальности проблемы компаний чаще всего не стратегические, а чисто организационные:
- Каждый департамент считает по‑своему.
- Никто не понимает, какие метрики на самом деле отражают успех.
- Отчеты формируются вручную.
- На подготовку слайдов у аналитиков уходят часы.
- К моменту обсуждения данные уже устаревают.
Смена стратегии тут не поможет.
Как быть?
Вместо того, чтобы на раннем этапе пытаться проработать стратегию работы с данными на 3 года вперед, нужно сфокусироваться на результате, который можно получить на следующей неделе.
Решение:
Привлечь Fractional Head of Data — временного управляющего, который не будет строить многолетних планов, а прямо сегодня наведет порядок и выстроит базовую работу с данными.
Это быстрее, дешевле и эффективнее.
Fractional Head of Data может быстро привести к маленьким победам, которые сформируют у команды веру в данные, как в источник правильных решений.
По сути, fractional‑подход позволяет получить одновременно архитектора и исполнителя, который быстро строит работающую систему, а не предлагает лишь ее чертеж в виде стратегии на 3 года.
Такой эксперт поможет определить, какие данные и процессы действительно важны, выстроить прозрачную систему отчетности, а уже потом — спланировать, кого и когда нанимать, что можно отдать на аутсорс, а что стоит развивать внутри.
Вывод:
Если вы в самом начале пути, то решите сперва организационные и технические проблемы по работе с данными, и только затем нанимайте CDO. Иначе ему попросту нечем будет управлять.
#деньги #статьи
👍5🔥3❤🔥2❤1
Парадокс Эрроу, и как он мешает торговать данными
Сперва разберемся, в чем суть парадокса.
На рынках данных возникает фундаментальная дилемма:
Чтобы понять, насколько набор данных полезен и ценен, покупатель должен получить к нему доступ и изучить его. Но если данные уже раскрыты до сделки, продавец теряет контроль и ценность своего актива — данные можно скопировать без оплаты.
Выходит, что определить ценность данных до покупки нельзя, а раскрывать их заранее — опасно. Это создает замкнутый круг, описанный Кеннетом Эрроу еще в 1962 году для информационных товаров.
Очевидно, это сильно тормозит потенциально огромный рынок дата-маркетплейсов.
Какие есть решения?
1. Определение ценности без раскрытия данных
Представьте маркетплейс, где вы ищете данные для улучшения прогноза спроса. Файлы вам не дают, но показывают: если добавить этот набор в вашу модель, точность вырастет на 8 %.
Вы видите, какие признаки сработали и чем набор полезен именно для вашей задачи, при этом сами данные остаются закрыты. Это делают алгоритмы на стороне продавца — они выдают не сырой файл, а доказательство ценности. В итоге вы покупаете не вслепую, а понимая, что получите.
Такой подход уже тестируют, например, в прототипе DQSM, который встраивают прямо в маркетплейсы данных.
2. Временный доступ и нейрализатор из «Людей в черном»
Вы приходите на тот же маркетплейс и говорите агенту‑помощнику: «Посмотри вот эти три набора данных и скажи, какой из них реально подходит для нашей задачи».
Агент получает временный доступ, открывает данные, делает серию проверок и даже пробует построить несколько моделей. После этого он говорит: «Первый набор — слабый, второй ничего не добавляет, а третий дает хорошую прибавку, его стоит купить».
Но если вы решаете не покупать, тогда появляется Джей из «Людей в черном» и использует нейрализатор, агент забывает все, что видел.
То есть вы получили возможность проверить ценность данных до сделки, но без риска их утечки. Такую идею тоже уже тестируют.
3. Data clean rooms
В этом подходе данные вообще не покидают контур владельца.
Вы формулируете вопрос или задачу: «постройте мне модель прогноза», «посчитайте пересечение наших клиентов», а расчет делается на стороне продавца. Вам возвращают не файлы, а результат — модель, набор коэффициентов или готовый отчет.
Именно так работают рекламные clean rooms Google и Meta: бренды видят аналитику по аудиториям, но не получают доступ к исходным данным пользователей.
Какие еще есть перспективы?
Помимо описанных подходов, исследователи обсуждают гибридные механизмы:
Объединение временного доступа с юридическими гарантиями через смарт‑контракты, а также создание стандартов описания наборов данных, которые позволят оценивать их ценность еще на уровне метаданных.
Правда со вторым вариантом беда — если сейчас мы не доверяем продавцу, боясь, что данные нам не подойдут, с чего бы нам вдруг доверять какому-то стандарту?
#деньги
Сперва разберемся, в чем суть парадокса.
На рынках данных возникает фундаментальная дилемма:
Чтобы понять, насколько набор данных полезен и ценен, покупатель должен получить к нему доступ и изучить его. Но если данные уже раскрыты до сделки, продавец теряет контроль и ценность своего актива — данные можно скопировать без оплаты.
Выходит, что определить ценность данных до покупки нельзя, а раскрывать их заранее — опасно. Это создает замкнутый круг, описанный Кеннетом Эрроу еще в 1962 году для информационных товаров.
Очевидно, это сильно тормозит потенциально огромный рынок дата-маркетплейсов.
Какие есть решения?
1. Определение ценности без раскрытия данных
Представьте маркетплейс, где вы ищете данные для улучшения прогноза спроса. Файлы вам не дают, но показывают: если добавить этот набор в вашу модель, точность вырастет на 8 %.
Вы видите, какие признаки сработали и чем набор полезен именно для вашей задачи, при этом сами данные остаются закрыты. Это делают алгоритмы на стороне продавца — они выдают не сырой файл, а доказательство ценности. В итоге вы покупаете не вслепую, а понимая, что получите.
Такой подход уже тестируют, например, в прототипе DQSM, который встраивают прямо в маркетплейсы данных.
2. Временный доступ и нейрализатор из «Людей в черном»
Вы приходите на тот же маркетплейс и говорите агенту‑помощнику: «Посмотри вот эти три набора данных и скажи, какой из них реально подходит для нашей задачи».
Агент получает временный доступ, открывает данные, делает серию проверок и даже пробует построить несколько моделей. После этого он говорит: «Первый набор — слабый, второй ничего не добавляет, а третий дает хорошую прибавку, его стоит купить».
Но если вы решаете не покупать, тогда появляется Джей из «Людей в черном» и использует нейрализатор, агент забывает все, что видел.
То есть вы получили возможность проверить ценность данных до сделки, но без риска их утечки. Такую идею тоже уже тестируют.
3. Data clean rooms
В этом подходе данные вообще не покидают контур владельца.
Вы формулируете вопрос или задачу: «постройте мне модель прогноза», «посчитайте пересечение наших клиентов», а расчет делается на стороне продавца. Вам возвращают не файлы, а результат — модель, набор коэффициентов или готовый отчет.
Именно так работают рекламные clean rooms Google и Meta: бренды видят аналитику по аудиториям, но не получают доступ к исходным данным пользователей.
Какие еще есть перспективы?
Помимо описанных подходов, исследователи обсуждают гибридные механизмы:
Объединение временного доступа с юридическими гарантиями через смарт‑контракты, а также создание стандартов описания наборов данных, которые позволят оценивать их ценность еще на уровне метаданных.
Правда со вторым вариантом беда — если сейчас мы не доверяем продавцу, боясь, что данные нам не подойдут, с чего бы нам вдруг доверять какому-то стандарту?
#деньги
👍5🤔3❤2❤🔥1