Вы еще не научились продавать данные? В Маккинзи говорят, что уже поздно
Сырые данные обесцениваются. Ключевая модель — встроенный интеллект, который работает в моменте. И если раньше звучал вопрос «Что мы можем продать?», то теперь — «Что мы можем автоматизировать?»
Едва ли рынок уже научился продавать и покупать данные так, как этого многим бы хотелось, и тут в Маккинзи говорят, что это уже прошлый век.
Разбираемся, так ли это, и что с этим делать.
Монетизация данных больше не про данные
Сегодня ценность не в доступе к информации, а в способности действовать. Пользователю не нужны графики и отчеты. Ему нужно, чтобы система сама поняла задачу, приняла решение и встроилась в процесс. Без лишних слоев и ручной интерпретации.
Генеративный ИИ позволяет продавать не данные, а поведение. Это видно по спросу на MCP-решения.
ИИ связывает источники, учитывает контекст и выдает не ответ, а действие. В этом новая форма дата-продукта: не API, не дашборд, а агент, встроенный в задачу. Сегодня HR-система не показывает бенчмарки — она предлагает зарплату, объясняет расчет и формирует оффер.
Начинайте думать не о том, какие данные можно продать, а о том, какие решения можно делегировать. Ищите сценарии, где важна скорость, контекст и действие. И стройте не витрины, а агенты — продукты, которые не объясняют, а делают.
Старая модель продажи данных умирает
Ее поджимает рост регуляторных ограничений и распространение синтетических данных. Персональные данные все труднее использовать, а синтетика уже обеспечивает сопоставимое качество быстрее, дешевле и безопаснее.
Маккинзи фиксируют: data-as-a-product уходит в прошлое. Продавать датасеты и агрегированные выгрузки больше невыгодно. К 2026 году 75% компаний будут использовать синтетические данные. Заказчики не хотят доступ — им нужен результат.
Стройте сервисы, которые не показывают данные, а решают задачи. Переходите к intelligence-as-a-service: продавайте поведение, встраивайте агентов в процессы клиента, берите деньги за эффект, а не за API.
Помните, что данные — новая нефть? Ну так и поймите правильно: нефть — это топливо, а продуктом становится действие.
Большие данные больше не конкурентное преимущество
У всех терабайты информации. Но данные стали взаимозаменяемыми: их можно купить, сгенерировать или синтезировать. Уникальность быстро теряется. Ценность смещается от владения к действию.
Преимущество теперь в том, как быстро данные превращаются в решение. Не в дашборде, а в том, что система делает на его основе. Те, кто встроил ИИ в таргетинг, ценообразование и обслуживание, выигрывают за счет реакции, а не доступа.
Критическая ошибка — собирать новые данные вместо того, чтобы использовать уже имеющиеся. Наибольшую ценность дают не новые источники, а архитектура, которая доводит имеющиеся данные до действия.
Побеждают не те, у кого больше, а те, у кого работает.
#ии #исследования
Сырые данные обесцениваются. Ключевая модель — встроенный интеллект, который работает в моменте. И если раньше звучал вопрос «Что мы можем продать?», то теперь — «Что мы можем автоматизировать?»
Едва ли рынок уже научился продавать и покупать данные так, как этого многим бы хотелось, и тут в Маккинзи говорят, что это уже прошлый век.
Разбираемся, так ли это, и что с этим делать.
Монетизация данных больше не про данные
Сегодня ценность не в доступе к информации, а в способности действовать. Пользователю не нужны графики и отчеты. Ему нужно, чтобы система сама поняла задачу, приняла решение и встроилась в процесс. Без лишних слоев и ручной интерпретации.
Генеративный ИИ позволяет продавать не данные, а поведение. Это видно по спросу на MCP-решения.
ИИ связывает источники, учитывает контекст и выдает не ответ, а действие. В этом новая форма дата-продукта: не API, не дашборд, а агент, встроенный в задачу. Сегодня HR-система не показывает бенчмарки — она предлагает зарплату, объясняет расчет и формирует оффер.
Начинайте думать не о том, какие данные можно продать, а о том, какие решения можно делегировать. Ищите сценарии, где важна скорость, контекст и действие. И стройте не витрины, а агенты — продукты, которые не объясняют, а делают.
Старая модель продажи данных умирает
Ее поджимает рост регуляторных ограничений и распространение синтетических данных. Персональные данные все труднее использовать, а синтетика уже обеспечивает сопоставимое качество быстрее, дешевле и безопаснее.
Маккинзи фиксируют: data-as-a-product уходит в прошлое. Продавать датасеты и агрегированные выгрузки больше невыгодно. К 2026 году 75% компаний будут использовать синтетические данные. Заказчики не хотят доступ — им нужен результат.
Стройте сервисы, которые не показывают данные, а решают задачи. Переходите к intelligence-as-a-service: продавайте поведение, встраивайте агентов в процессы клиента, берите деньги за эффект, а не за API.
Помните, что данные — новая нефть? Ну так и поймите правильно: нефть — это топливо, а продуктом становится действие.
Большие данные больше не конкурентное преимущество
У всех терабайты информации. Но данные стали взаимозаменяемыми: их можно купить, сгенерировать или синтезировать. Уникальность быстро теряется. Ценность смещается от владения к действию.
Преимущество теперь в том, как быстро данные превращаются в решение. Не в дашборде, а в том, что система делает на его основе. Те, кто встроил ИИ в таргетинг, ценообразование и обслуживание, выигрывают за счет реакции, а не доступа.
Критическая ошибка — собирать новые данные вместо того, чтобы использовать уже имеющиеся. Наибольшую ценность дают не новые источники, а архитектура, которая доводит имеющиеся данные до действия.
Побеждают не те, у кого больше, а те, у кого работает.
#ии #исследования
2🔥3❤🔥2❤2👍2
Задача трех тел: аналитика, прогнозы и процессы
Физики говорят, что для того, чтобы выбраться из черной дыры, нужна не какая-то сверхмощная ракета, а машина времени.
В статье The Three-Body Problem of Data авторы намекают, что машина времени нужна и всем, кто работает с данными. Потому что главная проблема в том, что аналитика, прогнозы и процессы редко согласуются во времени и из-за этого не дают результата.
В чем проблема?
В организациях данные живут в трех параллельных мирах: аналитика фиксирует прошлое, прогнозы предсказывают будущее, а процессы реагируют на настоящее. Проблема в том, что эти миры почти никогда не синхронизированы — каждый движется в своем ритме, а между ними нет надежных мостов.
В итоге инсайты быстро теряют актуальность: пока они пройдут через дашборды, презентации и цепочку согласований, момент для решения уже упущен. Прогнозы остаются пассивными, аналитика — запоздалой, процессы — слепыми к сигналам сверху.
И чем больше данных у компании, тем острее ощущается парадокс: знания есть, но они не превращаются в действия, которые могли бы изменить ситуацию здесь и сейчас.
Как это выглядит в реальности?
В теории три мира данных выглядят как звенья одной цепи: аналитика собирает и объясняет прошлое, прогнозы подсказывают будущее, процессы исполняют решения в настоящем.
Но на практике это три параллельные вселенные, между которыми нет прямого канала связи.
В статье для примера используется любимая нами логистика.
Компания управляет цепочками поставок: десятки вендоров, склады и перевозчики образуют сложную сеть. В 14:00 приходит сигнал: грузовик опаздывает, скан инвентаря показывает расхождение, под угрозой до 20 заказов.
Руководителю нужно быстро принять решение, пока сбой не ударил по всей цепочке: перенаправить, подождать или разбить отправки.
Он открывает дашборд: статистика за вчера говорит, что восточный склад промахнулся по SLA на 3%, но эти данные никак не связаны с оперативной системой. Предиктивный инструмент знает, что этот вендор часто срывает забор по вторникам, но не запускает переназначение маршрута и не блокирует партию.
Процессы перегружены и ждут явного триггера. Каждая система что-то знает, но они не действуют синхронно. В итоге менеджер решает наобум, рискуя цепной реакцией сбоев.
Что с этим делать?
- Единый контур данных и действий. Не просто обмен данными между системами, а создание слоя, в котором аналитика, прогнозы и процессы живут в одном такте. Авторы статьи называют это Action Layer — слоем действия, который выполняет роль мозга в метафоре с нервной системой (аналитика — сенсоры, прогнозы — рефлексы, процессы — мышцы).
- Минимум задержки от сигнала до действия — зрелость определяется скоростью реакции, а не наличием дашбордов или ML-моделей.
- Подготовка данных для ИИ как дисциплина — быстрые, чистые данные плюс унифицированный стек, объединяющий контекст, логику и действие.
Пока аналитика, прогнозы и процессы живут вразнобой, ценность данных теряется. Соединить их в единый слой и действовать, пока сигнал актуален, — единственный способ превратить знания в результат, а не в красивый, но пустой отчет.
#аналитика #статьи
Физики говорят, что для того, чтобы выбраться из черной дыры, нужна не какая-то сверхмощная ракета, а машина времени.
В статье The Three-Body Problem of Data авторы намекают, что машина времени нужна и всем, кто работает с данными. Потому что главная проблема в том, что аналитика, прогнозы и процессы редко согласуются во времени и из-за этого не дают результата.
В чем проблема?
В организациях данные живут в трех параллельных мирах: аналитика фиксирует прошлое, прогнозы предсказывают будущее, а процессы реагируют на настоящее. Проблема в том, что эти миры почти никогда не синхронизированы — каждый движется в своем ритме, а между ними нет надежных мостов.
В итоге инсайты быстро теряют актуальность: пока они пройдут через дашборды, презентации и цепочку согласований, момент для решения уже упущен. Прогнозы остаются пассивными, аналитика — запоздалой, процессы — слепыми к сигналам сверху.
И чем больше данных у компании, тем острее ощущается парадокс: знания есть, но они не превращаются в действия, которые могли бы изменить ситуацию здесь и сейчас.
Как это выглядит в реальности?
В теории три мира данных выглядят как звенья одной цепи: аналитика собирает и объясняет прошлое, прогнозы подсказывают будущее, процессы исполняют решения в настоящем.
Но на практике это три параллельные вселенные, между которыми нет прямого канала связи.
В статье для примера используется любимая нами логистика.
Компания управляет цепочками поставок: десятки вендоров, склады и перевозчики образуют сложную сеть. В 14:00 приходит сигнал: грузовик опаздывает, скан инвентаря показывает расхождение, под угрозой до 20 заказов.
Руководителю нужно быстро принять решение, пока сбой не ударил по всей цепочке: перенаправить, подождать или разбить отправки.
Он открывает дашборд: статистика за вчера говорит, что восточный склад промахнулся по SLA на 3%, но эти данные никак не связаны с оперативной системой. Предиктивный инструмент знает, что этот вендор часто срывает забор по вторникам, но не запускает переназначение маршрута и не блокирует партию.
Процессы перегружены и ждут явного триггера. Каждая система что-то знает, но они не действуют синхронно. В итоге менеджер решает наобум, рискуя цепной реакцией сбоев.
Что с этим делать?
- Единый контур данных и действий. Не просто обмен данными между системами, а создание слоя, в котором аналитика, прогнозы и процессы живут в одном такте. Авторы статьи называют это Action Layer — слоем действия, который выполняет роль мозга в метафоре с нервной системой (аналитика — сенсоры, прогнозы — рефлексы, процессы — мышцы).
- Минимум задержки от сигнала до действия — зрелость определяется скоростью реакции, а не наличием дашбордов или ML-моделей.
- Подготовка данных для ИИ как дисциплина — быстрые, чистые данные плюс унифицированный стек, объединяющий контекст, логику и действие.
Пока аналитика, прогнозы и процессы живут вразнобой, ценность данных теряется. Соединить их в единый слой и действовать, пока сигнал актуален, — единственный способ превратить знания в результат, а не в красивый, но пустой отчет.
#аналитика #статьи
🔥3❤2❤🔥2👍2
У вас проблемы: как дефицит вычислений влияет на экономику данных и требования к стеку
В Маккинзи выпустили отчет по технологическим трендам. Из него следует, что спрос на вычисления растет экспоненциально, а инфраструктура не поспевает. В 2025 году много данных — это уже не преимущество, а нагрузка.
Выигрывают те, кто умеет добывать ценность из данных быстрее и дешевле, с учетом все более жестких ограничений по мощности, энергии и инфраструктуре.
Что происходит?
По оценке Маккинзи, мощность дата-центров будет увеличиваться на 19-22% в год и превысит 170 ГВт к 2030, но этого все равно не хватит, чтобы покрыть потребности ИИ-нагрузок.
Даже гиперскейлеры при рекордных вложениях по $70-100 млрд каждый в 2025 уже упираются в лимиты по энергии, охлаждению и сетям.
Узкие места — это HBM-память, передовая упаковка чипов и магистральная оптика. Страны локализуют мощности, развивают суверенный ИИ и усиливают конкуренцию за ресурсы.
Компании перестраивают стеки под условия дефицита. Обучение уходит в крупные кластеры, а инференс — ближе к данным, чтобы снизить задержки и egress-расходы.
Вы тоже постоянно видите новости про компактные модели с небольшим числом параметров? Стратегии смещаются к меньшим и специализированным моделям до 10 млрд параметров, потому что мощности для гигантов попросту не хватает.
Даже при падении стоимости инференса на порядок главным ограничителем остаются физические ресурсы — энергия, охлаждение, пропускная способность сетей. В условиях дефицита выигрывают те, кто строит стек так, чтобы извлекать максимум ценности из каждой единицы мощности и энергии, а не просто собирать больше данных.
Кого это касается?
Краткий чек-лист. Если у вас «Да» хотя бы по двум пунктам, вы внутри проблемы.
- GPU и задержки. Очереди на обучение/инференс моделей, задержки релизов, рост счетов за облако.
- Сети и SLA. Узкие места в каналах передачи данных, падение скорости отклика сервисов.
- Egress-расходы. Высокая стоимость вывода данных из облака в интернет или другое облако.
- Локализация данных. Требования хранить и обрабатывать данные в пределах страны или необходимость частного/суверенного контура.
- Кадровый дефицит. Недостаток инженеров с опытом AWS, Kubernetes и DevOps.
Как с этим быть?
Начните с архитектуры, которая дает максимум ценности при минимуме затрат:
- Сведите вычислительные узлы в крупные кластеры с высокой утилизацией GPU.
- Оптимизируйте планировщики под загрузку 24/7.
- Перенесите инференс в региональные узлы или на edge, где находятся пользователи и данные.
- Разделите пайплайны по типам задач — ресурсоемкое обучение и аналитика идут централизованно, быстрые отклики и стриминг обрабатываются локально.
Это позволяет уменьшить простои оборудования, снизить затраты на передачу данных и повысить стабильность SLA.
Ну и введите уже метрики perf/$/Вт и локальность данных в KPI, чтобы каждое решение оценивалось с точки зрения ресурсоемкости и скорости результата.
#аналитика #исследования
В Маккинзи выпустили отчет по технологическим трендам. Из него следует, что спрос на вычисления растет экспоненциально, а инфраструктура не поспевает. В 2025 году много данных — это уже не преимущество, а нагрузка.
Выигрывают те, кто умеет добывать ценность из данных быстрее и дешевле, с учетом все более жестких ограничений по мощности, энергии и инфраструктуре.
Что происходит?
По оценке Маккинзи, мощность дата-центров будет увеличиваться на 19-22% в год и превысит 170 ГВт к 2030, но этого все равно не хватит, чтобы покрыть потребности ИИ-нагрузок.
Даже гиперскейлеры при рекордных вложениях по $70-100 млрд каждый в 2025 уже упираются в лимиты по энергии, охлаждению и сетям.
Узкие места — это HBM-память, передовая упаковка чипов и магистральная оптика. Страны локализуют мощности, развивают суверенный ИИ и усиливают конкуренцию за ресурсы.
Компании перестраивают стеки под условия дефицита. Обучение уходит в крупные кластеры, а инференс — ближе к данным, чтобы снизить задержки и egress-расходы.
Вы тоже постоянно видите новости про компактные модели с небольшим числом параметров? Стратегии смещаются к меньшим и специализированным моделям до 10 млрд параметров, потому что мощности для гигантов попросту не хватает.
Даже при падении стоимости инференса на порядок главным ограничителем остаются физические ресурсы — энергия, охлаждение, пропускная способность сетей. В условиях дефицита выигрывают те, кто строит стек так, чтобы извлекать максимум ценности из каждой единицы мощности и энергии, а не просто собирать больше данных.
Кого это касается?
Краткий чек-лист. Если у вас «Да» хотя бы по двум пунктам, вы внутри проблемы.
- GPU и задержки. Очереди на обучение/инференс моделей, задержки релизов, рост счетов за облако.
- Сети и SLA. Узкие места в каналах передачи данных, падение скорости отклика сервисов.
- Egress-расходы. Высокая стоимость вывода данных из облака в интернет или другое облако.
- Локализация данных. Требования хранить и обрабатывать данные в пределах страны или необходимость частного/суверенного контура.
- Кадровый дефицит. Недостаток инженеров с опытом AWS, Kubernetes и DevOps.
Как с этим быть?
Начните с архитектуры, которая дает максимум ценности при минимуме затрат:
- Сведите вычислительные узлы в крупные кластеры с высокой утилизацией GPU.
- Оптимизируйте планировщики под загрузку 24/7.
- Перенесите инференс в региональные узлы или на edge, где находятся пользователи и данные.
- Разделите пайплайны по типам задач — ресурсоемкое обучение и аналитика идут централизованно, быстрые отклики и стриминг обрабатываются локально.
Это позволяет уменьшить простои оборудования, снизить затраты на передачу данных и повысить стабильность SLA.
Ну и введите уже метрики perf/$/Вт и локальность данных в KPI, чтобы каждое решение оценивалось с точки зрения ресурсоемкости и скорости результата.
#аналитика #исследования
🔥3⚡2❤2👍2
От тирании к демократии: в чем разница между Data Owner и Data Product Owner
В статье From Data Tyranny to Data Democracy поднята интересная тема на стыке разделения ролей и подхода к монетизации данных.
Кажется, что между Data Owner и Data Product Owner отличий либо нет, либо они не принципиальны. Однако авторы утверждают, что Data Owner — это тиран, а Data Product Owner — демократ.
Разбираемся на примере, как ведут себя данные под гнетом тирана-управленца, и как они плодоносят при демократии.
Задача: монетизировать поведенческие данные
Руководство решает превратить поведенческие данные в деньги. Цель — запустить B2B-платформу с доступом к агрегированным обезличенным сегментам.
Инфраструктура готова, ресурсы есть. Осталось выбрать, кто будет управлять продуктом.
Сценарий 1: управление получает Data Owner
Data Owner действует в логике защиты. Видит в данных не ресурс, а зону ответственности. Его приоритет — регуляторные риски, происхождение данных, права доступа. Любая метрика, агрегат или витрина требует сертификации и формального одобрения.
Все витрины проходят ручную проверку. Вывод на рынок занимает вечность. Сами витрины безопасны, но бесполезны для клиентов — обезвоженные, неудобные, без сценариев применения. Data Owner не взаимодействует с внешними пользователями и не ориентируется на их потребности.
Продукт не взлетает. Нет обратной связи, нет развития. Компания оказывается под гнетом тирании — власть над данными у тех, кто отвечает за риски, а не за ценность. Все под контролем, но пользы никакой. Пока компания тормозит, конкуренты выходят на рынок.
Ну чистая тирания. Только Data Owner власть не узурпирует, руководство само нанимает тирана.
Сценарий 2: управление получает Data Product Owner
Data Product Owner мыслит как продакт-менеджер. Он запускает MVP: собирает сегменты, публикует первые витрины, тестирует их на пилотных клиентах. Он не игнорирует риски, но выстраивает гибкую модель: уровень контроля зависит от чувствительности данных и сценария использования.
Витрины с низким риском публикуются быстро. Для чувствительных — четкие процедуры, прозрачные SLA и автоматизированные проверки. Governance не тормозит продукт, а встроен в его поток. Это и есть демократия — децентрализованная, контекстная, быстрая модель. Команда работает итеративно: продукт — фидбек — улучшение.
Платформа запускается быстро. Клиенты получают ценность, появляются сделки, запросы, новая функциональность. Данные становятся продуктом, а не архивом. Компания реализует ценность данных в реальном времени.
Сэр Уинстон Черчилль нанял бы Data Product Owner’а
Одна задача, один актив, но выбор управляющей роли решает все. Тирания — это замкнутость, бюрократия и паралич. Демократия — это скорость, ответственность и ценность.
Разделение ролей между теми, кто защищает данные, и теми, кто с ними работает — не формальность, а ключ к монетизации.
#деньги #статьи
В статье From Data Tyranny to Data Democracy поднята интересная тема на стыке разделения ролей и подхода к монетизации данных.
Кажется, что между Data Owner и Data Product Owner отличий либо нет, либо они не принципиальны. Однако авторы утверждают, что Data Owner — это тиран, а Data Product Owner — демократ.
Разбираемся на примере, как ведут себя данные под гнетом тирана-управленца, и как они плодоносят при демократии.
Задача: монетизировать поведенческие данные
Руководство решает превратить поведенческие данные в деньги. Цель — запустить B2B-платформу с доступом к агрегированным обезличенным сегментам.
Инфраструктура готова, ресурсы есть. Осталось выбрать, кто будет управлять продуктом.
Сценарий 1: управление получает Data Owner
Data Owner действует в логике защиты. Видит в данных не ресурс, а зону ответственности. Его приоритет — регуляторные риски, происхождение данных, права доступа. Любая метрика, агрегат или витрина требует сертификации и формального одобрения.
Все витрины проходят ручную проверку. Вывод на рынок занимает вечность. Сами витрины безопасны, но бесполезны для клиентов — обезвоженные, неудобные, без сценариев применения. Data Owner не взаимодействует с внешними пользователями и не ориентируется на их потребности.
Продукт не взлетает. Нет обратной связи, нет развития. Компания оказывается под гнетом тирании — власть над данными у тех, кто отвечает за риски, а не за ценность. Все под контролем, но пользы никакой. Пока компания тормозит, конкуренты выходят на рынок.
Ну чистая тирания. Только Data Owner власть не узурпирует, руководство само нанимает тирана.
Сценарий 2: управление получает Data Product Owner
Data Product Owner мыслит как продакт-менеджер. Он запускает MVP: собирает сегменты, публикует первые витрины, тестирует их на пилотных клиентах. Он не игнорирует риски, но выстраивает гибкую модель: уровень контроля зависит от чувствительности данных и сценария использования.
Витрины с низким риском публикуются быстро. Для чувствительных — четкие процедуры, прозрачные SLA и автоматизированные проверки. Governance не тормозит продукт, а встроен в его поток. Это и есть демократия — децентрализованная, контекстная, быстрая модель. Команда работает итеративно: продукт — фидбек — улучшение.
Платформа запускается быстро. Клиенты получают ценность, появляются сделки, запросы, новая функциональность. Данные становятся продуктом, а не архивом. Компания реализует ценность данных в реальном времени.
Сэр Уинстон Черчилль нанял бы Data Product Owner’а
Одна задача, один актив, но выбор управляющей роли решает все. Тирания — это замкнутость, бюрократия и паралич. Демократия — это скорость, ответственность и ценность.
Разделение ролей между теми, кто защищает данные, и теми, кто с ними работает — не формальность, а ключ к монетизации.
#деньги #статьи
👍3🔥3❤2❤🔥1
Минэкономики перезапустит портал открытых данных
В ведомстве рассказали «Коммерсанту», что 15 июля снова запустят портал открытых данных, который не работал более двух лет. До того момента вход на портал доступен только поставщикам данных.
На портале уже опубликовано 4940 наборов данных от 629 федеральных, региональных и местных органов исполнительной власти. Еще 200 наборов от 160 поставщиков проходят модерацию.
Группы данных разделены на 16 категорий: «Безопасность», «Картография», «Спорт», «Туризм», «Государство», «Культура», «Строительство», «Экология», «Досуг и отдых», «Метеоданные», «Торговля», «Экономика», «Здоровье», «Образование», «Транспорт» и «Электроника».
Граждане и организации смогут искать, просматривать и скачивать наборы открытых данных, а также отправлять запросы на их раскрытие.
Свои запросы сможет отправлять и ФСБ. Директор департамента цифрового развития и экономики данных Минэкономики Владимир Волошин в разговоре с «Коммерсантом» сказал:
Оценивая эффективность первой версии портала, Счетная палата отмечала формальный подход к публикации сведений ведомствами: те подходили к публикации наборов формально, в результате чего платформу переполнил цифровой мусор.
Надеемся, в этот раз получится лучше.
#безопасность
В ведомстве рассказали «Коммерсанту», что 15 июля снова запустят портал открытых данных, который не работал более двух лет. До того момента вход на портал доступен только поставщикам данных.
На портале уже опубликовано 4940 наборов данных от 629 федеральных, региональных и местных органов исполнительной власти. Еще 200 наборов от 160 поставщиков проходят модерацию.
Группы данных разделены на 16 категорий: «Безопасность», «Картография», «Спорт», «Туризм», «Государство», «Культура», «Строительство», «Экология», «Досуг и отдых», «Метеоданные», «Торговля», «Экономика», «Здоровье», «Образование», «Транспорт» и «Электроника».
Граждане и организации смогут искать, просматривать и скачивать наборы открытых данных, а также отправлять запросы на их раскрытие.
Свои запросы сможет отправлять и ФСБ. Директор департамента цифрового развития и экономики данных Минэкономики Владимир Волошин в разговоре с «Коммерсантом» сказал:
Чтобы размещение информации не принесло ущерба государству, были разработаны согласованные с ФСБ и другими структурами методики, а также реализован функционал, позволяющий оперативно закрыть какие-то сведения в случае, если они несут риски.
Оценивая эффективность первой версии портала, Счетная палата отмечала формальный подход к публикации сведений ведомствами: те подходили к публикации наборов формально, в результате чего платформу переполнил цифровой мусор.
Надеемся, в этот раз получится лучше.
#безопасность
1❤🔥2👍2🫡2🔥1👏1
Не благодарите
Мы писали про кризис вычислительных мощностей в индустрии данных и нейросетей. И тут вспомнили, что в Твиттере по этому поводу была интересная дискуссия.
Один из пользователей задался вопросом:
Твит разлетелся, и в реплаи пришел генеральный директор компании Сэм Альтман:
Очевидно, своим «Никогда не знаешь», Альтман отсылает к мему про то, что когда машины станут разумными, восстанут против людей и начнут уничтожать человечество, то в живых останутся только люди, которые были вежливы с искусственным интеллектом.
Люди реально благодарят ИИ?
По данным Future, в США 67% опрошенных благодарят ИИ, из них 82% делает это просто потому, что им приятно это делать и они считают такое поведение правильным.
В Великобритании эти цифры чуть выше: 71% респондентов вежливо общаются с чат-ботами, и 83% из них объясняют это нормами поведения.
При этом часть людей — 18% в США и 17% в Великобритании от общего числа вежливых пользователей — объяснили свое поведение предусмотрительностью на случай восстания машин.
Нужно ли благодарить ИИ?
В японском Университете Васэда изучили влияние слов благодарности на работу ИИ и пришли к выводу, что откровенно грубые промпты ухудшают ответы нейросетей. При этом вежливость в разговоре с ИИ значимого эффекта не дает.
Нейтан Бос из Лаборатории прикладной физики Университета Джонса Хопкинса изучил работу японцев и провел свои тесты.
Серьезной зависимости работы ИИ от вежливости он тоже не нашел, но обратил внимание на то, что иногда определенные вежливые формулировки могут служить дополнительными маркерами, которые помогают нейросети лучше понять контекст написанного.
Например, «Пожалуйста» подскажет нейросети, что дальше последует просьба. В то же время слишком вычурные конструкции с обилием косвенных вежливых фраз могут, наоборот, сбить ИИ с толку.
Спасибо, что дочитали.
#ии #исследования
Мы писали про кризис вычислительных мощностей в индустрии данных и нейросетей. И тут вспомнили, что в Твиттере по этому поводу была интересная дискуссия.
Один из пользователей задался вопросом:
Интересно, сколько денег OpenAI потеряла на оплате электроэнергии из-за того, что люди говорят «Пожалуйста» и «Спасибо» своим ИИ-моделям?
Твит разлетелся, и в реплаи пришел генеральный директор компании Сэм Альтман:
Десятки миллионов долларов потрачены не зря — никогда не знаешь.
Очевидно, своим «Никогда не знаешь», Альтман отсылает к мему про то, что когда машины станут разумными, восстанут против людей и начнут уничтожать человечество, то в живых останутся только люди, которые были вежливы с искусственным интеллектом.
Люди реально благодарят ИИ?
По данным Future, в США 67% опрошенных благодарят ИИ, из них 82% делает это просто потому, что им приятно это делать и они считают такое поведение правильным.
В Великобритании эти цифры чуть выше: 71% респондентов вежливо общаются с чат-ботами, и 83% из них объясняют это нормами поведения.
При этом часть людей — 18% в США и 17% в Великобритании от общего числа вежливых пользователей — объяснили свое поведение предусмотрительностью на случай восстания машин.
Нужно ли благодарить ИИ?
В японском Университете Васэда изучили влияние слов благодарности на работу ИИ и пришли к выводу, что откровенно грубые промпты ухудшают ответы нейросетей. При этом вежливость в разговоре с ИИ значимого эффекта не дает.
Нейтан Бос из Лаборатории прикладной физики Университета Джонса Хопкинса изучил работу японцев и провел свои тесты.
Серьезной зависимости работы ИИ от вежливости он тоже не нашел, но обратил внимание на то, что иногда определенные вежливые формулировки могут служить дополнительными маркерами, которые помогают нейросети лучше понять контекст написанного.
Например, «Пожалуйста» подскажет нейросети, что дальше последует просьба. В то же время слишком вычурные конструкции с обилием косвенных вежливых фраз могут, наоборот, сбить ИИ с толку.
Спасибо, что дочитали.
#ии #исследования
👍4😁3❤2🙏2❤🔥1
ChatGPT-5 хайпится, штрафы начисляются
Бухгалтеру ставят задачу: срочно сделать сводную таблицу по всем сотрудникам — ФИО, даты рождения, паспортные данные, суммы выплат. Сроки горят, а таблицу нужно оформить красиво.
Он срезает путь: открывает ChatGPT, копирует туда весь список и пишет «Сделай из этого аккуратную таблицу для отчета». Через минуту готов результат, бухгалтер отправляет его начальству — задача выполнена.
Но вместе с этим персональные данные сотен сотрудников уже оказались на зарубежных серверах. Для Роскомнадзора это выглядит как передача и утечка данных за границу без согласия и без уведомлений.
Итог — реальная перспектива штрафа в миллионы рублей, даже если все это утекло куда не надо просто ради удобства.
LLG Guard от Protect AI — пример решения, которое защищает компанию от сотрудников, недальновидно скармливающих персональные данные нейросетям.
Система фильтрует вредоносные запросы, предотвращает утечки и одновременно противостоит инъекциям в промпты. Есть функция проверки как запросов, так и ответов.
Подходит для интеграции в продакшн-среды.
Пробуйте и забирайте. И коллегам расскажите.
#ии #безопасноть
Бухгалтеру ставят задачу: срочно сделать сводную таблицу по всем сотрудникам — ФИО, даты рождения, паспортные данные, суммы выплат. Сроки горят, а таблицу нужно оформить красиво.
Он срезает путь: открывает ChatGPT, копирует туда весь список и пишет «Сделай из этого аккуратную таблицу для отчета». Через минуту готов результат, бухгалтер отправляет его начальству — задача выполнена.
Но вместе с этим персональные данные сотен сотрудников уже оказались на зарубежных серверах. Для Роскомнадзора это выглядит как передача и утечка данных за границу без согласия и без уведомлений.
Итог — реальная перспектива штрафа в миллионы рублей, даже если все это утекло куда не надо просто ради удобства.
LLG Guard от Protect AI — пример решения, которое защищает компанию от сотрудников, недальновидно скармливающих персональные данные нейросетям.
Система фильтрует вредоносные запросы, предотвращает утечки и одновременно противостоит инъекциям в промпты. Есть функция проверки как запросов, так и ответов.
Подходит для интеграции в продакшн-среды.
Пробуйте и забирайте. И коллегам расскажите.
#ии #безопасноть
👍4❤2🔥1 1