Progres Post
271 subscribers
37 photos
1 video
16 files
176 links
Как собирать, анализировать и зарабатывать на данных.

Присылайте новости: @progrespost_bot

Редактор: @honeybalism
Download Telegram
Кажется, мало кто переживает по поводу безопасности при внедрении ИИ

В Коммерсанте пишут, что из 43% компаний, которые уже внедрили нейросети в свои процессы, только 36% обеспечили их защиту.

Может, это халатность, а может, все ждут, пока в Минцифры опубликует «Концепцию развития регулирования ИИ до 2030 года»:

Сейчас доработка документа почти завершена, в ближайшее время мы согласуем ее с другими ведомствами.


При этом в AppSec Solutions предупреждают:

Особенно уязвимыми становятся ИИ-ассистенты, встроенные в корпоративную инфраструктуру. Они получают доступ к клиентским базам, внутренним документам и системам управления и могут стать источником утечек


Кажется, что всем стоит поторопиться: регуляторам с требованиями, а бизнесу с внедрением протоколов безопасности, ибо в России растет количество исков из-за ИИ:

В 2021 году таких исков было 112, а в 2024 году их было уже 292. Совокупная сумма исковых требований по уже рассмотренным делам превышает ₽1,7 млрд.

В большинстве случаев — это споры, касающиеся авторского права. На втором месте иски, связанные с защитой прав потребителей.

#ии #безопасность
👍43❤‍🔥2🔥2
Как выиграть Премьер-лигу с помощью искусственного интеллекта и больших данных

За Ливерпуль. Не на приставке, в реальности.

В преддверии завтрашнего финала Лиги Чемпионов делимся интересностями про большие данные в футболе и книгой Иана Грэма «Как выиграть Премьер-лигу».

С 2012 по 2023 год Грэм работал директором по исследованиям футбольного клуба Ливерпуль. Его пребывание на посту совпало с периодом наибольшего успеха клуба с 1980-х годов, включая победу в Премьер-лиге в 2020 году — первый чемпионский титул Ливерпуля после мучительных 29 лет.

Кстати, месяц назад Ливерпуль снова досрочно стал чемпионом Англии.

Почитать книгу на русском можно бесплатно. Любителям футбола горячо рекомендуем.

Кратко о том, к чему привела цифровая трансформация футбольной команды:

- Сотрудничество DeepMind с футбольным клубом Ливерпуль привело к созданию TacticAI, предлагающего тактические решения, которые в 90% случаев эксперты предпочитают традиционным методам.

- TacticAI представляет собой значительный шаг вперед в использовании алгоритмов машинного обучения для понимания стратегических игр, особенно с упором на угловые удары. Благодаря тщательному анализу данных более чем 7000 угловых ударов, выполненных в сезоне Премьер-лиги, система была обучена предсказывать траекторию мяча с впечатляющей точностью 78%.

Но это результаты, а вот путь к ним изложен в книге, сохраняйте и делитесь с друзьями перед походом в спорт-бар.

Ну и не относите деньги букмекерам, лучше делайте ставку на данные. Оле-оле!

#ии
🏆6👏31❤‍🔥1
Разработчики ИИ тратят миллионы на лоббирование своих интересов в США

OpenAI и Anthropic, традиционно позиционировавшиеся как осторожные исследовательские центры, в последние месяцы стали активно расширять присутствие в Вашингтоне, нанимая новых сотрудников и наращивая расходы на лоббизм.

Федеральный бюджет США на айти-сектор составляет около $75 млрд, значительная часть которого теперь направлена на проекты, связанные с ИИ.

Главный инструмент лоббистов — страшилка о том, что если правительство США сейчас же не направит миллиарды долларов на развитие ИИ-отрасли, то китайцы начнут доминировать в этой сфере.

Это резонно. И это работает: администрация Трампа и Конгресс рассматривают ИИ прежде всего как стратегический инструмент в гонке технологий с Китаем. Палата представителей уже приняла положение о десятилетнем моратории на ужесточение законов об ИИ на уровне штатов и местных органов власти.

В некоторых источниках пишут, что уже сегодня ИИ-компании лоббируют больше, чем нефтяные и табачные корпорации.

Нам думается, что именно и только благодаря лоббистам на американском рынке искусственного интеллекта все еще не так плотно закручены гайки регулирования. При этом госзаказы уже стали многомиллиардными.

Пока лоббисты выбивают настолько большие подряды, защита пользовательских данных и сомнительные социальные эффекты от распространения ИИ не так сильно беспокоят законотворцев.

#аналитика #ии #статьи
👍43❤‍🔥2🔥2
13% спартанцев

По данным Суперджоб, 13% учителей постоянно сталкиваются с заданиями, выполненными с помощью ИИ, и пытаются бороться с этим.

Проникновение ИИ в школы неотвратимо. Вряди ли с этим стоит бороться в прямом смысле слова. Скорее нужно адаптироваться самой школьной программе и методикам. Потому что запретить ИИ не получится.

23% родителей учеников 5-6 классов точно знают, что их ребенок обращается за решениями к ИИ. Среди родителей обучающихся 7-9 классов каждый третий знает, что ребенок выполняет домашнюю работу с помощью нейросетей, а среди родителей старшеклассников — почти каждый второй.

29% учителей пока не знают, как предотвратить бездумное использование учащимися генеративных моделей при выполнении домашних работ. Наверное, это самая адекватная когорта, ибо признание проблемы — уже половина решения.

Еще 30% заявили, что еще не сталкивались с такими ситуациями. Им либо жутко повезло, либо их компетенций недостаточно, чтобы распознать домашку, написанную искусственным интеллектом.

Поддерживаем депутата Госдумы Екатерину Харченко, которая выступает за то, чтобы разрешить школьникам пользоваться нейросетями:

Мы должны научиться жить в новых условиях 21 века и прежде всего надо научить взрослых, в том числе педагогов и родителей, использовать искусственный интеллект как инструмент во благо — для поиска информации, для систематизации. И уже после этого научить детей. Если ты не можешь что-то отменить, то надо это возглавить.

Наши дети будут жить в эру искусственного интеллекта, поэтому нам, взрослым, в том числе учителям и педагогам, необходимо его научиться использовать как инструмент во благо. Как инновационный метод, как раньше учили на счетах, а потом появились калькуляторы и компьютеры. Также и сейчас — это просто новый инструмент, который не будет работать без человека.


#ии #исследования
3❤‍🔥2🥰2👌2🔥11
Если вы все еще путаете ИИ-агентов и агентный ИИ, тогда мы идем к вам

В обзоре AI Agents vs. Agentic AI: A Conceptual Taxonomy, Applications and Challenges авторы предлагают четкое разделение двух парадигм автономных систем:

ИИ-агент — одиночный модуль, основанный на LLM/LIM, выполняющий четко заданную задачу (автоответы, планирование, сбор и суммирование данных).

Интегрируется с внешними инструментами (API, базы, поиск) через цепочки запросов–действий–обновлений (ReAct, tool-calling). Подходит для узконаправленной автоматизации: чат-боты, фильтрация писем, отчеты, планирование встреч.

Агентный ИИ — система из нескольких специализированных агентов, которые кооперируются для достижения общей цели.

Использует динамическое разбиение задач, координацию (через шины сообщений или shared memory), персистентную память и агента-оркестратора. Способен на сложные, многоэтапные и непрерывные рабочие процессы: исследовательские ассистенты, логистика, медицинская поддержка

Зачем понимать разницу?

1. Правильный выбор архитектуры

Если задача простая и одношаговая (например, автоответы на входящие запросы или генерация кратких отчетов), достаточно ИИ-агента — это быстро, дешево, легко внедряется.

Для сложных, многоэтапных процессов (например, полная автоматизация обработки заявок с анализом, уточнением и передачей между отделами) нужен агентный ИИ, чтобы избежать узких горлышек и обеспечить надежную координацию всех шагов.

2. Экономия ресурсов и времени

Неправильное применение агентного ИИ для простой задачи приведет к избыточным вычислениям и затратам.

Применение ИИ-агента с узкой специализацией в слишком сложном сценарии обречет проект на частые подвисания и ошибки.

3. Управление рисками и безопасностью

В многоагентных системах сложнее контролировать, какие данные и как передаются между компонентами, что требует дополнительных мер защиты и аудита.

Простые агенты легче просканировать на уязвимости и обеспечить соответствие корпоративным политикам.

4. Гибкость и масштабируемость

ИИ-агент хорошо масштабируется горизонтально (добавляем больше однотипных экземпляров), но с ростом числа задач коммуникация остается минимальной.

Агентный ИИ масштабируется вертикально (увеличивается число и разнообразие агентов), что позволяет адаптироваться к растущей сложности процессов.

Помимо сравнительной таксономии, в статье обсуждаются ключевые проблемы обеих парадигм: недостаточная причинная обусловленность и поверхностное рассуждение в ИИ-агентах, а также усиленные риски сбоев координации и непредсказуемого поведения в агентном ИИ.

#ии #статьи
👍3🔥3❤‍🔥22
Как изменилась работа с ИИ и данными в 2025 году

Инфраструктура становится умнее, инструменты гибче, а данные — центром принятия решений. Отчеты State of Data and AI Engineering и Artificial Analysis State of AI за 2025 год показывают: индустрия стремительно переходит от универсальности к эффективности.

Разбираем ключевые тренды.

Индустрия данных и ИИ в 2025 году переживает фундаментальную перестройку

На первый план выходят не столько новые платформы, сколько архитектурные сдвиги. Самый заметный — отказ от универсальных MLOps-решений в пользу легких, встроенных компонентов. Компании, как CoreWeave и ClearML, трансформируют свои продукты под конкретные задачи — оптимизацию GPU, наблюдение за LLM, CI/CD для моделей.

Это совпадает с переходом к ризонинг-моделям: по данным Artificial Analysis, они теперь доминируют в рейтингах интеллекта и требуют новых подходов к мониторингу и оценке.

В инфраструктуре фокус смещается в сторону гибкости и отказа от вендорской зависимости

AWS Glue становится фактически единственным инструментом, способным обеспечить read/write-федерацию Apache Iceberg с разными движками. Это важно, учитывая, что форматы Iceberg и Delta теперь — стандарт в построении масштабируемых lakehouse-архитектур. Такой подход снижает риски блокировки на одном вендоре и облегчает мультиоблачную миграцию.

Параллельно облачные провайдеры ведут гонку за низкой латентностью

GCS Fast Tier от Google и S3 Express от AWS ориентированы на real-time приложения, особенно на inference для LLM. Это особенно актуально в контексте новых моделей: ризонинг-системы генерируют в 10 раз больше токенов, а агентные фреймворки делают десятки запросов на одну задачу.

По сути, эффективность хранения и скорости доступа становится новым полем конкуренции в ИИ.

BigQuery закрепляет лидерство, став фундаментом аналитической стратегии Google

Количество клиентов BigQuery в 5 раз превышает суммарную аудиторию Snowflake и Databricks. Это подкрепляется тем, что Google — один из немногих игроков, обладающих полной вертикальной интеграцией — от TPU до собственных ризонинг-моделей Gemini. Такая связка данных и вычислений становится ключевым преимуществом в эпоху генеративных ИИ.

Оркестрация данных становится умной и реактивной

Dagster, Flyte, Prefect используют ИИ для построения DAG-ов, предсказания сбоев и оптимизации ресурсов. Причем эти функции уже встраиваются в интерфейсы: Azure Data Factory и Vertex AI предоставляют Copilot-режимы.

Все чаще пайплайны проектируются не кодом, а в диалоге с моделью. Это позволяет быстрее адаптироваться под задачи агентных LLM-систем, которые автономно управляют инструментами и API.

Наблюдаемость выходит на новый уровень зрелости

Решения вроде WhyLabs и Monte Carlo работают как единая система контроля качества и мониторинга модели. Это становится необходимым, поскольку рост генеративных систем требует непрерывной оценки достоверности, дрейфа и качества входных данных. Более того, с развитием агентного ИИ и автогенерации кода, проверка становится обязательной частью CI/CD.

Векторные базы данных и синтетические данные превращаются в зрелые инструменты

Pinecone демонстрирует 48% прирост точности благодаря каскадным retrieval-алгоритмам. Одновременно, инструменты генерации синтетических данных (Gretel AI, YData) компенсируют дефицит приватных или сбалансированных выборок.

Это особенно актуально, учитывая доминирование MoE-архитектур, где модели работают с малыми активными подсетями параметров — снижая стоимость, но требуя качества от обучающих данных.

Вывод

Рынок уходит от универсальных решений и движется к адаптивным, масштабируемым и агентно-ориентированным структурам. Побеждают те, кто совмещает зрелость инженерии, свободу архитектурных решений и готовность к новым классам нагрузки: ризонинг, агенты и так далее. Для специалистов по данным это означает одно — инфраструктура становится стратегическим активом.

#ии #аналитика #исследования
👍3🔥3❤‍🔥2
Как тебе такое, Бенджамин Франклин?

Во-первых, Бенджамин Франклин, изображенный на $100, никогда не был президентом США. Это просто на всякий случай.

Во-вторых, ему принадлежит любимая редактором цитата:

Те, кто готов пожертвовать насущной свободой ради малой толики временной безопасности, не достойны ни свободы, ни безопасности.


В-третьих, он бы сильно удивился, что в 2025 году люди куда охотнее жертвуют не свободой, а именно что безопасностью. Особенно компании, внедряющие решения на базе искусственного интеллекта.

По данным Gigamon, 91% компаний идут на компромиссы в вопросах безопасности, масштабируя айти-инфраструктуру гибридных облаков ради ускоренного внедрения ИИ. Это при том, что 70% считают публичные облачные сервисы самым рискованным компонентом гибридной облачной среды.

В Gigamon опросили 1000 руководителей айти-отделов и директоров по информационной безопасности из разных стран и выяснили:

- 58% компаний столкнулись с ростом атак, в которых используется ИИ — это на 17% больше, чем годом ранее.

- 46% указали на нехватку качественных данных для безопасного развертывания ИИ.

- 47% респондентов отметили, что не могут получать полное, точное и своевременное представление о всех своих данных на протяжении всего их жизненного цикла. При этом только 64% ставят целью достижение полной видимости всех данных в реальном времени.

Кажется, многие опрометчиво перекладывают вопросы безопасности с интеллекта собственного на интеллект искусственный. Никакие умные алгоритмы не спасут, если вы не знаете, что происходит с вашими данными.

#ии #исследования
👍3🔥32❤‍🔥2
OpenAI рискует потерять $20 млрд из-за конфликта с Microsoft

С 2019 года Microsoft вложила в OpenAI $13 млрд. Однако сегодня OpenAI хочет ослабить контроль Microsoft над своими продуктами и вычислительными ресурсами, но при этом заручиться поддержкой техногиганта в вопросе преобразования в коммерческую компанию.

Одним из предметов конфликта стала покупка OpenAI стартапа Windsurf, который занимается вайб-кодингом, за $3 млрд. Microsoft по контракту имеет доступ ко всей интеллектуальной собственности OpenAI, но последняя хочет закрыть доступ к технологиям Windsurf. Также идет спор о доле Microsoft в новой структуре OpenAI после преобразования: техногигант требует больше, чем OpenAI готова отдать.

Кроме того, компании теперь конкурируют и на рынке потребительских чат-ботов, и в корпоративных решениях. Год назад CEO Microsoft Сатья Наделла нанял конкурента Сэма Альтмана, чтобы создать конкурирующие модели внутри компании.

Без одобрения преобразования от Microsoft OpenAI не сможет привлечь новые инвестиции, выйти на биржу и потеряет порядка $20 млрд.

Нам думается, что все закончится тихо-мирно. Однако инсайдеры WSJ утверждают, что руководство OpenAI обсуждало подачу антимонопольной жалобы на Microsoft.

Будем посмотреть, чем закончится.

#ии #статьи
🤔4👍3🤝21
Китайцы используют чемоданы для обучения ИИ-моделей

И нет, в чемоданах не ввозят чипы. Как пишет WSJ, все куда интереснее.

В марте четверо китайских инженеров прилетели в Малайзию с чемоданами, в которых хранилось 80 терабайт данных — таблицы, изображения, видео для обучения искусственного интеллекта.

В Малайзии компания арендовала около 300 серверов с мощными чипами Nvidia, недоступными в Китае из-за санкций США. Задача: обучить ИИ-модель за границей и вернуться с результатами.

С 2022 года США все жестче ограничивают экспорт продвинутых ИИ-чипов в Китай. В ответ китайские компании ищут обходные пути.

Одни пытаются использовать местные чипы, другие — закупать американские компоненты через третьи страны. Но все чаще данные просто вывозят туда, где есть нужное оборудование — в Юго-Восточную Азию и на Ближний Восток.

Бывший замглавы Бюро экспортного контроля Томас Кендлер отмечает:

Китай получает доступ к технологиям, не нарушая формально запретов, потому что физически не получает сами чипы.


Для маскировки китайские компании создают дочерние структуры в Малайзии, регистрируют их на местных граждан, разбивают данные на несколько жестких дисков и провозят их в разных чемоданах, чтобы не вызвать подозрений на таможне.

Вернувшись в Китай, инженеры привозят обратно сотни гигабайт готовых параметров моделей.

Это становится новой нормой:

Малайзия, Сингапур, Индонезия и Таиланд переживают бум дата-центров. Только в марте и апреле Малайзия импортировала ИИ-чипов и процессоров из Тайваня на $3,4 млрд. Nvidia активно продает десятки тысяч чипов странам Персидского залива, включая Саудовскую Аравию и ОАЭ.

#ии #статьи
👍6😁52🔥2
Нейросети вовсе не уравнивают людей, а увеличивают расслоение

GitHub проводил контролируемый эксперимент: группа программистов с Copilot завершала задачи на 55 % быстрее, чем без него.

Но если вы не знаете, зачем именно нужен этот код, как его безопасно внедрить в архитектуру, и где могут быть уязвимости — вы не инженер, а оператор промптов. LLM отлично масштабируют знание. Но и незнание они масштабируют точно так же — только быстрее и дешевле.

В 2023 году сгенерированный код Copilot попал в продакшн и случайно открыл публичный доступ к логам, содержащим персональные данные.

Все из-за одной сгенерированной мелочи, которую никто не проверил.

Инженеры все чаще перестают писать руками. На Reddit многие признаются, что полностью поручили написание кода Claude. Он и баги даже сам правит.

Звучит круто — но это путь к утрате инженерной интуиции. Значит, качество и устойчивость решений снижаются.

Почему тогда растут зарплаты инженеров?

В 2018 году McKinsey прогнозировал, что спрос на технологические навыки вырастет на 55% за 12 лет. К 2030 году на эти навыки придется 17% всех рабочих часов на планете.

В марте стало ясно, что спрос на инженеров данных вырос на 50% только за прошедший год. Ну и зарплаты инженеров за 2018-2023 выросли на 25%.

Стоп. Но разве нейросети не отнимают у людей рабочие места?

Отнимают. Но не у всех.

Стремительно падает доля джунов на рынке. В Amazon и Dropbox, массово сокращая сотрудников в 2023-2024 годах, прямо говорили: «Теперь ту же работу делает меньше людей с помощью ИИ-инструментов».

Сеньоры, используя новые инструменты, становятся круче, а джуны — слабее.

Как теперь стать сеньором?

Бунтовать против ИИ из-за потери рабочих мест — это к луддитам, мы к этому не призываем.

Нейросети, кажется, сломали механизм взращивания кадров.

Беда в том, что оператор ИИ, заменивший джуна-разработчика, не набирается нужного опыта и не становится мидлом-разработчиком.

То, что джуны не получают работу — не так страшно, а вот то, что они не получают опыт — настоящая угроза.

Учиться теперь нельзя просто по дороге. Опыт больше не набирается пассивно. Учиться нужно проактивно, осмысленно, через рефлексию и обратную связь. Потому что ИИ забирает у новичков главный ресурс — время на ошибки.

#ии #статьи #исследования
👍4🔥4❤‍🔥3
Пока они там у себя суетятся, мы тут уже монетизируем

В России работает уже более 130 отечественных ИИ-сервисов в разных сферах: от создания презентаций до оптимизации производственных цепочек.

В «Инке» представили карту российского генеративного ИИ — удобный каталог всех отечественных решений, уже меняющих бизнес-процессы. К карте прилагается детальный обзор.

Пока DeepSeek и OpenAI меряются бенчмарками и дерутся за глобальных пользователей, российские разработчики продуктов на базе искусственного интеллекта может только и рады.

Конкурировать за клиентов с мировыми гигантами не надо, ведь программа перехода на отечественное ПО создает достаточно спроса и на внутреннем рынке.

Парадоксально ярко цветут корпоративные решения: пока западные гиганты борются за создание универсального суперинтеллекта, российские разработчики уже монетизируют узкоспециализированные решения — от анализа звонков до генерации презентаций. 

#ии #статьи
👍5🔥4❤‍🔥3
OpenAI меняет свою структуру: что это значит и чем это грозит?

Сверху структура OpenAI как исследовательской лаборатории в 2015 году. Снизу примерная структура OpenAI на 2025 год.

Независимые исследователи опубликовали отчет об изменениях в OpenAI, в котором упрекают компанию в фокусе на выручке и снижении требований к безопасности ИИ-моделей.

Когда OpenAI создавалась в 2015 году, ее манифест звучал почти романтично: никакой погони за прибылью, только благо человечества. Некоммерческая миссия, кап на доходах инвесторов и обещание, что успех AGI не достанется узкой группе акционеров, а будет служить всем.

Сегодня все иначе. В 2025 году компания официально отказалась от ключевых принципов: снят потолок доходности для инвесторов, роль некоммерческого совета ослаблена, а сама структура переходит к Public Benefit Corporation — гибриду, который учитывает интересы общества, но все равно обязан заботиться о доходах акционеров.

Что это значит на практике?

- Инвесторы теперь смогут зарабатывать бесконечно много, а не в 100 раз больше вложенного.

- Некоммерческая часть больше не управляет компанией, а лишь назначает наблюдателей.

- Скорость разработки и коммерциализации ставится выше вопросов безопасности и этики, отмечают исследователи.

К чему это может привести?

- Усиление гонки вооружений на рынке ИИ: больше денег — быстрее разработки, но выше риск ошибок.

- Отчуждение от публичного интереса: не факт, что в будущем AGI принесет пользу всем, как было обещано.

- Снижение прозрачности: уже сейчас сотрудников принуждали к NDA под угрозой лишения доли, а требования к безопасности снижаются.

По сути, OpenAI повторяет путь многих стартапов Кремниевой долины: ради миссии вначале, а затем — ради прибыли. Это не обязательно плохо, но наивно полагать, что разработка AGI и дальше будет вестись только ради всеобщего блага.

Сейчас перед индустрией встает главный вопрос: кто должен контролировать технологии, которые потенциально могут изменить мир? Ответа пока нет.

#ии #безопасность #деньги #статьи
👍3🔥3❤‍🔥21
Рассуждений от ИИ больше недостаточно, теперь нужны еще и объяснения

ИИ уже умеет принимать решения: кому выдать кредит, какой диагноз поставить, кого позвать на собеседование. И нередко делает это лучше человека. Еще 6 лет назад исследование Google и Nature Medicine показало, что их ИИ для скрининга рака легких на КТ добился 94% точности. Это выше, чем у среднего радиолога.

Но ключевая проблема в том, что эти решения остаются черным ящиком.

Что в черном ящике?

Нейросети выдают результат, но не объясняют, почему именно такой. В большинстве задач это приемлемо: например, в чат-ботах или системах рекомендаций.

В Евросоюзе вступает в силу The EU Artificial Intelligence Act, закон уровня регламента, как GDPR. В нем описывается категория ИИ с высоким риском, в которую попадают решения для медицины, финансов, судов, образования и так далее. В этих вопросах неприемлемо скрывать логику принятия решения в черном ящике.

Кстати, в GDPR уже сейчас есть пункт, согласно которому «субъект имеет право не подвергаться воздействию решения, основанного исключительно на автоматизированной обработке».

Поэтому набирает силу подход Explainable AI (XAI) — ИИ, который показывает не только результат, но и обоснование.

Как объяснения решают проблемы?

В здравоохранении это может быть тепловая карта поражённых участков снимка, в кредитовании — вес каждого критерия в решении о выдаче кредита. В отчете McKinsey говорится, что внедрение XAI в чувствительных областях повышает доверие пользователей на 30–50%, снижает число юридических претензий и улучшает качество моделей.

XAI также помогает выявлять системные ошибки и предвзятость. На Viso описан кейс банка, где модель отклоняла заявки женщин на кредит в два раза чаще, чем мужчин. Объяснимость позволила увидеть, что модель обучена на исторических данных с гендерным смещением, и исправить алгоритм.

XAI не убирает риск полностью, а сдвигает его на новый уровень — теперь разработчикам предстоит встраивать объяснения так, чтобы они соответствовали не только здравому смыслу, но и формальным требованиям.

ИИ уже достаточно зрел, чтобы принимать решения лучше человека. Но пока не созрели люди, чтобы слепо доверять машине. Задача не в том, чтобы сделать ИИ еще умнее, а в том, чтобы разработать понятные правила и механизмы доверия — так же, как врач доверяет клиническим рекомендациям Минздрава и несет ответственность в рамках рекомендаций.

Только тогда ИИ станет полноценным партнером, а не источником новых рисков.

#ии
❤‍🔥4🔥32
Если ваш сайт посещают ИИ-боты, вы можете на этом заработать

Сегодня боты вроде OpenAI, Anthropic, Perplexity и других массово собирают данные для обучения моделей и формирования ответов, но:

- Не возвращают пользователей на сайты.

- Не платят владельцам контента.

Поисковики еще как-то делятся трафиком и рекламными доходами, а вот ИИ-боты — нет. Контент создается за дорого, но доходы от него падают.

Cloudflare предложила решение: монетизировать доступ ИИ-ботов к контенту сайтов.

Владелец сайта через панель Cloudflare выставляет цену за один запрос. Бот перед отправкой запроса указывает, готов ли платить, и подтверждает свою личность с помощью подписи. Если бот согласен заплатить, сервер возвращает данные и списывает платеж. Cloudflare собирает платежи и перечисляет их владельцу сайта.

Технология уже поддержана крупными игроками вроде Condé Nast, Associated Press и Reddit, а Cloudflare запустила решение в режиме закрытой беты. По сути, это первый шаг к полноценному рынку данных для ИИ, основанному на прозрачности и стандартных интернет-технологиях.

Reddit, кстати, показал пример: он уже продает свои данные Google, но параллельно судится с Anthropic за нелицензионное использование своих данных.

#ии #деньги
4❤‍🔥3🔥3👍2
Если друг оказался вдруг и не друг, и не враг, а дипфейк

Контур.Толк представили инструмент, который выявляет дипфейки прямо во время видеозвонков. Сервис уже работает в формате «один на один» и скоро будет доступен для конференций.

Технология анализирует видеопоток на артефакты, изменения положения и несоответствия в кадре, чтобы выявлять поддельные изображения, созданные нейросетями.

Решение помогает бизнесу защищать удаленные переговоры от атак, снижает нагрузку на проверяющих и соответствует новым законодательным требованиям о дистанционной идентификации и онлайн-собраниях.

Инструмент уже тестируется крупнейшим российским банком.

Вы тоже можете подключить детектор дипфейков по запросу. Для этого нужно обратиться в службу поддержки Толка.

#ии #безопасность
🔥4❤‍🔥3👍32
OpenAI и AFT обучат 400 000 американских учителей работе с ИИ

OpenAI совместно с Американской федерацией учителей (AFT) запускают National Academy for AI Instruction — пятилетнюю программу, которая поможет 400 000 педагогам в США освоить ИИ и научиться применять его в школах. Это около 10% всех учителей страны.

OpenAI выделит на проект $10 млн, из которых $8 млн — прямое финансирование, а $2 млн — техническая поддержка, доступ к вычислительным мощностям и консультации.

В программе бесплатные курсы, мастер-классы и практика. В Нью-Йорке откроется флагманский кампус, а к 2030 году академия развернет сеть центров по всей стране.

Проблема с ИИ в школах и вузах по большей части заключается не в самом ИИ, а в том, что ученики в нем разбираются на порядок лучше, чем учителя. Если это перевернуть, то ИИ без проблем встроится и в школьную, и в вузовскую программу.

#ии
3👍3🔥3
Progres Post
Можно продавать данные, чтобы покупатели получали из них инсайты, а можно сразу продавать инсайты Разбираемся, как это так. Model Context Protocols — способ превращать данные в готовые контекстные ответы прямо внутри бизнес-процессов. Вместо того, чтобы…
Если вы тоже захотели себе решение на базе MCP

В Anthropic говорят о важности интеграции контекста в ИИ-решения:

Самые продвинутые модели все равно ограничены своей изоляцией от данных — они заперты в информационных силосах и легаси-системах.


Крупные игроки ИИ-индустрии и опенсорс-сообщества начали активно поддерживать MCP, видя в нем потенциально революционный инструмент для построения агентных систем на базе LLM.

В Microsoft опубликовали бесплатный курс по MCP для начинающих. С актуальным переводом на русский язык и примерами использования разных языков программирования.

В Google опубликовали бета-версию MCP Toolbox — опенсорсного инструмента, который помогает разработчикам быстрее, удобнее и безопаснее создавать приложения для работы с базами данных.

MCP Toolbox экономит время. Под капотом: запросы на естественном языке, автоматизация управления базами данных, контекстно-зависимый код, а также автоматизация настройки подключений, управления схемами и обработки ошибок миграции.

Забирайте, пользуйтесь, делитесь.

#ии #опенсорс
🔥3👾32👍2
Теперь официально: вместо «уверенных пользователей ПК» работодатели ищут «уверенных пользователей ИИ»

В Сбере намерены нанимать на все ключевые позиции только кандидатов с навыками работы с искусственным интеллектом. Все уже трудоустроенные сотрудники тоже в обязательном порядке учатся работать с ИИ.

К специалистам первой линии ключевое требование — умение применять ИИ для эффективного решения повседневных задач. Каких — не уточняют. Это базовые навыки работы с нейросетями — о них спрашивают на собеседовании.

Специалистам аналитических и айти-направлений нужны более глубокие знания и интеграция ИИ в профессиональную деятельность. Для проверки на собеседованиях будут практические задания. Какие — не говорят. Также будут тестировать способность переписывать тексты и проверять факты при помощи нейросетей.

Разработчики должны свободно ориентироваться в ИИ-инструментах, понимать принципы работы и в идеале уметь создавать ИИ-решения. Руководителям же критически важно понимать возможности ИИ и принимать решения с опорой на данные, полученные от него.

Стажерам и студентам нужно только желание обучиться работе с ИИ, этому их научат во время работы. Кроме того, если кандидат подходит, но еще не использовал нейросети, банк готов нанять его с обязательным прохождением базовых курсов Сбера. Среди них: про ИИ-агентов, генерацию видео и аудио, машинное обучение, промпт-инжиринг и другие.

— Нас всех заменит ИИ?
— Нет, вас всех заменят люди, которые владеют ИИ.

#ии #исследования
🔥64👍4🤔2
Контекст важнее промпта

Тренер ставит новичку задачу: прыгнуть в длину на 8 метров. У того не получается. Тогда тренер в подробностях объясняет технику: как разбегаться, в какой момент отталкиваться, как группироваться и все такое. У того опять не получается.

Неважно, насколько хорошо тренер объяснит новичку технику, если тому не хватает опыта и тренировок, ничего не выйдет.

В работе с LLM бывает так же: можно написать предельно точный и учитывающий все тонкости промпт, но если модели не хватает контекста, задачу она не решит.

И это работа для контекст-инженера.

Это кто? Это специалист, который отвечает за то, чтобы модель получила все нужное для выполнения задачи: данные, инструкции, формат ответа, историю, внешние источники и доступ к инструментам.

Если вчера главным было мастерство формулировки промпта, то сегодня куда важнее качество всей среды, в которой модель принимает решение.

Представьте, что ИИ просят назначить встречу на основе письма: «Привет, ты завтра свободен для быстрой встречи?»

Если у агента нет контекста, он видит только этот текст и отвечает формально и бесполезно: «Спасибо за сообщение. Завтра мне подходит. В какое время?»

Такой ответ — результат работы модели без понимания ситуации. Он может быть технически корректным, но не помогает делу.

Теперь сравните с агентом, у которого есть контекст:

- Он видит ваш календарь и знает, что вы заняты весь день.

- Считывает стиль общения из предыдущих писем.

- Знает, кто вам пишет.

- Имеет доступ к инструментам и может отправить приглашение на встречу.

В этом случае ответ будет таким: «Привет! Завтра я весь день занят, но в четверг утром свободен. Отправил приглашение — дай знать, если все окей».

Магия не в более умной модели или более хитром алгоритме. Она в предоставлении правильного контекста для задачи. Поэтому контекстная инженерия будет важна. Неудачи агентов — это не только неудачи модели, это неудачи контекста.

Сегодня в работе с ИИ куда важнее не то, что и как мы спрашиваем у модели, а что она уже знает и умеет в этот момент.

#ии
8🔥4👍3❤‍🔥2
Качественные данные ≠ готовые для ИИ данные

В 2016 году аналитики IBM посчитали, что из-за некачественных данных экономика США теряет $3 трлн ежегодно. До 80% проектов по внедрению ИИ проваливаются из-за некачественных данных.

И сегодня все бьются над качеством данных. Но штука в том, что мы уже не в 2016 году, и сегодня этого недостаточно.

Ваши данные должны быть не только качественными в традиционном смысле, а готовыми к использованию в ИИ.

Самим качеством, кстати, можно пожертвовать.

В статья на Financial Times Маккензи Хоу из Atheni выдала такой пассаж:

Ждать идеальных данных — все равно что ждать, когда освободятся дороги, чтобы научиться водить.


Однако выводы в статье не такие однозначные:

Не стоит по полной вкладываться в ИИ, если ваши данные не готовы. Но и откладывать внедрение ИИ, сетуя на плохие данные, не стоит.


В чем разница между качественными данными и готовыми для ИИ данными?

Качественные данные — это про корректность. Готовые к ИИ данные — это еще и про релевантность, доступность и управляемость.

ИИ требует, чтобы данные не только были чистыми, но и легко встраивались в процессы.

Качественные данные — это данные, которые:

- Точные, полные, актуальные.

- Не содержат дубликатов и ошибок.

- Согласованы по форматам и источникам.

Такие данные подходят для отчетности, BI и аналитики.

Готовые для ИИ данные — понятие шире.

Помимо качества, готовые для ИИ данные должны:

- Быть релевантны конкретной задаче ИИ (подобраны под конкретный use case).

- Быть доступны в нужной форме и скорости (API, потоки, батчи).

- Быть интероперабельными и описанными (метаданные, словари).

- Учитывать правовые, этические и безопасностные требования.

- Постоянно обновляться и отслеживаться для предотвращения дрейфа данных.

Данные о транзакциях клиентов, например, могут быть качественными, но для предсказания оттока нужны еще поведенческие данные, метаданные, история изменений и контроль доступности этих данных.

Как подготовить данные для ИИ?

В Gartner сделали неплохой гайд по подготовке данные для ИИ.

1. Увязка данных с задачей ИИ

Подготовка начинается с увязки бизнес‑задачи с нужными источниками и атрибутами, включая поиск недостающих данных.

Для прогноза коррозии на буровых к датчикам добавляют десятилетние ряды погоды, химсостав воды и историю ремонтов.

2. Управление и соблюдение норм

Данные очищаются от персональной информации, снабжаются правилами использования и частотой обновления под конкретный сценарий.

В фарме при обучении моделей на медицинских картах автоматические фильтры блокируют записи с истекшим согласием.

3. Метаданные и контекст

Создается слой активных метаданных, который хранит происхождение, смысл и условия применения данных и управляет их выбором.

В телекоме прогноз нагрузки учитывает не только трафик, но и метаданные об архитектуре сети и параметрах оборудования.

4. Автоматизация потоков

Разнородные данные очищаются, нормализуются и объединяются в сквозные конвейеры, дающие модели стабильный поток.

В агротехе данные с дронов и сенсоров приводят к общей сетке координат и времени, чтобы ИИ корректно интерпретировал их.

5. Валидация и контроль

Новые данные и потоки постоянно тестируются и мониторятся, чтобы предотвратить дрейф и деградацию модели.

В кредитном скоринге система замечает изменение поведения заемщиков и автоматически перестраивает данные и модель, чтобы сохранять точность прогноза.

Чистота — это прошлый век?

Чистить данные, конечно, нужно, но если раньше почистить их было достаточно, то теперь этого мало. ИИ требует данных, которые живут вместе с процессами компании, а не лежат чистенькие в хранилищах.

#ии
👍4🔥43❤‍🔥1