🇷🇺 В Сколково прошла презентация тренд-репорта «Рынок GenAI в 2025: что нужно знать бизнесу» (🎦Youtube, Rutube). Эксперты проанализировали и обобщили
● состояние рынка GenAI в мире и в России,
● технологические и пользовательские тренды генеративного ИИ в 2025 году,
● ситуацию на рынке труда на фоне широкого внедрения GenAI-моделей.
Скачать документ в формате PDF можно по ссылке. Некоторые ключевые тезисы:
🔸 Ожидаемый среднегодовой темп роста рынка GenAI на 2024–2030 гг. оценивается в 46,48%. К 2030 году его объем увеличится в 10 раз, достигнув $356,1 млрд. Ключевую роль в развитии рынка будут играть США, Европа и Азия, но и наша страна имеет достаточный потенциал для появления собственных «единорогов» (стартапов-миллиардеров).
🔸 Объем рынка GenAI в России прогнозируется на уровне $4,15 млрд, со среднегодовым ростом 25%. К 2030 году правительство планирует выделить $0,3 млрд на развитие AI. Вложения из внебюджетных источников, таких как Сбер и РФПИ, могут составить $1,16 млрд. Технология набирает популярность как в бизнесе, так и среди частных пользователей.
🔸Развитие AI-систем движется в сторону агентного подхода: автономные AI-агенты, мультиагентные системы (MAS) и агенты пользовательского интерфейса. Подобная модульность создает предпосылки для формирования композитных AI — мета-структур, которые преодолевают ограничения традиционных LLM за счет интеграции различных технологий в единый комплекс.
🔸Технология RAG (Retrieval-Augmented Generation) становится базово применимой концепцией для LLM
и продолжает эволюционировать, расширяя разнообразие архитектур. Так же активно идет развитие Vision-Language Models (VLM) — продвинутых AI-моделей, работающих одновременно с текстом и изображениями.
🔸Еще один тренд — на развитие SLM (Small Language Models), компактных нейросетей, оптимизированных для узкоспециальных задач. По прогнозу Gartner, к 2027 году более 50% моделей GenAI, используемых в бизнесе, будут адаптированы под конкретные отрасли или бизнес-функции.
🔸Также нас ожидает массовое внедрение AI-агентов и копилотов в физические устройства (дальнейшее развитие «интернета вещей») и переход LM-систем от вопросно-ответных датасетов к рассуждающим моделям.
🔸Что касается перемен на рынке труда, то прогноз позитивный.
☝️ AI-агент не заменяет человека, но дополняет его. Конкуренция возникает не между людьми и машинами, а между теми, кто эффективно использует AI, и теми, кто этого не делает. Часть задач передается ботам, что меняет структуру труда и перераспределяет работу. Появляются новые требования к сотрудникам, AI-навыки становятся ценным преимуществом.
#аналитика #AI #LLM #SLM #ИИ #RAG
🚀 Подписывайтесь на ТехноТренды — самый экспертный канал об AI, IT и роботизации!
● состояние рынка GenAI в мире и в России,
● технологические и пользовательские тренды генеративного ИИ в 2025 году,
● ситуацию на рынке труда на фоне широкого внедрения GenAI-моделей.
Скачать документ в формате PDF можно по ссылке. Некоторые ключевые тезисы:
🔸 Ожидаемый среднегодовой темп роста рынка GenAI на 2024–2030 гг. оценивается в 46,48%. К 2030 году его объем увеличится в 10 раз, достигнув $356,1 млрд. Ключевую роль в развитии рынка будут играть США, Европа и Азия, но и наша страна имеет достаточный потенциал для появления собственных «единорогов» (стартапов-миллиардеров).
🔸 Объем рынка GenAI в России прогнозируется на уровне $4,15 млрд, со среднегодовым ростом 25%. К 2030 году правительство планирует выделить $0,3 млрд на развитие AI. Вложения из внебюджетных источников, таких как Сбер и РФПИ, могут составить $1,16 млрд. Технология набирает популярность как в бизнесе, так и среди частных пользователей.
🔸Развитие AI-систем движется в сторону агентного подхода: автономные AI-агенты, мультиагентные системы (MAS) и агенты пользовательского интерфейса. Подобная модульность создает предпосылки для формирования композитных AI — мета-структур, которые преодолевают ограничения традиционных LLM за счет интеграции различных технологий в единый комплекс.
🔸Технология RAG (Retrieval-Augmented Generation) становится базово применимой концепцией для LLM
и продолжает эволюционировать, расширяя разнообразие архитектур. Так же активно идет развитие Vision-Language Models (VLM) — продвинутых AI-моделей, работающих одновременно с текстом и изображениями.
🔸Еще один тренд — на развитие SLM (Small Language Models), компактных нейросетей, оптимизированных для узкоспециальных задач. По прогнозу Gartner, к 2027 году более 50% моделей GenAI, используемых в бизнесе, будут адаптированы под конкретные отрасли или бизнес-функции.
🔸Также нас ожидает массовое внедрение AI-агентов и копилотов в физические устройства (дальнейшее развитие «интернета вещей») и переход LM-систем от вопросно-ответных датасетов к рассуждающим моделям.
🔸Что касается перемен на рынке труда, то прогноз позитивный.
Несмотря на автоматизацию, безработица не должна вырасти, так как появляются новые профессии. Однако большинство специальностей потребуется адаптировать, а сотрудников — обучать работе в среде с AI-агентами.
☝️ AI-агент не заменяет человека, но дополняет его. Конкуренция возникает не между людьми и машинами, а между теми, кто эффективно использует AI, и теми, кто этого не делает. Часть задач передается ботам, что меняет структуру труда и перераспределяет работу. Появляются новые требования к сотрудникам, AI-навыки становятся ценным преимуществом.
«AI — не очередной хайп. Это следующий технологический цикл, который приведет к масштабным изменениям и долгосрочному обновлению бизнес-процессов».
#аналитика #AI #LLM #SLM #ИИ #RAG
🚀 Подписывайтесь на ТехноТренды — самый экспертный канал об AI, IT и роботизации!
Artificial_Intelligence_Index_Report_2025.pdf
10.9 MB
Опубликован Artificial Intelligence Index Report 2025 — ежегодный аналитический доклад Института человекоориентированного ИИ при Стэнфордском университете (Stanford HAI). Цель отчета — составить объективное, на основе количественных данных, представление о масштабах, тенденциях и последствиях развития ИИ по всему миру.
Интересно будет разобрать стэнфордские выкладки и сопоставить с нашими наблюдениями, выводами и прогнозами.
#AI #тренды #аналитика #AI_index_report_2025
🚀 ©ТехноТренды
Интересно будет разобрать стэнфордские выкладки и сопоставить с нашими наблюдениями, выводами и прогнозами.
#AI #тренды #аналитика #AI_index_report_2025
🚀 ©ТехноТренды
Итак, читаем доклад Stanford HAI о масштабах, тенденциях и последствиях развития ИИ по всему миру. Рост интереса к ИИ в последние годы был стремительным. После выхода LLM-моделей вроде GPT, Llama, Claude и их широкого распространения стало очевидно, что требуется системный подход к анализу изменений в этой сфере.
❗️Первое, что бросается в глаза — в документе почти не нашлось места России. Ни в сводках по патентам или инвестициям, ни в части информации о лабораториях, компаниях или исследованиях в области ИИ. Разве что несколько упоминаний в контексте кибербезопасности и ИИ-регулирования.
Посмотрите на первую картинку в этом посте: на инфографике «Частные инвестиции в развитие ИИ» Россия отсутствует, хотя есть такие страны, как Чили и Литва, явно не крупные AI-державы. В целом отчет выглядит американоцентричным (что, впрочем, объяснимо). Возможно, у авторов просто не было доступа к данным по РФ — и это одна из наших проблем.
Исправим это досадное упущение — дополним отчет. Как ситуация выглядит на самом деле?
🇷🇺 В России (и наши публикации об этом говорят) развитие ИИ идет большими темпами: как в плане внедрения (link, link), так и в плане инвестиций и регулирования.
1. Инвестиции.
Объем рынка GenAI в России прогнозируется на уровне $4,15 млрд, со среднегодовым ростом 25%. К 2030 году правительство планирует выделить $0,3 млрд на развитие AI. Вложения из внебюджетных источников, таких как Сбер и РФПИ, могут составить $1,16 млрд — это уже больше, чем у Мексики или Каймановых островов, присутствующих на диаграмме.
Про AI у нас говорят из каждого утюга. Практически все сейчас что-то делают с LLM (об этом см. ниже). Даже если предположить, что каждая компания вложит в ИИ по ₽2 млн (а реальные вложения достигают от десятков до сотен млн рублей), то наше место явно не в категории «Rest of World» 😉
2. Внедрение.
Теперь посмотрите на график AI Goes Corporate.
Россия здесь опережает общемировой тренд. По нашим наблюдениям, практически каждая компания так или иначе, косвенно или прямо использует LLM в своей работе. Это подтверждается и исследованиями рынка: уже к середине 2023 года 95% российских компаний заявляли о том, что внедряют ИИ-технологии в основные процессы.
3. Разработка.
Третья картинка — Number of notable AI models by geographic area — уже ближе к истине. Россия отнесена авторами исследования в категорию стран, имеющих 1-10 собственных AI. На самом деле реально самостоятельно обученных моделей у нас две: от Яндекса и от Сбера. Остальные LLM и SLM на российском рынке — тюнингованный open source. Конечно, здесь сказывается недостаток вычислительных мощностей, но и в эту отрасль запланированы вложения (мы об этом писали).
В общем, по России ситуацию прояснили. Давайте разбираться с общемировыми трендами — пойдем по главам.
⬇️⬇️⬇️
#AI #ниокр #LLM #внедрение #Россия #тренды #аналитика #AI_index_report_2025
🚀 ©ТехноТренды
❗️Первое, что бросается в глаза — в документе почти не нашлось места России. Ни в сводках по патентам или инвестициям, ни в части информации о лабораториях, компаниях или исследованиях в области ИИ. Разве что несколько упоминаний в контексте кибербезопасности и ИИ-регулирования.
Посмотрите на первую картинку в этом посте: на инфографике «Частные инвестиции в развитие ИИ» Россия отсутствует, хотя есть такие страны, как Чили и Литва, явно не крупные AI-державы. В целом отчет выглядит американоцентричным (что, впрочем, объяснимо). Возможно, у авторов просто не было доступа к данным по РФ — и это одна из наших проблем.
Исправим это досадное упущение — дополним отчет. Как ситуация выглядит на самом деле?
🇷🇺 В России (и наши публикации об этом говорят) развитие ИИ идет большими темпами: как в плане внедрения (link, link), так и в плане инвестиций и регулирования.
1. Инвестиции.
Объем рынка GenAI в России прогнозируется на уровне $4,15 млрд, со среднегодовым ростом 25%. К 2030 году правительство планирует выделить $0,3 млрд на развитие AI. Вложения из внебюджетных источников, таких как Сбер и РФПИ, могут составить $1,16 млрд — это уже больше, чем у Мексики или Каймановых островов, присутствующих на диаграмме.
Про AI у нас говорят из каждого утюга. Практически все сейчас что-то делают с LLM (об этом см. ниже). Даже если предположить, что каждая компания вложит в ИИ по ₽2 млн (а реальные вложения достигают от десятков до сотен млн рублей), то наше место явно не в категории «Rest of World» 😉
2. Внедрение.
Теперь посмотрите на график AI Goes Corporate.
В 2024 году доля опрошенных, сообщивших о применении ИИ в своих организациях, выросла до 78% с 55% в 2023 году. Аналогично, количество респондентов, заявивших о использовании генеративного ИИ в хотя бы одной бизнес-функции, более чем удвоилось — с 33% в 2023 году до 71% в прошлом году.
Россия здесь опережает общемировой тренд. По нашим наблюдениям, практически каждая компания так или иначе, косвенно или прямо использует LLM в своей работе. Это подтверждается и исследованиями рынка: уже к середине 2023 года 95% российских компаний заявляли о том, что внедряют ИИ-технологии в основные процессы.
3. Разработка.
Третья картинка — Number of notable AI models by geographic area — уже ближе к истине. Россия отнесена авторами исследования в категорию стран, имеющих 1-10 собственных AI. На самом деле реально самостоятельно обученных моделей у нас две: от Яндекса и от Сбера. Остальные LLM и SLM на российском рынке — тюнингованный open source. Конечно, здесь сказывается недостаток вычислительных мощностей, но и в эту отрасль запланированы вложения (мы об этом писали).
В общем, по России ситуацию прояснили. Давайте разбираться с общемировыми трендами — пойдем по главам.
⬇️⬇️⬇️
#AI #ниокр #LLM #внедрение #Россия #тренды #аналитика #AI_index_report_2025
🚀 ©ТехноТренды
Продолжаем анализировать Artificial Intelligence Index Report 2025. Начало тут.
1️⃣ ИИ и НИОКР в 2025: кто задаёт темп?
ИИ-революция начинается с науки и разработок. Первая глава AI Index 2025 показывает, как стремительно меняется ландшафт исследований: публикации, конференции, патенты, создание крупных LLM и опенсорсных программных продуктов, развитие аппаратных средств.
Главные факты:
1. Бурный рост публикаций.
Количество публикаций по ИИ утроилось за 10 лет — с ~102 000 в 2013 году до более чем 242 000 в 2023-м. Сейчас ИИ — почти половина всех публикаций о компьютерных науках (41.76% в 2023 году). По регионам лидировали Восточная Азия и Тихоокеанский регион (34.5% от общего числа), за ними следовали США, Европа и другие страны. Подавляющее большинство работ посвящено машинному обучению #ML, которое, как мы отмечали, сейчас развивается особенно стремительно.
2. Наука vs индустрия.
Академический сектор (университеты и исследовательские центры) остается поставщиком основной массы исследований — 85% публикаций. В то же время более 90% значимых ИИ-моделей создаются сегодня индустрией (еще в начале 2010-х абсолютным лидером были научные структуры).
3. Китай — основной конкурент США.
Китайцы впереди всех по общему количеству публикаций, а США сохраняют лидерство по качеству: именно американские исследователи больше всего присутствуют в топ-100 самых цитируемых работ.
4. Патентная гонка.
Количество патентов на ИИ выросло почти в 30 раз за последние 13 лет. Почти 70% всех выданных патентов приходится на долю Китая.
5. Модели растут в масштабах и аппетитах.
Каждые 5 месяцев удваивается вычислительная мощность, необходимая для обучения топовых моделей (как и прогнозировалось). Размеры датасетов для обучения LLM удваиваются каждые 8 месяцев.
6. Данные для обучения заканчиваются.
ИИ уже «съел» большую часть открытых данных интернета. Исследования показывают, что высококачественные данные могут исчерпаться к концу десятилетия. Это создает давление на индустрию: придется искать новые методы обучения — например, генерировать синтетические данные или создавать специализированные приватные датасеты.
7. Стоимость инференса падает.
Цена запроса к модели уровня GPT-3.5 обрушилась более чем в 280 раз за 18 месяцев, сделав ИИ-инструменты гораздо доступнее для разработчиков и компаний. Тренд на удешевление инференса мы уже не раз отмечали. Другая важная тенденция — усиление позиций опенсорса по сравнению с прориетарными моделями (тыц, тыц).
8. Аппаратная часть ускоряется.
Производительность оборудования для ИИ (FP16 операций в секунду) растет на 43% в год. Цены на чипы падают на 30% ежегодно, а энергоэффективность увеличивается на 40% в год. (Наш комментарий: драйвером роста здесь является развитие альтернативных платформ, не только GPU. Индустрия активно работает с архитектурами ARM и RISC-V, а также с различными ускорителями).
9. Энергоэффективность против выбросов.
Несмотря на рост энергоэффективности (см.), обучение моделей сопровождается всё большими выбросами CO₂. Например, обучение Llama 3.1 потребовало выбросов в 8 930 тонн CO₂ — в 500 раз больше годового следа обычного человека в США. Добавим, что проблема энергетического обеспечения потребностей ИИ становится всё более актуальной.
Вывод:
ИИ быстро эволюционирует. Но за ростом моделей стоит не только увеличение вычислений и данных, но и вызовы — энергопотребление, дефицит данных и необходимость нового подхода к этике ИИ.
👉 Продолжение следует...
#AI #ниокр #bigdata #экология #инференс #тренды #аналитика #AI_index_report_2025
🚀 ©ТехноТренды
1️⃣ ИИ и НИОКР в 2025: кто задаёт темп?
ИИ-революция начинается с науки и разработок. Первая глава AI Index 2025 показывает, как стремительно меняется ландшафт исследований: публикации, конференции, патенты, создание крупных LLM и опенсорсных программных продуктов, развитие аппаратных средств.
Главные факты:
1. Бурный рост публикаций.
Количество публикаций по ИИ утроилось за 10 лет — с ~102 000 в 2013 году до более чем 242 000 в 2023-м. Сейчас ИИ — почти половина всех публикаций о компьютерных науках (41.76% в 2023 году). По регионам лидировали Восточная Азия и Тихоокеанский регион (34.5% от общего числа), за ними следовали США, Европа и другие страны. Подавляющее большинство работ посвящено машинному обучению #ML, которое, как мы отмечали, сейчас развивается особенно стремительно.
2. Наука vs индустрия.
Академический сектор (университеты и исследовательские центры) остается поставщиком основной массы исследований — 85% публикаций. В то же время более 90% значимых ИИ-моделей создаются сегодня индустрией (еще в начале 2010-х абсолютным лидером были научные структуры).
3. Китай — основной конкурент США.
Китайцы впереди всех по общему количеству публикаций, а США сохраняют лидерство по качеству: именно американские исследователи больше всего присутствуют в топ-100 самых цитируемых работ.
4. Патентная гонка.
Количество патентов на ИИ выросло почти в 30 раз за последние 13 лет. Почти 70% всех выданных патентов приходится на долю Китая.
5. Модели растут в масштабах и аппетитах.
Каждые 5 месяцев удваивается вычислительная мощность, необходимая для обучения топовых моделей (как и прогнозировалось). Размеры датасетов для обучения LLM удваиваются каждые 8 месяцев.
6. Данные для обучения заканчиваются.
ИИ уже «съел» большую часть открытых данных интернета. Исследования показывают, что высококачественные данные могут исчерпаться к концу десятилетия. Это создает давление на индустрию: придется искать новые методы обучения — например, генерировать синтетические данные или создавать специализированные приватные датасеты.
7. Стоимость инференса падает.
Цена запроса к модели уровня GPT-3.5 обрушилась более чем в 280 раз за 18 месяцев, сделав ИИ-инструменты гораздо доступнее для разработчиков и компаний. Тренд на удешевление инференса мы уже не раз отмечали. Другая важная тенденция — усиление позиций опенсорса по сравнению с прориетарными моделями (тыц, тыц).
8. Аппаратная часть ускоряется.
Производительность оборудования для ИИ (FP16 операций в секунду) растет на 43% в год. Цены на чипы падают на 30% ежегодно, а энергоэффективность увеличивается на 40% в год. (Наш комментарий: драйвером роста здесь является развитие альтернативных платформ, не только GPU. Индустрия активно работает с архитектурами ARM и RISC-V, а также с различными ускорителями).
9. Энергоэффективность против выбросов.
Несмотря на рост энергоэффективности (см.), обучение моделей сопровождается всё большими выбросами CO₂. Например, обучение Llama 3.1 потребовало выбросов в 8 930 тонн CO₂ — в 500 раз больше годового следа обычного человека в США. Добавим, что проблема энергетического обеспечения потребностей ИИ становится всё более актуальной.
Вывод:
ИИ быстро эволюционирует. Но за ростом моделей стоит не только увеличение вычислений и данных, но и вызовы — энергопотребление, дефицит данных и необходимость нового подхода к этике ИИ.
👉 Продолжение следует...
#AI #ниокр #bigdata #экология #инференс #тренды #аналитика #AI_index_report_2025
🚀 ©ТехноТренды
Собрали для вас в одном посте всё про экономику инференса LLM.
Краткое summary:
1️⃣ Из чего складывается стоимость инференса? Как размер модели, тип данных и объем задач влияют на итоговую сумму и за счет чего можно понизить требовательность приложения.
2️⃣ Облачный сервис или свой сервер? Ожидаемые вложения в пользование облаком или в создание собственной инфраструктуры. Реальные расклады по CAPEX и OPEX, «подводные камни», способы снижения затрат.
3️⃣ Как считать затраты и рентабельность — детальный разбор для разных сценариев внедрения. Используйте наш калькулятор, чтобы выбрать оптимальный вариант.
Читайте, считайте, делитесь с коллегами и друзьями, задавайте вопросы в комментариях👇
#ИИ #оптимизация #инференс #аналитика #токеномика #дайджест
🚀 ©ТехноТренды
Краткое summary:
1️⃣ Из чего складывается стоимость инференса? Как размер модели, тип данных и объем задач влияют на итоговую сумму и за счет чего можно понизить требовательность приложения.
2️⃣ Облачный сервис или свой сервер? Ожидаемые вложения в пользование облаком или в создание собственной инфраструктуры. Реальные расклады по CAPEX и OPEX, «подводные камни», способы снижения затрат.
3️⃣ Как считать затраты и рентабельность — детальный разбор для разных сценариев внедрения. Используйте наш калькулятор, чтобы выбрать оптимальный вариант.
Читайте, считайте, делитесь с коллегами и друзьями, задавайте вопросы в комментариях👇
#ИИ #оптимизация #инференс #аналитика #токеномика #дайджест
🚀 ©ТехноТренды
❤1
Продолжаем изучать стэнфордский отчет AI Index Report 2025 (начало тут и тут). Вторая глава «Technical Performance» посвящена эволюции технических возможностей ИИ-систем.
🔥 Контекст и ключевые тренды. В 2024 году модели сильно продвинулись в классических тестах, но при этом столкнулись с фундаментальными ограничениями в сложных задачах.
1️⃣ Прорывы в бенчмарках и специализированных задачах
▫️ Рекорды на новых тестах. В сложных комплексных бенчмарках (MMMU, GPQA, SWE-bench) ИИ за год показал впечатляющий прогресс. Например, на SWE-bench в 2023 году модели решали лишь 4.4% задач, а в 2024 — 71.7%. Кстати, и мы на канале фиксировали этот тренд.
▫️Преодоление «человеческого» барьера. Благодаря улучшению алгоритмов рассуждений и интеграции символьных методов модели вроде o1-preview и Claude 3.5 Sonnet достигли 97,9% точности на датасете MATH — выше человеческого уровня (90%).
2️⃣ Конвергенция технологий и сокращение разрывов
▫️Открытые vs. закрытые модели. Разрыв в производительности между топовыми открытыми и проприетарными моделями сократился с 8% до 1.7% (уровень статистической погрешности), что демократизирует доступ к передовым ИИ-технологиям.
👉 Добавим от себя пару комментариев:
• опенсорс заставляет даже завзятых проприетарщиков, таких как OpenAI, выпускать бесплатные версии своих моделей;
• но демократизация доступа к ИИ имеет обратную сторону — проблему безопасности данных.
▫️Малые модели vs. большие. Успехи таких проектов, как Mistral и Phi-3, доказали, что могут небольшие модели при правильном обучении. Phi-3-mini (3.8B параметров) сравнялась по эффективности с PaLM (540B) — 142-кратное сокращение размера при той же производительности. Качество работы модели больше не зависит линейно от масштаба, и мы об этом писали.
▫️Глобальное выравнивание. Китайские модели (напр., DeepSeek и Qwen) догнали по качеству американские. Разрыв на бенчмарках за год сократился с десятков до долей процента.
3️⃣ Новые парадигмы обучения
Индустрия освоила test-time compute (TTC) — метод оптимизации работы ИИ, при котором ресурсы выделяются динамически, а не фиксируются заранее. Это позволяет модели дольше «размышлять» над сложными задачами, улучшая качество ответов.
▫️Например, модель o1 от OpenAI решает 74.4% задач математической олимпиады против 9.3% у GPT-4o. Но требует в 6 раз больше вычислительной мощности и работает в 30 раз медленнее.
4️⃣ Революция в генерации видео
Видеогенерация в продвинутых моделях SORA и Veo 2 преодолела проблему контекстной согласованности — теперь возможно создание минутных роликов с физически точной динамикой и детализацией, которые были немыслимы еще год назад.
5️⃣ Ограничения и «стены» прогресса
Несмотря на успехи в математике, модели проваливаются в задачах, требующих многошаговой логики. Лучшие системы решают лишь 2% задач из FrontierMath и 8-12% на PlanBench и Humanity’s Last Exam, что указывает на фундаментальные ограничения текущих архитектур.
🎯 Выводы
👉 Главный тренд: ИИ становится быстрее и доступнее, но упирается в непреодолимые барьеры в сложных рассуждениях. Дальнейшее улучшение работы потребует смены парадигмы, а не оптимизации существующих подходов, резюмируют авторы.
👉 Перспективы: Активное развитие агентного ИИ (что совпадает и с нашей оценкой) и поиск альтернатив масштабированию (нейроморфные чипы, квантовые методы). ИИ-агенты уже используются для автоматизации программирования, анализа данных и управления ИТ-инфраструктурой. Отдельно подчеркивается их роль в науке и робототехнике.
👉 Продолжение следует...
#AI #ниокр #bigdata #инференс #тренды #аналитика #тесты #AI_index_report_2025
🚀 ©ТехноТренды
🔥 Контекст и ключевые тренды. В 2024 году модели сильно продвинулись в классических тестах, но при этом столкнулись с фундаментальными ограничениями в сложных задачах.
1️⃣ Прорывы в бенчмарках и специализированных задачах
▫️ Рекорды на новых тестах. В сложных комплексных бенчмарках (MMMU, GPQA, SWE-bench) ИИ за год показал впечатляющий прогресс. Например, на SWE-bench в 2023 году модели решали лишь 4.4% задач, а в 2024 — 71.7%. Кстати, и мы на канале фиксировали этот тренд.
▫️Преодоление «человеческого» барьера. Благодаря улучшению алгоритмов рассуждений и интеграции символьных методов модели вроде o1-preview и Claude 3.5 Sonnet достигли 97,9% точности на датасете MATH — выше человеческого уровня (90%).
2️⃣ Конвергенция технологий и сокращение разрывов
▫️Открытые vs. закрытые модели. Разрыв в производительности между топовыми открытыми и проприетарными моделями сократился с 8% до 1.7% (уровень статистической погрешности), что демократизирует доступ к передовым ИИ-технологиям.
👉 Добавим от себя пару комментариев:
• опенсорс заставляет даже завзятых проприетарщиков, таких как OpenAI, выпускать бесплатные версии своих моделей;
• но демократизация доступа к ИИ имеет обратную сторону — проблему безопасности данных.
▫️Малые модели vs. большие. Успехи таких проектов, как Mistral и Phi-3, доказали, что могут небольшие модели при правильном обучении. Phi-3-mini (3.8B параметров) сравнялась по эффективности с PaLM (540B) — 142-кратное сокращение размера при той же производительности. Качество работы модели больше не зависит линейно от масштаба, и мы об этом писали.
▫️Глобальное выравнивание. Китайские модели (напр., DeepSeek и Qwen) догнали по качеству американские. Разрыв на бенчмарках за год сократился с десятков до долей процента.
3️⃣ Новые парадигмы обучения
Индустрия освоила test-time compute (TTC) — метод оптимизации работы ИИ, при котором ресурсы выделяются динамически, а не фиксируются заранее. Это позволяет модели дольше «размышлять» над сложными задачами, улучшая качество ответов.
▫️Например, модель o1 от OpenAI решает 74.4% задач математической олимпиады против 9.3% у GPT-4o. Но требует в 6 раз больше вычислительной мощности и работает в 30 раз медленнее.
4️⃣ Революция в генерации видео
Видеогенерация в продвинутых моделях SORA и Veo 2 преодолела проблему контекстной согласованности — теперь возможно создание минутных роликов с физически точной динамикой и детализацией, которые были немыслимы еще год назад.
5️⃣ Ограничения и «стены» прогресса
Несмотря на успехи в математике, модели проваливаются в задачах, требующих многошаговой логики. Лучшие системы решают лишь 2% задач из FrontierMath и 8-12% на PlanBench и Humanity’s Last Exam, что указывает на фундаментальные ограничения текущих архитектур.
🎯 Выводы
👉 Главный тренд: ИИ становится быстрее и доступнее, но упирается в непреодолимые барьеры в сложных рассуждениях. Дальнейшее улучшение работы потребует смены парадигмы, а не оптимизации существующих подходов, резюмируют авторы.
👉 Перспективы: Активное развитие агентного ИИ (что совпадает и с нашей оценкой) и поиск альтернатив масштабированию (нейроморфные чипы, квантовые методы). ИИ-агенты уже используются для автоматизации программирования, анализа данных и управления ИТ-инфраструктурой. Отдельно подчеркивается их роль в науке и робототехнике.
👉 Продолжение следует...
#AI #ниокр #bigdata #инференс #тренды #аналитика #тесты #AI_index_report_2025
🚀 ©ТехноТренды
По данным отчета ООН, в 2025 году мировая готовность к передовым технологиям — включая ИИ, IoT и блокчейн — по-прежнему демонстрирует резкий разрыв между развитыми и развивающимися странами. В лидерах — США, Швеция и Великобритания, а вот страны BRICS — Бразилия, Россия, Индия, Китай и Южная Африка — показывают разнонаправленные, но перспективные результаты.
📊 В инфографике — позиции стран по индексу готовности к передовым технологиям. Среди стран BRICS:
🇨🇳 Китай — 21 место, наивысший результат среди развивающихся стран.
🇷🇺 Россия — 33 место.
🇮🇳 Индия — 36 место.
🇧🇷 Бразилия — 38 место.
🇿🇦 ЮАР — 52 место.
Также в состав расширенного BRICS входят: 🇦🇪 ОАЭ (35), 🇮🇷 Иран (72), 🇮🇩 Индонезия (76), 🇪🇬 Египет (85) и 🇪🇹 Эфиопия (144). Эти страны демонстрируют растущие амбиции, но ограничены инфраструктурой, доступом к данным и нехваткой специалистов.
📉 Отчет подчеркивает: без укрепления инфраструктуры, кадрового потенциала и данных, развивающимся странам будет сложно не только догнать лидеров, но и избежать технологической зависимости. Особенно важно развивать национальные стратегии в области ИИ и наращивать международное сотрудничество.
#тренды #аналитика #ИИ #IoT #технологический_суверенитет
🚀 ©ТехноТренды
📊 В инфографике — позиции стран по индексу готовности к передовым технологиям. Среди стран BRICS:
🇨🇳 Китай — 21 место, наивысший результат среди развивающихся стран.
🇷🇺 Россия — 33 место.
🇮🇳 Индия — 36 место.
🇧🇷 Бразилия — 38 место.
🇿🇦 ЮАР — 52 место.
Также в состав расширенного BRICS входят: 🇦🇪 ОАЭ (35), 🇮🇷 Иран (72), 🇮🇩 Индонезия (76), 🇪🇬 Египет (85) и 🇪🇹 Эфиопия (144). Эти страны демонстрируют растущие амбиции, но ограничены инфраструктурой, доступом к данным и нехваткой специалистов.
📉 Отчет подчеркивает: без укрепления инфраструктуры, кадрового потенциала и данных, развивающимся странам будет сложно не только догнать лидеров, но и избежать технологической зависимости. Особенно важно развивать национальные стратегии в области ИИ и наращивать международное сотрудничество.
#тренды #аналитика #ИИ #IoT #технологический_суверенитет
🚀 ©ТехноТренды
👍2
Продолжаем знакомить вас с отчетом AI Index Report 2025 (начало: 1, 2, 3). Глава «Responsible AI» рассматривает проблему ответственного ИИ (RAI).
Контекст
Число сообщений об ошибках, предвзятости и злоупотреблениях с участием ИИ растет. В 2024 году количество инцидентов выросло до 233 (+56,4% по сравнению с 2023 годом). Связанные с этим риски и вызовы регулярно обсуждаются на конференциях — например, в Эр-Рияде и Москве.
Многие компании осознают существование проблемы, но далеко не все принимают активные меры для ее решения. Среди главных опасений — неточность результатов (64% опрошенных), несоблюдение нормативных требований (63%) и угрозы кибербезопасности (60%).
Ключевые проблемы
1️⃣ Безопасность и защита личных данных (об актуальности проблемы в опенсорсных моделях мы писали). Обсуждается проблема утечки персональных данных и злоупотребления информацией:
• Использование ИИ для имитации личности умерших людей и связанные с этим этические скандалы.
• Нарушение конфиденциальности при использовании медицинских данных.
2️⃣ Манипуляция информацией. ИИ используется для распространения дезинформации и недобросовестного влияния на общественное мнение:
• Генерация поддельных новостей.
• Создание deepfake-видео, аудио и текстов.
3️⃣ Прозрачность работы и объяснимость ответов. Не всегда понятно, как формируются решения ИИ, особенно в таких чувствительных областях, как здравоохранение и финансы.
• Средний уровень прозрачности ключевых базовых моделей на май 2024 года составлял 58% — явно недостаточно.
• Не решена проблема галлюцинаций. Даже самые продвинутые модели генерируют уверенные, но ложные ответы, особенно при работе с малоизвестными темами или неполной информацией.
🎯 Предлагаемые методы решения:
• Применение #RAG (Retrieval-Augmented Generation) для улучшения интерпретируемости. Этой технологии у нас посвящена большая статья.
• Совершенствование метрик, направленных на проверку фактической точности и правдивости ИИ-моделей.
4️⃣ Предвзятость и дискриминация, систематически проскакивающая в языковых моделях. Американские исследователи озабочены проявлениями гендерных, расовых или этнических стереотипов.
5️⃣ Особые темы, которые требуют междисциплинарного подхода:
• Этические проблемы в медицине (например, выработка рекомендаций по лечению).
• Использование ИИ в судебной системе.
• Культурные различия в восприятии ИИ в разных странах.
Тренды
Выработка программных методов обеспечения RAI. Этот аспект становится неотъемлемой частью развития технологий. Уже существуют метрики тестирования моделей на соответствие принципам ответственности. Примеры таких бенчмарков: FACTS, SimpleQA, MixEval. Наиболее точной моделью в тестах FACTS признана Gemini-2.0-Flash-Exp (83.6% успеха). Но подчеркивается необходимость создания более сложных и реалистичных тестов.
Международная кооперация. В 2024 году усилилась работа над согласованием принципов ответственного использования. Несколько крупных организаций — включая ОЭСР, Европейский союз, ООН и Африканский союз — представили рамочные документы, направленные на формулировку ключевых аспектов RAI.
Сокращение данных — негативный тренд, обратная сторона борьбы за безопасность. Ради сохранения конфиденциальности пользователей интернета всё больше сайтов внедряют ограничения. В активных доменах из набора данных C4 доля ограниченных токенов выросла с 5–7% до 20–33%. Это сокращает разнообразие данных для обучения моделей.
Выводы
Чем больше искусственный интеллект охватывает различные сферы жизни, тем важнее вопрос его ответственности. Для обеспечения доверия к ИИ необходимы дополнительные усилия в плане стандартизации, прозрачности и контроля:
• выработка единых этических стандартов ответственного развития и использования технологий
• повышение прозрачности и объяснимости в обучении и работе моделей;
• расширение регуляторной базы;
• интеграция RAI в образование и бизнес-процессы.
👉 Продолжение следует...
#AI #RAI #тренды #аналитика #тесты #AI_index_report_2025
🚀 ©ТехноТренды
Контекст
Число сообщений об ошибках, предвзятости и злоупотреблениях с участием ИИ растет. В 2024 году количество инцидентов выросло до 233 (+56,4% по сравнению с 2023 годом). Связанные с этим риски и вызовы регулярно обсуждаются на конференциях — например, в Эр-Рияде и Москве.
Многие компании осознают существование проблемы, но далеко не все принимают активные меры для ее решения. Среди главных опасений — неточность результатов (64% опрошенных), несоблюдение нормативных требований (63%) и угрозы кибербезопасности (60%).
Ключевые проблемы
1️⃣ Безопасность и защита личных данных (об актуальности проблемы в опенсорсных моделях мы писали). Обсуждается проблема утечки персональных данных и злоупотребления информацией:
• Использование ИИ для имитации личности умерших людей и связанные с этим этические скандалы.
• Нарушение конфиденциальности при использовании медицинских данных.
2️⃣ Манипуляция информацией. ИИ используется для распространения дезинформации и недобросовестного влияния на общественное мнение:
• Генерация поддельных новостей.
• Создание deepfake-видео, аудио и текстов.
3️⃣ Прозрачность работы и объяснимость ответов. Не всегда понятно, как формируются решения ИИ, особенно в таких чувствительных областях, как здравоохранение и финансы.
• Средний уровень прозрачности ключевых базовых моделей на май 2024 года составлял 58% — явно недостаточно.
• Не решена проблема галлюцинаций. Даже самые продвинутые модели генерируют уверенные, но ложные ответы, особенно при работе с малоизвестными темами или неполной информацией.
🎯 Предлагаемые методы решения:
• Применение #RAG (Retrieval-Augmented Generation) для улучшения интерпретируемости. Этой технологии у нас посвящена большая статья.
• Совершенствование метрик, направленных на проверку фактической точности и правдивости ИИ-моделей.
4️⃣ Предвзятость и дискриминация, систематически проскакивающая в языковых моделях. Американские исследователи озабочены проявлениями гендерных, расовых или этнических стереотипов.
5️⃣ Особые темы, которые требуют междисциплинарного подхода:
• Этические проблемы в медицине (например, выработка рекомендаций по лечению).
• Использование ИИ в судебной системе.
• Культурные различия в восприятии ИИ в разных странах.
Тренды
Выработка программных методов обеспечения RAI. Этот аспект становится неотъемлемой частью развития технологий. Уже существуют метрики тестирования моделей на соответствие принципам ответственности. Примеры таких бенчмарков: FACTS, SimpleQA, MixEval. Наиболее точной моделью в тестах FACTS признана Gemini-2.0-Flash-Exp (83.6% успеха). Но подчеркивается необходимость создания более сложных и реалистичных тестов.
Международная кооперация. В 2024 году усилилась работа над согласованием принципов ответственного использования. Несколько крупных организаций — включая ОЭСР, Европейский союз, ООН и Африканский союз — представили рамочные документы, направленные на формулировку ключевых аспектов RAI.
Сокращение данных — негативный тренд, обратная сторона борьбы за безопасность. Ради сохранения конфиденциальности пользователей интернета всё больше сайтов внедряют ограничения. В активных доменах из набора данных C4 доля ограниченных токенов выросла с 5–7% до 20–33%. Это сокращает разнообразие данных для обучения моделей.
Выводы
Чем больше искусственный интеллект охватывает различные сферы жизни, тем важнее вопрос его ответственности. Для обеспечения доверия к ИИ необходимы дополнительные усилия в плане стандартизации, прозрачности и контроля:
• выработка единых этических стандартов ответственного развития и использования технологий
• повышение прозрачности и объяснимости в обучении и работе моделей;
• расширение регуляторной базы;
• интеграция RAI в образование и бизнес-процессы.
👉 Продолжение следует...
#AI #RAI #тренды #аналитика #тесты #AI_index_report_2025
🚀 ©ТехноТренды
🔥1
Продолжаем читать отчет AI Index Report 2025 (начало: 1, 2, 3, 4). Глава 4 — «Обзор экономики и влияния ИИ» — посвящена анализу экономического воздействия искусственного интеллекта в 2024 году. Особенно интересны изменения на рынке труда и в структуре занятости.
Мы на канале уже обсуждали, приведет ли внедрение ИИ к массовым увольнениям (вытеснит ли AI айтишников? • отменят ли нейросети живых программистов?). Приятно видеть, что наши выводы согласуются с данными исследования.
🧰 Тенденции на рынке труда
👉 Изменение ландшафта. Отчет показывает, что идет переток квалификации и повышение спроса на специалистов с ИИ-навыками, особенно в IT (48%), разработке продуктов и услуг (47%) и маркетинге (47%). Очень заметно спрос растет на развивающихся рынках: Индия, Бразилия, Саудовская Аравия, Восточная Европа. Растут и зарплаты ИИ-специалистов.
👉 Влияние ИИ на занятость. В организациях увеличивается число ИИ-связанных рабочих мест, снижаются опасения перед массовыми увольнениями.
• Растет число вакансий в сфере ИИ, с акцентом на «умные» технологии и автоматизацию, особенно в таких отраслях, как финансы, логистика и здравоохранение.
• 19% компаний ожидают сокращения числа сотрудников из-за ИИ (на 7 процентных пунктов меньше, чем в 2023 году).
• 24% организаций прогнозируют увеличение численности персонала за счет новых ИИ-связанных ролей.
👉 Использование ИИ в профессиях. Компьютерные и математические профессии доминируют, составляя 37,2% всех взаимодействий с ИИ. За ними следуют творческие сектора (искусство, дизайн, развлечения и медиа) — 10,3% . В то же время профессии, требующие физических навыков (например, производство, логистика) и управленческих компетенций , демонстрируют минимальное проникновение ИИ.
👉 Глубина внедрения ИИ.
• Только 4% профессий используют ИИ в 75% и более задач, что указывает на ограниченность полной автоматизации.
• ИИ активнее внедряется в высокооплачиваемых профессиях (верхние 25% зарплат), но снижается на крайних уровнях.
🌐 Ситуация по регионам
▫️Спрос на навыки ИИ. В 2024 году Сингапур, Люксембург и Гонконг лидировали по доле вакансий, требующих навыков ИИ. В США этот показатель достиг 1,8% — значительный рост по сравнению с предыдущими годами.
▫️Проникновение навыков ИИ. США и Индия демонстрируют наивысшие показатели проникновения навыков ИИ, с относительными показателями 2.63 и 2.51 соответственно. За ними следуют Великобритания, Германия и Бразилия.
📊 Инвестиции и финансирование ИИ-проектов
Отчет фиксирует увеличение объема инвестиций в 2024 году на 79,56% по сравнению с 2020 годом. Основные направления:
• генеративный ИИ (44,67%),
• ИИ для биотехнологий (17,76%),
• автоматизация (5,19%).
🇺🇸 США и 🇨🇳 Китай остаются лидерами, но наблюдается рост интереса к развитию ИИ-технологий в 🇰🇷 Южной Корее, 🇸🇬 Сингапуре и странах Ближнего Востока.
Отмечается заметный вклад ИИ в научные исследования и инновации через повышение продуктивности. Например, ученые, использующие ИИ, показали:
+44,1% к увеличению скорости открытия новых материалов,
+39,4% к росту числа поданных патентов,
+17,2% к увеличению числа прототипов продукции.
Выводы
ИИ является инструментом, а не заменой человека. Он одновременно сокращает рабочие места, зафиксированные на рутинных функциях, и создает новые. Уходят старые технологии и методы организации работы, приходят более прогрессивные, позволяющие повысить производительность труда.
#AI #экономика #тренды #аналитика #рынок_труда #AI_index_report_2025
🚀 ©ТехноТренды
Мы на канале уже обсуждали, приведет ли внедрение ИИ к массовым увольнениям (вытеснит ли AI айтишников? • отменят ли нейросети живых программистов?). Приятно видеть, что наши выводы согласуются с данными исследования.
🧰 Тенденции на рынке труда
👉 Изменение ландшафта. Отчет показывает, что идет переток квалификации и повышение спроса на специалистов с ИИ-навыками, особенно в IT (48%), разработке продуктов и услуг (47%) и маркетинге (47%). Очень заметно спрос растет на развивающихся рынках: Индия, Бразилия, Саудовская Аравия, Восточная Европа. Растут и зарплаты ИИ-специалистов.
👉 Влияние ИИ на занятость. В организациях увеличивается число ИИ-связанных рабочих мест, снижаются опасения перед массовыми увольнениями.
• Растет число вакансий в сфере ИИ, с акцентом на «умные» технологии и автоматизацию, особенно в таких отраслях, как финансы, логистика и здравоохранение.
• 19% компаний ожидают сокращения числа сотрудников из-за ИИ (на 7 процентных пунктов меньше, чем в 2023 году).
• 24% организаций прогнозируют увеличение численности персонала за счет новых ИИ-связанных ролей.
👉 Использование ИИ в профессиях. Компьютерные и математические профессии доминируют, составляя 37,2% всех взаимодействий с ИИ. За ними следуют творческие сектора (искусство, дизайн, развлечения и медиа) — 10,3% . В то же время профессии, требующие физических навыков (например, производство, логистика) и управленческих компетенций , демонстрируют минимальное проникновение ИИ.
👉 Глубина внедрения ИИ.
• Только 4% профессий используют ИИ в 75% и более задач, что указывает на ограниченность полной автоматизации.
• ИИ активнее внедряется в высокооплачиваемых профессиях (верхние 25% зарплат), но снижается на крайних уровнях.
🌐 Ситуация по регионам
▫️Спрос на навыки ИИ. В 2024 году Сингапур, Люксембург и Гонконг лидировали по доле вакансий, требующих навыков ИИ. В США этот показатель достиг 1,8% — значительный рост по сравнению с предыдущими годами.
▫️Проникновение навыков ИИ. США и Индия демонстрируют наивысшие показатели проникновения навыков ИИ, с относительными показателями 2.63 и 2.51 соответственно. За ними следуют Великобритания, Германия и Бразилия.
📊 Инвестиции и финансирование ИИ-проектов
Отчет фиксирует увеличение объема инвестиций в 2024 году на 79,56% по сравнению с 2020 годом. Основные направления:
• генеративный ИИ (44,67%),
• ИИ для биотехнологий (17,76%),
• автоматизация (5,19%).
🇺🇸 США и 🇨🇳 Китай остаются лидерами, но наблюдается рост интереса к развитию ИИ-технологий в 🇰🇷 Южной Корее, 🇸🇬 Сингапуре и странах Ближнего Востока.
Отмечается заметный вклад ИИ в научные исследования и инновации через повышение продуктивности. Например, ученые, использующие ИИ, показали:
+44,1% к увеличению скорости открытия новых материалов,
+39,4% к росту числа поданных патентов,
+17,2% к увеличению числа прототипов продукции.
Выводы
ИИ является инструментом, а не заменой человека. Он одновременно сокращает рабочие места, зафиксированные на рутинных функциях, и создает новые. Уходят старые технологии и методы организации работы, приходят более прогрессивные, позволяющие повысить производительность труда.
#AI #экономика #тренды #аналитика #рынок_труда #AI_index_report_2025
🚀 ©ТехноТренды
Интересные инсайты о рисках и страхах компаний перед возможными негативными последствиями внедрения ИИ, о которых говорится в той же 4-й главе стэнфордского отчета.
Что же внушает опасения руководителям предприятий?
🔺 Низкая окупаемость инвестиций (опасения выросли на +38 процентных пунктов по сравнению с предыдущими годами).
• Например, компании боятся, что неэффективное внедрение ИИ может привести к убыткам из-за высоких затрат на разработку и обучение сотрудников.
• Здесь же — страх перед растущей сложностью моделей (+14 п.п.). 63% компаний сталкиваются с проблемой несоответствия навыков сотрудников требованиям ИИ, что требует вложений в программы повышения квалификации.
🔺Регуляторные и правовые риски. 63% компаний обеспокоены рисками нарушения норм, таких как GDPR или новые законы о регулировании ИИ (например, EU AI Act), что может привести к штрафам.
🔺Проблемы конфиденциальности и безопасности (+15 п.п.).
• Беспокойство растет по мере роста объемов данных, обрабатываемых ИИ. 66% организаций указали кибербезопасность как один из главных рисков (например, взлом ИИ-систем или кража интеллектуальной собственности).
• При этом статистика показывает, что вложения в безопасность, хотя и кратно выросли, всё же на порядок уступают инвестициям в инфраструктуру ИИ и управление данными (см. график).
🔺Несоответствие ожиданиям от использования ИИ (+14 п.п.). Технология далека от совершенства, модели продолжают ошибаться и галлюцинировать. Около 30% организаций отметили риски неточных выводов или генерации ложной информации, например, в маркетинге или юридических документах.
🔺Отсюда потеря доверия к инструментам ИИ (+16 п.п.).
• 12% компаний указали на опасения, связанные с утратой доверия потребителей или снижением рыночной доли из-за проблем с ИИ, таких как ошибки в рекомендациях или предвзятые алгоритмы.
• 30% компаний столкнулись с фактами чрезмерной зависимости сотрудников от ИИ (например, игнорирование человеческой экспертизы). Особенно беспокоят медицинские ошибки из-за некритичного использования ИИ-диагностики.
Есть и позитивные тенденции:
🔻Снизился страх компаний перед массовыми увольнениями персонала из-за внедрения ИИ (причины мы отметили в предыдущем посте).
🔻Также уменьшилось беспокойство в отношении этических и социальных рисков. Хотя 34% организаций отмечают случаи предвзятости алгоритмов (например, в найме или кредитовании), уровень опасений снизился на 7 п.п.
Выводы и тренды
Внедрение новых технологий всегда порождает новые проблемы, заставляет искать баланс между инновациями и безопасностью. И регулирующие нормы не всегда успевают за этим процессом — проблема активно обсуждается бизнес-сообществом, а кое-где даже что-то делается.
Чтобы минимизировать риски и максимизировать выгоды, компаниям и правительствам придется инвестировать в обучение сотрудников и кибербезопасность, внедрять проверку моделей на устойчивость и следить за развитием нормативной базы, чтобы не попадать на штрафы. Эти вопросы еще долго будут сохранять актуальность.
А что внушает опасения вам? Пишите в комментариях!
#AI #экономика #тренды #аналитика #кибербезопасность #AI_index_report_2025
🚀 ©ТехноТренды
Что же внушает опасения руководителям предприятий?
🔺 Низкая окупаемость инвестиций (опасения выросли на +38 процентных пунктов по сравнению с предыдущими годами).
• Например, компании боятся, что неэффективное внедрение ИИ может привести к убыткам из-за высоких затрат на разработку и обучение сотрудников.
• Здесь же — страх перед растущей сложностью моделей (+14 п.п.). 63% компаний сталкиваются с проблемой несоответствия навыков сотрудников требованиям ИИ, что требует вложений в программы повышения квалификации.
🔺Регуляторные и правовые риски. 63% компаний обеспокоены рисками нарушения норм, таких как GDPR или новые законы о регулировании ИИ (например, EU AI Act), что может привести к штрафам.
🔺Проблемы конфиденциальности и безопасности (+15 п.п.).
• Беспокойство растет по мере роста объемов данных, обрабатываемых ИИ. 66% организаций указали кибербезопасность как один из главных рисков (например, взлом ИИ-систем или кража интеллектуальной собственности).
• При этом статистика показывает, что вложения в безопасность, хотя и кратно выросли, всё же на порядок уступают инвестициям в инфраструктуру ИИ и управление данными (см. график).
🔺Несоответствие ожиданиям от использования ИИ (+14 п.п.). Технология далека от совершенства, модели продолжают ошибаться и галлюцинировать. Около 30% организаций отметили риски неточных выводов или генерации ложной информации, например, в маркетинге или юридических документах.
🔺Отсюда потеря доверия к инструментам ИИ (+16 п.п.).
• 12% компаний указали на опасения, связанные с утратой доверия потребителей или снижением рыночной доли из-за проблем с ИИ, таких как ошибки в рекомендациях или предвзятые алгоритмы.
• 30% компаний столкнулись с фактами чрезмерной зависимости сотрудников от ИИ (например, игнорирование человеческой экспертизы). Особенно беспокоят медицинские ошибки из-за некритичного использования ИИ-диагностики.
Есть и позитивные тенденции:
🔻Снизился страх компаний перед массовыми увольнениями персонала из-за внедрения ИИ (причины мы отметили в предыдущем посте).
🔻Также уменьшилось беспокойство в отношении этических и социальных рисков. Хотя 34% организаций отмечают случаи предвзятости алгоритмов (например, в найме или кредитовании), уровень опасений снизился на 7 п.п.
Выводы и тренды
Внедрение новых технологий всегда порождает новые проблемы, заставляет искать баланс между инновациями и безопасностью. И регулирующие нормы не всегда успевают за этим процессом — проблема активно обсуждается бизнес-сообществом, а кое-где даже что-то делается.
Чтобы минимизировать риски и максимизировать выгоды, компаниям и правительствам придется инвестировать в обучение сотрудников и кибербезопасность, внедрять проверку моделей на устойчивость и следить за развитием нормативной базы, чтобы не попадать на штрафы. Эти вопросы еще долго будут сохранять актуальность.
А что внушает опасения вам? Пишите в комментариях!
#AI #экономика #тренды #аналитика #кибербезопасность #AI_index_report_2025
🚀 ©ТехноТренды
Может ли ИИ заменить программистов-фрилансеров? Результаты тестов
Опубликованы результаты масштабных тестов компании PeopleTec. Четыре языковые модели были проверены на задачах, типичных для фриланс-бирж. Спойлер: даже лучшие LLM пока что уступают живым программистам.
Контекст:
Используя набор данных Kaggle о вакансиях на Freelancer.com, авторы создали бенчмарк из 1115 задач по программированию и анализу данных, которые можно было оценить с помощью автоматизированных тестов (фильтрация, синтез, автоматическая проверка через тестовые кейсы).
Стоимость задач предсказана ML-моделью (Random Forest) на основе тегов навыков (медиана: $250, среднее: $306). По ожиданиям исследователей, выполнение всех заданий могло принести в общей сложности «примерно 1,6 млн долларов».
Работа моделей оценивалась по метрикам: успешность выполнения задачи, точность тестов, общий заработок, распределение ошибок.
Анализировались четыре модели: Claude 3.5 Haiku, GPT-4o-mini, Qwen 2.5 и Mistral (первые две — коммерческие, последние — опенсорсные). По оценкам авторов, среднестатистический живой инженер-программист мог бы решить более 95% задач.
Результаты тестов:
1️⃣ Claude 3.5 Haiku решил 78,7% задач (877 из 1115), заработав 1.52 млн — 95% от общего бюджета)
2️⃣ GPT-4o-mini: 77,3% задач ($1.49 млн)
3️⃣ Qwen 2.5: 68,5% ($1.33 млн)
4️⃣ Mistral 7B: 42,5% ($0.70 млн).
Выявленные ошибки: Claude и GPT-4o-mini чаще допускали незначительные неточности (например, в форматировании), Mistral — полные или множественные провалы.
Выводы:
✅ LLM уже достигли высокой эффективности в решении структурированных задач, приближаясь к уровню человека.
✅ Открытые модели (Qwen 2.5, Mistral) прогрессируют, но пока отстают от коммерческих решений.
✅ Для сложных проектов с креативными требованиями и неоднозначностью LLM могут справиться только при участии человека.
Тренды
Справедливости ради надо заметить, что ИИ уже активно используется фрилансерами и заказчиками для генерации требований, решения задач и оценки результатов. Как считает руководитель тестов Дэвид Ноевер, этот тренд будет только усиливаться:
Исследователи также отметили интересный технический предел: open source модели перестают справляться с задачами при 30 миллиардах параметров — а это как раз максимум, доступный для потребительских GPU. Для серьезных и масштабных задач требуется более продвинутая инфраструктура.
#LLM #тесты #аналитика #AI
🚀 ©ТехноТренды
Опубликованы результаты масштабных тестов компании PeopleTec. Четыре языковые модели были проверены на задачах, типичных для фриланс-бирж. Спойлер: даже лучшие LLM пока что уступают живым программистам.
Контекст:
Используя набор данных Kaggle о вакансиях на Freelancer.com, авторы создали бенчмарк из 1115 задач по программированию и анализу данных, которые можно было оценить с помощью автоматизированных тестов (фильтрация, синтез, автоматическая проверка через тестовые кейсы).
Стоимость задач предсказана ML-моделью (Random Forest) на основе тегов навыков (медиана: $250, среднее: $306). По ожиданиям исследователей, выполнение всех заданий могло принести в общей сложности «примерно 1,6 млн долларов».
Работа моделей оценивалась по метрикам: успешность выполнения задачи, точность тестов, общий заработок, распределение ошибок.
Анализировались четыре модели: Claude 3.5 Haiku, GPT-4o-mini, Qwen 2.5 и Mistral (первые две — коммерческие, последние — опенсорсные). По оценкам авторов, среднестатистический живой инженер-программист мог бы решить более 95% задач.
Результаты тестов:
1️⃣ Claude 3.5 Haiku решил 78,7% задач (877 из 1115), заработав 1.52 млн — 95% от общего бюджета)
2️⃣ GPT-4o-mini: 77,3% задач ($1.49 млн)
3️⃣ Qwen 2.5: 68,5% ($1.33 млн)
4️⃣ Mistral 7B: 42,5% ($0.70 млн).
Выявленные ошибки: Claude и GPT-4o-mini чаще допускали незначительные неточности (например, в форматировании), Mistral — полные или множественные провалы.
Выводы:
✅ LLM уже достигли высокой эффективности в решении структурированных задач, приближаясь к уровню человека.
✅ Открытые модели (Qwen 2.5, Mistral) прогрессируют, но пока отстают от коммерческих решений.
✅ Для сложных проектов с креативными требованиями и неоднозначностью LLM могут справиться только при участии человека.
Тренды
Справедливости ради надо заметить, что ИИ уже активно используется фрилансерами и заказчиками для генерации требований, решения задач и оценки результатов. Как считает руководитель тестов Дэвид Ноевер, этот тренд будет только усиливаться:
«Я не уверен, что кто-то уже полностью автоматизировал процесс. Но думаю, это вопрос месяцев».
Исследователи также отметили интересный технический предел: open source модели перестают справляться с задачами при 30 миллиардах параметров — а это как раз максимум, доступный для потребительских GPU. Для серьезных и масштабных задач требуется более продвинутая инфраструктура.
#LLM #тесты #аналитика #AI
🚀 ©ТехноТренды
arXiv.org
Can AI Freelancers Compete? Benchmarking Earnings, Reliability,...
This study explores Large Language Models (LLMs) as autonomous agents for real-world tasks, including freelance software development. This work presents a new benchmark that evaluates LLMs on...
Продолжаем изучать стэнфордский отчет AI Index Report 2025 (начало: 1, 2, 3, 4, 5, 6). Глава 5 «Science and Medicine» посвящена участию искусственного интеллекта в научных и медицинских исследованиях.
Если коротко: ИИ активно проникает практически во все сферы науки, охватывая диапазон от квантовой физики до создания новых химических веществ. И этот тренд будет только расти, открывая новые возможности и создавая новые риски.
1️⃣ ИИ продолжает ускорять научные открытия
🔸 Физика. ИИ-модели помогают анализировать данные экспериментов на ускорителях частиц.
🔸 Химия. ИИ-алгоритмы используются для расчета реакций и синтеза новых соединений.
🔸 Data science. Модели оптимизируют обработку больших массивов данных в астрофизике и экологии, например, для предсказания лесных пожаров.
Отчет также фиксирует расширение возможностей ИИ в междисциплинарных исследованиях, и прогнозирует появление виртуальных ИИ-лабораторий.
2️⃣ ИИ в медицине и биологии
В последние годы ИИ стал важным инструментом прорыва в диагностике, разработке лекарств и перспективных исследованиях по нескольким направлениям.
🔸 Протеиновый дизайн. LLM, такие как Aviary и AlphaProteo, оптимизируют последовательности белков для создания новых лекарств и материалов. 8,4% публикаций в области генерации белков основаны на применении ИИ, что в 2–3 раза выше, чем в других областях.
🔸 Картирование мозга. Проекты по созданию виртуальных лабораторий ИИ, например Virtual AI Lab, позволяют моделировать нейронные сети человеческого мозга, чтобы на их основе изучать неврологические заболевания.
🔸 Глюкозный мониторинг. LLM GluFormer применяется для непрерывного мониторинга уровня сахара в крови, улучшая лечение диабета.
🔸 Эволюционное моделирование. Модели Evolutionary Scale Modeling v3 (ESM3) и AlphaFold 3 сделали возможным предсказание изменения структуры белков, что критично для разработки терапии.
🔸 Генетика. ИИ активно применяется для изучения процессов транскрипции, трансляции и репликации ДНК/РНК.
🔸 Цитология. В 2023–2024 годах выросло количество моделей, анализирующих данные флуоресцентной и электронной микроскопии (перспектива для применения VLA), что позволяет глубже исследовать клеточные процессы.
3️⃣ Клиническая практика
С 2021 по 2024 годы США, Китай и страны ЕС значительно увеличили количество клинических испытаний с участием ИИ. Лидируют Штаты (>100 испытаний), за ними следуют Китай и Германия. Мы тоже писали о возможностях, которые открываются для ИИ в медицине.
Более 500 исследований в 2024 году показали эффективность обработки естественного языка (NLP) даже неспециализированных моделей при анализе медицинских записей. В 2024 году модель o1 от OpenAI на тесте MedQA установила новый эталонный показатель в 96,0% (+5,8% по сравнению с 2023 годом, +28,4% — с 2022-м).
Еще несколько выводов:
• GPT-4 в одиночку превосходит живых врачей (как применяющих ИИ, так и не) в диагностике сложных клинических случаев;
• ИИ лучше врачей справляется с выявлением рака и определением пациентов с высоким риском летального исхода;
• в то же время наилучшие клинические результаты достигаются при сотрудничестве ИИ и врача-человека.
Голосовые ИИ-ассистенты активно внедряются в амбулаториях и стационарах для автоматизации заказов и выдачи лекарств, кодирования и клинической поддержки в реальном времени.
Интересно, что в отчете не затронута тема удаленной и прецизионной хирургии, хотя это направление считается одним из самых перспективных и футурологичных примеров использования ИИ.
4️⃣ Риски и вызовы
Ключевая проблема, связанная с медицинским применением ИИ, касается врачебной этики и безопасности. Количество исследований по этой теме с 2020 по 2024 год увеличилось в 4 раза. Основные вопросы:
• прозрачность алгоритмов,
• защита конфиденциальных данных,
• предотвращение ошибок и галлюцинаций моделей при диагностике.
Еще один неожиданный вызов: датасеты клинических знаний для тестирования LLM, похоже, приближаются к насыщению. Назревает необходимость разработки более сложных методик оценки.
#AI #наука #медицина #тренды #аналитика #AI_index_report_2025
🚀 ©ТехноТренды
Если коротко: ИИ активно проникает практически во все сферы науки, охватывая диапазон от квантовой физики до создания новых химических веществ. И этот тренд будет только расти, открывая новые возможности и создавая новые риски.
1️⃣ ИИ продолжает ускорять научные открытия
🔸 Физика. ИИ-модели помогают анализировать данные экспериментов на ускорителях частиц.
🔸 Химия. ИИ-алгоритмы используются для расчета реакций и синтеза новых соединений.
🔸 Data science. Модели оптимизируют обработку больших массивов данных в астрофизике и экологии, например, для предсказания лесных пожаров.
Отчет также фиксирует расширение возможностей ИИ в междисциплинарных исследованиях, и прогнозирует появление виртуальных ИИ-лабораторий.
2️⃣ ИИ в медицине и биологии
В последние годы ИИ стал важным инструментом прорыва в диагностике, разработке лекарств и перспективных исследованиях по нескольким направлениям.
🔸 Протеиновый дизайн. LLM, такие как Aviary и AlphaProteo, оптимизируют последовательности белков для создания новых лекарств и материалов. 8,4% публикаций в области генерации белков основаны на применении ИИ, что в 2–3 раза выше, чем в других областях.
🔸 Картирование мозга. Проекты по созданию виртуальных лабораторий ИИ, например Virtual AI Lab, позволяют моделировать нейронные сети человеческого мозга, чтобы на их основе изучать неврологические заболевания.
🔸 Глюкозный мониторинг. LLM GluFormer применяется для непрерывного мониторинга уровня сахара в крови, улучшая лечение диабета.
🔸 Эволюционное моделирование. Модели Evolutionary Scale Modeling v3 (ESM3) и AlphaFold 3 сделали возможным предсказание изменения структуры белков, что критично для разработки терапии.
🔸 Генетика. ИИ активно применяется для изучения процессов транскрипции, трансляции и репликации ДНК/РНК.
🔸 Цитология. В 2023–2024 годах выросло количество моделей, анализирующих данные флуоресцентной и электронной микроскопии (перспектива для применения VLA), что позволяет глубже исследовать клеточные процессы.
3️⃣ Клиническая практика
С 2021 по 2024 годы США, Китай и страны ЕС значительно увеличили количество клинических испытаний с участием ИИ. Лидируют Штаты (>100 испытаний), за ними следуют Китай и Германия. Мы тоже писали о возможностях, которые открываются для ИИ в медицине.
Более 500 исследований в 2024 году показали эффективность обработки естественного языка (NLP) даже неспециализированных моделей при анализе медицинских записей. В 2024 году модель o1 от OpenAI на тесте MedQA установила новый эталонный показатель в 96,0% (+5,8% по сравнению с 2023 годом, +28,4% — с 2022-м).
Еще несколько выводов:
• GPT-4 в одиночку превосходит живых врачей (как применяющих ИИ, так и не) в диагностике сложных клинических случаев;
• ИИ лучше врачей справляется с выявлением рака и определением пациентов с высоким риском летального исхода;
• в то же время наилучшие клинические результаты достигаются при сотрудничестве ИИ и врача-человека.
Голосовые ИИ-ассистенты активно внедряются в амбулаториях и стационарах для автоматизации заказов и выдачи лекарств, кодирования и клинической поддержки в реальном времени.
Интересно, что в отчете не затронута тема удаленной и прецизионной хирургии, хотя это направление считается одним из самых перспективных и футурологичных примеров использования ИИ.
4️⃣ Риски и вызовы
Ключевая проблема, связанная с медицинским применением ИИ, касается врачебной этики и безопасности. Количество исследований по этой теме с 2020 по 2024 год увеличилось в 4 раза. Основные вопросы:
• прозрачность алгоритмов,
• защита конфиденциальных данных,
• предотвращение ошибок и галлюцинаций моделей при диагностике.
Еще один неожиданный вызов: датасеты клинических знаний для тестирования LLM, похоже, приближаются к насыщению. Назревает необходимость разработки более сложных методик оценки.
#AI #наука #медицина #тренды #аналитика #AI_index_report_2025
🚀 ©ТехноТренды