Байден перед своим уходом ужесточает правила экспорта чипов ИИ
Согласно "Правилу распространения ИИ" (AI Diffusion rule) лишь небольшое число союзников США сохранят неограниченный доступ к американским чипам. Это первая группа, в которой всего 19 стран (см карту).
Наиболее жесткие ограничения (почти полный запрет на покупку) будут для третьей группы из 20 стран, в которую входят Россия и Китай (группа 3).
Для остальной части мира вводится лимит, сколько вычислительной мощности каждая страна может получит (до 50 000 графических процессоров на страну, с возможностью увеличения по спец.соглашению).
Изменения направлены на то, чтобы помешать Китаю и России получать доступ к передовым чипам ИИ через третьи страны, особенно на Ближнем Востоке.
#ainews #aisanctions
Согласно "Правилу распространения ИИ" (AI Diffusion rule) лишь небольшое число союзников США сохранят неограниченный доступ к американским чипам. Это первая группа, в которой всего 19 стран (см карту).
Наиболее жесткие ограничения (почти полный запрет на покупку) будут для третьей группы из 20 стран, в которую входят Россия и Китай (группа 3).
Для остальной части мира вводится лимит, сколько вычислительной мощности каждая страна может получит (до 50 000 графических процессоров на страну, с возможностью увеличения по спец.соглашению).
Изменения направлены на то, чтобы помешать Китаю и России получать доступ к передовым чипам ИИ через третьи страны, особенно на Ближнем Востоке.
#ainews #aisanctions
🤔1
Forwarded from ИИ | Экономика данных
Великобритания представила стратегию по развитию ИИ 🇬🇧
Лидеры, суперкомпьютер и 20 Х вычислительной мощности.
"AI Opportunities Action Plan: government response" представляет собой стратегический план правительства Великобритании, направленный на использование возможностей искусственного интеллекта (ИИ) для улучшения жизни граждан и укрепления позиций страны в глобальной экономике.
Основные тезисы документа:
➕ Искусственный интеллект как ключевая возможность: ИИ уже оказывает значительное влияние на различные сферы, включая здравоохранение, образование и бизнес.
➕ Стратегия роста: Великобритания стремится стать мировым лидером в области ИИ, создавая необходимые условия для роста и инноваций.
➕ Инфраструктура и ресурсы: Правительство планирует увеличить вычислительные мощности и создать новые центры для поддержки исследований в области ИИ.
➕ Образование и навыки: Важность подготовки кадров и привлечения талантов для развития ИИ в стране.
➕ Регулирование и безопасность: Необходимость создания эффективной регуляторной среды для поддержки инноваций и обеспечения безопасности.
План включает 50 рекомендаций со сроком реализации до 2031 года.
Ключевые рекомендации:
1️⃣Создание инфраструктуры для ИИ:
- Увеличение вычислительных мощностей в 20 раз к 2030 году.
- Построение нового суперкомпьютера для национальных исследований в области ИИ.
- Разработка долгосрочной стратегии вычислений.
2️⃣ Зоны роста ИИ:
- Создание зон роста ИИ для ускорения строительства дата-центров.
- Первоначальная зона будет расположена в Кулхэме, с планами на дальнейшее расширение.
3️⃣ Совет по энергетике ИИ:
- Создание совета для изучения потребностей в энергии для ИИ и разработки устойчивых решений.
4️⃣ Национальная библиотека данных:
- Создание библиотеки для доступа к государственным данным для исследований в области ИИ.
- Обеспечение этичного и безопасного доступа к данным.
5️⃣ Обучение и привлечение талантов:
- Разработка программ стипендий для привлечения талантов в сферу ИИ.
- Увеличение программ в области ИИ.
6️⃣ Регулирование ИИ:
- Создание эффективной регуляторной среды для поддержки инноваций и обеспечения доверия к ИИ.
7️⃣ Применение гибкого подхода "Сканировать, Пилотировать, Масштабировать" для внедрения ИИ в государственные услуги.
8️⃣ Поддержка местных инициатив:
- Сотрудничество с местными и региональными властями для выявления возможностей применения ИИ.
9️⃣ Создание новых направлений для поддержки ИИ:
- Создание нового подразделения для партнерства с частным сектором и поддержки национальных лидеров в области ИИ.
#ИИ #AI #Экономикаданных #UK #AIWorld
Лидеры, суперкомпьютер и 20 Х вычислительной мощности.
"AI Opportunities Action Plan: government response" представляет собой стратегический план правительства Великобритании, направленный на использование возможностей искусственного интеллекта (ИИ) для улучшения жизни граждан и укрепления позиций страны в глобальной экономике.
Основные тезисы документа:
План включает 50 рекомендаций со сроком реализации до 2031 года.
Ключевые рекомендации:
1️⃣Создание инфраструктуры для ИИ:
- Увеличение вычислительных мощностей в 20 раз к 2030 году.
- Построение нового суперкомпьютера для национальных исследований в области ИИ.
- Разработка долгосрочной стратегии вычислений.
2️⃣ Зоны роста ИИ:
- Создание зон роста ИИ для ускорения строительства дата-центров.
- Первоначальная зона будет расположена в Кулхэме, с планами на дальнейшее расширение.
3️⃣ Совет по энергетике ИИ:
- Создание совета для изучения потребностей в энергии для ИИ и разработки устойчивых решений.
4️⃣ Национальная библиотека данных:
- Создание библиотеки для доступа к государственным данным для исследований в области ИИ.
- Обеспечение этичного и безопасного доступа к данным.
5️⃣ Обучение и привлечение талантов:
- Разработка программ стипендий для привлечения талантов в сферу ИИ.
- Увеличение программ в области ИИ.
6️⃣ Регулирование ИИ:
- Создание эффективной регуляторной среды для поддержки инноваций и обеспечения доверия к ИИ.
7️⃣ Применение гибкого подхода "Сканировать, Пилотировать, Масштабировать" для внедрения ИИ в государственные услуги.
8️⃣ Поддержка местных инициатив:
- Сотрудничество с местными и региональными властями для выявления возможностей применения ИИ.
9️⃣ Создание новых направлений для поддержки ИИ:
- Создание нового подразделения для партнерства с частным сектором и поддержки национальных лидеров в области ИИ.
#ИИ #AI #Экономикаданных #UK #AIWorld
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Forwarded from С миру по цифре
Президент США Дональд Трамп объявил о создании компании Stargate, которая объединит усилия OpenAI, Oracle и SoftBank для масштабного развития искусственного интеллекта. Общий объем инвестиций в проект может достичь $500 млрд, что делает его крупнейшим проектом ИТ-инфраструктуры в истории.
Stargate займется строительством центров обработки данных (ЦОД) и созданием суперкомпьютеров для поддержки технологий нового поколения. Первый кампус уже строится в Техасе, а новые площадки появятся по всей стране.
Кто поддерживает проект?
Проект был анонсирован на фоне отмены ограничений, введенных администрацией Байдена, которые сдерживали развитие мощных ИИ-моделей. Теперь американские и международные компании смогут работать без ограничений, ускоряя развитие технологий.
Stargate обещает стать «Манхэттенским проектом XXI века», обеспечивая ИИ-технологии ресурсами, которые требуются для их масштабного развития. Аналитики называют это стратегическим шагом, который укрепит не только США, но и международное партнерство в области высоких технологий.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Красный день для американского ИИ-лидерства
27 января 2025 года мир ИИ содрогнулся. Китайский ИИ DeepSeek неожиданно вырвался в лидеры App Store в США, обойдя ChatGPT. В этот же день американский фондовый рынок потерял больше $1,5 трл., лидером потерь стал производитель чипов для ИИ Nvidia c самой большой однодневной просадкой капитализации за историю рынка США - $600 млрд.
Это событие уже сравнивают с запуском Спутника-1, благодаря которому в свое время американцы внезапно поняли, что они отстают от СССР в космической гонке. Как заявил Президент США Трамп, это «должно стать сигналом тревоги для наших отраслей и заставить нас сосредоточиться на конкуренции».
DeepSeek-V3, бесплатная большая языковая модель с открытым кодом, соответствует производительности ведущих американских моделей, но требует гораздо меньше затрат на обучение. В тестах производительности DeepSeek-V3 превосходит другие модели с открытым кодом, показывая немногим более слабые результаты, чем текущие лидеры Chat GPT-4o и Claude 3.5 от Anthropic.
Как итог, весь мир массово начал регистрироваться на сайте нейронки ,что заставило компании приостановить регистрации и заявить о замедлении работы сервиса из-за превышающего спроса.
Разработчик ChatGPT - OpenAI была основана 10 лет назад, имеет 4500 сотрудников и привлекла $6,6 млрд капитала. Китайская DeepSeek была основана менее 2 лет назад, имеет 200 сотрудников. Самое интересное – модель DeepSeek-V3 была разработана всего за $6 млн, что значительно дешевле по сравнению с американскими компаниями, которые тратят сотни миллионов долларов на подобные разработки.
Столь выдающиеся результаты имеет свою подоплеку: из-за американских санкций на поставку передовых чипов китайские разработчики были вынуждены искать новые подходы.
Основатель DeepSeek, 40-летний Лян Вэньфэн, создал компанию в 2023 году в Ханчжоу. По некоторым данным, он заранее закупил около 50,000 чипов Nvidia A100 (теперь запрещенных к экспорту в Китай) и комбинирует их с более доступными процессорами.
Сейчас OpenAI и Anthropic тратят от $100 млн. на гигантские дата-центры с тысячами графических процессоров (GPU), а небольшой китайский стартап куда меньшую сумму. Это стало возможным за счет того, что компания сократила объем потребляемой памяти, поскольку применила другую архитектуру (Multi-token Prediction), которая позволяет ИИ читать не отдельные слова, а фразу целиком. Также модель имеет значительно меньше параметров, чем традиционный ИИ – 671 миллиард, но в моменте активны лишь 37 миллиардов.
Открытый исходный код китайской модели расширяет возможности его доработки и снимает барьер для входа на рынок для других компаний. Раньше считалось, что развитие ИИ доступно только бигтехам с огромными дата-центрами. В то же время развитие генеративных ИИ на базе open-source позволит снизить непрерывно растущую во всем мире стоимость их разработки.
К примеру, библиотеки DeepSeek оказались полностью совместимы с OpenAI: любой разработчик может отказаться от платного API OpenAI и заменить его бесплатным китайским аналогом. Бывший глава Intel Пэт Гелсингер уже перевёл свой стартап Gloo на DeepSeek, отказавшись от OpenAI.
Продолжение тут
27 января 2025 года мир ИИ содрогнулся. Китайский ИИ DeepSeek неожиданно вырвался в лидеры App Store в США, обойдя ChatGPT. В этот же день американский фондовый рынок потерял больше $1,5 трл., лидером потерь стал производитель чипов для ИИ Nvidia c самой большой однодневной просадкой капитализации за историю рынка США - $600 млрд.
Это событие уже сравнивают с запуском Спутника-1, благодаря которому в свое время американцы внезапно поняли, что они отстают от СССР в космической гонке. Как заявил Президент США Трамп, это «должно стать сигналом тревоги для наших отраслей и заставить нас сосредоточиться на конкуренции».
DeepSeek-V3, бесплатная большая языковая модель с открытым кодом, соответствует производительности ведущих американских моделей, но требует гораздо меньше затрат на обучение. В тестах производительности DeepSeek-V3 превосходит другие модели с открытым кодом, показывая немногим более слабые результаты, чем текущие лидеры Chat GPT-4o и Claude 3.5 от Anthropic.
Как итог, весь мир массово начал регистрироваться на сайте нейронки ,что заставило компании приостановить регистрации и заявить о замедлении работы сервиса из-за превышающего спроса.
Разработчик ChatGPT - OpenAI была основана 10 лет назад, имеет 4500 сотрудников и привлекла $6,6 млрд капитала. Китайская DeepSeek была основана менее 2 лет назад, имеет 200 сотрудников. Самое интересное – модель DeepSeek-V3 была разработана всего за $6 млн, что значительно дешевле по сравнению с американскими компаниями, которые тратят сотни миллионов долларов на подобные разработки.
Столь выдающиеся результаты имеет свою подоплеку: из-за американских санкций на поставку передовых чипов китайские разработчики были вынуждены искать новые подходы.
Основатель DeepSeek, 40-летний Лян Вэньфэн, создал компанию в 2023 году в Ханчжоу. По некоторым данным, он заранее закупил около 50,000 чипов Nvidia A100 (теперь запрещенных к экспорту в Китай) и комбинирует их с более доступными процессорами.
Сейчас OpenAI и Anthropic тратят от $100 млн. на гигантские дата-центры с тысячами графических процессоров (GPU), а небольшой китайский стартап куда меньшую сумму. Это стало возможным за счет того, что компания сократила объем потребляемой памяти, поскольку применила другую архитектуру (Multi-token Prediction), которая позволяет ИИ читать не отдельные слова, а фразу целиком. Также модель имеет значительно меньше параметров, чем традиционный ИИ – 671 миллиард, но в моменте активны лишь 37 миллиардов.
Открытый исходный код китайской модели расширяет возможности его доработки и снимает барьер для входа на рынок для других компаний. Раньше считалось, что развитие ИИ доступно только бигтехам с огромными дата-центрами. В то же время развитие генеративных ИИ на базе open-source позволит снизить непрерывно растущую во всем мире стоимость их разработки.
К примеру, библиотеки DeepSeek оказались полностью совместимы с OpenAI: любой разработчик может отказаться от платного API OpenAI и заменить его бесплатным китайским аналогом. Бывший глава Intel Пэт Гелсингер уже перевёл свой стартап Gloo на DeepSeek, отказавшись от OpenAI.
Продолжение тут
❤2😱1
Начало тут
Есть мнения, что не всему заявляемому DeepSeek нужно верить. Аргумент критиков такой - закрытость Китая не позволяет убедиться, что обучение действительно шло на таких ограниченных мощностях. Компания могла воспользоваться ресурсами других китайских компаний (по прямой протекции Пекина) или же смогла закупить в обход санкций больше чипов Nvidia.
Наблюдатели также обращают внимание, что согласно политике конфиденциальности DeepSeek собирает данные о своих пользователях, а затем хранит это всё в Китае, допуская допуск к этим данным властей страны. Этот факт может стать причиной для блокирования этой нейросети во многих странах уже в ближайшее время.
В любом случае, пример DeepSeek поднимает давно назревший вопрос: действительно ли развитию ИИ нужны столь огромные ресурсы GPU? Можно осторожно предположить, что DeepSeek ломает выстроенную лидерами ИИ-рынка концепцию наращивания вычислительных мощностей, закупки топовых чипов и расширения дата-центров.
Если это так, то уже в ближайшие годы мы увидим перестройку ИИ-индустрии и новые схлопывания мыльных пузырей на рынках.
P.s. модель можно использовать бесплатно (даже без ВПН в России ), а у OpenAI за аналогичные возможности пользователи в мире платят $200 за подписку. Весьма иронично, что китайская компания воплотила первоначальную миссию OpenAI — создание открытого и доступного ИИ. OpenAI изначально задумывалась как некоммерческая организация для прогресса в ИИ, но позже стала коммерческой, с платными подписками.
#aitrends
Есть мнения, что не всему заявляемому DeepSeek нужно верить. Аргумент критиков такой - закрытость Китая не позволяет убедиться, что обучение действительно шло на таких ограниченных мощностях. Компания могла воспользоваться ресурсами других китайских компаний (по прямой протекции Пекина) или же смогла закупить в обход санкций больше чипов Nvidia.
Наблюдатели также обращают внимание, что согласно политике конфиденциальности DeepSeek собирает данные о своих пользователях, а затем хранит это всё в Китае, допуская допуск к этим данным властей страны. Этот факт может стать причиной для блокирования этой нейросети во многих странах уже в ближайшее время.
В любом случае, пример DeepSeek поднимает давно назревший вопрос: действительно ли развитию ИИ нужны столь огромные ресурсы GPU? Можно осторожно предположить, что DeepSeek ломает выстроенную лидерами ИИ-рынка концепцию наращивания вычислительных мощностей, закупки топовых чипов и расширения дата-центров.
Если это так, то уже в ближайшие годы мы увидим перестройку ИИ-индустрии и новые схлопывания мыльных пузырей на рынках.
P.s. модель можно использовать бесплатно (
#aitrends
👍4
ИИ в странах БРИКС. Есть что развивать вместе, но есть ли желание?
Вышел новый отчет Яков и партнеры по тематике ИИ - Генеративный ИИ в странах БРИКС+: тренды и перспективы. Про предыдущий можно почитать тут.
Хотя в названии заявлен генеративный ИИ (нейросети, способные генерировать по запросу контент в виде текста, видео, изображений), но составители уделили внимание возможностям каждой страны-члена БРИКС развивать у себя всю ИИ-отрасль (вот тут про то, что ИИ не ограничивается генерированием контента).
Подобная ситуация лишний раз показывает, что нельзя воспринимать генеративный ИИ как нечто самостоятельное, хотя это направление ИИ сейчас и привлекло все внимание на себя.
Говоря про доклад, отмечу комплексность информации о системах развития ИИ в представленных странах. На русском языке столь подробной информации по этим пунктам не найти.
- имеющаяся инфраструктура ИИ: сколько суперкомпьютеров и иных вычислительных возможностей в стране?
- меры гос.поддержки: особый фокус на развитие ИИ (к примеру, в ОАЭ было создано первое в мире Министерство ИИ), какая поддержка для инвесторов в ИИ-отрасль?
- ситуация с кадрами: есть ли недостаток кадров (как в России) или же наоборот их насыщенность (как в Индии)?
Доклад целенаправленно фокусируется на странах БРИКС, поэтому составители сформулировали ряд рекомендаций по совместному развитию ИИ на базе группы. В прошлый год Россия была председателем в этом объединении, а российское экспертное общество предложило ряд инициатив по треку ИИ, что-то даже попало в итоговый документ Саммита лидеров государств.
Процесс подготовки этих инициатив стал
индикатором, что совместное развитие ИИ не является чем-то очевидным и одинаково желаемым для всех участников объединения. В этом контексте сложно ожидать, что одна страна предоставит свои уже итак ограниченные вычислительные мощности другому, или же начнет делиться своими данными, подразумевая это как свой стратегический ресурс.
Условно говоря, совместное развитие ИИ должно учитывать интересы каждого государства, которые могут и не совпадать. И поиск этой конфигурации требует как понимания этих тонкостей, но и политической воли большого количества столь разных стран.
P.s. в докладе указано большинство китайских нейронок и их преимущества, но так как доклад вышел еще до звездного часа DeepSeek, она там не упомянута. Вот что значит стремительность перемен в мире ИИ.
#aipaper
Вышел новый отчет Яков и партнеры по тематике ИИ - Генеративный ИИ в странах БРИКС+: тренды и перспективы. Про предыдущий можно почитать тут.
Хотя в названии заявлен генеративный ИИ (нейросети, способные генерировать по запросу контент в виде текста, видео, изображений), но составители уделили внимание возможностям каждой страны-члена БРИКС развивать у себя всю ИИ-отрасль (вот тут про то, что ИИ не ограничивается генерированием контента).
Подобная ситуация лишний раз показывает, что нельзя воспринимать генеративный ИИ как нечто самостоятельное, хотя это направление ИИ сейчас и привлекло все внимание на себя.
Говоря про доклад, отмечу комплексность информации о системах развития ИИ в представленных странах. На русском языке столь подробной информации по этим пунктам не найти.
- имеющаяся инфраструктура ИИ: сколько суперкомпьютеров и иных вычислительных возможностей в стране?
- меры гос.поддержки: особый фокус на развитие ИИ (к примеру, в ОАЭ было создано первое в мире Министерство ИИ), какая поддержка для инвесторов в ИИ-отрасль?
- ситуация с кадрами: есть ли недостаток кадров (как в России) или же наоборот их насыщенность (как в Индии)?
Доклад целенаправленно фокусируется на странах БРИКС, поэтому составители сформулировали ряд рекомендаций по совместному развитию ИИ на базе группы. В прошлый год Россия была председателем в этом объединении, а российское экспертное общество предложило ряд инициатив по треку ИИ, что-то даже попало в итоговый документ Саммита лидеров государств.
Процесс подготовки этих инициатив стал
индикатором, что совместное развитие ИИ не является чем-то очевидным и одинаково желаемым для всех участников объединения. В этом контексте сложно ожидать, что одна страна предоставит свои уже итак ограниченные вычислительные мощности другому, или же начнет делиться своими данными, подразумевая это как свой стратегический ресурс.
Условно говоря, совместное развитие ИИ должно учитывать интересы каждого государства, которые могут и не совпадать. И поиск этой конфигурации требует как понимания этих тонкостей, но и политической воли большого количества столь разных стран.
P.s. в докладе указано большинство китайских нейронок и их преимущества, но так как доклад вышел еще до звездного часа DeepSeek, она там не упомянута. Вот что значит стремительность перемен в мире ИИ.
#aipaper
👍1
Как действия Google подталкивают к международным дебатам о двойном назначении ИИ
Недавно я писал о том, что крупные технологические компании все сильнее втягиваются в тему военного применения ИИ. А теперь появились новости о том, что Google удалила из своих принципов обещание не использовать ИИ для создания оружия или в других опасных целях.
Бывший руководитель команды этики ИИ компании считает, что удаление этого пункта означает, что «Google, вероятно, теперь будет работать над развертыванием технологий, которые могут убивать людей».
Учитывая глобальное влияние американской корпорации, очевидно, что созрела необходимость определения глобальных границ, правил в сфере ИИ для коммерческих компаний и государств.
Тему подогрел недавний хайп вокруг китайской нейросети DeepSeek. Ряд стран уже начали запрещать эту модель именно из-за опасений, что данные пользователей станут доступны Пекину и будут как-то им использованы.
10-11 февраля в Париже состоится the Artificial Intelligence Action Summit, повестка которого - выработка глобальных подходов к развитию и применению ИИ (что примечательно, Россию на форум не позвали). Можно было бы предположить, что подобный Саммит станет площадкой для обсуждения риска использования гражданских данных для разработки военного ИИ. Однако текущая программа не включает этого направления.
Перед Саммитом 100 ведущих экспертов по теме ИИ подготовили специальный доклад о главных рисках развития ИИ International AI Safety Report . Проблема двойного назначения ИИ-технологий упоминается лишь вскользь и не лежит в фокусе основного внимания экспертов.
Объяснение этому можно попробовать найти в сообщении Google, в котором она обосновала необходимость пересмотра своих подходов к военному ИИ:
Кажется, что правила игры должны быть едиными, но реальность иная. Полная лояльность к Google и жесткое противодействие незападным компаниям с аналогичными подходами.
#aitrends
Недавно я писал о том, что крупные технологические компании все сильнее втягиваются в тему военного применения ИИ. А теперь появились новости о том, что Google удалила из своих принципов обещание не использовать ИИ для создания оружия или в других опасных целях.
Бывший руководитель команды этики ИИ компании считает, что удаление этого пункта означает, что «Google, вероятно, теперь будет работать над развертыванием технологий, которые могут убивать людей».
Учитывая глобальное влияние американской корпорации, очевидно, что созрела необходимость определения глобальных границ, правил в сфере ИИ для коммерческих компаний и государств.
Тему подогрел недавний хайп вокруг китайской нейросети DeepSeek. Ряд стран уже начали запрещать эту модель именно из-за опасений, что данные пользователей станут доступны Пекину и будут как-то им использованы.
10-11 февраля в Париже состоится the Artificial Intelligence Action Summit, повестка которого - выработка глобальных подходов к развитию и применению ИИ (что примечательно, Россию на форум не позвали). Можно было бы предположить, что подобный Саммит станет площадкой для обсуждения риска использования гражданских данных для разработки военного ИИ. Однако текущая программа не включает этого направления.
Перед Саммитом 100 ведущих экспертов по теме ИИ подготовили специальный доклад о главных рисках развития ИИ International AI Safety Report . Проблема двойного назначения ИИ-технологий упоминается лишь вскользь и не лежит в фокусе основного внимания экспертов.
Объяснение этому можно попробовать найти в сообщении Google, в котором она обосновала необходимость пересмотра своих подходов к военному ИИ:
«Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь такими основными ценностями, как свобода, равенство и уважение прав человека. И мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность».
Кажется, что правила игры должны быть едиными, но реальность иная. Полная лояльность к Google и жесткое противодействие незападным компаниям с аналогичными подходами.
#aitrends
👍1
ПолитИИзация
По предложению Фонда Горчакова (занимаются развитием международных связей и различными экспертными мероприятиями) написал короткое эссе о том, как ИИ может быть применен в дипломатии (мой текст на странице 27, текст постом ниже). Моё убеждение, что в ближайшем…
В день дипломата напомню про свой пост о перспективах применения ИИ для задач внешней политики.
И да, всех причастных с праздником!
И да, всех причастных с праздником!
🔥6
В США ищут чем ответить на растущую популярность китайских нейронок
Появление китайской модели DeepSeek и её стремительный выход на первые места по скачиванию достаточно быстро привело к действиям со стороны правительство разных стран. Первой реакцией стали попытки запретить её применение в органах власти.
Однако запреты не решают проблемы популярности этой модели – её бесплатность для обычного пользователя и открытость кода для разработчиков.
В ответ на это, американские эксперты предложили пересмотреть подходы к открытому ПО и обеспечить его широкое использование и разработку. Для этого Вашингтон должен обеспечить гос.финансирование и спрос.
Аргументы такие:
Вывод - американские политики должны учитывать, что передача глобального лидерства в сфере открытых ИИ-моделей Китаю, может нести куда большие издержки для американского лидерства, не только на поле технологий.
Таким образом, Штатам необходимо кардинально сменить подход к распространению своего ИИ и перейти к дипломатии открытого ПО (open-source diplomacy). Согласно этой идее, страна должна не только больше вкладываться в создание открытого ПО на своем рынке, но и не ограничивать распространение таких моделей ни через санкции, ни через экспортный контроль или режим лицензирования.
От себя отмечу -
Очевидно, что добровольное открытие кода может пошатнуть лидерство ведущих западных разработчиков. Поэтому есть сомнения, что они добровольно пойдут на реализацию новой стратегии. В эту логику вписывается недавнее провалившееся предложение Маска купить ведущего разработчика ИИ OpenAI и открыть его исходных код.
#aipolitics #aisanctions
Появление китайской модели DeepSeek и её стремительный выход на первые места по скачиванию достаточно быстро привело к действиям со стороны правительство разных стран. Первой реакцией стали попытки запретить её применение в органах власти.
Однако запреты не решают проблемы популярности этой модели – её бесплатность для обычного пользователя и открытость кода для разработчиков.
В ответ на это, американские эксперты предложили пересмотреть подходы к открытому ПО и обеспечить его широкое использование и разработку. Для этого Вашингтон должен обеспечить гос.финансирование и спрос.
Аргументы такие:
I. Открытые модели могут помочь массовому внедрению ИИ в самих Штатах, так как сторонние разработчики смогут самостоятельно дорабатывать и использовать ИИ, не платя постоянно растущие взносы. Именно поэтому еще до успеха DeepSeek открытую модель Llama с 2023 года скачали более 350 миллионов раз.
II. Если США откажутся от открытых инноваций в области ИИ, другие страны могут «отключиться» от американских технологий, инвестируя в собственную инфраструктуру или обратиться к альтернативам. Это укрепит позиции китайских моделей ИИ и ослабит влияние американских компаний. К примеру, разработчики скачивают модели Alibaba несколько миллионов раз в месяц. Эти модели будут нести в себе китайские ценности, которые смогут каким-то образом влиять на их пользователей.
Вывод - американские политики должны учитывать, что передача глобального лидерства в сфере открытых ИИ-моделей Китаю, может нести куда большие издержки для американского лидерства, не только на поле технологий.
Таким образом, Штатам необходимо кардинально сменить подход к распространению своего ИИ и перейти к дипломатии открытого ПО (open-source diplomacy). Согласно этой идее, страна должна не только больше вкладываться в создание открытого ПО на своем рынке, но и не ограничивать распространение таких моделей ни через санкции, ни через экспортный контроль или режим лицензирования.
От себя отмечу -
Очевидно, что добровольное открытие кода может пошатнуть лидерство ведущих западных разработчиков. Поэтому есть сомнения, что они добровольно пойдут на реализацию новой стратегии. В эту логику вписывается недавнее провалившееся предложение Маска купить ведущего разработчика ИИ OpenAI и открыть его исходных код.
#aipolitics #aisanctions
👍4🔥1
Японская ИИ-дипломатия
Когда мы говорим, что ИИ становится частью международной политики, стоит упомянуть и о том, как некоторые страны видят себя в этом новом дивном мире.
К примеру, в последние годы японское правительство предпринимало ряд попыток по созданию глобальной структуры для обсуждения международных правил использования технологий искусственного интеллекта.
Еще в 2016 году(!), когда страна принимала саммит G7, правительство Японии предложило основные правила для исследований и разработок в области ИИ.
В 2023 году, когда Япония снова принимала саммит G7, страны семерки запустили инициативу под названием «Хиросимский процесс ИИ». Его цель — обеспечить соответствие развития и использования ИИ общим демократическим ценностям стран G7.
На базе инициативы была запущена комплексная политическая рамка Hiroshima Process, включающая руководящие принципы и кодекс поведения, меры прозрачности и ответственное использование технологий ИИ.
Помимо G7, Япония привлекла к процессу 41 страну и ЕС, создав «Группу друзей Хиросимского процесса», которая включает как развитые экономики (Австралия, ОАЭ), так и развивающиеся (Индия, Мексика), что усилило легитимность инициативы.
Зачем это Японии:
#aicountry
Когда мы говорим, что ИИ становится частью международной политики, стоит упомянуть и о том, как некоторые страны видят себя в этом новом дивном мире.
К примеру, в последние годы японское правительство предпринимало ряд попыток по созданию глобальной структуры для обсуждения международных правил использования технологий искусственного интеллекта.
Еще в 2016 году(!), когда страна принимала саммит G7, правительство Японии предложило основные правила для исследований и разработок в области ИИ.
В 2023 году, когда Япония снова принимала саммит G7, страны семерки запустили инициативу под названием «Хиросимский процесс ИИ». Его цель — обеспечить соответствие развития и использования ИИ общим демократическим ценностям стран G7.
На базе инициативы была запущена комплексная политическая рамка Hiroshima Process, включающая руководящие принципы и кодекс поведения, меры прозрачности и ответственное использование технологий ИИ.
Помимо G7, Япония привлекла к процессу 41 страну и ЕС, создав «Группу друзей Хиросимского процесса», которая включает как развитые экономики (Австралия, ОАЭ), так и развивающиеся (Индия, Мексика), что усилило легитимность инициативы.
Зачем это Японии:
- Позиционирование себя как ключевого игрока в области технологического регулирования, что должно отсылать на её статус лидера в производстве высокотехнологичной продукцииОднако главным риском для реализации этих амбиций являются внутренние сложности. Страна испытывает проблемы с ростом экономики, а также постепенно теряет свои преимущества в технологическом секторе, что прямо влияет на её вес в глобальном процессе вокруг ИИ.
- Япония стремится сохранить влияние в Азиатско-Тихоокеанском регионе, конкурируя с Китаем
- Регулирование ИИ через Хиросимский процесс способствует экспорту японских технологий и стандартов. Например, требования к маркировке контента, созданного ИИ, или защите интеллектуальной собственности соответствуют интересам японских компаний, таких как Sony или Toyota
#aicountry
👍2🤔1
ЕС признал, что перестарался с регулированием ИИ
Её речь прозвучала на фоне громких международных анонсов о выделении финансирования на развитие ИИ. К примеру, Трамп объявил о проекте Stargate для создания ИИ-инфраструктуры на 500 млрд $, Банк Китая представил «План действий по поддержке развития индустрии искусственного интеллекта» на 135 млрд $.
Одним из признаком включения в эту гонку ЕС стали заявления европейских лидеров о готовности пересмотреть и сделать более гибким свое цифровое законодательство. Сразу после саммита Европейская комиссия отозвала директиву об ответственности за использование ИИ, которая должна была дополнить знаковый Закон ЕС об искусственном интеллекте, которому самому грозит неопределённое будущее в условиях стремления к упрощению.
Можно предположить, что подобный европейский разворот обусловлен не только анонсами о создании мегапроектов по ИИ у Китая и США. Большое значение имеет явный крен к дерегулированию ИИ со стороны ближайших партнеров ЕС.
К примеру, в Великобритании правительство долгое время говорило о приоритетности правовых вопросов в развитии ИИ, однако с начала года публичной позицией стала задача обеспечения развития ИИ. Также в январе Дональд Трамп отменил указ, направленный на уменьшение рисков, связанных с использованием ИИ. По мнению нового главы США, указ тормозит инновации в области ИИ, что непозволительно в текущих условиях.
Напомню, именно ЕС первым в мире разработал и принял комплексный закон, который определяет рамки разработки и использования ИИ, а также наделяет их пользователей и создателей юридической ответственностью. Еще при разработке этого закона эксперты заявляли о тяжелых последствиях, которые наступят (и наступили) с жестким регулированием ИИ – замедление технологического роста, удорожание любой разработки, бегство стартапов в другие юрисдикции.
На фоне всего этого ЕС, пусть не отменяет свой Закон, но делает шаг назад. Это крайне необычный поворот, учитывая, что именно к практике ЕС обращаются страны, готовые пойти по пути юридического ограничения ИИ.
Посмотрим, прислушается ли ЕС к призыву премьер-министра Швеции, который заявил:
#airegulation
«Гонка за ИИ далека от завершения», — заявила на саммите по искусственному интеллекту (AI Action Summit) в Париже председатель Еврокомиссии Урсула фон дер Ляйен, анонсируя ряд программа по развитию ИИ, общим размером в 200 млрд €.
Её речь прозвучала на фоне громких международных анонсов о выделении финансирования на развитие ИИ. К примеру, Трамп объявил о проекте Stargate для создания ИИ-инфраструктуры на 500 млрд $, Банк Китая представил «План действий по поддержке развития индустрии искусственного интеллекта» на 135 млрд $.
Одним из признаком включения в эту гонку ЕС стали заявления европейских лидеров о готовности пересмотреть и сделать более гибким свое цифровое законодательство. Сразу после саммита Европейская комиссия отозвала директиву об ответственности за использование ИИ, которая должна была дополнить знаковый Закон ЕС об искусственном интеллекте, которому самому грозит неопределённое будущее в условиях стремления к упрощению.
Можно предположить, что подобный европейский разворот обусловлен не только анонсами о создании мегапроектов по ИИ у Китая и США. Большое значение имеет явный крен к дерегулированию ИИ со стороны ближайших партнеров ЕС.
К примеру, в Великобритании правительство долгое время говорило о приоритетности правовых вопросов в развитии ИИ, однако с начала года публичной позицией стала задача обеспечения развития ИИ. Также в январе Дональд Трамп отменил указ, направленный на уменьшение рисков, связанных с использованием ИИ. По мнению нового главы США, указ тормозит инновации в области ИИ, что непозволительно в текущих условиях.
Напомню, именно ЕС первым в мире разработал и принял комплексный закон, который определяет рамки разработки и использования ИИ, а также наделяет их пользователей и создателей юридической ответственностью. Еще при разработке этого закона эксперты заявляли о тяжелых последствиях, которые наступят (и наступили) с жестким регулированием ИИ – замедление технологического роста, удорожание любой разработки, бегство стартапов в другие юрисдикции.
На фоне всего этого ЕС, пусть не отменяет свой Закон, но делает шаг назад. Это крайне необычный поворот, учитывая, что именно к практике ЕС обращаются страны, готовые пойти по пути юридического ограничения ИИ.
Посмотрим, прислушается ли ЕС к призыву премьер-министра Швеции, который заявил:
Европа рискует превратиться в "музей", если не будет внедрять инновации в области ИИ и дерегулировать эту отрасль.
#airegulation
👍3
Forwarded from Глебсмит
Свежий блог Сэма Альтмана про перспективы ИИ.
Тема - вопросы экономики ИИ. Их три. «Почему так дорого», «Почему у китайцев дешево», «Почему несмотря на то, что у нас дорого, а у китайцев дешево, надо продолжать давать деньги нам, а не им».
Вопрос 1: «Интеллект модели ИИ примерно равен логарифму ресурсов, используемых для ее обучения и запуска». Чем больше вычислительных ресурсов (данные, «железо» и процесс обучения) вкладывается, тем выше интеллект модели. Логарифмическая зависимость: на начальном этапе увеличение ресурсов приводит к быстрому росту, со временем отдача от дополнительных ресурсов уменьшается. Но это не то, что отдачи на вложения нет.
Вопрос 2: «Стоимость использования данного уровня ИИ падает примерно в 10 раз каждые 12 месяцев». Это хорошо, потому что снижение стоимости делает ИИ доступным для большего числа людей и бизнесов, что приводит к появлению новых способов применения и ускоряет развитие технологий. Пример: Deep Seek и другие проекты такого рода. Их бы не было, если бы «мэйджоры» типа ChatGPT не проложили дорогу. Поэтому, противопоставление «дешевый ДипСик» vs «дорогой американский алгоритм» - ложное. Дешевизна «подчиненных моделей» - тоже хорошее дело, так как работает на широкий доступ к инструменту.
Вопрос 3. «Социально-экономическая ценность линейного увеличения интеллекта носит экспоненциальный характер». Сколько денег не вкладывай – все равно отобьется. Даже падающий в логарифмической логике прирост в эффективности несет пусть и непредсказуемую и с трудом считаемую, но в потенциале «огромную» пользу. Этим Альтман объясняет, почему инвестиции в его ИИ должны продолжать расти, несмотря на то, что отдача уменьшается.
Пример тут классический для собственников моделей. Условно за 100 млрд ИИ научился распознавать рак на ранней стадии с точностью 80%. А еще за 200 млрд сверху модель доведет точность до 90% - и это оправдает все расходы, так как всех спасет и еще и сэкономит на лечении. Вопрос – «может не стоило забирать все эти 300 млрд у медицинского образования и «разложить яйца в разные корзины»» - традиционно отметается. На хрен эти врачи вообще сдались, когда есть алгоритм!
Итого: правильное поведение – вкладывать еще больше в американских «мейджоров» и не обращать внимание как на снижение эффективности производимых ими новых версий ИИ, так и на появление «эконом-вариантов» из Китая и толщ западных же университетов.
А в обмен на это правильное поведение Альтман обещает создать для инвесторов «агентскую экономику» за ближайшие годы. В рамках которой «ИИ-агенты» станут «младшими сотрудниками» любой человеческой деятельности - от виртуальных «программистов-джуниоров» в IT до «ординаторов» в медицине. Всю рутину и обеспечение «начальства» базовым продуктом они возьмут на себя.
И вообще «Мир не изменится сразу, он никогда не изменится. Жизнь в краткосрочной перспективе будет продолжаться так же, …, но в долгосрочной перспективе изменения будут огромными».
Ну и (я бы сказал это главная мысль в блоге) «рост равенства не обусловлен технологически». Что в переводе на простой язык означает, что богатство, создаваемое технологиями ИИ, никак не повлияет на выравнивание доходов, а значит и на рост благосостояния человечества как совокупности людей, а не активов в руках начальства.
В старые времена, при «демократах» этот тезис оставляли критиков и насмехались над ними: «луддиты», мол, «не видят в прогрессе счастья». Сейчас – спасибо Трампу – скрывать технолигархии правду больше не надо. Кардинальное изменение нарратива для лучшего продажника современности Альтмана, который раньше начинал и заканчивал всеобщим благом и драматическими изменениями для всего человечества от ИИ.
Сейчас – внезапно – «баланс сил между трудом и капиталом может легко нарушиться». И понятно в чью пользу.
Тема - вопросы экономики ИИ. Их три. «Почему так дорого», «Почему у китайцев дешево», «Почему несмотря на то, что у нас дорого, а у китайцев дешево, надо продолжать давать деньги нам, а не им».
Вопрос 1: «Интеллект модели ИИ примерно равен логарифму ресурсов, используемых для ее обучения и запуска». Чем больше вычислительных ресурсов (данные, «железо» и процесс обучения) вкладывается, тем выше интеллект модели. Логарифмическая зависимость: на начальном этапе увеличение ресурсов приводит к быстрому росту, со временем отдача от дополнительных ресурсов уменьшается. Но это не то, что отдачи на вложения нет.
Вопрос 2: «Стоимость использования данного уровня ИИ падает примерно в 10 раз каждые 12 месяцев». Это хорошо, потому что снижение стоимости делает ИИ доступным для большего числа людей и бизнесов, что приводит к появлению новых способов применения и ускоряет развитие технологий. Пример: Deep Seek и другие проекты такого рода. Их бы не было, если бы «мэйджоры» типа ChatGPT не проложили дорогу. Поэтому, противопоставление «дешевый ДипСик» vs «дорогой американский алгоритм» - ложное. Дешевизна «подчиненных моделей» - тоже хорошее дело, так как работает на широкий доступ к инструменту.
Вопрос 3. «Социально-экономическая ценность линейного увеличения интеллекта носит экспоненциальный характер». Сколько денег не вкладывай – все равно отобьется. Даже падающий в логарифмической логике прирост в эффективности несет пусть и непредсказуемую и с трудом считаемую, но в потенциале «огромную» пользу. Этим Альтман объясняет, почему инвестиции в его ИИ должны продолжать расти, несмотря на то, что отдача уменьшается.
Пример тут классический для собственников моделей. Условно за 100 млрд ИИ научился распознавать рак на ранней стадии с точностью 80%. А еще за 200 млрд сверху модель доведет точность до 90% - и это оправдает все расходы, так как всех спасет и еще и сэкономит на лечении. Вопрос – «может не стоило забирать все эти 300 млрд у медицинского образования и «разложить яйца в разные корзины»» - традиционно отметается. На хрен эти врачи вообще сдались, когда есть алгоритм!
Итого: правильное поведение – вкладывать еще больше в американских «мейджоров» и не обращать внимание как на снижение эффективности производимых ими новых версий ИИ, так и на появление «эконом-вариантов» из Китая и толщ западных же университетов.
А в обмен на это правильное поведение Альтман обещает создать для инвесторов «агентскую экономику» за ближайшие годы. В рамках которой «ИИ-агенты» станут «младшими сотрудниками» любой человеческой деятельности - от виртуальных «программистов-джуниоров» в IT до «ординаторов» в медицине. Всю рутину и обеспечение «начальства» базовым продуктом они возьмут на себя.
И вообще «Мир не изменится сразу, он никогда не изменится. Жизнь в краткосрочной перспективе будет продолжаться так же, …, но в долгосрочной перспективе изменения будут огромными».
Ну и (я бы сказал это главная мысль в блоге) «рост равенства не обусловлен технологически». Что в переводе на простой язык означает, что богатство, создаваемое технологиями ИИ, никак не повлияет на выравнивание доходов, а значит и на рост благосостояния человечества как совокупности людей, а не активов в руках начальства.
В старые времена, при «демократах» этот тезис оставляли критиков и насмехались над ними: «луддиты», мол, «не видят в прогрессе счастья». Сейчас – спасибо Трампу – скрывать технолигархии правду больше не надо. Кардинальное изменение нарратива для лучшего продажника современности Альтмана, который раньше начинал и заканчивал всеобщим благом и драматическими изменениями для всего человечества от ИИ.
Сейчас – внезапно – «баланс сил между трудом и капиталом может легко нарушиться». И понятно в чью пользу.
👍3
В борьбе за ИИ-лидерство все законы хороши
С приходом Трампа к власти началась подготовка «Плана действий по ИИ», который должен быть выпущен в июле 2025. Создатель ChatGPT, компания OpenAI также участвует в подготовке, а ряд её предложений явно стоят внимания.
Компания продолжает парадоксальную тенденцию, когда бизнес просит государство заняться регулирование ИИ-сферы.
Но хитрость в деталях и внутреннем устройстве страны.
Американские ИИ-компании сталкиваются с трудностями из-за множества законов штатов, регулирующих отрасль, утверждает OpenAI. Только в 2025 году было предложено более 800 подобных актов. Есть опасения, что некоторые из них, схожие со строгими нормами ЕС, будут тормозить развитие ИИ, поэтому их нужно отменить.
Обоснование всем этим предложениям простое - быстрый прогресс Китая ставит под угрозу лидерство Америки в области передового ИИ. Для этого нужно предоставить больше свободы для обучения искусственного интеллекта, иначе Китай получит преимущество, так как сможет использовать данные, защищенные авторским правом, к которым у американских компаний нет доступа.
Для закрепления внешнеполитического обоснования небывалой регуляторной либерализации OpenAI считает необходимым ввести запрет на использование китайских моделей.
Вот такой протекционизм со стороны ИИ-лидера. Посмотрим, что смогут предложить сторонники перехода к открытому ПО.
#aitrends #airegulation
С приходом Трампа к власти началась подготовка «Плана действий по ИИ», который должен быть выпущен в июле 2025. Создатель ChatGPT, компания OpenAI также участвует в подготовке, а ряд её предложений явно стоят внимания.
Компания продолжает парадоксальную тенденцию, когда бизнес просит государство заняться регулирование ИИ-сферы.
Но хитрость в деталях и внутреннем устройстве страны.
Первое предложение — OpenAI предлагает Трампу принять федеральный закон, ключевая задача которого в отмене региональных норм, касающиеся ИИ.
Американские ИИ-компании сталкиваются с трудностями из-за множества законов штатов, регулирующих отрасль, утверждает OpenAI. Только в 2025 году было предложено более 800 подобных актов. Есть опасения, что некоторые из них, схожие со строгими нормами ЕС, будут тормозить развитие ИИ, поэтому их нужно отменить.
Второе предложение – принять ряд правовых мер для защиты американских ИИ-компаний и от международных законов.Для этого США должны как продумать внутренние нормы, так и влиять на международные правила в области авторского права и ИИ, чтобы избежать ограничений со стороны других стран.
Третье предложение — дать ИИ-компаниям доступ к максимальному количеству данных, даже если это вызывает недовольство правообладателей.Для этого OpenAI предлагает правительству США проверять, не ограничивают ли другие страны доступ американских компаний к важным данным.
Обоснование всем этим предложениям простое - быстрый прогресс Китая ставит под угрозу лидерство Америки в области передового ИИ. Для этого нужно предоставить больше свободы для обучения искусственного интеллекта, иначе Китай получит преимущество, так как сможет использовать данные, защищенные авторским правом, к которым у американских компаний нет доступа.
Для закрепления внешнеполитического обоснования небывалой регуляторной либерализации OpenAI считает необходимым ввести запрет на использование китайских моделей.
Вот такой протекционизм со стороны ИИ-лидера. Посмотрим, что смогут предложить сторонники перехода к открытому ПО.
#aitrends #airegulation
🔥2👍1
Forwarded from Кибервойна
Промты общественной значимости
В Великобритании журналисты легально получили историю использования ChatGPT одним из министров. Питер Кайл, министр по науке, инновациям и технологиям, упомянул в одном из интервью, что часто использует ChatGPT. После этого издание New Scientist попробовало узнать, о чём именно чиновник общался с чатботом, использовав для этого запрос по закону о свободе информации. Сначала из министерства поступил общий ответ, что Кайл использует ChatGPT как в личном, так и в официальном качестве. Журналисты направили повторный запрос о предоставлении вопросов (промтов) и ответов, относящихся к использованию сервиса министром в официальном качестве. И этот запрос был удовлетворён.
В статье приводится несколько примеров запросов. Кайл узнавал у ChatGPT, почему британский бизнес медленно осваивает ИИ, в каких подкастах ему стоит выступить, а также уточнял значение терминов, относящихся к сфере ответственности его ведомства, таких как антиматерия, квант (или квантовый) и цифровая инклюзивность — два сторонних эксперта по просьбе журналистов оценили определение кванта как на удивление хорошее и неплохое.
Представитель Министерства по науке, инновациям и технологиям заявил изданию, что правительство использует ИИ в качестве инструмента, сберегающего трудовые ресурсы, и руководствуется чёткими правилами быстрого и безопасного использования этой технологии.
Также в статье отмечается, что у опрошенных специалистов нет единого мнения насчёт того, как (с точки зрения запросов о свободе информации) квалифицировать историю переписки с ChatGPT: ближе к переписке по электронной почте и WhatsApp, которые, как правило, выдаются по запросу, или ближе к истории поисковика, которую ведомства наоборот склонны не предоставлять в ответ на такие запросы.
В Великобритании журналисты легально получили историю использования ChatGPT одним из министров. Питер Кайл, министр по науке, инновациям и технологиям, упомянул в одном из интервью, что часто использует ChatGPT. После этого издание New Scientist попробовало узнать, о чём именно чиновник общался с чатботом, использовав для этого запрос по закону о свободе информации. Сначала из министерства поступил общий ответ, что Кайл использует ChatGPT как в личном, так и в официальном качестве. Журналисты направили повторный запрос о предоставлении вопросов (промтов) и ответов, относящихся к использованию сервиса министром в официальном качестве. И этот запрос был удовлетворён.
В статье приводится несколько примеров запросов. Кайл узнавал у ChatGPT, почему британский бизнес медленно осваивает ИИ, в каких подкастах ему стоит выступить, а также уточнял значение терминов, относящихся к сфере ответственности его ведомства, таких как антиматерия, квант (или квантовый) и цифровая инклюзивность — два сторонних эксперта по просьбе журналистов оценили определение кванта как на удивление хорошее и неплохое.
Представитель Министерства по науке, инновациям и технологиям заявил изданию, что правительство использует ИИ в качестве инструмента, сберегающего трудовые ресурсы, и руководствуется чёткими правилами быстрого и безопасного использования этой технологии.
Также в статье отмечается, что у опрошенных специалистов нет единого мнения насчёт того, как (с точки зрения запросов о свободе информации) квалифицировать историю переписки с ChatGPT: ближе к переписке по электронной почте и WhatsApp, которые, как правило, выдаются по запросу, или ближе к истории поисковика, которую ведомства наоборот склонны не предоставлять в ответ на такие запросы.
New Scientist
Revealed: How the UK tech secretary uses ChatGPT for policy advice
New Scientist has used freedom of information laws to obtain the ChatGPT records of Peter Kyle, the UK's technology secretary, in what is believed to be a world-first use of such legislation
👍1🔥1
Forwarded from Нецифровая экономика (🐈Egor Sonin)
Как Meta и OpenAI тренировали ИИ на российской пиратской библиотеке
Чтобы построить конкурентный искусственный интеллект, нужно много данных. Очень много. Когда инженеры из экстремистской Meta начали работу над Llama 3 — языковой моделью, которая должна была тягаться с ChatGPT, — они столкнулись с неприятной дилеммой: либо платить за книги и научные статьи, либо просто… украсть их. В итоге они выбрали второй вариант — и пошли на LibGen.
Для компании это имело смысл, так как экономила косты — получение легальной лицензии заняло бы около месяца для каждой книги, тогда как на LibGen было доступно все бесплатно. «Нам нужно получить книги как можно быстрее», — писал один из менеджеров. Судя по документам, разрешение на скачивание пришло от “MZ” — вероятно, Марка Цукерберга.
Документы, ставшие основой этого расследования, были опубликованы в рамках коллективного иска, поданного против Meta группой американских писателей. Авторы утверждают, что их книги незаконно использовались для обучения LLM без согласия и роялти. Параллельно идут аналогичные процессы и против OpenAI — обе компании пытаются защититься, ссылаясь на доктрину "fair use", которая допускает некоммерческое использование защищённых авторским правом материалов для трансформации в нечто новое.
Важно понимать масштаб происходящего. Речь не о том, что Meta случайно наткнулась на пиратский файл. Судебные документы показывают, что команда целенаправленно искала способы маскировки своей активности, обсуждала удаление строк с упоминаниями ISBN, Copyright, ©, All rights reserved (то есть любых явных признаков авторства и защиты прав), и и даже запрет на генерацию первых страниц книг по запросу — например, блокировали запросы типа «покажи три первые страницы “Гарри Поттера”».
Книги скачивали через BitTorrent и вот в чем фишка. Когда Meta скачивала библиотеку LibGen, она могла не только загрузить пиратские книги, но и невольно начать их раздавать другим пользователям. По законам об авторском праве это уже считается распространением нелегального контента — то есть нарушением. В Meta утверждают, что приняли меры, чтобы этого не произошло, но технически доказать это сложно. OpenAI, по слухам, тоже использовала LibGen, но пока неизвестно, как именно она загружала данные.
ИИ-компании настаивают, что обучение моделей на таких данных трансформирует тексты и потому допустимо. Но главный вопрос не столько в законе, сколько в будущем авторства. Если миллиарды долларов будут зарабатываться на переработке чужих работ без согласия авторов — кто вообще станет писать книги, проводить исследования или делиться знаниями?
Meta и OpenAI уверяют, что их модели помогут науке. Вот только кто захочет бесплатно делиться знаниями с теми, кто обещает отобрать у них работу - вопрос со звездочкой.
Хотя американские медиа вот согласились. Может, и среди остальных найдутся наивные.
Чтобы построить конкурентный искусственный интеллект, нужно много данных. Очень много. Когда инженеры из экстремистской Meta начали работу над Llama 3 — языковой моделью, которая должна была тягаться с ChatGPT, — они столкнулись с неприятной дилеммой: либо платить за книги и научные статьи, либо просто… украсть их. В итоге они выбрали второй вариант — и пошли на LibGen.
LibGen — это огромная пиратская библиотека, в которой сегодня более 7,5 млн книг и 81 млн научных публикаций. Она была создана в районе 2008 года предположительно группой российских ученых, которые преследовали цель открыть знания соотечественникам (в 10-е для этой же цели появился Sci-Hub). Однако в отличие от последнего LibGen в итоге эволюционировал до библиотеке со всеми типами книг — от профессиональных до беллетристики. Именно туда и ринулась Meta.Для компании это имело смысл, так как экономила косты — получение легальной лицензии заняло бы около месяца для каждой книги, тогда как на LibGen было доступно все бесплатно. «Нам нужно получить книги как можно быстрее», — писал один из менеджеров. Судя по документам, разрешение на скачивание пришло от “MZ” — вероятно, Марка Цукерберга.
Документы, ставшие основой этого расследования, были опубликованы в рамках коллективного иска, поданного против Meta группой американских писателей. Авторы утверждают, что их книги незаконно использовались для обучения LLM без согласия и роялти. Параллельно идут аналогичные процессы и против OpenAI — обе компании пытаются защититься, ссылаясь на доктрину "fair use", которая допускает некоммерческое использование защищённых авторским правом материалов для трансформации в нечто новое.
Важно понимать масштаб происходящего. Речь не о том, что Meta случайно наткнулась на пиратский файл. Судебные документы показывают, что команда целенаправленно искала способы маскировки своей активности, обсуждала удаление строк с упоминаниями ISBN, Copyright, ©, All rights reserved (то есть любых явных признаков авторства и защиты прав), и и даже запрет на генерацию первых страниц книг по запросу — например, блокировали запросы типа «покажи три первые страницы “Гарри Поттера”».
Книги скачивали через BitTorrent и вот в чем фишка. Когда Meta скачивала библиотеку LibGen, она могла не только загрузить пиратские книги, но и невольно начать их раздавать другим пользователям. По законам об авторском праве это уже считается распространением нелегального контента — то есть нарушением. В Meta утверждают, что приняли меры, чтобы этого не произошло, но технически доказать это сложно. OpenAI, по слухам, тоже использовала LibGen, но пока неизвестно, как именно она загружала данные.
ИИ-компании настаивают, что обучение моделей на таких данных трансформирует тексты и потому допустимо. Но главный вопрос не столько в законе, сколько в будущем авторства. Если миллиарды долларов будут зарабатываться на переработке чужих работ без согласия авторов — кто вообще станет писать книги, проводить исследования или делиться знаниями?
Meta и OpenAI уверяют, что их модели помогут науке. Вот только кто захочет бесплатно делиться знаниями с теми, кто обещает отобрать у них работу - вопрос со звездочкой.
Хотя американские медиа вот согласились. Может, и среди остальных найдутся наивные.
The Atlantic
The Unbelievable Scale of AI’s Pirated-Books Problem
Meta pirated millions of books to train its AI. Search through them here.
👍3
Чипы для Европы
Девять стран, включая Германию, Францию и Нидерланды, продвигают программу поддержки полупроводниковой индустрии Chips Act 2.0. Инициатива сосредоточена на поддержке проектирования, производства, исследований и разработок, материалов и оборудования для полупроводников в ЕС.
Новая программа является ответом Европы на активную политику США по переносу производства чипов на свою территорию. Влияет и риторика Трампа, которая вызывает опасения, что глава Белого дома может по примеру Китая отрезать Европу от передовых полупроводников.
Подобная поддержка уже не первая для ЕС. Прошлая инициатива (Chips Act 1.0) стартовала в 2023 г. и включала в себя субсидии на сумму в 43 млрд евро. Несмотря на предотвращение спада в европейской промышленности, первая программа считается малорезультативной из-за недостаточной государственной поддержки по сравнению с США и Китаем, а также медлительности евробюрократии.
Chips Act 2.0 является частью стратегии ЕС по участию в «Гонке за ИИ», которую анонсировала председатель Еврокомиссии Урсула фон дер Ляйен. Однако уже сейчас есть сомнения, что новая инициатива не повторит судьбу предыдущей, ведь для этого необходимо будет перестроить механизм принятия решений в ЕС, а также найти сопоставимое с конкурентами финансирование.
#ainews #chips
Девять стран, включая Германию, Францию и Нидерланды, продвигают программу поддержки полупроводниковой индустрии Chips Act 2.0. Инициатива сосредоточена на поддержке проектирования, производства, исследований и разработок, материалов и оборудования для полупроводников в ЕС.
Новая программа является ответом Европы на активную политику США по переносу производства чипов на свою территорию. Влияет и риторика Трампа, которая вызывает опасения, что глава Белого дома может по примеру Китая отрезать Европу от передовых полупроводников.
Подобная поддержка уже не первая для ЕС. Прошлая инициатива (Chips Act 1.0) стартовала в 2023 г. и включала в себя субсидии на сумму в 43 млрд евро. Несмотря на предотвращение спада в европейской промышленности, первая программа считается малорезультативной из-за недостаточной государственной поддержки по сравнению с США и Китаем, а также медлительности евробюрократии.
Chips Act 2.0 является частью стратегии ЕС по участию в «Гонке за ИИ», которую анонсировала председатель Еврокомиссии Урсула фон дер Ляйен. Однако уже сейчас есть сомнения, что новая инициатива не повторит судьбу предыдущей, ведь для этого необходимо будет перестроить механизм принятия решений в ЕС, а также найти сопоставимое с конкурентами финансирование.
#ainews #chips
🔥1
Forwarded from VODоворOTT
Фейковые ИИ-трейлеры — тайный источник заработка киностудий
Если рекомендации YouTube подкидывают вам странные трейлеры новинок (вроде неанонсированной третьей части "Головоломки", нового "Человека-Паука" или финала "Игры в кальмара") — поздравляем, вы тоже поучаствовали в теневой схеме обогащения крупных голливудских киностудий. На видеохостинге орудует целая сеть каналов, которая выпускает ненастоящие ролики о фильмах и сериалах. При сборке своих видео они используют искусственный интеллект, пытаясь создать максимально правдоподобный образ ожидаемого проекта и набрать на нем просмотры. И получается! У фейкового трейлера "Супермена" Джеймса Ганна на данный момент 313 тыс. просмотров, а у третьего сезона "Кальмара" под 12 млн.
Сложно представить, сколько такое творчество, паразитирующее на хайпе, приносит с рекламы. Точно известно, что речь идет о миллионах долларов, на которые создатели таких ИИ-шедевров покупают себе топовые суперкары и пентхаусы в Дубае. Но самое удивительное, что крупные голливудские студии даже не думают удалять такой контент. Авторские права отходят на второй план, когда юристы находят своим заказчикам еще один источник заработка. Вместо блокировки видеороликов функционеры Paramount, Warner Bros. Discovery и Sony просто решили облагать такой контент теневым налогом. И вуаля — ненастоящий трейлер уже включен в бизнес-план: можно получить дополнительные деньги буквально из воздуха еще до анонса новинки. Гениально, хоть и немного мерзко.
Если рекомендации YouTube подкидывают вам странные трейлеры новинок (вроде неанонсированной третьей части "Головоломки", нового "Человека-Паука" или финала "Игры в кальмара") — поздравляем, вы тоже поучаствовали в теневой схеме обогащения крупных голливудских киностудий. На видеохостинге орудует целая сеть каналов, которая выпускает ненастоящие ролики о фильмах и сериалах. При сборке своих видео они используют искусственный интеллект, пытаясь создать максимально правдоподобный образ ожидаемого проекта и набрать на нем просмотры. И получается! У фейкового трейлера "Супермена" Джеймса Ганна на данный момент 313 тыс. просмотров, а у третьего сезона "Кальмара" под 12 млн.
Сложно представить, сколько такое творчество, паразитирующее на хайпе, приносит с рекламы. Точно известно, что речь идет о миллионах долларов, на которые создатели таких ИИ-шедевров покупают себе топовые суперкары и пентхаусы в Дубае. Но самое удивительное, что крупные голливудские студии даже не думают удалять такой контент. Авторские права отходят на второй план, когда юристы находят своим заказчикам еще один источник заработка. Вместо блокировки видеороликов функционеры Paramount, Warner Bros. Discovery и Sony просто решили облагать такой контент теневым налогом. И вуаля — ненастоящий трейлер уже включен в бизнес-план: можно получить дополнительные деньги буквально из воздуха еще до анонса новинки. Гениально, хоть и немного мерзко.
Deadline
Inside YouTube’s Weird World Of Fake Movie Trailers — And How Studios Are Secretly Cashing In On The AI-Fueled Videos
YouTube is flooded with fake movie trailers following AI's rise — and studios are making money out of bogus videos for 'Superman' and 'Gladiator.'
🤔1😱1
Глобальное управление ИИ требует гибкости
В феврале этого года в Париже прошел глобальный саммит по ИИ (AI Action Summit). Основное внимание общественности он привлек тем, что США и Великобритания отказались подписывать его итоговую декларацию. Однако через пару месяцев стало понятно - подобная ситуация является важным свидетельством необходимости смены подхода к глобальному диалогу об ИИ.
Начнем с того, что итоговая декларация в Париже была подписана 80 странами, включая страны ЕС, Китай, Индию. Демарш же Вашингтона и Лондона был воспринят как формирование нового политического разлома в глобальной повестке, столь удачно совпавшего с приходом Трампа во власть. Однако нужно немного углубиться в суть этой линейки саммитов.
Французская встреча стала уже третьим глобальным мероприятием по ИИ, фокусирующимся на теме безопасного развития ИИ. Предыдущие саммиты в Блетчли (Великобритания) и в Сеуле уделяли особое внимание выработке конкретных обязывающих норм, которые формируют непосредственно участники экосистемы ИИ – техногиганты (Nvidia, Amazon и др.) и лидирующие страны (США и союзники).
Парижский саммит пошел по иному пути. AI Action Summit стал масштабным четырехдневным мероприятием, куда были приглашены как представители от бизнеса и государства, так и от экспертных и общественных структур. По аналогии с климатическими саммитами, участники могли принять участие во множестве различных дискуссий.
Как отмечают наблюдатели, Саммит показал миру стратегию третьего пути в управлении ИИ (помимо существующих американского и китайского), предполагающую расширение трактовки безопасности ИИ с исключительно технической плоскости до тем социальной справедливости и цифрового неравенства.
Таким образом, суть мероприятия заключается не в его итоговых документах, а в оформившемся новом подходе к глобальному развитию ИИ.
Раз формирование комплексных политических обязательств является проблематичным, то необходимо сосредотачиваться на том, что является возможных. Именно ученые и гражданское общество имеют больший потенциал для нахождения консенсуса по точечным вопросам развития ИИ.
Развивая эту идею, в недавнем докладе Оксфордского университета был предложен новый подход к организации следующих саммитов по безопасности ИИ. По мнению авторов, необходимо проводить не один, а два саммита с разными фокусами:
#aigovernance
В феврале этого года в Париже прошел глобальный саммит по ИИ (AI Action Summit). Основное внимание общественности он привлек тем, что США и Великобритания отказались подписывать его итоговую декларацию. Однако через пару месяцев стало понятно - подобная ситуация является важным свидетельством необходимости смены подхода к глобальному диалогу об ИИ.
Начнем с того, что итоговая декларация в Париже была подписана 80 странами, включая страны ЕС, Китай, Индию. Демарш же Вашингтона и Лондона был воспринят как формирование нового политического разлома в глобальной повестке, столь удачно совпавшего с приходом Трампа во власть. Однако нужно немного углубиться в суть этой линейки саммитов.
Французская встреча стала уже третьим глобальным мероприятием по ИИ, фокусирующимся на теме безопасного развития ИИ. Предыдущие саммиты в Блетчли (Великобритания) и в Сеуле уделяли особое внимание выработке конкретных обязывающих норм, которые формируют непосредственно участники экосистемы ИИ – техногиганты (Nvidia, Amazon и др.) и лидирующие страны (США и союзники).
Парижский саммит пошел по иному пути. AI Action Summit стал масштабным четырехдневным мероприятием, куда были приглашены как представители от бизнеса и государства, так и от экспертных и общественных структур. По аналогии с климатическими саммитами, участники могли принять участие во множестве различных дискуссий.
Как отмечают наблюдатели, Саммит показал миру стратегию третьего пути в управлении ИИ (помимо существующих американского и китайского), предполагающую расширение трактовки безопасности ИИ с исключительно технической плоскости до тем социальной справедливости и цифрового неравенства.
Таким образом, суть мероприятия заключается не в его итоговых документах, а в оформившемся новом подходе к глобальному развитию ИИ.
Раз формирование комплексных политических обязательств является проблематичным, то необходимо сосредотачиваться на том, что является возможных. Именно ученые и гражданское общество имеют больший потенциал для нахождения консенсуса по точечным вопросам развития ИИ.
Развивая эту идею, в недавнем докладе Оксфордского университета был предложен новый подход к организации следующих саммитов по безопасности ИИ. По мнению авторов, необходимо проводить не один, а два саммита с разными фокусами:
Первый будет сосредоточен на вопросах передового развития ИИ, который бы рассматривал вопросы управления будущими рисками развития ИИ. Этот Саммит как раз стал наследником политически обязывающих первых двух саммитов с участием узкого круга сторон.Для убедительности, авторы ссылаются на опыт Женевской конференции 1955 года, в которой были заложены основы международного ядерного управления. Тогда именно вовлечение технических экспертов к обсуждению позволило дипломатам найти аргументы для формирования политического консенсуса, который все еще играет значимую роль в развитии мирного атома.
Второй же Саммит должен быть сосредоточен на вопросах, уже существующих здесь и сейчас проблем, которые требуют обсуждения среди более широкого круга заинтересованных сторон.
#aigovernance
👍3
Forwarded from Homo Politicus. Мария Сергеева
Новые политические технологии в действии.
Мэр Стамбула физически в СИЗО, но при этом выступает на митингах и на видеообращениях при помощи сгенерированного ИИ-аватара. Речи, разумеется собственные, не сгенерированные (ну, или написанные политконсультантами).
Таким образом, популярный политик не выпадает из политической повестки и поддерживает своих протестующих сторонников.
Да и ИИ-аватар - это всегда хорошее освещение, бодрый внешний вид, отточенные жесты и речь без запинки) Удобно!
Мэр Стамбула физически в СИЗО, но при этом выступает на митингах и на видеообращениях при помощи сгенерированного ИИ-аватара. Речи, разумеется собственные, не сгенерированные (ну, или написанные политконсультантами).
Таким образом, популярный политик не выпадает из политической повестки и поддерживает своих протестующих сторонников.
Да и ИИ-аватар - это всегда хорошее освещение, бодрый внешний вид, отточенные жесты и речь без запинки) Удобно!
Telegram
Послезавтра
Один из самых необычных для российского наблюдателя сюжетов - это плотность контактов мэра Стамбула Имамоглу и других обвиняемых, находящихся в тюрьме Силиври. Строго говоря, люди находятся в СИЗО, но поток посетителей к ним нескончаем, причем если родственники…
🔥2