ПолитИИзация
393 subscribers
146 photos
30 videos
3 files
159 links
ИИ - новая нефть. Попробуем разобраться, как её будут использовать.

Веду его я, аналитик международного развития ИИ Антон Тамарович
Download Telegram
В борьбе за ИИ-лидерство все законы хороши

С приходом Трампа к власти началась подготовка «Плана действий по ИИ», который должен быть выпущен в июле 2025. Создатель ChatGPT, компания OpenAI также участвует в подготовке, а ряд её предложений явно стоят внимания.

Компания продолжает парадоксальную тенденцию, когда бизнес просит государство заняться регулирование ИИ-сферы.
Но хитрость в деталях и внутреннем устройстве страны.
Первое предложение — OpenAI предлагает Трампу принять федеральный закон, ключевая задача которого в отмене региональных норм, касающиеся ИИ.

Американские ИИ-компании сталкиваются с трудностями из-за множества законов штатов, регулирующих отрасль, утверждает OpenAI. Только в 2025 году было предложено более 800 подобных актов. Есть опасения, что некоторые из них, схожие со строгими нормами ЕС, будут тормозить развитие ИИ, поэтому их нужно отменить.
Второе предложение – принять ряд правовых мер для защиты американских ИИ-компаний и от международных законов.
Для этого США должны как продумать внутренние нормы, так и влиять на международные правила в области авторского права и ИИ, чтобы избежать ограничений со стороны других стран.
Третье предложение — дать ИИ-компаниям доступ к максимальному количеству данных, даже если это вызывает недовольство правообладателей.
Для этого OpenAI предлагает правительству США проверять, не ограничивают ли другие страны доступ американских компаний к важным данным.

Обоснование всем этим предложениям простое - быстрый прогресс Китая ставит под угрозу лидерство Америки в области передового ИИ. Для этого нужно предоставить больше свободы для обучения искусственного интеллекта, иначе Китай получит преимущество, так как сможет использовать данные, защищенные авторским правом, к которым у американских компаний нет доступа.

Для закрепления внешнеполитического обоснования небывалой регуляторной либерализации OpenAI считает необходимым ввести запрет на использование китайских моделей.

Вот такой протекционизм со стороны ИИ-лидера. Посмотрим, что смогут предложить сторонники перехода к открытому ПО.

#aitrends #airegulation
🔥2👍1
Forwarded from Кибервойна
Промты общественной значимости

В Великобритании журналисты легально получили историю использования ChatGPT одним из министров. Питер Кайл, министр по науке, инновациям и технологиям, упомянул в одном из интервью, что часто использует ChatGPT. После этого издание New Scientist попробовало узнать, о чём именно чиновник общался с чатботом, использовав для этого запрос по закону о свободе информации. Сначала из министерства поступил общий ответ, что Кайл использует ChatGPT как в личном, так и в официальном качестве. Журналисты направили повторный запрос о предоставлении вопросов (промтов) и ответов, относящихся к использованию сервиса министром в официальном качестве. И этот запрос был удовлетворён.

В статье приводится несколько примеров запросов. Кайл узнавал у ChatGPT, почему британский бизнес медленно осваивает ИИ, в каких подкастах ему стоит выступить, а также уточнял значение терминов, относящихся к сфере ответственности его ведомства, таких как антиматерия, квант (или квантовый) и цифровая инклюзивность — два сторонних эксперта по просьбе журналистов оценили определение кванта как на удивление хорошее и неплохое.

Представитель Министерства по науке, инновациям и технологиям заявил изданию, что правительство использует ИИ в качестве инструмента, сберегающего трудовые ресурсы, и руководствуется чёткими правилами быстрого и безопасного использования этой технологии.

Также в статье отмечается, что у опрошенных специалистов нет единого мнения насчёт того, как (с точки зрения запросов о свободе информации) квалифицировать историю переписки с ChatGPT: ближе к переписке по электронной почте и WhatsApp, которые, как правило, выдаются по запросу, или ближе к истории поисковика, которую ведомства наоборот склонны не предоставлять в ответ на такие запросы.
👍1🔥1
Forwarded from Нецифровая экономика (🐈Egor Sonin)
Как Meta и OpenAI тренировали ИИ на российской пиратской библиотеке

Чтобы построить конкурентный искусственный интеллект, нужно много данных. Очень много. Когда инженеры из экстремистской Meta начали работу над Llama 3 — языковой моделью, которая должна была тягаться с ChatGPT, — они столкнулись с неприятной дилеммой: либо платить за книги и научные статьи, либо просто… украсть их. В итоге они выбрали второй вариант — и пошли на LibGen.

LibGen — это огромная пиратская библиотека, в которой сегодня более 7,5 млн книг и 81 млн научных публикаций. Она была создана в районе 2008 года предположительно группой российских ученых, которые преследовали цель открыть знания соотечественникам (в 10-е для этой же цели появился Sci-Hub). Однако в отличие от последнего LibGen в итоге эволюционировал до библиотеке со всеми типами книг — от профессиональных до беллетристики. Именно туда и ринулась Meta.

Для компании это имело смысл, так как экономила косты — получение легальной лицензии заняло бы около месяца для каждой книги, тогда как на LibGen было доступно все бесплатно. «Нам нужно получить книги как можно быстрее», — писал один из менеджеров. Судя по документам, разрешение на скачивание пришло от “MZ” — вероятно, Марка Цукерберга.

Документы, ставшие основой этого расследования, были опубликованы в рамках коллективного иска, поданного против Meta группой американских писателей. Авторы утверждают, что их книги незаконно использовались для обучения LLM без согласия и роялти. Параллельно идут аналогичные процессы и против OpenAI — обе компании пытаются защититься, ссылаясь на доктрину "fair use", которая допускает некоммерческое использование защищённых авторским правом материалов для трансформации в нечто новое.

Важно понимать масштаб происходящего. Речь не о том, что Meta случайно наткнулась на пиратский файл. Судебные документы показывают, что команда целенаправленно искала способы маскировки своей активности, обсуждала удаление строк с упоминаниями ISBN, Copyright, ©, All rights reserved (то есть любых явных признаков авторства и защиты прав), и и даже запрет на генерацию первых страниц книг по запросу — например, блокировали запросы типа «покажи три первые страницы “Гарри Поттера”».

Книги скачивали через BitTorrent и вот в чем фишка. Когда Meta скачивала библиотеку LibGen, она могла не только загрузить пиратские книги, но и невольно начать их раздавать другим пользователям. По законам об авторском праве это уже считается распространением нелегального контента — то есть нарушением. В Meta утверждают, что приняли меры, чтобы этого не произошло, но технически доказать это сложно. OpenAI, по слухам, тоже использовала LibGen, но пока неизвестно, как именно она загружала данные.


ИИ-компании настаивают, что обучение моделей на таких данных трансформирует тексты и потому допустимо. Но главный вопрос не столько в законе, сколько в будущем авторства. Если миллиарды долларов будут зарабатываться на переработке чужих работ без согласия авторов — кто вообще станет писать книги, проводить исследования или делиться знаниями?

Meta и OpenAI уверяют, что их модели помогут науке. Вот только кто захочет бесплатно делиться знаниями с теми, кто обещает отобрать у них работу - вопрос со звездочкой.

Хотя американские медиа вот согласились. Может, и среди остальных найдутся наивные.
👍3
Чипы для Европы

Девять стран, включая Германию, Францию и Нидерланды, продвигают программу поддержки полупроводниковой индустрии Chips Act 2.0. Инициатива сосредоточена на поддержке проектирования, производства, исследований и разработок, материалов и оборудования для полупроводников в ЕС.

Новая программа является ответом Европы на активную политику США по переносу производства чипов на свою территорию. Влияет и риторика Трампа, которая вызывает опасения, что глава Белого дома может по примеру Китая отрезать Европу от передовых полупроводников.

Подобная поддержка уже не первая для ЕС. Прошлая инициатива (Chips Act 1.0) стартовала в 2023 г. и включала в себя субсидии на сумму в 43 млрд евро. Несмотря на предотвращение спада в европейской промышленности, первая программа считается малорезультативной из-за недостаточной государственной поддержки по сравнению с США и Китаем, а также медлительности евробюрократии.

Chips Act 2.0 является частью стратегии ЕС по участию в «Гонке за ИИ», которую анонсировала председатель Еврокомиссии Урсула фон дер Ляйен. Однако уже сейчас есть сомнения, что новая инициатива не повторит судьбу предыдущей, ведь для этого необходимо будет перестроить механизм принятия решений в ЕС, а также найти сопоставимое с конкурентами финансирование.

#ainews #chips
🔥1
Forwarded from VODоворOTT
Фейковые ИИ-трейлеры — тайный источник заработка киностудий

Если рекомендации YouTube подкидывают вам странные трейлеры новинок (вроде неанонсированной третьей части "Головоломки", нового "Человека-Паука" или финала "Игры в кальмара") — поздравляем, вы тоже поучаствовали в теневой схеме обогащения крупных голливудских киностудий. На видеохостинге орудует целая сеть каналов, которая выпускает ненастоящие ролики о фильмах и сериалах. При сборке своих видео они используют искусственный интеллект, пытаясь создать максимально правдоподобный образ ожидаемого проекта и набрать на нем просмотры. И получается! У фейкового трейлера "Супермена" Джеймса Ганна на данный момент 313 тыс. просмотров, а у третьего сезона "Кальмара" под 12 млн.

Сложно представить, сколько такое творчество, паразитирующее на хайпе, приносит с рекламы. Точно известно, что речь идет о миллионах долларов, на которые создатели таких ИИ-шедевров покупают себе топовые суперкары и пентхаусы в Дубае. Но самое удивительное, что крупные голливудские студии даже не думают удалять такой контент. Авторские права отходят на второй план, когда юристы находят своим заказчикам еще один источник заработка. Вместо блокировки видеороликов функционеры Paramount, Warner Bros. Discovery и Sony просто решили облагать такой контент теневым налогом. И вуаля — ненастоящий трейлер уже включен в бизнес-план: можно получить дополнительные деньги буквально из воздуха еще до анонса новинки. Гениально, хоть и немного мерзко.
🤔1😱1
Глобальное управление ИИ требует гибкости

В феврале этого года в Париже прошел глобальный саммит по ИИ (AI Action Summit). Основное внимание общественности он привлек тем, что США и Великобритания отказались подписывать его итоговую декларацию. Однако через пару месяцев стало понятно - подобная ситуация является важным свидетельством необходимости смены подхода к глобальному диалогу об ИИ.

Начнем с того, что итоговая декларация в Париже была подписана 80 странами, включая страны ЕС, Китай, Индию. Демарш же Вашингтона и Лондона был воспринят как формирование нового политического разлома в глобальной повестке, столь удачно совпавшего с приходом Трампа во власть. Однако нужно немного углубиться в суть этой линейки саммитов.

Французская встреча стала уже третьим глобальным мероприятием по ИИ, фокусирующимся на теме безопасного развития ИИ. Предыдущие саммиты в Блетчли (Великобритания) и в Сеуле уделяли особое внимание выработке конкретных обязывающих норм, которые формируют непосредственно участники экосистемы ИИ – техногиганты (Nvidia, Amazon и др.) и лидирующие страны (США и союзники).

Парижский саммит пошел по иному пути. AI Action Summit стал масштабным четырехдневным мероприятием, куда были приглашены как представители от бизнеса и государства, так и от экспертных и общественных структур. По аналогии с климатическими саммитами, участники могли принять участие во множестве различных дискуссий.

Как отмечают наблюдатели, Саммит показал миру стратегию третьего пути в управлении ИИ (помимо существующих американского и китайского), предполагающую расширение трактовки безопасности ИИ с исключительно технической плоскости до тем социальной справедливости и цифрового неравенства.

Таким образом, суть мероприятия заключается не в его итоговых документах, а в оформившемся новом подходе к глобальному развитию ИИ.
Раз формирование комплексных политических обязательств является проблематичным, то необходимо сосредотачиваться на том, что является возможных. Именно ученые и гражданское общество имеют больший потенциал для нахождения консенсуса по точечным вопросам развития ИИ.

Развивая эту идею, в недавнем докладе Оксфордского университета был предложен новый подход к организации следующих саммитов по безопасности ИИ. По мнению авторов, необходимо проводить не один, а два саммита с разными фокусами:
Первый будет сосредоточен на вопросах передового развития ИИ, который бы рассматривал вопросы управления будущими рисками развития ИИ. Этот Саммит как раз стал наследником политически обязывающих первых двух саммитов с участием узкого круга сторон.
Второй же Саммит должен быть сосредоточен на вопросах, уже существующих здесь и сейчас проблем, которые требуют обсуждения среди более широкого круга заинтересованных сторон.
Для убедительности, авторы ссылаются на опыт Женевской конференции 1955 года, в которой были заложены основы международного ядерного управления. Тогда именно вовлечение технических экспертов к обсуждению позволило дипломатам найти аргументы для формирования политического консенсуса, который все еще играет значимую роль в развитии мирного атома.

#aigovernance
👍3
Новые политические технологии в действии.

Мэр Стамбула физически в СИЗО, но при этом выступает на митингах и на видеообращениях при помощи сгенерированного ИИ-аватара. Речи, разумеется собственные, не сгенерированные (ну, или написанные политконсультантами).

Таким образом, популярный политик не выпадает из политической повестки и поддерживает своих протестующих сторонников.

Да и ИИ-аватар - это всегда хорошее освещение, бодрый внешний вид, отточенные жесты и речь без запинки) Удобно!
🔥2
С соавтором написали колонку о внедрении ИИ в гос.управление.

То, что ИИ станет важной частью государственных систем отрицать бесполезно. Однако начать думать, как сделать эту интеграцию наиболее сбалансированной, пора уже сейчас.

Некоторые вопросы из статьи:
- Какой есть международный опыт применения ИИ в государстве?
- Что нужно учитывать, чтобы человек не стал лишь параметром в алгоритмической модели?
- Почему отсутствие человеческих ценностей в "черном ящике ИИ" может негативно влиять на доверие общества к этой технологии?

Выбранный нами фокус является весьма новым как для русскоязычных, так и международных исследователей, поэтому буду рад вашим обсуждениям и репостам!

#aiopinion #aigovernment
👍1🔥1
Media is too big
VIEW IN TELEGRAM
📺 Искусственный интеллект уже заявил о себе на премии «Оскар» и постепенно меняет киноиндустрию. Как это происходит и что об этом думают сами представители индустрии — разбираемся в первом выпуске «Технорепорта». Смотрите его в Telegram, YouTube и VK Видео.

00:00 — Вступление
00:55 — Скандал с Эдриеном Броуди
01:33 — За что дают «Оскары»
02:54 — Эффект «зловещей долины»
03:47 — «В Ирландце это выглядит чудовищно»
04:46 — как Горшку вынимали зубы
06:05 — Гильдия Актеров против нейросетей
07:10 — «Зритель хочет смотреть чистые эмоции»
08:14 — Цифровые камеры против пленки
08:46 — Заменит ли ИИ людей
12:00 — Как киношники относятся к ИИ

Подписывайтесь 👉 @techno_yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
😱1
Ценности не привить инструкциями

Ученые из Массачусетского технологического института выкатили интересное исследование о наличии ценностей у ИИ. Ключевой вывод – ценностные установки свойственны человеку, в то время как ИИ руководствуется разрозненными, часто взаимоисключающими инструкциями.

Исследователи протестировали модели от Google, Mistral, OpenAI, Anthropic и ряд других, чтобы понять, в какой степени эти модели демонстрируют систему устойчивых «взглядов и предпочтений» (например, индивидуализм или коллективизм). Они также исследовали, можно ли «направлять» эти взгляды, то есть изменять их, и насколько упорно модели придерживаются этих мнений в различных сценариях.

Как итог - ни одна из моделей не была последовательной в своих предпочтениях. В зависимости от формулировок и контекста они придерживались совершенно разных точек зрения.

Как пишут авторы:
Это убедительное доказательство того, что модели крайне «непоследовательны и нестабильны» и, возможно, даже принципиально неспособны усваивать предпочтения, подобные человеческим.

Воспроизводя вложенные в ИИ алгоритмы рассуждений или реакций, он их имитирует и фактически бредит по приказу.

Так что выдыхаем, на текущей стадии развития технологии, собственной воли или интересов у ИИ не может быть.

Другой же вывод менее оптимистичен: раз ИИ меняет свои ответы в зависимости от формулировки запроса, то добиться предсказуемого поведения от ИИ-моделей через «согласование» (формирование рамок поведения ИИ через инструкции в коде - alignment) может быть сложнее, чем часто предполагается.

#airegulation #airesearch
👍3
Forwarded from ген ИИ
Дубай доказывает: ИИ в госуправлении – это не просто хайп, а рабочая стратегия!

Пока многие рассуждают о потенциале искусственного интеллекта, Дубай активно его внедряет. Свежий отчет Dubai Future Foundation и Dubai Centre for Artificial Intelligence (DCAI) подводит итоги масштабной инициативы: 33 правительственных ведомства предложили 183 идеи использования ИИ, 75 из которых были запущены как пилотные проекты! В отчете детально разобраны 15 самых показательных кейсов.

Что это значит на практике?

Это не просто чат-боты (хотя и они есть!). ИИ проникает в самую суть госуслуг, повышая их эффективность и доступность:

1️⃣ Новый уровень клиентского сервиса: ИИ-ассистенты и цифровые аватары уже обрабатывают до 80% рутинных запросов, освобождая людей для сложных задач. Представьте: время ответа сокращается на 70%, а точность растет!
2️⃣ Персонализированная медицина: ИИ анализирует геномные данные и электронные медкарты, помогая создавать индивидуальные планы лечения (особенно для хронических заболеваний) и повышая точность диагностики на 40%.
3️⃣ Решение нетривиальных задач:
🔺 Поиск потерянных вещей: ИИ-системы распознают предметы по фото или описанию, увеличивая шансы на возврат втрое.
🔺 Сохранение истории: ИИ помогает распознавать и оцифровывать древние рукописи (даже поврежденные или на редких языках), автоматизируя до 80% задач и делая наследие доступным.
🔺 Умный город: От архитектурного проектирования до повышения точности оценки недвижимости с помощью ИИ (до 85%!) – технологии работают на городскую среду.

Экспертный взгляд: 🧐

Ключевое здесь – системный подход. Дубай не просто "играет" с ИИ, а целенаправленно интегрирует его в инфраструктуру госуправления. Создание DCAI, запуск акселератора, фокус на измеримых результатах – всё это говорит о стратегической ставке на ИИ как на инструмент реальной трансформации. Речь идет о создании умного государства, способного быстрее и качественнее реагировать на нужды граждан и бизнеса. Потенциальный экономический вклад ИИ для ОАЭ оценивается почти в 14% ВВП к 2030 году!

Что дальше?

Дубай демонстрирует впечатляющий масштаб и последовательность, претендуя на глобальное лидерство в ИИ-управлении. Это мощный пример того, как можно переходить от теории к практике.

Какие из этих кейсов кажутся вам наиболее прорывными или применимыми в вашем контексте? 👇 Обсудим в комментариях!

Подробнее:
dubaifuture

#кейсы

@gen_i_i
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥1
Китай объявил о стремлении возглавить гонку ИИ

Выступая на заседании Политбюро Председатель КНР Си Цзиньпин объявил ИИ стратегическим приоритетом, призвав Китай возглавить эту преобразующую мир сферу и пообещал «полагаться на собственные силы и укреплять себя» для развития ИИ в Китае.

Достижение этой цели потребует использования уникальной китайской системы мобилизации ресурсов для внедрения инноваций в сфере ИИ, акцента на самодостаточности и развитии, ориентированном на практическое применение в различных отраслях.

Для этого государство будет оказывать поддержку развития отечественных ИИ-чипов, программного обеспечения и подготовки кадров, а также обязуется увеличивать финансирование исследований

- заявил китайский лидер.

Стремление Китая к лидерству в сфере ИИ разворачивается на фоне усиливающегося технологического соперничества между США и Китаем.

Штаты последовательно вводят специальные ограничения на сотрудничество с Китаем, а также ужесточили экспортный контроль над передовыми полупроводниками и технологиями ИИ.

В ответ Китай удвоил усилия по внедрению инноваций внутри страны, а такие компании, как Huawei и Baidu, добились успехов в разработке чипов ИИ, несмотря на западные санкции.

Запреты на поставку чипов, в действительности «перезарядили» инновации в области ИИ в Китае, подталкивая к развитию внутренних решений и приложений, например, основанных на DeepSeek.

Для дополнительной поддержки отрасли Банк Китая в начале 2025 года объявил о пятилетней программе поддержки ИИ отрасли на 1 трлн юаней.

Экспертами отмечается, что сосредоточенность Китая на прикладных технологиях ИИ, таких как распознавание лиц и «умные» города, дала ему преимущество в реальном применении ИИ, даже если он отстаёт в фундаментальных исследованиях.

Можно сказать, что суть американо-китайской ИИ-гонки не ограничивается желанием получить новую технологию первым. Напротив, на первый план выходит задача придумать, как эффективнее применить ИИ на практике.

#ainews #aidevelopment
Forwarded from Глебсмит
Спецкомитет Конгресса США по стратегической конкуренции с Китаем издал доклад о "неисчислимых преступлениях" DeepSeek, на основе которого алгоритм скорее всего заблокируют в США, а может и в Европе. Доклад интересен не перечислением обид американских компаний во главе с OpenAI, а тем, как американцы формулируют принципы и подходы китайской конкуренции с ними в целом. 

По порядку.
Претензии к собственно DeepSeek:


▪️Передает данные американских пользователей в Китай через инфраструктуру, связанную с военными китайскими компаниями; Важный акцент, потому что фактически обвиняет создателей алгоритма в участии в китайском ВПК;

▪️Манипулирует и цензурирует информацию в соответствии с пропагандой Коммунистической партии Китая (КПК). Это смешная претензия, учитывая что "нейтральных" ИИ-инструментов нет и быть не может. Все они так или иначе "манипулируют и цензурируют", сообразуясь с ценностями и задачами разработчиков;

▪️Использует методы "дистилляции моделей" для кражи американских ИИ-моделей и прежде всего ChatGPT. Доказательство: письмо из OpenAI, в котором они жалуются, что никогда бы китайцы ничего подобного не изобрели, если бы не украили. 
Использует передовые чипы Nvidia, экспорт которых в Китай ограничен. По "оценке", у хозяев DeepSeek есть целых 60000 чипов, импортированных через Сингапур в обход ограничений.

Суть, если верить американцам, вырисовывается такая. Согласно "китайской мифологии" DeepSeek - уникальная разработка, сделанная "значительно дешевле", чем американские аналоги, и не использующая чипы, создающие гигантское энергопотребление и себестоимость моделей. Американцы – не приводя впрочем никаких доказательств кроме оценок своих компаний говорят – нет. DeepSeek это "китайская копия" OpenAI, в инфраструктуру которой вкачаны десятки млрд долларов, а "мозги" – просто были украдены из альтмановских патентов.
 
Но❗️доклад изображает DeepSeek как часть более широкой схемы китайских усилий по подрыву технологического лидерства США.

Из чего она состоит?
1⃣ Создание компаний со сложной структурой собственности, маскирующей связи с государством и армией. Использование формально "частных" компаний, которые фактически действуют в интересах государства. Плюс размещение производств и НИИ в специальных инновационных зонах – что-то вроде наших "иннополисов", где по сути  полувоенные компании имеют возможность развиваться в инновационной среде бок о бок с иностранцами, "опыляясь" их корпоративной культурой и подходами.

2⃣ Многоуровневая стратегия обхода экспортного контроля США. Тут все более менее понятно -  организация контрабандных сетей через третьи страны плюс сложные банковские каналы для сокрытия происхождения и движения денег. Интересно, что через ЮВАО, по мнению американцев, китайцы получают не просто "контрабандный товар", а промышленное количество чипов, использование которых позволяет им конкурировать на равных.

3⃣ Кража американских технологий через "дистилляцию моделей" — техника извлечения возможностей существующих ИИ-моделей. Отдельным пунктом -  массовая покупка аккаунтов американских ИИ-систем для изучения их работы.

4⃣ Интеграция с китайской государственной инфраструктурой наблюдения и сбора персональных данных по всему миру; при этом все компании, участвующие в этом деле интегрированы в единую государственную систему использования и хранения данных. Грубо говоря, не важно каким сервисом китайского происхождения ты пользуешься – ездишь ли на BYD, имеешь ли телефон Хуайвэй или задаешь вопросы DeepSeek – твои данные хранятся в Китае под единым управлением и контролем и предоставляются китайским компаниям по необходимости.

5⃣ Использование открытой модели распространения для захвата максимальной доли рынка. То есть, там где американцы предлагают подписку за деньги, что естественно ограничивает рост числа пользователей, китайцы просто пылесосят данные. Их "прибыль" – собственно данные и максимальное распространение моделей.

Ну и результат – если в начале ИИ-гонки США опережали китайцев на годы, то сегодня разрыв сократился до 3 месяцев.
Как взлом шифровальной машины «Энигма» стал точкой отсчёта для искусственного интеллекта и приблизил победу над гитлеровской Германией

В столь важный для всех нас день вспомним знаковый сюжет, как победа в интеллектуальном противостояния прямо отразилось на ходе событий на поле боя.

История взлома шифровальной машины «Энигма» во время Второй мировой войны — это не только сюжет фильма «Игра в имитацию» и рассказ о британском математике Алане Тьюринге, но и поворотный момент в истории науки, определивший будущее искусственного интеллекта.

Военные победы напрямую зависели от того, кто быстрее и точнее владеет информацией. Немецкое командование полагало, что их приказы, закодированные с помощью «Энигмы», не поддаются взлому (с числом вариантов порядка 10^19, вручную такую задачу решить невозможно).

Команда Тьюринга смогла создать машину, обрабатывающую тысячи комбинаций в секунду — один из первых прототипов компьютера. Благодаря этому союзники ежедневно читали самые секретные сообщения врага, спасая миллионы жизней и, по оценкам историков, приблизили победу минимум на два года.

Но роль этой победы гораздо шире, чем просто военная заслуга. Взлом «Энигмы» стал триумфом новых подходов в логике и вычислениях: чтобы найти ключ к шифру, понадобились не просто хитроумные идеи, а строго выстроенные алгоритмы, которые машина могла реализовывать быстрее, чем любой человек. Именно тогда родилась идея автоматизации логического анализа и поиска решений — фундамент современного программирования и компьютерных наук.

Именно Тьюринг придумал основу современного программирования, вычислительных машин и вообще задал вопрос — где граница между человеком и интеллектуальной машиной. Он одним из первых задался вопросом (тот самый тест Тьюринга, который проходил каждый из нас при вводе капчи) — испытывал ли бы человек разницу, общаясь с машиной? сможет ли искусственный разум думать и учиться наравне с человеком?

Конечно, взлом Энигмы, это еще не совсем ИИ. Но без логики, алгоритмов, автоматизации поиска эмпирического решения задачи, без самих понятий вычислимости, автоматизации анализа, которые были применены Тьюрингом — не было бы и современного ИИ.

#aihistory
4🔥1🤝1
ИИ НА ГОССЛУЖБЕ
#ИИ #USA

Власти США готовятся заменить 70 000 чиновников ИИ-агентами.

Об этом на днях сообщило издание WIRED, ссылаясь на внутреннюю переписку стартапа AccelerateX.

Бывший сотрудник Palantir и сооснователь стартапа AccelerateX Энтони Янчсо объявил о наборе специалистов для проекта, связанного с внедрением ИИ-агентов в рабочие процессы федеральных ведомств.

По его словам, уже выявлено более 300 типов ролей с высокой степенью стандартизации, что позволит перераспределить задачи, эквивалентные 70 000 штатным должностям.

Проект, напрямую связанный с DOGE — созданным при администрации Трампа Департаментом правительственной эффективности, — вызвал резкую критику, включая обвинения в массовом увольнении чиновников ради «автозамены».

Эксперты же считают реализацию столь масштабной замены крайне затруднительной, указывая на слабую надёжность ИИ-выходных данных и разнообразие регламентов внутри ведомств.

T.ly/xjpyB
🤔1
Forwarded from Кибервойна
Реформа ДМИБ

В МИДе готовят реформу Департамента международной информационной безопасности (ДМИБ), заявил Сергей Лавров в ответ на вопрос про искусственный интеллект и дипломатию:

«Скажу вам, что в нашем Министерстве у нас есть Департамент международной информационной безопасности, занимающийся кибербезопасностью, но это «уже», чем искусственный интеллект. Мы хотим этот департамент реформировать. Запланировали в течение месяца-полутора специальное заседание Коллегии МИД России. Сейчас мои сотрудники готовят его».

ДМИБ, недавно отметивший пятилетие, фокусируется на переговорах по теме информационной безопасности и проблематики искусственного интеллекта касался разве что в этом контексте. Хотя некоторые российские дипломаты и исследователи и высказывали мнение, что вопросы, связанные с ИИ, должны рассматриваться как составная часть российской политики в области международной информационной безопасности. На уровне МИД главного «ответственного за ИИ» пока не определили — на протяжении нескольких лет вопросы, связанные с этими технологиями появляются на повестке дня разных структурных подразделений. Так, Департамент по вопросам нераспространения и контроля над вооружениями занимается переговорами по смертоносным автономным системам, Комиссия по делам ЮНЕСКО — вопросами этики ИИ, а по контентным и политическим аспектам ИИ всё чаще высказывается директор Департамента информации и печати Мария Захарова.

Предположу, что реформирование ДМИБ будет направлено на расширение его «портфеля» и назначение главным по цифровым технологиям вообще, а не только по безопасности. В этом случае и название департамента может поменяться.
👍3
Китай запускает ИИ в космос

В конце прошлого года писал про ожидания на 2025 год. В списке была экзотическая идея про перенос центров обработки данных ИИ в космос. И теперь это уже не идея, а реальность – Китай начинает сборку суперкомпьютера с ИИ в космосе.

В мае 2025 года страна запустила 12 спутников, которые сформируют «Созвездие трёх тел для вычислений» — амбициозный китайский проект по созданию глобальной орбитальной спутниковой системы, предназначенной для распределенных вычислений, использующей преимущества неограниченного доступа к солнечной энергии и более низких требований к охлаждению в космосе.
Каждый спутник оснащён вычислительными системами (позволяющих запускать относительно сложные приложения на основе ИИ) и высокоскоростными лазерными каналами связи, что позволяет обрабатывать данные непосредственно в космосе.

Это значительный шаг вперед по сравнению с традиционными методами, при которых спутники собирают данные и передают их на Землю для обработки, в результате чего менее 10% собранных данных обычно возвращаются на Землю, часто со значительными задержками.

При совместной работе 12 спутников совокупная вычислительная мощность составляет 5 петаопераций в секунду (POPS). Для сравнения: cуперкомпьютер El Capitan в Калифорнии, который в прошлом году был признан самым мощным в мире, имеет вычислительную мощность примерно 1,72 POPS.

Самое поразительное, для полного развертывания этой Сети Китай планирует вывести на орбиту 2800 (!) спутников. При полной реализации эта система может достичь вычислительной мощности в 1000 POPS.

Инициативы Китая подстегивают глобальный интерес к орбитальным вычислениям. Компания Lonestar Data Holdings из Флориды предложила разместить центры обработки данных на Луне. Тем временем компания Starcloud из штата Вашингтон планирует запустить в этом месяце спутниковый центр обработки данных.

Стоит отметить, что сами идеологи переноса вычислений в космос говорят о множестве подводных камней - от устойчивости подобных систем (как их чинить? как обеспечить защиту данных?) до их целесообразности (вдруг уже скоро нужны будут совершенно новые подходы к работе с данными и ИИ, нереализуемые в космосе).

#aitrends #aispace
👍1🔥1
Google выпустил новую нейронку Veo 3 и вырвалcя вперед в задачах генерации видео

Чтобы показать, насколько продвинулся искусственный интеллект, разработчики решили повторить легендарное сгенерированное видео, где Уилл Смит ест спагетти.

Прошло всего два года, а разница между старой и новой генерацией — колоссальная. Полностью сгенерированное кино уже на пороге.
🔥3
Вопрос влияния ИИ на образовательный процесс - очень интересная лично для меня тема. Пока подтверждаются наши прогнозы годичной давности.

Чем больше ИИ используют студенты как костыль/ускоритель- тем ценнее проверка не фактов, а умения размышлять и аргументировать в реальном времени, устные ответы и контрольные в докомпьютерной версии.

В определенном смысле университет возвращается в прошлое. В таком ВУЗе качество общения профессора со студентами будет определять ценность образования. А не набор фактов и примитивных аналитических упражнений, с которыми ИИ уже вполне освоился.

Важно понимать, что везде, где студент готов заменить свой труд ИИ, работодатель также заменит сотрудника.

Так что, думаю, образовательная стратегия ближайшего будущего - шлифовка лучших человеческих навыков, а не перегонки с GPT.
👍2