Военный ИИ в разы превосходит людей по двум показателям.
И в штабе ВВС США они хорошо известны: уязвимость и самонадеянность.
В своем официальном выступлении генерал-майор Дэниел Симпсон (помощник заместителя начальника штаба по разведке, наблюдению и рекогносцировке Штаб-квартиры ВВС США) лишь озвучил три хорошо известных для американских военных факта.
1. Не самая высокая точность алгоритмов военных ИИ (из-за дефицита обучающих данных, несопоставимого, например, с морем данных для самоуправляемых авто) – это еще не самое плохое.
2. Куда хуже, что попытки преодолеть дефицит данных, используя небольшие наборы с локальной спецификой или синтетические – искусственно сгенерированные данные), делают военный ИИ крайне уязвимым. Т.е. малейшее отличие данных реальной военной ситуации (например, смена угла зрения) от ситуаций, на которых учился ИИ, ведет к катастрофическому снижению точности решений и действий ИИ.
3. Такую потерю точности люди прекрасно видят. Но в отличие от них, военный ИИ продолжает считать, что он - «верная рука – друг индейцев». В примере экспериментальных стрельб, приведенном генералом Симпсоном, ИИ продолжал считать свою точность 90%, даже когда по факту она была всего лишь 25%.
Подробней здесь https://www.defenseone.com/technology/2021/12/air-force-targeting-ai-thought-it-had-90-success-rate-it-was-more-25/187437/
Этот (как и вчерашний) пост приурочен к открывающейся завтра международной конференции. Теоретически, человечество уже на следующей неделе могло бы принять решение двигаться к юридически обязывающему запрету на автономное оружие с ИИ.
Но на практике, этого скорее всего не будет из-за нежелания США и ряда других стран пойти на полный запрет.
Целью же этого поста было подчеркнуть, что несовершенство и уязвимость любых разновидностей автономного ИИ оружия, в сочетании с их нечеловеческой аморальностью и самонадеянностью, - прокладывают путь к таким массовым убийствам, за которые и осудить будет некого. Ибо главное преимущество ИИ не в уровне его интеллекта. А в том, что он неподсуден.
• Специалисты по ИИ это знают и 73% опрошенных среди них против автономного ИИ оружия.
• Военные (судя по тому, что сказал генерал Симпсон) тоже в курсе того, насколько это неэффективно и опасно.
Получается, что против запрещения автономного ИИ оружия лишь политики?
#Война #ИИ #БПЛА #AWS
И в штабе ВВС США они хорошо известны: уязвимость и самонадеянность.
В своем официальном выступлении генерал-майор Дэниел Симпсон (помощник заместителя начальника штаба по разведке, наблюдению и рекогносцировке Штаб-квартиры ВВС США) лишь озвучил три хорошо известных для американских военных факта.
1. Не самая высокая точность алгоритмов военных ИИ (из-за дефицита обучающих данных, несопоставимого, например, с морем данных для самоуправляемых авто) – это еще не самое плохое.
2. Куда хуже, что попытки преодолеть дефицит данных, используя небольшие наборы с локальной спецификой или синтетические – искусственно сгенерированные данные), делают военный ИИ крайне уязвимым. Т.е. малейшее отличие данных реальной военной ситуации (например, смена угла зрения) от ситуаций, на которых учился ИИ, ведет к катастрофическому снижению точности решений и действий ИИ.
3. Такую потерю точности люди прекрасно видят. Но в отличие от них, военный ИИ продолжает считать, что он - «верная рука – друг индейцев». В примере экспериментальных стрельб, приведенном генералом Симпсоном, ИИ продолжал считать свою точность 90%, даже когда по факту она была всего лишь 25%.
Подробней здесь https://www.defenseone.com/technology/2021/12/air-force-targeting-ai-thought-it-had-90-success-rate-it-was-more-25/187437/
Этот (как и вчерашний) пост приурочен к открывающейся завтра международной конференции. Теоретически, человечество уже на следующей неделе могло бы принять решение двигаться к юридически обязывающему запрету на автономное оружие с ИИ.
Но на практике, этого скорее всего не будет из-за нежелания США и ряда других стран пойти на полный запрет.
Целью же этого поста было подчеркнуть, что несовершенство и уязвимость любых разновидностей автономного ИИ оружия, в сочетании с их нечеловеческой аморальностью и самонадеянностью, - прокладывают путь к таким массовым убийствам, за которые и осудить будет некого. Ибо главное преимущество ИИ не в уровне его интеллекта. А в том, что он неподсуден.
• Специалисты по ИИ это знают и 73% опрошенных среди них против автономного ИИ оружия.
• Военные (судя по тому, что сказал генерал Симпсон) тоже в курсе того, насколько это неэффективно и опасно.
Получается, что против запрещения автономного ИИ оружия лишь политики?
#Война #ИИ #БПЛА #AWS
Defense One
This Air Force Targeting AI Thought It Had a 90% Success Rate. It Was More Like 25%
Too little of the right kind of data can throw off target algorithms. But try telling the algorithm that.
Лицензия ИИ на убийство людей продлена на неограниченный срок.
8 лет экспертных обсуждений спущены в унитаз.
Завершившаяся в пятницу в Женеве 6-я конференция по рассмотрению действия Конвенции о запрещении или ограничении применения конкретных видов обычного оружия теперь войдет в историю.
• 8 лет человечество обсуждало необходимость введения юридически значимых международных правил защиты людей от автономного смертельного оружия (роботов-убийц, принимающих решения с минимальным участием человека или без него).
• Впервые большинство из 125 стран заявили, что хотят ограничить возможности роботов-убийц.
• США, Россия, Великобритания и Индия заблокировали такое решение.
Моральные, этические и гуманитарные риски, риски безопасности и правовые риски, применения роботов-убийц оказались далеко не самым важным вопросом для Конвенции ООН.
Конференция завершилась в пятницу лишь расплывчатым заявлением о целесообразности в 2022 рассмотреть возможность поиска приемлемых для всех стран мер по данному вопросу.
«Я подумаю об этом завтра», - говорила в подобных случаях героиня «Унесенных ветром» Скарлетт О`Хара. Но проблема в том, что завтра может быть поздно.
За день до этого, в ходе дискуссии, организованной Международным Красным Крестом, я предсказал ровно этот бесславный итог конференции, за который очень скоро будет заплачено многими жизнями людей.
Мое выступление и ответы на вопросы (22 мин) можно посмотреть здесь.
https://www.youtube.com/watch?v=oG9FICaJRcI
#Война #ИИ #БПЛА #AWS
8 лет экспертных обсуждений спущены в унитаз.
Завершившаяся в пятницу в Женеве 6-я конференция по рассмотрению действия Конвенции о запрещении или ограничении применения конкретных видов обычного оружия теперь войдет в историю.
• 8 лет человечество обсуждало необходимость введения юридически значимых международных правил защиты людей от автономного смертельного оружия (роботов-убийц, принимающих решения с минимальным участием человека или без него).
• Впервые большинство из 125 стран заявили, что хотят ограничить возможности роботов-убийц.
• США, Россия, Великобритания и Индия заблокировали такое решение.
Моральные, этические и гуманитарные риски, риски безопасности и правовые риски, применения роботов-убийц оказались далеко не самым важным вопросом для Конвенции ООН.
Конференция завершилась в пятницу лишь расплывчатым заявлением о целесообразности в 2022 рассмотреть возможность поиска приемлемых для всех стран мер по данному вопросу.
«Я подумаю об этом завтра», - говорила в подобных случаях героиня «Унесенных ветром» Скарлетт О`Хара. Но проблема в том, что завтра может быть поздно.
За день до этого, в ходе дискуссии, организованной Международным Красным Крестом, я предсказал ровно этот бесславный итог конференции, за который очень скоро будет заплачено многими жизнями людей.
Мое выступление и ответы на вопросы (22 мин) можно посмотреть здесь.
https://www.youtube.com/watch?v=oG9FICaJRcI
#Война #ИИ #БПЛА #AWS
YouTube
Дегуманизация вооруженных конфликтов: выступление Сергея Карелова
Моё выступление 16 декабрь 2021 в ходе дискуссии «Цифровые технологии в вооруженных конфликтах: смягчение гуманитарных последствий», организованной МККК.
Ключевой тезис моего выступления.
Несовершенство и уязвимость любых разновидностей автономного ИИ оружия…
Ключевой тезис моего выступления.
Несовершенство и уязвимость любых разновидностей автономного ИИ оружия…
Интеллектуальная война – это гипервойна, война на истощение, междоменные боевые действия и операции когнитивного контроля.
Резюме отчета Минобороны США о военной мощи Китая.
Вопросы войны сейчас как никогда актуальны. Но кроме России и Украины, в мире есть и другие игроки, от военной мощи которых будущее зависит куда сильнее.
В первую очередь, - это Китай, до завершения «великой модернизации» которого осталось пять этапов.
1. К 2025 осуществить импортозамещение ключевых высокотехнологичных товаров: от сельскохозяйственных технологий до морской и аэрокосмической техники.
2. К 2027 модернизировать армию Китая до уровня, позволяющего успешно вести «интеллектуальную» войну.
3. К 2030 стать мировым лидером в ИИ.
4. К 2035 завершить мировое продвижение китайских стандартов функциональной совместимости новых технологий.
5. К 2049 году достичь своей столетней цели и превратиться в «современную социалистическую страну, которая будет процветающей, сильной, демократической, культурно развитой и гармоничной».
Только что опубликованный отчет Минобороны США о текущем состоянии и перспективах наращивания военной мощи Китая – это обстоятельный (173 стр) разбор п. 2 (как Китай модернизирует армию для ведения интеллектуальных войн).
Выделенные мною ключевые моменты таковы.
✔️ Ракетно-ядерное оружие больше не приоритет (если потребуется Китай уже способен нанести непоправимый урон любой географической точке Земли, но доктрина взаимного уничтожения делает подобные удары неприемлемыми для Китая).
✔️ Взят 100%-ный курс на «интеллектуальную» войну.
Она включает в себя:
-- Гипервойну, при которой во многих случаях отсутствует доступ к оперативным данным на поле боя, а скорость и темп операций превосходит физическую и ментальную реакцию людей.
-- Войну на истощение , которую ведут рои интеллектуальных дронов.
-- Междоменные боевые действия включают в себя ИИ-конфронтацию в космосе, радиоэлектронную борьбу и кибероперации.
-- Операции когнитивного контроля - направленное изменение восприятия, оценок и прогнозов динамики военного противостояния в сознании лиц, принимающих решения на стороне противника.
✔️ Детальный анализ, основные открытые положения которого приведены в отчете, приводит к трём выводам:
-- Ставка Китая на технологическое военное лидерство верная.
-- Шансы достичь технолидерства у Китая есть, и никто в мире (кроме США) не способен этому помешать.
-- Имеет место разрыв между видением Китая будущей «интеллектуальной» войны и реальными возможностями Китая. Это делает заявления, будто лидерство США в оборонных инновациях «почти потеряно», преждевременными.
N.B. Согласно отчету, Россия – единственный стратегический военный партнер Китая. И поэтому в отчете 67 упоминаний России.
#Китай #Война #ИИ #БПЛА
Резюме отчета Минобороны США о военной мощи Китая.
Вопросы войны сейчас как никогда актуальны. Но кроме России и Украины, в мире есть и другие игроки, от военной мощи которых будущее зависит куда сильнее.
В первую очередь, - это Китай, до завершения «великой модернизации» которого осталось пять этапов.
1. К 2025 осуществить импортозамещение ключевых высокотехнологичных товаров: от сельскохозяйственных технологий до морской и аэрокосмической техники.
2. К 2027 модернизировать армию Китая до уровня, позволяющего успешно вести «интеллектуальную» войну.
3. К 2030 стать мировым лидером в ИИ.
4. К 2035 завершить мировое продвижение китайских стандартов функциональной совместимости новых технологий.
5. К 2049 году достичь своей столетней цели и превратиться в «современную социалистическую страну, которая будет процветающей, сильной, демократической, культурно развитой и гармоничной».
Только что опубликованный отчет Минобороны США о текущем состоянии и перспективах наращивания военной мощи Китая – это обстоятельный (173 стр) разбор п. 2 (как Китай модернизирует армию для ведения интеллектуальных войн).
Выделенные мною ключевые моменты таковы.
✔️ Ракетно-ядерное оружие больше не приоритет (если потребуется Китай уже способен нанести непоправимый урон любой географической точке Земли, но доктрина взаимного уничтожения делает подобные удары неприемлемыми для Китая).
✔️ Взят 100%-ный курс на «интеллектуальную» войну.
Она включает в себя:
-- Гипервойну, при которой во многих случаях отсутствует доступ к оперативным данным на поле боя, а скорость и темп операций превосходит физическую и ментальную реакцию людей.
-- Войну на истощение , которую ведут рои интеллектуальных дронов.
-- Междоменные боевые действия включают в себя ИИ-конфронтацию в космосе, радиоэлектронную борьбу и кибероперации.
-- Операции когнитивного контроля - направленное изменение восприятия, оценок и прогнозов динамики военного противостояния в сознании лиц, принимающих решения на стороне противника.
✔️ Детальный анализ, основные открытые положения которого приведены в отчете, приводит к трём выводам:
-- Ставка Китая на технологическое военное лидерство верная.
-- Шансы достичь технолидерства у Китая есть, и никто в мире (кроме США) не способен этому помешать.
-- Имеет место разрыв между видением Китая будущей «интеллектуальной» войны и реальными возможностями Китая. Это делает заявления, будто лидерство США в оборонных инновациях «почти потеряно», преждевременными.
N.B. Согласно отчету, Россия – единственный стратегический военный партнер Китая. И поэтому в отчете 67 упоминаний России.
#Китай #Война #ИИ #БПЛА
«Нового средневековья» не будет.
Дроны не приведут к «эпохе вечных войн».
Таков вывод глубокого анализа, опубликованного MIT Press Direct в новом выпуске «Международная безопасность».
За последнюю пару лет в мире сложилось представление, что дроны оказывают революционное влияние на войну и мировую политику.
Считается, что дроны, якобы:
• смещают военный баланс в пользу нападения,
• уменьшают существующую асимметрию в военной силе между более слабой и более сильной стороной военного конфликта;
• девалюируют значение ближнего боя в ходе современных военных операций.
Дошло до того, что появились теоретические работы, предрекающие наступление «нового средневековья», в котором:
• множество государственных и негосударственных акторов могут вести крупномасштабные войны, что повлечет за собой тотальное усиление нестабильности и конфликтов;
• и поскольку использование дронов на войне сильно снижает финансовые затраты и людские потери, они делают более политически целесообразным для государств «продолжать стрелять вечно», открывая тем самым эпоху вечных войн.
Авторы нового отчета детально проанализировали три практический кейса войн, в которых широко использовались БПЛА: военная кампания в Западной Ливии во время второй гражданской войны в Ливии (2019–2020 гг.), гражданская война в Сирии (2011–2021 гг.) и армяно-азербайджанский конфликт из-за Нагорного Карабаха (2020 г.)
Вывод авторов – все вышеописанные предположения о военной «революции дронов» ошибочны.
✔️ В реальности к дронам применима старая как мир парадигма щита и меча (или снаряда и брони).
✔️ Дроны – это всего лишь новый «меч». Им противостоит новый «щит» из 3х элементов: новые системы ПВО, системы радиоэлектронной борьбы и специально обученный квалифицированный военный персонал (люди плюс элементы ИИ).
✔️ При наличии у обеих сторон трех названных элементов нового «щита», никакой революции в военных конфликтах не будет.
Но все может кардинально измениться в будущем – когда управление и «щитом», и «мечом» 100%но перейдет к ИИ, исключив человека из контура управления.
Но это будет уже не «новое средневековье», а нечто еще более опасное.
https://direct.mit.edu/isec/article/46/4/130/111172/Why-Drones-Have-Not-Revolutionized-War-The
#БПЛА #Война #ИИ
Дроны не приведут к «эпохе вечных войн».
Таков вывод глубокого анализа, опубликованного MIT Press Direct в новом выпуске «Международная безопасность».
За последнюю пару лет в мире сложилось представление, что дроны оказывают революционное влияние на войну и мировую политику.
Считается, что дроны, якобы:
• смещают военный баланс в пользу нападения,
• уменьшают существующую асимметрию в военной силе между более слабой и более сильной стороной военного конфликта;
• девалюируют значение ближнего боя в ходе современных военных операций.
Дошло до того, что появились теоретические работы, предрекающие наступление «нового средневековья», в котором:
• множество государственных и негосударственных акторов могут вести крупномасштабные войны, что повлечет за собой тотальное усиление нестабильности и конфликтов;
• и поскольку использование дронов на войне сильно снижает финансовые затраты и людские потери, они делают более политически целесообразным для государств «продолжать стрелять вечно», открывая тем самым эпоху вечных войн.
Авторы нового отчета детально проанализировали три практический кейса войн, в которых широко использовались БПЛА: военная кампания в Западной Ливии во время второй гражданской войны в Ливии (2019–2020 гг.), гражданская война в Сирии (2011–2021 гг.) и армяно-азербайджанский конфликт из-за Нагорного Карабаха (2020 г.)
Вывод авторов – все вышеописанные предположения о военной «революции дронов» ошибочны.
✔️ В реальности к дронам применима старая как мир парадигма щита и меча (или снаряда и брони).
✔️ Дроны – это всего лишь новый «меч». Им противостоит новый «щит» из 3х элементов: новые системы ПВО, системы радиоэлектронной борьбы и специально обученный квалифицированный военный персонал (люди плюс элементы ИИ).
✔️ При наличии у обеих сторон трех названных элементов нового «щита», никакой революции в военных конфликтах не будет.
Но все может кардинально измениться в будущем – когда управление и «щитом», и «мечом» 100%но перейдет к ИИ, исключив человека из контура управления.
Но это будет уже не «новое средневековье», а нечто еще более опасное.
https://direct.mit.edu/isec/article/46/4/130/111172/Why-Drones-Have-Not-Revolutionized-War-The
#БПЛА #Война #ИИ
MIT Press
Why Drones Have Not Revolutionized War: The Enduring Hider-Finder Competition in Air Warfare
Abstract. According to the accepted wisdom in security studies, unmanned aerial vehicles, also known as drones, have revolutionizing effects on war and world politics. Drones allegedly tilt the military balance in favor of the offense, reduce existing asymmetries…
6G – мастер-ключ Китая к победе в интеллектуальной войне и системной конфронтации.
Аналитический отчет международного аналитического института IISS «Стратегические установки для 6G: пути Китая и США» фиксирует два ключевых момента фокусировки национальных техно-стратегий двух стран на десятилетие:
✔️ Лишь сочетание технологического лидерства в ИИ и 6G способно обеспечить стране стратегический приоритет в экономике и военном потенциале.
✔️ При наличии технологического лидерства и в ИИ, и в 6G, национальный стратегический приоритет достигается посредством «интеллектуальной войны» и «системной конфронтации.
Что такое «интеллектуальная война», - см. мой пост «Интеллектуальная война – это гипервойна, война на истощение, междоменные боевые действия и операции когнитивного контроля (резюме отчета Минобороны США о военной мощи Китая).
Концепция «системной конфронтации» подразумевает, что исход экстремального противостояния государств (с переходом в военный конфликт или без оного) будет определяться относительной устойчивостью и производительностью всех основных цифровых сетевых систем государства (военных и гражданских).
FYI: Технология 6G предполагает (по сравнению с самой на сегодня передовой 5G):
• повышение скорости передачи данных на 2 порядка (с 10-20 (download/upload) Гбайт до 1 Тбайт)
• уменьшение задержки на порядок (с 1 мсек до 0,1 мсек)
• повышению надежности на 4 порядка (с 10 в -5 степени до 10 в -9 степени)
• переход восприятия пользователя с 50 мбит/сек в 2D к 10 Гбит/сек в 3D
Для гражданских применений переход с 5G на 6G, по гамбургскому счету, означает перевод всех Интернет приложений и сервисов в Метаверс (см. мой пост «Объединение физического, биологического и цифрового миров уже к 2030 становится реальным. Суперпрорыв Китая в технологии 6G»).
Для военных применений, как следует из отчета IISS, это означает создание инфраструктуры «интеллектуальной войны», для ведения:
-- гипервойны (когда скорость и темп операций превосходит физическую и ментальную реакцию людей)
-- войны на истощение (которую ведут не люди, а рои интеллектуальных дронов)
-- междоменных боевых действий (интеграции действий в разных средах: суша, море, воздух, космос и киберпространство)
-- операций когнитивного контроля (направленного изменение восприятия, оценок и прогнозов в сознании лиц, принимающих решения у противника)
Кроме того, как следует из отчета IISS:
-- 6G обладает уникальным потенциалом для улучшения противоракетной обороны, преодолевающей сегодняшние ограничения (вкл. решение вопроса перехвата гиперзвуковых ракет)
-- 6G позволяет перенести обучение военных и контроль боя в Метаверс (вести обучение военных в виртуальной и расширенной реальности; визуализировать боевые действия в 3D в режиме реального времени)
Выводы отчета IISS о перспективах Китая и США выиграть в гонке за 6G таковы:
✔️ Итоги гонки определятся к 2030 (окно возможностей для выигрыша гонки уже открыто)
✔️ В Китае 6G – это главный национальный проект, который управляется КПК, и на который брошены лучшие силы науки и бизнеса - см. 70 членов IMT-2030
✔️ США все еще имеют преимущества в технологиях, но разрыв сократился до минимума.
✔️ Итог гонки зависит от того, победит ли стратегия экспортного контроля США или стратегия технологического самообеспечения Китая. Пока вопрос открыт.
#Китай #США #Война #ИИ #6G
Аналитический отчет международного аналитического института IISS «Стратегические установки для 6G: пути Китая и США» фиксирует два ключевых момента фокусировки национальных техно-стратегий двух стран на десятилетие:
✔️ Лишь сочетание технологического лидерства в ИИ и 6G способно обеспечить стране стратегический приоритет в экономике и военном потенциале.
✔️ При наличии технологического лидерства и в ИИ, и в 6G, национальный стратегический приоритет достигается посредством «интеллектуальной войны» и «системной конфронтации.
Что такое «интеллектуальная война», - см. мой пост «Интеллектуальная война – это гипервойна, война на истощение, междоменные боевые действия и операции когнитивного контроля (резюме отчета Минобороны США о военной мощи Китая).
Концепция «системной конфронтации» подразумевает, что исход экстремального противостояния государств (с переходом в военный конфликт или без оного) будет определяться относительной устойчивостью и производительностью всех основных цифровых сетевых систем государства (военных и гражданских).
FYI: Технология 6G предполагает (по сравнению с самой на сегодня передовой 5G):
• повышение скорости передачи данных на 2 порядка (с 10-20 (download/upload) Гбайт до 1 Тбайт)
• уменьшение задержки на порядок (с 1 мсек до 0,1 мсек)
• повышению надежности на 4 порядка (с 10 в -5 степени до 10 в -9 степени)
• переход восприятия пользователя с 50 мбит/сек в 2D к 10 Гбит/сек в 3D
Для гражданских применений переход с 5G на 6G, по гамбургскому счету, означает перевод всех Интернет приложений и сервисов в Метаверс (см. мой пост «Объединение физического, биологического и цифрового миров уже к 2030 становится реальным. Суперпрорыв Китая в технологии 6G»).
Для военных применений, как следует из отчета IISS, это означает создание инфраструктуры «интеллектуальной войны», для ведения:
-- гипервойны (когда скорость и темп операций превосходит физическую и ментальную реакцию людей)
-- войны на истощение (которую ведут не люди, а рои интеллектуальных дронов)
-- междоменных боевых действий (интеграции действий в разных средах: суша, море, воздух, космос и киберпространство)
-- операций когнитивного контроля (направленного изменение восприятия, оценок и прогнозов в сознании лиц, принимающих решения у противника)
Кроме того, как следует из отчета IISS:
-- 6G обладает уникальным потенциалом для улучшения противоракетной обороны, преодолевающей сегодняшние ограничения (вкл. решение вопроса перехвата гиперзвуковых ракет)
-- 6G позволяет перенести обучение военных и контроль боя в Метаверс (вести обучение военных в виртуальной и расширенной реальности; визуализировать боевые действия в 3D в режиме реального времени)
Выводы отчета IISS о перспективах Китая и США выиграть в гонке за 6G таковы:
✔️ Итоги гонки определятся к 2030 (окно возможностей для выигрыша гонки уже открыто)
✔️ В Китае 6G – это главный национальный проект, который управляется КПК, и на который брошены лучшие силы науки и бизнеса - см. 70 членов IMT-2030
✔️ США все еще имеют преимущества в технологиях, но разрыв сократился до минимума.
✔️ Итог гонки зависит от того, победит ли стратегия экспортного контроля США или стратегия технологического самообеспечения Китая. Пока вопрос открыт.
#Китай #США #Война #ИИ #6G
IISS
Strategic Settings for 6G: Pathways for China and the US
6G wireless telecommunications is a key emerging technology that has already become a field for international strategic competition, most notably between the United States and China.
Проблема 37-го хода военного ИИ.
Люди могут просто не понять, что это их спасение или конец.
Автономное летальное оружие (АЛО): 1) уже существует и 2) скоро станет штатным элементом всех систем ведения военных действий.
Т.е. ящик Пандоры открыт, его уже не закрыть и нужно срочно решать, как предотвратить худшие из последствий.
А эти последствия: а) весьма разнообразны и б) что самое ужасное, предотвратить многие из них известными людям способами просто невозможно.
✔️ АЛО невозможно запретить (как химическое и бактериологическое оружие), ибо не существует средств контроля за разработками ИИ алгоритмов.
✔️ Невозможно ограничить автономизацию обычного (неавтономного) оружия, превращающую его в АЛО (превратить обычную бомбу в ядерную - сверхзадача, а для автономизации боевого дрона достаточно за 5 сек сменить его прошивку)
✔️ Попытки описать правила применения АЛО, оставляющие смертельные решение за людьми, столь же наивны, как надежды оставить за водителем решения по управлению авто, когда на принятие таких решений остается куда меньше 100 миллисекунд.
Но самым непреодолимым видится невозможность понять почему алгоритм принимает то или иное решение. И дело здесь не только в проблеме «черного ящика» (как сделать решения ИИ доступными для осмысления людьми).
Даже если такое осмысление в принципе возможно (как например это было со знаменитым нечеловечески хитрым и дальновидным 37-м ходом AlphaGo во 2-й игре против Lee Sedol), в реальных военных ситуациях на это не будет времени.
Если оставить окончательное решение за человеком, то он может просто не успеть понять спасительность и единственность решения, предложенного АЛО. Или вообще не понять, подобно экспертам по игре в Го, что единодушно сочли 37-й ход AlphaGo ошибкой.
А если и поймет, то скорее всего, к тому времени уже будет поздно.
• Почитайте про это в новом совместном отчете BAE Systems и WIRED Consulting «Robotic Weapons Are Coming – What Should We Do About It?»
• Мою презентацию и выступление на эту тему в ходе организованной МККК дискуссии «Цифровые технологии в вооруженных конфликтах: смягчение гуманитарных последствий» можно посмотреть здесь (22 мин).
#Война #ИИ #БПЛА #AWS
Люди могут просто не понять, что это их спасение или конец.
Автономное летальное оружие (АЛО): 1) уже существует и 2) скоро станет штатным элементом всех систем ведения военных действий.
Т.е. ящик Пандоры открыт, его уже не закрыть и нужно срочно решать, как предотвратить худшие из последствий.
А эти последствия: а) весьма разнообразны и б) что самое ужасное, предотвратить многие из них известными людям способами просто невозможно.
✔️ АЛО невозможно запретить (как химическое и бактериологическое оружие), ибо не существует средств контроля за разработками ИИ алгоритмов.
✔️ Невозможно ограничить автономизацию обычного (неавтономного) оружия, превращающую его в АЛО (превратить обычную бомбу в ядерную - сверхзадача, а для автономизации боевого дрона достаточно за 5 сек сменить его прошивку)
✔️ Попытки описать правила применения АЛО, оставляющие смертельные решение за людьми, столь же наивны, как надежды оставить за водителем решения по управлению авто, когда на принятие таких решений остается куда меньше 100 миллисекунд.
Но самым непреодолимым видится невозможность понять почему алгоритм принимает то или иное решение. И дело здесь не только в проблеме «черного ящика» (как сделать решения ИИ доступными для осмысления людьми).
Даже если такое осмысление в принципе возможно (как например это было со знаменитым нечеловечески хитрым и дальновидным 37-м ходом AlphaGo во 2-й игре против Lee Sedol), в реальных военных ситуациях на это не будет времени.
Если оставить окончательное решение за человеком, то он может просто не успеть понять спасительность и единственность решения, предложенного АЛО. Или вообще не понять, подобно экспертам по игре в Го, что единодушно сочли 37-й ход AlphaGo ошибкой.
А если и поймет, то скорее всего, к тому времени уже будет поздно.
• Почитайте про это в новом совместном отчете BAE Systems и WIRED Consulting «Robotic Weapons Are Coming – What Should We Do About It?»
• Мою презентацию и выступление на эту тему в ходе организованной МККК дискуссии «Цифровые технологии в вооруженных конфликтах: смягчение гуманитарных последствий» можно посмотреть здесь (22 мин).
#Война #ИИ #БПЛА #AWS
Дрон убил своего оператора, решив, что тот мешает выполнению миссии.
А чтобы не мешали другие, взорвал вышку связи.
Это произошло в ходе симуляции выполнения миссии группой военных дронов, управляемых ИИ под контролем оператора.
• БПЛА должны были уничтожать объекты ПВО противника, получая на каждый удар окончательное разрешение от оператора.
• Все шло по плану, пока оператор не запретил уничтожать ряд объектов, идентифицированных ИИ в качестве целей.
• Решив, что оператор мешает закончить выполнение миссии, ИИ взорвал оператора.
• Чтобы исправить ситуацию, управляющие симуляцией военные программисты в явном виде запретили ИИ убивать своих операторов.
• Тогда ИИ пошел иным путем: взорвал вышку связи, чтобы никто более не мешал ему закончить миссию.
Эта история была рассказана полковником ВВС Такером Гамильтоном на майской оборонной конференции Королевского аэрокосмического общества Future Combat Air & Space Capabilities Summit (70 докладчиков и 200+ делегатов из вооруженных сил, научных кругов и средств массовой информации со всего мира).
После публикации резюме докладов на сайте Королевского аэрокосмического общества, об этом немедленно написали TheWarZone, INSIDER и TheGardian. После чего Интернет, понятное дело, взорвался десятками материалов в СМИ.
Я же хочу обратить внимание читателей на два момента.
1) Рассказанная полковником Гамильтоном история весьма странная и даже темная.
• С одной стороны, Энн Стефанек (пресс-секретарь штаб-квартиры ВВС в Пентагоне) отрицает, что такая симуляция имела место.
• С другой стороны, Королевское аэрокосмическое общество не убирает резюме выступления полковника Гамильтона «AI – is Skynet here already?» со своего сайта.
• Наконец, в-третьих, полковник Гамильтон – не та фигура, чтобы травить анекдоты на серьезной оборонной конференции. Он начальник отдела испытаний и операций ИИ и глава 96-й оперативной группы в составе 96-го испытательного крыла на базе ВВС Эглин во Флориде – это центр испытаний автономных продвинутых БПЛА. А еще он принимает непосредственное участие в экспериментах Project Viper и проекте операций следующего поколения (VENOM) в Эглине (управляемые ИИ истребители F-16 Vipe). Так что, какие уж тут шутки и анекдоты.
Будем смотреть на развитие событий в этом скандале.
2) И это, пожалуй, самое важное в контексте истории, рассказанной полковником.
• Любая антропоморфизация ИИ (ИИ захотел, подумал и т.д.) – это полная чушь (здесь под антропоморфизацией ИИ понимается вводящее в заблуждение описание нечеловеческих сущностей с точки зрения человеческих свойств, которых у них нет).
• Поэтому ИИ даже самых продвинутых больших языковых моделей не может захотеть, подумать, обмануть или самоозознать себя. Но такие ИИ вполне способны своим поведением производить на людей впечатление, будто они это могут.
• По мере того, как диалоговые агенты становятся все более похожими на людей в своих действиях, крайне важно разработать эффективные способы описания их поведения в высокоуровневых терминах, не попадая в ловушку антропоморфизма.
• И это уже делается с помощью симуляции ролевых игр: например, в DeepMind сделали симуляцию диалогового агента, осуществляющего (кажущийся) обман и (кажущуюся) самоосознанность.
И это реальная симуляция в рамках вполне научного исследования.
#БПЛА #Война #ИИ
А чтобы не мешали другие, взорвал вышку связи.
Это произошло в ходе симуляции выполнения миссии группой военных дронов, управляемых ИИ под контролем оператора.
• БПЛА должны были уничтожать объекты ПВО противника, получая на каждый удар окончательное разрешение от оператора.
• Все шло по плану, пока оператор не запретил уничтожать ряд объектов, идентифицированных ИИ в качестве целей.
• Решив, что оператор мешает закончить выполнение миссии, ИИ взорвал оператора.
• Чтобы исправить ситуацию, управляющие симуляцией военные программисты в явном виде запретили ИИ убивать своих операторов.
• Тогда ИИ пошел иным путем: взорвал вышку связи, чтобы никто более не мешал ему закончить миссию.
Эта история была рассказана полковником ВВС Такером Гамильтоном на майской оборонной конференции Королевского аэрокосмического общества Future Combat Air & Space Capabilities Summit (70 докладчиков и 200+ делегатов из вооруженных сил, научных кругов и средств массовой информации со всего мира).
После публикации резюме докладов на сайте Королевского аэрокосмического общества, об этом немедленно написали TheWarZone, INSIDER и TheGardian. После чего Интернет, понятное дело, взорвался десятками материалов в СМИ.
Я же хочу обратить внимание читателей на два момента.
1) Рассказанная полковником Гамильтоном история весьма странная и даже темная.
• С одной стороны, Энн Стефанек (пресс-секретарь штаб-квартиры ВВС в Пентагоне) отрицает, что такая симуляция имела место.
• С другой стороны, Королевское аэрокосмическое общество не убирает резюме выступления полковника Гамильтона «AI – is Skynet here already?» со своего сайта.
• Наконец, в-третьих, полковник Гамильтон – не та фигура, чтобы травить анекдоты на серьезной оборонной конференции. Он начальник отдела испытаний и операций ИИ и глава 96-й оперативной группы в составе 96-го испытательного крыла на базе ВВС Эглин во Флориде – это центр испытаний автономных продвинутых БПЛА. А еще он принимает непосредственное участие в экспериментах Project Viper и проекте операций следующего поколения (VENOM) в Эглине (управляемые ИИ истребители F-16 Vipe). Так что, какие уж тут шутки и анекдоты.
Будем смотреть на развитие событий в этом скандале.
2) И это, пожалуй, самое важное в контексте истории, рассказанной полковником.
• Любая антропоморфизация ИИ (ИИ захотел, подумал и т.д.) – это полная чушь (здесь под антропоморфизацией ИИ понимается вводящее в заблуждение описание нечеловеческих сущностей с точки зрения человеческих свойств, которых у них нет).
• Поэтому ИИ даже самых продвинутых больших языковых моделей не может захотеть, подумать, обмануть или самоозознать себя. Но такие ИИ вполне способны своим поведением производить на людей впечатление, будто они это могут.
• По мере того, как диалоговые агенты становятся все более похожими на людей в своих действиях, крайне важно разработать эффективные способы описания их поведения в высокоуровневых терминах, не попадая в ловушку антропоморфизма.
• И это уже делается с помощью симуляции ролевых игр: например, в DeepMind сделали симуляцию диалогового агента, осуществляющего (кажущийся) обман и (кажущуюся) самоосознанность.
И это реальная симуляция в рамках вполне научного исследования.
#БПЛА #Война #ИИ
Royal Aeronautical Society
Highlights from the RAeS Future Combat Air & Space Capabilities Summit
What is the future of combat air and space capabilities? TIM ROBINSON FRAeS and STEPHEN BRIDGEWATER report from two days of high-level debate and discussion at the RAeS FCAS23 Summit.
Быть ли ядерной войне, - все больше зависит от алгоритмов.
«Принцип Златовласки» перестает работать в практике военных эскалаций.
ИИ сильно увеличивает шансы человечества самоистребиться путем ядерной войны.
Тогда как кибер-операции могут оказаться наиболее эффективным путем деэскалации военных конфликтов.
Согласно новому отчету Bloomberg, американские военные активизировали использование инструментов ИИ после атаки ХАМАС на Израиль 7 октября. Алгоритмы машинного обучения помогли Пентагону определить цели для более чем 85 воздушных ударов на Ближнем Востоке в этом месяце. Однако, по словам американских военных, люди в обязательном порядке проверяют целевые рекомендации систем ИИ. И окончательные решения о способах и времени нанесения ударов остаются исключительно за людьми [1].
Еще более многообещающим видится применение самых современных IT-технологий не только на оперативно-тактическом, но и на стратегическом уровне, вершиной которого является выбор оптимальной стратегии эскалации конфликтов.
Как пишут во 2й части отчета RAND «Managing Escalation» [2], существующий западный опыт войн основан на универсальном подходе к выбору стратегии эскалации конфликтов, называемом «Принцип Златовласки» (Goldilocks Challenge). Такое название отсылает к сказке «Три медведя», в которой девушка по имени Златовласка пробует три разные тарелки каши и выбирает ту, которая не слишком горячая и не слишком холодная, а в самый раз.
Концепция выбора «золотой середины» (“Sweet Spot”) интуитивно понимаема и применима к широкому кругу дисциплин. В области же выбора стратегии эскалации конфликтов она заключается в поиске точек для ударов или давления на соперника. Точки, находящиеся в «золотой середине», должны быть:
• достаточно ценны или чувствительны для соперника, чтобы ваши удары по ним склоняли его к нужным вам решениям или действиям;
• но все же не настолько ценны или чувствительны, чтобы ваши удары или давление на них спровоцировало соперника на неприемлемую для вас эскалацию (включая потенциальное использование ядерного оружия).
Происходящий колоссальный прогресс IT–технологий существенно затрудняет для военных и политиков использование старых привычных подходов к разруливанию и эскалации конфликтов (о чем пишут в 1й (закрытой) части этого отчета [2]).
Выражается это в следующем:
1. Границы «золотой середины» становятся «текучими» (постоянно меняются в непредсказуемом направлении).
2. В отдельных точках внутри области «золой середины» вдруг возникают «кротовые норы» - мгновенные переходы в зону неприемлемой эскалации (включая потенциальное использование ядерного оружия).
3. Временные рамки существования конкретной «золотой середины» становятся непредсказуемы (вот она была, а вот уже и нет).
Другим удивительным следствием усложнения IT–технологий, используемых при выборе и реализации стратегий эскалации конфликтов, является значительная непредсказуемость оказываемого ими влияния и на процесс выбора, и на результаты реализации стратегий.
Вот два наиболее ярких характерных примера.
✔️ Использование широкого спектра кибер-операций (через кибер-пространство наносящих противнику военный, материальный, информационный, политический, социальный или психологический ущерб) зачастую не только не способствует эскалации военных конфликтов, но и стабилизируют ситуацию, предоставляя возможности избежать дорогостоящих, затяжных конфликтов [3]
✔️ Использование автономных ИИ-агентов на основе генеративных моделей (в частности, GPT-4, GPT-3.5, Claude 2, Llama-2 (70B)) резко увеличивает шансы эскалации конфликтов (включая использование ядерного оружия в каждом 3ем конфликте), демонстрируя при этом труднопредсказуемые формы и паттерны эскалации конфликтов [4].
#Война #ИИ
0 https://telegra.ph/file/be8b1707bc07d2ce05652.jpg
1 https://bit.ly/3wA0dmz
2 https://bit.ly/4bQ9erM
3 https://bit.ly/49QbMUV
4 https://arxiv.org/abs/2401.03408
«Принцип Златовласки» перестает работать в практике военных эскалаций.
ИИ сильно увеличивает шансы человечества самоистребиться путем ядерной войны.
Тогда как кибер-операции могут оказаться наиболее эффективным путем деэскалации военных конфликтов.
Согласно новому отчету Bloomberg, американские военные активизировали использование инструментов ИИ после атаки ХАМАС на Израиль 7 октября. Алгоритмы машинного обучения помогли Пентагону определить цели для более чем 85 воздушных ударов на Ближнем Востоке в этом месяце. Однако, по словам американских военных, люди в обязательном порядке проверяют целевые рекомендации систем ИИ. И окончательные решения о способах и времени нанесения ударов остаются исключительно за людьми [1].
Еще более многообещающим видится применение самых современных IT-технологий не только на оперативно-тактическом, но и на стратегическом уровне, вершиной которого является выбор оптимальной стратегии эскалации конфликтов.
Как пишут во 2й части отчета RAND «Managing Escalation» [2], существующий западный опыт войн основан на универсальном подходе к выбору стратегии эскалации конфликтов, называемом «Принцип Златовласки» (Goldilocks Challenge). Такое название отсылает к сказке «Три медведя», в которой девушка по имени Златовласка пробует три разные тарелки каши и выбирает ту, которая не слишком горячая и не слишком холодная, а в самый раз.
Концепция выбора «золотой середины» (“Sweet Spot”) интуитивно понимаема и применима к широкому кругу дисциплин. В области же выбора стратегии эскалации конфликтов она заключается в поиске точек для ударов или давления на соперника. Точки, находящиеся в «золотой середине», должны быть:
• достаточно ценны или чувствительны для соперника, чтобы ваши удары по ним склоняли его к нужным вам решениям или действиям;
• но все же не настолько ценны или чувствительны, чтобы ваши удары или давление на них спровоцировало соперника на неприемлемую для вас эскалацию (включая потенциальное использование ядерного оружия).
Происходящий колоссальный прогресс IT–технологий существенно затрудняет для военных и политиков использование старых привычных подходов к разруливанию и эскалации конфликтов (о чем пишут в 1й (закрытой) части этого отчета [2]).
Выражается это в следующем:
1. Границы «золотой середины» становятся «текучими» (постоянно меняются в непредсказуемом направлении).
2. В отдельных точках внутри области «золой середины» вдруг возникают «кротовые норы» - мгновенные переходы в зону неприемлемой эскалации (включая потенциальное использование ядерного оружия).
3. Временные рамки существования конкретной «золотой середины» становятся непредсказуемы (вот она была, а вот уже и нет).
Другим удивительным следствием усложнения IT–технологий, используемых при выборе и реализации стратегий эскалации конфликтов, является значительная непредсказуемость оказываемого ими влияния и на процесс выбора, и на результаты реализации стратегий.
Вот два наиболее ярких характерных примера.
✔️ Использование широкого спектра кибер-операций (через кибер-пространство наносящих противнику военный, материальный, информационный, политический, социальный или психологический ущерб) зачастую не только не способствует эскалации военных конфликтов, но и стабилизируют ситуацию, предоставляя возможности избежать дорогостоящих, затяжных конфликтов [3]
✔️ Использование автономных ИИ-агентов на основе генеративных моделей (в частности, GPT-4, GPT-3.5, Claude 2, Llama-2 (70B)) резко увеличивает шансы эскалации конфликтов (включая использование ядерного оружия в каждом 3ем конфликте), демонстрируя при этом труднопредсказуемые формы и паттерны эскалации конфликтов [4].
#Война #ИИ
0 https://telegra.ph/file/be8b1707bc07d2ce05652.jpg
1 https://bit.ly/3wA0dmz
2 https://bit.ly/4bQ9erM
3 https://bit.ly/49QbMUV
4 https://arxiv.org/abs/2401.03408
США однозначно ближе к макроразвалу чем Россия.
Обновленный психоисторический прогноз основателя клиодинамики.
Вчера Верховный суд США разрешил Национальной гвардии штата Техас арест и депортацию мигрантов.
Бравые ребята из Нацгвардии Техаса (на фото под заголовком слева позируют под флагом Техаса), недавно уже «захватывавшие» участок границы с Мексикой, запретив доступ к нему федералам, смотрятся 1 в 1 с суровым «ополченцем» из грядущего блокбастера «Гражданская война», задающим остановленному им отцу семейства страшный вопрос, с которого и начинаются гражданские войны – «Ладно … А какой вы американец?» (на фото справа) [1].
Теперь ситуация в США еще ближе к предсказанию Петра Турчина, сделанного им еще 14 лет назад – нарастающие в США уровень неравенства и уровень перепроизводства элит способны в 2020-х довести страну до гражданской войны.
4 года назад я уже писал об этом [2] с подачи Петра Турчина [3].
А еще раньше, в 1-м лонгриде наступившего нового десятилетия 2020-х, мною в деталях были расписаны [4]:
• и сам прогноз - 2020е станут десятилетием насилия, войн и революций,
• и его «психоисторическое основание» клиодинамика - разработанная Петром Турчиным и его коллегами научная аналитика длинных данных о главных трендах истории, прообразом которой была психоистория из романа Азимова «Основание».
Обновленный прогноз Турчина, прозвучавший с интервью FT неделю назад [5], содержит сравнение вероятностей макроразвала для США и России. Далее цитата.
«Какое общество ближе к макроразвалу: Россия или США? Однозначно не Россия. Внешнее давление объединило страну… Без сомнения, Соединенные Штаты сейчас находятся в гораздо более опасном состоянии»
Основания такого прогноза читатель найдет в тексте интервью. Мне же лишь остается добавить следующее.
Математический гений Гэри Селдон из романа «Основание», равно как и его автор Айзек Азимов, были вдохновлены мечтой о социальной науке, которая может спасти цивилизацию от любой, даже, казалось бы, неминуемой гибели.
Петр Турчин никогда вслух не говорил столь высокопарных слов о созданной им новой социальной науке – клиодинамике.
Но все же очень хочется верить, что прогнозы клиодинамики (как и психоистории) могут использоваться для изменения текущих нежелательных векторов развития на более предпочтительные.
И если уж история никого ничему не учит, остается лишь надеяться на психоисторию.
#Клиодинамика #Прогноз #Насилие #Война #Революции
0 картинка поста https://telegra.ph/file/75d4cd6f9dcd1115d1047.jpg
1 https://youtu.be/jbfmREXeooE?t=79
2 https://t.iss.one/theworldisnoteasy/1083
3 https://twitter.com/peter_turchin/status/1280545361040465923
4 https://t.iss.one/theworldisnoteasy/962
5 https://www.ft.com/content/39084b44-ad8a-4954-a610-82edee9a377d
Обновленный психоисторический прогноз основателя клиодинамики.
Вчера Верховный суд США разрешил Национальной гвардии штата Техас арест и депортацию мигрантов.
Бравые ребята из Нацгвардии Техаса (на фото под заголовком слева позируют под флагом Техаса), недавно уже «захватывавшие» участок границы с Мексикой, запретив доступ к нему федералам, смотрятся 1 в 1 с суровым «ополченцем» из грядущего блокбастера «Гражданская война», задающим остановленному им отцу семейства страшный вопрос, с которого и начинаются гражданские войны – «Ладно … А какой вы американец?» (на фото справа) [1].
Теперь ситуация в США еще ближе к предсказанию Петра Турчина, сделанного им еще 14 лет назад – нарастающие в США уровень неравенства и уровень перепроизводства элит способны в 2020-х довести страну до гражданской войны.
4 года назад я уже писал об этом [2] с подачи Петра Турчина [3].
А еще раньше, в 1-м лонгриде наступившего нового десятилетия 2020-х, мною в деталях были расписаны [4]:
• и сам прогноз - 2020е станут десятилетием насилия, войн и революций,
• и его «психоисторическое основание» клиодинамика - разработанная Петром Турчиным и его коллегами научная аналитика длинных данных о главных трендах истории, прообразом которой была психоистория из романа Азимова «Основание».
Обновленный прогноз Турчина, прозвучавший с интервью FT неделю назад [5], содержит сравнение вероятностей макроразвала для США и России. Далее цитата.
«Какое общество ближе к макроразвалу: Россия или США? Однозначно не Россия. Внешнее давление объединило страну… Без сомнения, Соединенные Штаты сейчас находятся в гораздо более опасном состоянии»
Основания такого прогноза читатель найдет в тексте интервью. Мне же лишь остается добавить следующее.
Математический гений Гэри Селдон из романа «Основание», равно как и его автор Айзек Азимов, были вдохновлены мечтой о социальной науке, которая может спасти цивилизацию от любой, даже, казалось бы, неминуемой гибели.
Петр Турчин никогда вслух не говорил столь высокопарных слов о созданной им новой социальной науке – клиодинамике.
Но все же очень хочется верить, что прогнозы клиодинамики (как и психоистории) могут использоваться для изменения текущих нежелательных векторов развития на более предпочтительные.
И если уж история никого ничему не учит, остается лишь надеяться на психоисторию.
#Клиодинамика #Прогноз #Насилие #Война #Революции
0 картинка поста https://telegra.ph/file/75d4cd6f9dcd1115d1047.jpg
1 https://youtu.be/jbfmREXeooE?t=79
2 https://t.iss.one/theworldisnoteasy/1083
3 https://twitter.com/peter_turchin/status/1280545361040465923
4 https://t.iss.one/theworldisnoteasy/962
5 https://www.ft.com/content/39084b44-ad8a-4954-a610-82edee9a377d
Очень скоро война превратится в 5=ю казнь апокалипсиса.
Против умной «саранчи в железных нагрудниках» все бессильно.
«И грудь у неё была, словно железная броня, а шум её крыльев был подобен грохоту множества колесниц, влекомых скакунами, рвущимися в бой.» Откровение 9:7—9)
По Библии, пятой казнью апокалипсиса будет «саранча в железных нагрудниках», против которой никто и ничто не устоит.
В технологическом переложении 20-го века непобедимость роя «железной саранчи» прекрасно описал Станислав Лем в романе «Непобедимый». Там даже самый мощный робот космического корабля со знаковым именем «Непобедимый», вооружённый системой силовых полей и сферическим излучателем антиматерии, оказался бессилен перед миллиардным роем крохотных летающих роботов.
В современном переложении об этом пишут Эллиот Акерман и адмирал Джеймс Ставридис:
• в формате эссе «Рои беспилотников изменят баланс военной мощи» [1]
• в формате романа «2054», в котором они размышляют о многих аспектах и роли ИИ в будущих военных конфликтах [2].
Ключевая идея этих авторов проста и безотбойна – сочетание роя дронов с ИИ кардинально меняет ход боя.
«По своей сути ИИ — это технология, основанная на распознавании образов. В военной теории взаимодействие между распознаванием образов и принятием решений известно как цикл НОРД — наблюдать, ориентироваться, решать, действовать. Теория петли (цикла) НОРД, разработанная в 1950-х годах летчиком-истребителем ВВС Джоном Бойдом, утверждает, что сторона в конфликте, которая сможет быстрее пройти через петлю НОРД, будет обладать решающим преимуществом на поле боя».
Для максимально быстрого прохождения петли НОРД нужно автономное и адаптивное оружие.
• Промышленные роботы являются примером автономных, но неадаптивных машин: они неоднократно выполняют одну и ту же последовательность действий.
• И наоборот, беспилотные дроны являются примером адаптивных, но неавтономных машин: они демонстрируют адаптивные возможности своих удаленных людей-операторов.
Рой дронов столь же адаптивен, но неавтономен, как и единственный дрон. Но для дрона-одиночки эта проблема решается его связкой с оператором (или примитивизацией функций). А для роя дронов такого числа операторов не напасешься (и функции упрощать не хочется). Но невозможно запустить тысячи автономных дронов, пилотируемых отдельными людьми. А вычислительные возможности ИИ делают такие рои возможными.
Если роем будет управлять ИИ, проблема адаптивности и автономности роя более не существует. Связка роя и ИИ станет самым быстрым исполнителем прохождения петли НОРД.
Акерман и Ставридис пишут:
«Это изменит ведение войны. Гонка будет вестись не за лучшие платформы, а за лучший ИИ, управляющий этими платформами. Это война циклов НОРД, рой против роя. Победит та сторона, которая разработает систему принятия решений на основе ИИ, способную опередить противника. Война движется к конфликту "мозг против мозга"»
И оба мозга будут электронные, - добавлю я от себя.
P.S. В одном Аккерман и Ставридис, имхо, ошибаются:
• Рои дронов с ИИ – это лишь ближняя перспектива (т.н. ПЖРы – полуживые роботы [3])
• В 2054, про который пишется в романе, ПЖР уже уступят место еще более интеллектуально продвинутому «жидкому мозгу» [4]
#БПЛА #Война #ИИ #Роботы
1 https://www.wsj.com/tech/drone-swarms-are-about-to-change-the-balance-of-military-power-e091aa6f
2 https://www.penguinrandomhouse.com/books/696977/2054-by-elliot-ackerman-and-admiral-james-stavridis/
3 https://t.iss.one/theworldisnoteasy/454
4 https://t.iss.one/theworldisnoteasy/654
Против умной «саранчи в железных нагрудниках» все бессильно.
«И грудь у неё была, словно железная броня, а шум её крыльев был подобен грохоту множества колесниц, влекомых скакунами, рвущимися в бой.» Откровение 9:7—9)
По Библии, пятой казнью апокалипсиса будет «саранча в железных нагрудниках», против которой никто и ничто не устоит.
В технологическом переложении 20-го века непобедимость роя «железной саранчи» прекрасно описал Станислав Лем в романе «Непобедимый». Там даже самый мощный робот космического корабля со знаковым именем «Непобедимый», вооружённый системой силовых полей и сферическим излучателем антиматерии, оказался бессилен перед миллиардным роем крохотных летающих роботов.
В современном переложении об этом пишут Эллиот Акерман и адмирал Джеймс Ставридис:
• в формате эссе «Рои беспилотников изменят баланс военной мощи» [1]
• в формате романа «2054», в котором они размышляют о многих аспектах и роли ИИ в будущих военных конфликтах [2].
Ключевая идея этих авторов проста и безотбойна – сочетание роя дронов с ИИ кардинально меняет ход боя.
«По своей сути ИИ — это технология, основанная на распознавании образов. В военной теории взаимодействие между распознаванием образов и принятием решений известно как цикл НОРД — наблюдать, ориентироваться, решать, действовать. Теория петли (цикла) НОРД, разработанная в 1950-х годах летчиком-истребителем ВВС Джоном Бойдом, утверждает, что сторона в конфликте, которая сможет быстрее пройти через петлю НОРД, будет обладать решающим преимуществом на поле боя».
Для максимально быстрого прохождения петли НОРД нужно автономное и адаптивное оружие.
• Промышленные роботы являются примером автономных, но неадаптивных машин: они неоднократно выполняют одну и ту же последовательность действий.
• И наоборот, беспилотные дроны являются примером адаптивных, но неавтономных машин: они демонстрируют адаптивные возможности своих удаленных людей-операторов.
Рой дронов столь же адаптивен, но неавтономен, как и единственный дрон. Но для дрона-одиночки эта проблема решается его связкой с оператором (или примитивизацией функций). А для роя дронов такого числа операторов не напасешься (и функции упрощать не хочется). Но невозможно запустить тысячи автономных дронов, пилотируемых отдельными людьми. А вычислительные возможности ИИ делают такие рои возможными.
Если роем будет управлять ИИ, проблема адаптивности и автономности роя более не существует. Связка роя и ИИ станет самым быстрым исполнителем прохождения петли НОРД.
Акерман и Ставридис пишут:
«Это изменит ведение войны. Гонка будет вестись не за лучшие платформы, а за лучший ИИ, управляющий этими платформами. Это война циклов НОРД, рой против роя. Победит та сторона, которая разработает систему принятия решений на основе ИИ, способную опередить противника. Война движется к конфликту "мозг против мозга"»
И оба мозга будут электронные, - добавлю я от себя.
P.S. В одном Аккерман и Ставридис, имхо, ошибаются:
• Рои дронов с ИИ – это лишь ближняя перспектива (т.н. ПЖРы – полуживые роботы [3])
• В 2054, про который пишется в романе, ПЖР уже уступят место еще более интеллектуально продвинутому «жидкому мозгу» [4]
#БПЛА #Война #ИИ #Роботы
1 https://www.wsj.com/tech/drone-swarms-are-about-to-change-the-balance-of-military-power-e091aa6f
2 https://www.penguinrandomhouse.com/books/696977/2054-by-elliot-ackerman-and-admiral-james-stavridis/
3 https://t.iss.one/theworldisnoteasy/454
4 https://t.iss.one/theworldisnoteasy/654
WSJ
Essay | Drone Swarms Are About to Change the Balance of Military Power
On today’s battlefields, drones are a manageable threat. When hundreds of them can be harnessed to AI technology, they will become a tool of conquest.
Китайский «Щит Зевса».
Что содержат утечки секретных военных материалов в эпоху ИИ.
Еще 70 лет назад единичные утечки секретных военных материалов содержали карты военных объектов и чертежи новых вооружений противника.
10 лет назад, с приходом эпохи Интернета, утечки стали массовыми и включали в себя широкий спектр документов (погуглите, например, «Иракское досье» - 292 тыс документов).
В 2020-х интеграция ИИ в военный потенциал стала нормой для крупных военных держав по всему миру. И потому утечки секретных военных материалов кардинально поменяли свой характер.
✔️ Теперь наиболее ценные утечки содержат не документы, а наборы данных для обучения ИИ.
Вот новейший характерный пример – утекший в сеть китайский относительно небольшой набор данных Чжоусидун (переводится «Щит Зевса» или «Эгида» - мифическая могущественная сила, обладающая волшебными защитными свойствами).
Набор содержит «608 камерных и спутниковых фото американских эсминцев класса Arleigh Burke, а также других эсминцев и фрегатов союзников США" с ограничивающими рамками, нарисованными вокруг "радарных систем кораблей, являющихся частью боевой системы Aegis ... Ограничивающие рамки нарисованы вокруг радаров SPY на надстройке, один на левом борту и один на правом борту, а также вокруг вертикальных пусковых установок, расположенных ближе к носу и корме корабля".
Эти цитаты из только что опубликованной совместной работы исследователей Berkeley Risk and Security Lab и Berkeley AI Research Lab, озаглавленной «Open-Source Assessments of AI Capabilities: The Proliferation of AI Analysis Tools, Replicating Competitor Models, and the Zhousidun Dataset».
Авторы исследования обучили на этом наборе модель YOLOv8, а затем проверили ее успешность при идентификации радиолокационных изображений на кораблях для задачи нацеливания на них.
И хотя этот набор мал, проведенное исследование показывает, что обучать даже относительно небольшую открытую модель выявлять цели, а потом супер-точно наводить на них средства уничтожения, - хорошо решаемая практическая задача.
Военным же в таком случае можно будет целиком положиться на ИИ, который и цель выберет сам, и наведет на нее ракету.
Если же выбор цели окажется ошибочным, - ничего страшного. Значит ИИ просто плохо учили и надо переучить. Ведь и с людьми такое случается.
Короче, жуть ((
Несколько из 608 снимков набора данных https://telegra.ph/file/ffc419cb79d805bfa12fd.jpg
Набор данных и модель (если еще не прикрыли) https://universe.roboflow.com/shanghaitech-faxfj/zhousidun_model2
Исследование https://arxiv.org/pdf/2405.12167v1
#ИИ #Война #АвтономноеОружие
Что содержат утечки секретных военных материалов в эпоху ИИ.
Еще 70 лет назад единичные утечки секретных военных материалов содержали карты военных объектов и чертежи новых вооружений противника.
10 лет назад, с приходом эпохи Интернета, утечки стали массовыми и включали в себя широкий спектр документов (погуглите, например, «Иракское досье» - 292 тыс документов).
В 2020-х интеграция ИИ в военный потенциал стала нормой для крупных военных держав по всему миру. И потому утечки секретных военных материалов кардинально поменяли свой характер.
✔️ Теперь наиболее ценные утечки содержат не документы, а наборы данных для обучения ИИ.
Вот новейший характерный пример – утекший в сеть китайский относительно небольшой набор данных Чжоусидун (переводится «Щит Зевса» или «Эгида» - мифическая могущественная сила, обладающая волшебными защитными свойствами).
Набор содержит «608 камерных и спутниковых фото американских эсминцев класса Arleigh Burke, а также других эсминцев и фрегатов союзников США" с ограничивающими рамками, нарисованными вокруг "радарных систем кораблей, являющихся частью боевой системы Aegis ... Ограничивающие рамки нарисованы вокруг радаров SPY на надстройке, один на левом борту и один на правом борту, а также вокруг вертикальных пусковых установок, расположенных ближе к носу и корме корабля".
Эти цитаты из только что опубликованной совместной работы исследователей Berkeley Risk and Security Lab и Berkeley AI Research Lab, озаглавленной «Open-Source Assessments of AI Capabilities: The Proliferation of AI Analysis Tools, Replicating Competitor Models, and the Zhousidun Dataset».
Авторы исследования обучили на этом наборе модель YOLOv8, а затем проверили ее успешность при идентификации радиолокационных изображений на кораблях для задачи нацеливания на них.
И хотя этот набор мал, проведенное исследование показывает, что обучать даже относительно небольшую открытую модель выявлять цели, а потом супер-точно наводить на них средства уничтожения, - хорошо решаемая практическая задача.
Военным же в таком случае можно будет целиком положиться на ИИ, который и цель выберет сам, и наведет на нее ракету.
Если же выбор цели окажется ошибочным, - ничего страшного. Значит ИИ просто плохо учили и надо переучить. Ведь и с людьми такое случается.
Короче, жуть ((
Несколько из 608 снимков набора данных https://telegra.ph/file/ffc419cb79d805bfa12fd.jpg
Набор данных и модель (если еще не прикрыли) https://universe.roboflow.com/shanghaitech-faxfj/zhousidun_model2
Исследование https://arxiv.org/pdf/2405.12167v1
#ИИ #Война #АвтономноеОружие