Малоизвестное интересное
63.5K subscribers
85 photos
1 video
11 files
1.78K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
​​Будущее уже наступило.
ИИ не должен быть революционным, чтобы изменить войну.

На разработку, производство и эксплуатацию самого грандиозного вооружения человечества - ядерного и термоядерного оружия, - тратятся колоссальные деньги. И при этом оно практически никак не изменило масштаб и характер (способы массовых убийств людей) войн.
На разработку, производство и эксплуатацию автомата АК-47 тратятся сравнительно мизерные средства. И при этом автомат Калашникова в корне поменял и масштаб, и способ массового убийства людей на войне.
Похожая история скоро произойдет с оружием на основе технологий ИИ.
• Война кардинально измениться.
• Но изменят ее не автономные танки с истребителями, не роботы-суперсолдаты и не суперинтеллект систем управления глобальным боем.
• Применение «обычного» ИИ изменит характер войн и тип воюющих сторон:
-- война переместится в города;
-- и воевать будут, в основном, не государства, а негосударственные субъекты в обличие мелких и средних военизированных формирований.

Новую прекрасную работу Джека Макдональда «Что если военный ИИ ждет облом?» следует прочесть не только военным. Ибо она способна стать отрезвляющим душем после опьяняющего чтения техно-сказок про чудо-возможности ИИ близкого будущего: всякие там сильные, сверхсильные и недосягаемо сильные ИИ.

Джек Макдональд – междисциплинарный военный эксперт факультета военных исследований Королевского колледжа Лондона и автор 2-х книг о взаимосвязях между этикой, законом, технологиями убийств и войной.

В своем новом эссе Макдональд анализирует причины растущего скептицизма по поводу «военной ИИ революции» все еще ожидаемой в ближайшем будущем.

Не будет никакой «военной ИИ революции», - пишет Макдональд.
• Военные, в отличие от гражданских, плохо ведутся на обещания обновленного функционала, дизайна, набора приложений и т.п.
• В новом дивном мире, где цена человеческой жизни скакнула на несколько порядков, воюющим сторонам нужно уметь: найти, распознать и убить любую цель: хоть в стоге сена, хоть на дискотеке, хоть на оживленной улице. Быстро, без шума и пыли.
• А вместо суперинтеллектуального и полностью автономного оружия, военным нужен обычный дрон с хорошим летным ресурсом и достаточным количеством взрывчатки, чтобы взорвать что-угодно, масштаба башен-близнецов.

Для пулеметов с распознаванием лиц и спутниковым наведением (типа того, что убил иранского физика-ядерщика Мохсена Фахризаде), для умных пуль типа «стрельнул в сторону противника и забыл», для роя хорошо упакованных взрывчаткой дронов, и много для чего еще – не нужен сильный сверхсильный и недосягаемо сильный ИИ. Все технологии уже есть. Осталось лишь решить оргвопросы на стыке законов и морали.

Но ведь решили же проблему самонаводящихся ракет. Никому сегодня не приходит в голову возмущаться этим «автономным оружием» и требовать его запрета. Считается, что это всего лишь автоматизации. Так почему бы не распространить «процесс автоматизации» на индивидуальное стрелковое оружие и дроны, способные на самостоятельный поиск, распознавание и уничтожение целей.

И второй важный момент, о котором пишет Макдональд.
Современный ИИ на основе машинного обучения – это быль и реальность сегодняшнего дня. Этот уже существующий ИИ способен принципиально иначе поменять суть военного противостояния сторон, чем гипотетический сильный ИИ далекого будущего.
• Сильный ИИ может позволить наиболее технологически развитым государствам уйти в отрыв от более слабых в технологиях государств и тем самым получить военное преимущество.
• «Обычный» ИИ в ближайшие годы позволит негосударственным субъектам успешно вести ограниченные по масштабу войны с любой сверхдержавой, сея хаос в ее самых уязвимых и ценных местах – больших городах.

Так что почитайте Макдональда. Очень отрезвляющее и одновременно ужасающее чтение.
https://jackmcdonald.org/book/2021/06/what-if-military-ai-sucks/

#Война #ИИ #AGI #БПЛА #ГибридныеКонфликты
Также по теме можно вспомнить еще кое какие мои посты с тэгами:
#ГибридныеКонфликты #AWS #БольшаяВойна
​​Weekend Video: дрон - идеальный шпион.
А также дрон-жук, муха, электронеуязвимый и вообще без пропеллера.

• Все самоуправляемые авто скучны и неинтересны своим единообразием. Те же авто, только без водителя.
• Зато дроны своим неисчерпаемым разнообразием напоминают насекомых. Здесь есть всё: от мух, комаров и бабочек до жуков, ос и стрекоз.
Эти 5 коротких видео – лишь малый пример для иллюстрации неисчерпаемого разнообразия «дронов-насекомых».

Этот идеальный шпион, обладает удивительной маневренностью, используя вытяжной вентилятор. Вообще без обучения он способен быстро летать по любому пространству с самыми сложными препятствиями, транслируя потоковое видео высокой четкости и собирая данные LiDAR. Облетит что угодно, не коснувшись. Работает полностью автономно, не требуя GPS.

Этот дрон-жук с надкрыльями разработан в EPFL Aerial Robotics. Они делают орнитоптеры, дронов-жуков, стрекоз, комаров …. Всё это летает поодиночке и роями (весьма интеллектуально).

Прототип дрона-мухи может трансформироваться в воздухе во время зависания, изменяя тип полета с горизонтального на вертикальный и наоборот, что позволяет садиться на стену и менять угол наклона к стене для ползания и альпинистских маневров.

Этот дрон-манипулятор не боится соприкосновений с линией электропередач 15 кВ. Электромонтеры тихо курят в сторонке.

А этот дрон-аэростат вообще без пропеллеров. Он оснащен видеокамерой высокого разрешения, которая снимает высококачественное видео. Меняя свой цвет и плавно паря среди толпы людей, эти молчаливые аэростаты идеальны для съемок на многолюдных мероприятиях.

#БПЛА
Технологии таки превзошли эволюцию.
Ни одно существо на Земле не умеет так летать.

Последствия этого будут серьезней всех предыдущих технологических революций, - о чем рассказывает Мартин Бранденбург в новом Weekend Video о создании полностью автономных дронов.
Многоногие роботы ловко передвигаются, танцуют и показывают акробатические номера. Но им далеко до гепардов, пауков и кузнечиков. Продукты технологий здесь существенно хуже продуктов эволюции.
Однако технологии в 2021 смогли превзойти эволюцию, создав полностью автономных дронов, которые:
1. прекрасно видят: шесть 4К навигационных камер для обзора на 360 ° (при таком зрении не нужны компасы, гироскопы, GPS, лидары … ничего более).
2. понимают, что они видят (распознавание объектов и сцен):
a. 256-и ядерный графический процессор 1.3Т операций / сек, обрабатывающий за секунду 500М пикселей;
b. 9 нейронных сетей, в реальном времени строящих 3D модели всего, что видят.
3. интеллектуально действуют: алгоритмы глубокого обучения работают как «предиктивный мозг», предсказывающий будущее для принятия разумных решений.
Эти дроны абсолютно автономны. Им нужно лишь дать задание, а дальше они все сами (см. видео)
https://www.youtube.com/watch?v=d1fZNmI5AHc

Но вот беда. Такие дроны – идеальные киллеры, отследить и помешать которым почти нереально. А их летающие группировки (а то и рои) полностью дегуманизируют войны, принимая автономные решения, кому жить, а кому нет.

Посмотрите всего 1 минуту, как это может быть очень скоро.
https://youtu.be/9rDo1QxI260?t=184

Послезавтра начнется конференция по конвенции о «негуманном» оружии. На ней будет рассмотрен предложенный Международным комитетом Красного Креста (МККК) мировой юридически обязывающий запрет на автономное оружие с искусственным интеллектом.

По экспертным оценкам, это предложение не пройдет, т.к. против запрета выступят США, Россия, Китай, Индия и Великобритания.
#Война #ИИ #БПЛА #AWS
Военный ИИ в разы превосходит людей по двум показателям.
И в штабе ВВС США они хорошо известны: уязвимость и самонадеянность.

В своем официальном выступлении генерал-майор Дэниел Симпсон (помощник заместителя начальника штаба по разведке, наблюдению и рекогносцировке Штаб-квартиры ВВС США) лишь озвучил три хорошо известных для американских военных факта.
1. Не самая высокая точность алгоритмов военных ИИ (из-за дефицита обучающих данных, несопоставимого, например, с морем данных для самоуправляемых авто) – это еще не самое плохое.
2. Куда хуже, что попытки преодолеть дефицит данных, используя небольшие наборы с локальной спецификой или синтетические – искусственно сгенерированные данные), делают военный ИИ крайне уязвимым. Т.е. малейшее отличие данных реальной военной ситуации (например, смена угла зрения) от ситуаций, на которых учился ИИ, ведет к катастрофическому снижению точности решений и действий ИИ.
3. Такую потерю точности люди прекрасно видят. Но в отличие от них, военный ИИ продолжает считать, что он - «верная рука – друг индейцев». В примере экспериментальных стрельб, приведенном генералом Симпсоном, ИИ продолжал считать свою точность 90%, даже когда по факту она была всего лишь 25%.
Подробней здесь https://www.defenseone.com/technology/2021/12/air-force-targeting-ai-thought-it-had-90-success-rate-it-was-more-25/187437/

Этот (как и вчерашний) пост приурочен к открывающейся завтра международной конференции. Теоретически, человечество уже на следующей неделе могло бы принять решение двигаться к юридически обязывающему запрету на автономное оружие с ИИ.
Но на практике, этого скорее всего не будет из-за нежелания США и ряда других стран пойти на полный запрет.

Целью же этого поста было подчеркнуть, что несовершенство и уязвимость любых разновидностей автономного ИИ оружия, в сочетании с их нечеловеческой аморальностью и самонадеянностью, - прокладывают путь к таким массовым убийствам, за которые и осудить будет некого. Ибо главное преимущество ИИ не в уровне его интеллекта. А в том, что он неподсуден.

• Специалисты по ИИ это знают и 73% опрошенных среди них против автономного ИИ оружия.
• Военные (судя по тому, что сказал генерал Симпсон) тоже в курсе того, насколько это неэффективно и опасно.
Получается, что против запрещения автономного ИИ оружия лишь политики?
#Война #ИИ #БПЛА #AWS
Лицензия ИИ на убийство людей продлена на неограниченный срок.
8 лет экспертных обсуждений спущены в унитаз.

Завершившаяся в пятницу в Женеве 6-я конференция по рассмотрению действия Конвенции о запрещении или ограничении применения конкретных видов обычного оружия теперь войдет в историю.
• 8 лет человечество обсуждало необходимость введения юридически значимых международных правил защиты людей от автономного смертельного оружия (роботов-убийц, принимающих решения с минимальным участием человека или без него).
• Впервые большинство из 125 стран заявили, что хотят ограничить возможности роботов-убийц.
• США, Россия, Великобритания и Индия заблокировали такое решение.

Моральные, этические и гуманитарные риски, риски безопасности и правовые риски, применения роботов-убийц оказались далеко не самым важным вопросом для Конвенции ООН.
Конференция завершилась в пятницу лишь расплывчатым заявлением о целесообразности в 2022 рассмотреть возможность поиска приемлемых для всех стран мер по данному вопросу.
«Я подумаю об этом завтра», - говорила в подобных случаях героиня «Унесенных ветром» Скарлетт О`Хара. Но проблема в том, что завтра может быть поздно.

За день до этого, в ходе дискуссии, организованной Международным Красным Крестом, я предсказал ровно этот бесславный итог конференции, за который очень скоро будет заплачено многими жизнями людей.

Мое выступление и ответы на вопросы (22 мин) можно посмотреть здесь.
https://www.youtube.com/watch?v=oG9FICaJRcI

#Война #ИИ #БПЛА #AWS
​​Интеллектуальная война – это гипервойна, война на истощение, междоменные боевые действия и операции когнитивного контроля.
Резюме отчета Минобороны США о военной мощи Китая.

Вопросы войны сейчас как никогда актуальны. Но кроме России и Украины, в мире есть и другие игроки, от военной мощи которых будущее зависит куда сильнее.
В первую очередь, - это Китай, до завершения «великой модернизации» которого осталось пять этапов.

1. К 2025 осуществить импортозамещение ключевых высокотехнологичных товаров: от сельскохозяйственных технологий до морской и аэрокосмической техники.
2. К 2027 модернизировать армию Китая до уровня, позволяющего успешно вести «интеллектуальную» войну.
3. К 2030 стать мировым лидером в ИИ.
4. К 2035 завершить мировое продвижение китайских стандартов функциональной совместимости новых технологий.
5. К 2049 году достичь своей столетней цели и превратиться в «современную социалистическую страну, которая будет процветающей, сильной, демократической, культурно развитой и гармоничной».

Только что опубликованный отчет Минобороны США о текущем состоянии и перспективах наращивания военной мощи Китая – это обстоятельный (173 стр) разбор п. 2 (как Китай модернизирует армию для ведения интеллектуальных войн).

Выделенные мною ключевые моменты таковы.

✔️ Ракетно-ядерное оружие больше не приоритет (если потребуется Китай уже способен нанести непоправимый урон любой географической точке Земли, но доктрина взаимного уничтожения делает подобные удары неприемлемыми для Китая).

✔️ Взят 100%-ный курс на «интеллектуальную» войну.
Она включает в себя:
-- Гипервойну, при которой во многих случаях отсутствует доступ к оперативным данным на поле боя, а скорость и темп операций превосходит физическую и ментальную реакцию людей.
-- Войну на истощение , которую ведут рои интеллектуальных дронов.
-- Междоменные боевые действия включают в себя ИИ-конфронтацию в космосе, радиоэлектронную борьбу и кибероперации.
-- Операции когнитивного контроля - направленное изменение восприятия, оценок и прогнозов динамики военного противостояния в сознании лиц, принимающих решения на стороне противника.

✔️ Детальный анализ, основные открытые положения которого приведены в отчете, приводит к трём выводам:
-- Ставка Китая на технологическое военное лидерство верная.
-- Шансы достичь технолидерства у Китая есть, и никто в мире (кроме США) не способен этому помешать.
-- Имеет место разрыв между видением Китая будущей «интеллектуальной» войны и реальными возможностями Китая. Это делает заявления, будто лидерство США в оборонных инновациях «почти потеряно», преждевременными.

N.B. Согласно отчету, Россия – единственный стратегический военный партнер Китая. И поэтому в отчете 67 упоминаний России.
#Китай #Война #ИИ #БПЛА
«Нового средневековья» не будет.
Дроны не приведут к «эпохе вечных войн».

Таков вывод глубокого анализа, опубликованного MIT Press Direct в новом выпуске «Международная безопасность».
За последнюю пару лет в мире сложилось представление, что дроны оказывают революционное влияние на войну и мировую политику.
Считается, что дроны, якобы:
• смещают военный баланс в пользу нападения,
• уменьшают существующую асимметрию в военной силе между более слабой и более сильной стороной военного конфликта;
• девалюируют значение ближнего боя в ходе современных военных операций.
Дошло до того, что появились теоретические работы, предрекающие наступление «нового средневековья», в котором:
• множество государственных и негосударственных акторов могут вести крупномасштабные войны, что повлечет за собой тотальное усиление нестабильности и конфликтов;
• и поскольку использование дронов на войне сильно снижает финансовые затраты и людские потери, они делают более политически целесообразным для государств «продолжать стрелять вечно», открывая тем самым эпоху вечных войн.

Авторы нового отчета детально проанализировали три практический кейса войн, в которых широко использовались БПЛА: военная кампания в Западной Ливии во время второй гражданской войны в Ливии (2019–2020 гг.), гражданская война в Сирии (2011–2021 гг.) и армяно-азербайджанский конфликт из-за Нагорного Карабаха (2020 г.)

Вывод авторов – все вышеописанные предположения о военной «революции дронов» ошибочны.
✔️ В реальности к дронам применима старая как мир парадигма щита и меча (или снаряда и брони).
✔️ Дроны – это всего лишь новый «меч». Им противостоит новый «щит» из 3х элементов: новые системы ПВО, системы радиоэлектронной борьбы и специально обученный квалифицированный военный персонал (люди плюс элементы ИИ).
✔️ При наличии у обеих сторон трех названных элементов нового «щита», никакой революции в военных конфликтах не будет.

Но все может кардинально измениться в будущем – когда управление и «щитом», и «мечом» 100%но перейдет к ИИ, исключив человека из контура управления.
Но это будет уже не «новое средневековье», а нечто еще более опасное.

https://direct.mit.edu/isec/article/46/4/130/111172/Why-Drones-Have-Not-Revolutionized-War-The
#БПЛА #Война #ИИ
​​Обезвредить за 60 сек.
Новая технология гуманного антишутинга.

Нелетальные дроны + иммерсивный VR + интеграция сети камер.
Компания Axon, мировой лидер в области высокотехнологического оружия для военных и правоохранительных органов, вчера официально объявила о начале разработки технологии гуманного антишутинга (пресечения массовых расстрелов), широкое применение которой запланировано на 2024 (1).
Назначение технологии Axon TASER – максимум за минуту пресечь любую пальбу, начавшуюся в местах скопления людей (школы, торговые центры и т.д.), не убивая стрелка.

Технология основана на 3х столпах.
1. Интеграция в реальном времени сети всех камер (стационарных и нательных) в районе массовых скоплений людей.
2. Обучение и переподготовка экспертов-антишутеров на специальных тренажерах иммерсивной виртуальной реальности (VR) Active Shooter Response Training (2).
3. Немедленное (до 60 сек от первого выстрела) выведение из строя стрелка с помощью дистанционно управляемых нелетальных дронов, оснащенных тазером (цифровой электрошокер нового поколения) (3)

Кто-то скажет, что и за 1 минуту шутер может многих подстрелить.
Всё так. Только сейчас на нейтрализацию шутера уходит от 20 до 90 минут.

«В 2020 году в результате пожаров в США погибло 3,5 тыс. человек. В том же году 45+ тыс. человек погибли от травм, связанных с огнестрельным оружием. В США установлено более 10 млн. пожарных гидрантов, и в каждом современном здании есть системы пожаротушения, способные сдерживать пожары, пока не прибудут пожарные», — отмечает гендир и основатель Axon Рик Смит. «Я считаю, что мы можем создать системы, которые могут обнаруживать и останавливать стрелка в зданиях с массовым скоплением людей по цене, сравнимой или меньшей, чем системы пожаротушения»

N.B. Правозащитники уверены, что новая система будут также использоваться для пресечения общественных протестов, ибо:
- проблемы Джорджа Флойда не будет, т.к. не будет убийства, но всех, кого надо, будут мгновенно выводить из строя;
- хоть дрон и управляемый, но с оператора спрос совсем не тот, как с полицейского, ненароком прибившего протестующего (например, присудят переподготовку на тренажере иммерсивной VR).


1 2 3
#БПЛА
​​Проблема 37-го хода военного ИИ.
Люди могут просто не понять, что это их спасение или конец.

Автономное летальное оружие (АЛО): 1) уже существует и 2) скоро станет штатным элементом всех систем ведения военных действий.
Т.е. ящик Пандоры открыт, его уже не закрыть и нужно срочно решать, как предотвратить худшие из последствий.
А эти последствия: а) весьма разнообразны и б) что самое ужасное, предотвратить многие из них известными людям способами просто невозможно.
✔️ АЛО невозможно запретить (как химическое и бактериологическое оружие), ибо не существует средств контроля за разработками ИИ алгоритмов.
✔️ Невозможно ограничить автономизацию обычного (неавтономного) оружия, превращающую его в АЛО (превратить обычную бомбу в ядерную - сверхзадача, а для автономизации боевого дрона достаточно за 5 сек сменить его прошивку)
✔️ Попытки описать правила применения АЛО, оставляющие смертельные решение за людьми, столь же наивны, как надежды оставить за водителем решения по управлению авто, когда на принятие таких решений остается куда меньше 100 миллисекунд.


Но самым непреодолимым видится невозможность понять почему алгоритм принимает то или иное решение. И дело здесь не только в проблеме «черного ящика» (как сделать решения ИИ доступными для осмысления людьми).
Даже если такое осмысление в принципе возможно (как например это было со знаменитым нечеловечески хитрым и дальновидным 37-м ходом AlphaGo во 2-й игре против Lee Sedol), в реальных военных ситуациях на это не будет времени.
Если оставить окончательное решение за человеком, то он может просто не успеть понять спасительность и единственность решения, предложенного АЛО. Или вообще не понять, подобно экспертам по игре в Го, что единодушно сочли 37-й ход AlphaGo ошибкой.
А если и поймет, то скорее всего, к тому времени уже будет поздно.

• Почитайте про это в новом совместном отчете BAE Systems и WIRED Consulting «Robotic Weapons Are Coming – What Should We Do About It?»
• Мою презентацию и выступление на эту тему в ходе организованной МККК дискуссии «Цифровые технологии в вооруженных конфликтах: смягчение гуманитарных последствий» можно посмотреть здесь (22 мин).
#Война #ИИ #БПЛА #AWS
Дрон убил своего оператора, решив, что тот мешает выполнению миссии.
А чтобы не мешали другие, взорвал вышку связи.

Это произошло в ходе симуляции выполнения миссии группой военных дронов, управляемых ИИ под контролем оператора.
БПЛА должны были уничтожать объекты ПВО противника, получая на каждый удар окончательное разрешение от оператора.
• Все шло по плану, пока оператор не запретил уничтожать ряд объектов, идентифицированных ИИ в качестве целей.
• Решив, что оператор мешает закончить выполнение миссии, ИИ взорвал оператора.
• Чтобы исправить ситуацию, управляющие симуляцией военные программисты в явном виде запретили ИИ убивать своих операторов.
• Тогда ИИ пошел иным путем: взорвал вышку связи, чтобы никто более не мешал ему закончить миссию.


Эта история была рассказана полковником ВВС Такером Гамильтоном на майской оборонной конференции Королевского аэрокосмического общества Future Combat Air & Space Capabilities Summit (70 докладчиков и 200+ делегатов из вооруженных сил, научных кругов и средств массовой информации со всего мира).

После публикации резюме докладов на сайте Королевского аэрокосмического общества, об этом немедленно написали TheWarZone, INSIDER и TheGardian. После чего Интернет, понятное дело, взорвался десятками материалов в СМИ.

Я же хочу обратить внимание читателей на два момента.

1) Рассказанная полковником Гамильтоном история весьма странная и даже темная.
• С одной стороны, Энн Стефанек (пресс-секретарь штаб-квартиры ВВС в Пентагоне) отрицает, что такая симуляция имела место.
• С другой стороны, Королевское аэрокосмическое общество не убирает резюме выступления полковника Гамильтона «AI – is Skynet here already?» со своего сайта.
• Наконец, в-третьих, полковник Гамильтон – не та фигура, чтобы травить анекдоты на серьезной оборонной конференции. Он начальник отдела испытаний и операций ИИ и глава 96-й оперативной группы в составе 96-го испытательного крыла на базе ВВС Эглин во Флориде – это центр испытаний автономных продвинутых БПЛА. А еще он принимает непосредственное участие в экспериментах Project Viper и проекте операций следующего поколения (VENOM) в Эглине (управляемые ИИ истребители F-16 Vipe). Так что, какие уж тут шутки и анекдоты.

Будем смотреть на развитие событий в этом скандале.

2) И это, пожалуй, самое важное в контексте истории, рассказанной полковником.
• Любая антропоморфизация ИИ (ИИ захотел, подумал и т.д.) – это полная чушь (здесь под антропоморфизацией ИИ понимается вводящее в заблуждение описание нечеловеческих сущностей с точки зрения человеческих свойств, которых у них нет).
• Поэтому ИИ даже самых продвинутых больших языковых моделей не может захотеть, подумать, обмануть или самоозознать себя. Но такие ИИ вполне способны своим поведением производить на людей впечатление, будто они это могут.
• По мере того, как диалоговые агенты становятся все более похожими на людей в своих действиях, крайне важно разработать эффективные способы описания их поведения в высокоуровневых терминах, не попадая в ловушку антропоморфизма.
• И это уже делается с помощью симуляции ролевых игр: например, в DeepMind сделали симуляцию диалогового агента, осуществляющего (кажущийся) обман и (кажущуюся) самоосознанность.

И это реальная симуляция в рамках вполне научного исследования.
#БПЛА #Война #ИИ
Очень скоро война превратится в 5=ю казнь апокалипсиса.
Против умной «саранчи в железных нагрудниках» все бессильно.


«И грудь у неё была, словно железная броня, а шум её крыльев был подобен грохоту множества колесниц, влекомых скакунами, рвущимися в бой.» Откровение 9:7—9)

По Библии, пятой казнью апокалипсиса будет «саранча в железных нагрудниках», против которой никто и ничто не устоит.

В технологическом переложении 20-го века непобедимость роя «железной саранчи» прекрасно описал Станислав Лем в романе «Непобедимый». Там даже самый мощный робот космического корабля со знаковым именем «Непобедимый», вооружённый системой силовых полей и сферическим излучателем антиматерии, оказался бессилен перед миллиардным роем крохотных летающих роботов.

В современном переложении об этом пишут Эллиот Акерман и адмирал Джеймс Ставридис:
• в формате эссе «Рои беспилотников изменят баланс военной мощи» [1]
• в формате романа «2054», в котором они размышляют о многих аспектах и роли ИИ в будущих военных конфликтах [2].

Ключевая идея этих авторов проста и безотбойна – сочетание роя дронов с ИИ кардинально меняет ход боя.

«По своей сути ИИ — это технология, основанная на распознавании образов. В военной теории взаимодействие между распознаванием образов и принятием решений известно как цикл НОРД — наблюдать, ориентироваться, решать, действовать. Теория петли (цикла) НОРД, разработанная в 1950-х годах летчиком-истребителем ВВС Джоном Бойдом, утверждает, что сторона в конфликте, которая сможет быстрее пройти через петлю НОРД, будет обладать решающим преимуществом на поле боя».

Для максимально быстрого прохождения петли НОРД нужно автономное и адаптивное оружие.
• Промышленные роботы являются примером автономных, но неадаптивных машин: они неоднократно выполняют одну и ту же последовательность действий.
• И наоборот, беспилотные дроны являются примером адаптивных, но неавтономных машин: они демонстрируют адаптивные возможности своих удаленных людей-операторов.

Рой дронов столь же адаптивен, но неавтономен, как и единственный дрон. Но для дрона-одиночки эта проблема решается его связкой с оператором (или примитивизацией функций). А для роя дронов такого числа операторов не напасешься (и функции упрощать не хочется). Но невозможно запустить тысячи автономных дронов, пилотируемых отдельными людьми. А вычислительные возможности ИИ делают такие рои возможными.

Если роем будет управлять ИИ, проблема адаптивности и автономности роя более не существует. Связка роя и ИИ станет самым быстрым исполнителем прохождения петли НОРД.

Акерман и Ставридис пишут:
«Это изменит ведение войны. Гонка будет вестись не за лучшие платформы, а за лучший ИИ, управляющий этими платформами. Это война циклов НОРД, рой против роя. Победит та сторона, которая разработает систему принятия решений на основе ИИ, способную опередить противника. Война движется к конфликту "мозг против мозга"»

И оба мозга будут электронные, - добавлю я от себя.

P.S. В одном Аккерман и Ставридис, имхо, ошибаются:
• Рои дронов с ИИ – это лишь ближняя перспектива (т.н. ПЖРы – полуживые роботы [3])
• В 2054, про который пишется в романе, ПЖР уже уступят место еще более интеллектуально продвинутому «жидкому мозгу» [4]

#БПЛА #Война #ИИ #Роботы
1 https://www.wsj.com/tech/drone-swarms-are-about-to-change-the-balance-of-military-power-e091aa6f
2 https://www.penguinrandomhouse.com/books/696977/2054-by-elliot-ackerman-and-admiral-james-stavridis/
3 https://t.iss.one/theworldisnoteasy/454
4 https://t.iss.one/theworldisnoteasy/654