FSCP
17.4K subscribers
30.5K photos
3.54K videos
862 files
77.9K links
another filter bubble канал изначально созданный несколькими друзьями чтобы делиться копипастой, иногда оценочным суждением

технологии, деньги, социум

редакция @id9QGq_bot
реклама @johneditor
в будущее возьмут не всех
выводы самостоятельно

мир меняется
Download Telegram
Forwarded from The Idealist
The Atlantic: Как Первая Мировая Война способствовала революции в медицине

Мировые войны стали чудовщиными трагедиями 20 века, унёсшими жизни сотен миллионов. Только в Первую мировую одних лишь солдат погибло по приблизительным оценкам 10 миллионов человек. Однако никакое явление не бывает абсолютно негативным, даже такое страшное как война. Первая массовая бойня 20 столетия и новые, сверхэффективные способы убийства, появившиеся на поле боя, бросили серьёзный вызов докторам того времени. В результате медицина сделала значительный шаг вперёд: именно в период с 1914 по 1918 годы появились такие инновации как моторизованная скорая помощь, антисептики, анестезия. Таким образом медицинские разработки, возникшие в ходе войны, с тех пор спасли бессчётное количество жизней.

"Мэри Мерритт Кроуфорд, единственная женщина-врач Американского госпиталя во время войны, позже отмечала, что война принесла смерть и разрушения, но также открыла пути к прогрессу: "Война приносит больше пользы медицине, чем что-либо ещё. Это ужасно, конечно, но это так".

https://theidealist.ru/ww1medicine/

#TheAtlantic #власть #общество #война #медицина
​​Зачем ИИ собачьи бои.
Фейковая победа ИИ в воздушном бое.

Ширнармассы получили новое подтверждение – супер-ИИ уже на подходе. В шахматы ИИ людей обыграл, в Го и покер тоже. Ну а теперь уже не игры, а самое серьезное из дел – война. Целую неделю техноэнтузиасты и бизнес-бенефициары ИИ с восторгом рассказавают ширнармассам, что в воздушном бою истребителей ИИ, как Тузик грелку, порвал летчика-аса. При этом особый восторг выражается по части того, что в воздушном бою, как и в играх, алгоритмы не просто действуют сильнее людей, а действуют совсем по-другому – так, как людям и в голову не приходит.

Но все подобные рассказы - 100%ный фейк. Чистой воды постановочное шоу с единственной целью – под шумиху в медиа выбивать новый бюджеты. Ну а зачем этот низкопробный театр рекламируют в медиа, - спрашивать бессмысленно. Тизер «человек укусил собаку» сегодня звучит «ИИ победил в собачьих боях». Именно так – Dogfight, - называется тот тип воздушного боя, в котором ИИ победил человека.

«Собачий бой» - это бой боевых самолетов на предельно малом расстоянии, когда они маневрируют на грани предельного риска, как для самолета (из-за потери управляемости), так и для пилота (из-за предельных перегрузок).

«В таком бою у человека не было ни шанса». Так написала про этот «театр» Missy Cummings – одна из редких высочайших профессионалов, одинаково хорошо разбирающаяся в ИИ (профессор робототехники) и воздушном бое (одна из первых женщин-летчиц истребителей ВМС США). Это как соревноваться с ИИ-автопилотом в том, кто первым свернёт, несясь на 250 км/час лоб в лоб. У него и «нервы» крепче, и реакция не в пример человеческой, да и себя ему совсем не жалко, в отличии от нас – белковых дрожащих и потеющих от страха тварей.

Кроме того, такой стиль маньяка-камикадзе не может пригодиться и в бою дронов. Зачем вообще стращать противника, проносясь мимо в 3х метрах, если можно шваркнуть по нему из пушки с дальнего расстояния. Поэтому «собачий бой» с его тараном в стиле штабс-капитана Нестерова или «подрубанием» винтами хвост противника, давным-давно забыли. Современное искусство воздушного боя в том, чтобы первым обнаружить противника в воздухе и сбить его ракетой до того, как он обнаружит тебя.

Что же до тактики ИИ, победившего несчастного пилота, то в ВВС США она запрещена: и лобовые атаки и подлет к противнику ближе 150 м. Это позволяет избежать столкновения самолетов в воздухе и попадание истребителя в облако обломков взорвавшегося противника. Более того, летчиков учат держаться подальше от противника, дабы расширить возможности маневра, наведения на цель и уклонения от обстрела. Ну а ИИ на всё это забил, действуя против всех существующих правил и ведя себя, как сумасшедший с бензопилой.

Объяснять дальше этот фейк, думаю, нет нужды.
А как же на самом деле обстоят дела с военным автопилотом?
Почитайте Missy Cummings, она в этом спец. А если в 2х словах, то так:
1. ИИ превосходит людей в некоторых задачах, основанных на навыках и правилах. Однако, в ситуациях, требующих суждений и знаний при наличии значительной неопределенности, люди несравненно сильнее ИИ.
2. Посему ИИ отличная штука в конфигурации кентавра с человеком. ИИ разгружает пилота от рутины, филигранно выполняя действия, описываемые правилами, пока человек думает, оценивает, соизмеряет стратегию с тактикой и принимает решения.
#ИИ #Война #БеспилотныеАвто
​​Будущее уже наступило.
ИИ не должен быть революционным, чтобы изменить
войну.
На разработку, производство и эксплуатацию самого грандиозного вооружения человечества - ядерного и термоядерного оружия, - тратятся колоссальные деньги. И при этом оно практически никак не изменило масштаб и характер (способы массовых убийств людей) войн.
На разработку, производство и эксплуатацию автомата АК-47 тратятся сравнительно мизерные средства. И при этом автомат Калашникова в корне поменял и масштаб, и способ массового убийства людей на войне.
Похожая история скоро произойдет с оружием на основе технологий ИИ.
Война кардинально измениться.
• Но изменят ее не автономные танки с истребителями, не роботы-суперсолдаты и не суперинтеллект систем управления глобальным боем.
• Применение «обычного» ИИ изменит характер войн и тип воюющих сторон:
-- война переместится в города;
-- и воевать будут, в основном, не государства, а негосударственные субъекты в обличие мелких и средних военизированных формирований.

Новую прекрасную работу Джека Макдональда «Что если военный ИИ ждет облом?» следует прочесть не только военным. Ибо она способна стать отрезвляющим душем после опьяняющего чтения техно-сказок про чудо-возможности ИИ близкого будущего: всякие там сильные, сверхсильные и недосягаемо сильные ИИ.

Джек Макдональд – междисциплинарный военный эксперт факультета военных исследований Королевского колледжа Лондона и автор 2-х книг о взаимосвязях между этикой, законом, технологиями убийств и войной.

В своем новом эссе Макдональд анализирует причины растущего скептицизма по поводу «военной ИИ революции» все еще ожидаемой в ближайшем будущем.

Не будет никакой «военной ИИ революции», - пишет Макдональд.
• Военные, в отличие от гражданских, плохо ведутся на обещания обновленного функционала, дизайна, набора приложений и т.п.
• В новом дивном мире, где цена человеческой жизни скакнула на несколько порядков, воюющим сторонам нужно уметь: найти, распознать и убить любую цель: хоть в стоге сена, хоть на дискотеке, хоть на оживленной улице. Быстро, без шума и пыли.
• А вместо суперинтеллектуального и полностью автономного оружия, военным нужен обычный дрон с хорошим летным ресурсом и достаточным количеством взрывчатки, чтобы взорвать что-угодно, масштаба башен-близнецов.

Для пулеметов с распознаванием лиц и спутниковым наведением (типа того, что убил иранского физика-ядерщика Мохсена Фахризаде), для умных пуль типа «стрельнул в сторону противника и забыл», для роя хорошо упакованных взрывчаткой дронов, и много для чего еще – не нужен сильный сверхсильный и недосягаемо сильный ИИ. Все технологии уже есть. Осталось лишь решить оргвопросы на стыке законов и морали.

Но ведь решили же проблему самонаводящихся ракет. Никому сегодня не приходит в голову возмущаться этим «автономным оружием» и требовать его запрета. Считается, что это всего лишь автоматизации. Так почему бы распространить «процесс автоматизации» на индивидуальное стрелковое оружие и дроны, способные на самостоятельный поиск, распознавание и уничтожение целей.

И второй важный момент, о котором пишет Макдональдс.
Современный ИИ на основе машинного обучения – это быль и реальность сегодняшнего дня. Этот уже существующий ИИ способен принципиально иначе поменять суть военного противостояния сторон, чем гипотетический сильный ИИ далекого будущего.
• Сильный ИИ может позволить наиболее технологически развитым государствам уйти в отрыв от более слабых в технологиях государств и тем самым получить военное преимущество.
• «Обычный» ИИ в ближайшие годы позволит негосударственным субъектам успешно вести ограниченные по масштабу войны с любой сверхдержавой, сея хаос в ее самых уязвимых и ценных местах – больших городах.

Так что почитайте Макдональдса. Очень отрезвляющее и одновременно ужасающее чтение.
jackmcdonald.org

#Война #ИИ #AGI #БПЛА #ГибридныеКонфликты
Такж <...>
_______
Источник | #theworldisnoteasy
#война

А вот и первый пострадавший в войне РКН со здравым смыслом. Это Cloudflare с сервисом WARP VPN

community.cloudflare.com

Что случилось: 20 августа, это была прошлая пятница. Именно в этот день начались блокировки приложения "Умного голосования" на ТСПУ. В обход описанной законом процедуре. Ну, то есть, все блокировки происходят просто потому что. Без каких-то законных оснований.

И это наша новая реальность, кстати. Теперь вы никак не сможете узнать почему тот или иной сервис и/или сайт ВНЕЗАПНО перестал работать. Обратите на это внимание.

Так вот, 20 августа начались блокировки, которые осуществляются с переменным успехом — надо признать, что эти вот ТСПУ стали более эффективны в разломании интернетов, чем предыдущая система, которой РКН пытался забанить Телеграм.

И тогда, в пятницу, же перестал работать сервис WARP 1.1.1.1 от Cloudflare.

Пользователи пытались разобраться и были сообщения типа VPN is not blocked, current dynamic IP is blocked. Потом таки нашли запись от 2019 года, где в записях есть IP 104.19.153.125, который был заблокирован ФНС за гэмблинг (отдельная тема, но сейчас не про них), а сейчас разрешается для cloudflareportal.com

Пользователи попросили вручную сменить IP, но в комьюнити ответили, что WARP вообще-то не предназначен для обхода госблокировок. (cloudflare warp is not designed for bypass vpn/government blocks, so nothing Cloudflare can do, in this case). Что правда — WARP это скорее сервис для гарантированного резолвинга DNS и защиты от подмены этого самого DNS.

Как это связано с приложением "Умного голосования"? ДА НИКАК. Просто в один и тот же день начали блокировать УМГ и перестал работать начал глючить WARP. Возможно, дуболомы из РКН решили, что обход блокировок использует Cloudflare.

В реальности, WARP работает, но действительно начал глючить и сбоить. У некоторых операторов неприемлемо глючить. Особенно WARP глючит у Билайна. Знаете почему? Постоянные читатели канала наверняка догадаются: фамилия причины — Рашид Исмаилов. Он очевидно решил немного добить эту хромую лошадь тем, что потратит гору денег акционеров для укрепления режима цензуры.

UPD: забыл же!
Cloudflare таки изменил IP адрес WARP. Теперь это 104.18.115.82. Но мудилки из РКН — я знаю, что вы читаете — IP там теперь будут менять динамически.
_______
Источник | #zatelecom
#война
Вчера жертвой РКН по борьбе с интернетом пал... WoWS — World of WarShips.

Пруф на много проклятий.

И да — вчера было много жалоб на отвал WireGuard. Лечится очень просто — заменой порта на какой-нибудь общеприменимый. Ну, например... 80!

(да, хваленый ТСПУ за много миллиардов режет по порту)

Свяжитесь со своим поставщиком VPN и поменяйте настройки.
_______
Источник | #zatelecom
Технологии таки превзошли эволюцию.
Ни одно существо на Земле не умеет так летать.

Последствия этого будут серьезней всех предыдущих технологических революций, - о чем рассказывает Мартин Бранденбург в новом Weekend Video о создании полностью автономных дронов.
Многоногие роботы ловко передвигаются, танцуют и показывают акробатические номера. Но им далеко до гепардов, пауков и кузнечиков. Продукты технологий здесь существенно хуже продуктов эволюции.
Однако технологии в 2021 смогли превзойти эволюцию, создав полностью автономных дронов, которые:
1. прекрасно видят: шесть 4К навигационных камер для обзора на 360 ° (при таком зрении не нужны компасы, гироскопы, GPS, лидары … ничего более).
2. понимают, что они видят (распознавание объектов и сцен):
a. 256-и ядерный графический процессор 1.3Т операций / сек, обрабатывающий за секунду 500М пикселей;
b. 9 нейронных сетей, в реальном времени строящих 3D модели всего, что видят.
3. интеллектуально действуют: алгоритмы глубокого обучения работают как «предиктивный мозг», предсказывающий будущее для принятия разумных решений.
Эти дроны абсолютно автономны. Им нужно лишь дать задание, а дальше они все сами (см. видео)
www.youtube.com

Но вот беда. Такие дроны – идеальные киллеры, отследить и помешать которым почти нереально. А их летающие группировки (а то и рои) полностью дегуманизируют войны, принимая автономные решения, кому жить, а кому нет.

Посмотрите всего 1 минуту, как это может быть очень скоро.
youtu.be

Послезавтра начнется конференция по конвенции о «негуманном» оружии. На ней будет рассмотрен предложенный Международным комитетом Красного Креста (МККК) мировой юридически обязывающий запрет на автономное оружие с искусственным интеллектом.

По экспертным оценкам, это предложение не пройдет, т.к. против запрета выступят США, Россия, Китай, Индия и Великобритания.
#Война #ИИ #БПЛА #AWS
_______
Источник | #theworldisnoteasy
Военный ИИ в разы превосходит людей по двум показателям.
И в штабе ВВС США они хорошо известны: уязвимость и самонадеянность.

В своем официальном выступлении генерал-майор Дэниел Симпсон (помощник заместителя начальника штаба по разведке, наблюдению и рекогносцировке Штаб-квартиры ВВС США) лишь озвучил три хорошо известных для американских военных факта.
1. Не самая высокая точность алгоритмов военных ИИ (из-за дефицита обучающих данных, несопоставимого, например, с морем данных для самоуправляемых авто) – это еще не самое плохое.
2. Куда хуже, что попытки преодолеть дефицит данных, используя небольшие наборы с локальной спецификой или синтетические – искусственно сгенерированные данные), делают военный ИИ крайне уязвимым. Т.е. малейшее отличие данных реальной военной ситуации (например, смена угла зрения) от ситуаций, на которых учился ИИ, ведет к катастрофическому снижению точности решений и действий ИИ.
3. Такую потерю точности люди прекрасно видят. Но в отличие от них, военный ИИ продолжает считать, что он - «верная рука – друг индейцев». В примере экспериментальных стрельб, приведенном генералом Симпсоном, ИИ продолжал считать свою точность 90%, даже когда по факту она была всего лишь 25%.
Подробней здесь www.defenseone.com

Этот (как и вчерашний) пост приурочен к открывающейся завтра международной конференции. Теоретически, человечество уже на следующей неделе могло бы принять решение двигаться к юридически обязывающему запрету на автономное оружие с ИИ.
Но на практике, этого скорее всего не будет из-за нежелания США и ряда других стран пойти на полный запрет.

Целью же этого поста было подчеркнуть, что несовершенство и уязвимость любых разновидностей автономного ИИ оружия, в сочетании с их нечеловеческой аморальностью и самонадеянностью, - прокладывают путь к таким массовым убийствам, за которые и осудить будет некого. Ибо главное преимущество ИИ не в уровне его интеллекта. А в том, что он неподсуден.

• Специалисты по ИИ это знают и 73% опрошенных среди них против автономного ИИ оружия.
• Военные (судя по тому, что сказал генерал Симпсон) тоже в курсе того, насколько это неэффективно и опасно.
Получается, что против запрещения автономного ИИ оружия лишь политики?
#Война #ИИ #БПЛА #AWS
_______
Источник | #theworldisnoteasy
Лицензия ИИ на убийство людей продлена на неограниченный срок.
8 лет экспертных обсуждений спущены в унитаз.

Завершившаяся в пятницу в Женеве 6-я конференция по рассмотрению действия Конвенции о запрещении или ограничении применения конкретных видов обычного оружия теперь войдет в историю.
• 8 лет человечество обсуждало необходимость введения юридически значимых международных правил защиты людей от автономного смертельного оружия (роботов-убийц, принимающих решения с минимальным участием человека или без него).
• Впервые большинство из 125 стран заявили, что хотят ограничить возможности роботов-убийц.
• США, Россия, Великобритания и Индия заблокировали такое решение.

Моральные, этические и гуманитарные риски, риски безопасности и правовые риски, применения роботов-убийц оказались далеко не самым важным вопросом для Конвенции ООН.
Конференция завершилась в пятницу лишь расплывчатым заявлением о целесообразности в 2022 рассмотреть возможность поиска приемлемых для всех стран мер по данному вопросу.
«Я подумаю об этом завтра», - говорила в подобных случаях героиня «Унесенных ветром» Скарлетт О`Хара. Но проблема в том, что завтра может быть поздно.

За день до этого, в ходе дискуссии, организованной Международным Красным Крестом, я предсказал ровно этот бесславный итог конференции, за который очень скоро будет заплачено многими жизнями людей.

Мое выступление и ответы на вопросы (22 мин) можно посмотреть здесь.
www.youtube.com

#Война #ИИ #БПЛА #AWS
_______
Источник | #theworldisnoteasy
«Нового средневековья» не будет.
Дроны не приведут к «эпохе вечных
войн».
Таков вывод глубокого анализа, опубликованного MIT Press Direct в новом выпуске «Международная безопасность».
За последнюю пару лет в мире сложилось представление, что дроны оказывают революционное влияние на войну и мировую политику.
Считается, что дроны, якобы:
• смещают военный баланс в пользу нападения,
• уменьшают существующую асимметрию в военной силе между более слабой и более сильной стороной военного конфликта;
• девалюируют значение ближнего боя в ходе современных военных операций.
Дошло до того, что появились теоретические работы, предрекающие наступление «нового средневековья», в котором:
• множество государственных и негосударственных акторов могут вести крупномасштабные войны, что повлечет за собой тотальное усиление нестабильности и конфликтов;
• и поскольку использование дронов на войне сильно снижает финансовые затраты и людские потери, они делают более политически целесообразным для государств «продолжать стрелять вечно», открывая тем самым эпоху вечных войн.

Авторы нового отчета детально проанализировали три практический кейса войн, в которых широко использовались БПЛА: военная кампания в Западной Ливии во время второй гражданской войны в Ливии (2019–2020 гг.), гражданская война в Сирии (2011–2021 гг.) и армяно-азербайджанский конфликт из-за Нагорного Карабаха (2020 г.)

Вывод авторов – все вышеописанные предположения о военной «революции дронов» ошибочны.
✔️ В реальности к дронам применима старая как мир парадигма щита и меча (или снаряда и брони).
✔️ Дроны – это всего лишь новый «меч». Им противостоит новый «щит» из 3х элементов: новые системы ПВО, системы радиоэлектронной борьбы и специально обученный квалифицированный военный персонал (люди плюс элементы ИИ).
✔️ При наличии у обеих сторон трех названных элементов нового «щита», никакой революции в военных конфликтах не будет.

Но все может кардинально измениться в будущем – когда управление и «щитом», и «мечом» 100%но перейдет к ИИ, исключив человека из контура управления.
Но это будет уже не «новое средневековье», а нечто еще более опасное.

direct.mit.edu
#БПЛА #Война #ИИ
_______
Источник | #theworldisnoteasy
#акции #фонда #sp500 #кризис #рецессия #богатство

🔘Наткнулся на любопытное техническое исследование графика индекса Dow Jones (фондовый рынок США).
🔘Поведение цены с 2003 года данного индекса сильно коррелирует с поведениям индекса в 1915-1929 годах. Те, кто знает технический анализ - это нынче модная техническая фигура «мегафон» (расширение ценового коридора).
🔘Ранее я проводил параллель с тем отрезком макроэкономических показателей (#война)
📍Снова напрашивается нехороший вывод 😣
_______
Источник | #khtrader
​​Проблема 37-го хода военного ИИ.
Люди могут просто не понять, что это их спасение или конец.

Автономное летальное оружие (АЛО): 1) уже существует и 2) скоро станет штатным элементом всех систем ведения военных действий.
Т.е. ящик Пандоры открыт, его уже не закрыть и нужно срочно решать, как предотвратить худшие из последствий.
А эти последствия: а) весьма разнообразны и б) что самое ужасное, предотвратить многие из них известными людям способами просто невозможно.
✔️ АЛО невозможно запретить (как химическое и бактериологическое оружие), ибо не существует средств контроля за разработками ИИ алгоритмов.
✔️ Невозможно ограничить автономизацию обычного (неавтономного) оружия, превращающую его в АЛО (превратить обычную бомбу в ядерную - сверхзадача, а для автономизации боевого дрона достаточно за 5 сек сменить его прошивку)
✔️ Попытки описать правила применения АЛО, оставляющие смертельные решение за людьми, столь же наивны, как надежды оставить за водителем решения по управлению авто, когда на принятие таких решений остается куда меньше 100 миллисекунд.


Но самым непреодолимым видится невозможность понять почему алгоритм принимает то или иное решение. И дело здесь не только в проблеме «черного ящика» (как сделать решения ИИ доступными для осмысления людьми).
Даже если такое осмысление в принципе возможно (как например это было со знаменитым нечеловечески хитрым и дальновидным 37-м ходом AlphaGo во 2-й игре против Lee Sedol), в реальных военных ситуациях на это не будет времени.
Если оставить окончательное решение за человеком, то он может просто не успеть понять спасительность и единственность решения, предложенного АЛО. Или вообще не понять, подобно экспертам по игре в Го, что единодушно сочли 37-й ход AlphaGo ошибкой.
А если и поймет, то скорее всего, к тому времени уже будет поздно.

• Почитайте про это в новом совместном отчете BAE Systems и WIRED Consulting «Robotic Weapons Are Coming – What Should We Do About It?»
• Мою презентацию и выступление на эту тему в ходе организованной МККК дискуссии «Цифровые технологии в вооруженных конфликтах: смягчение гуманитарных последствий» можно посмотреть здесь (22 мин).
#Война #ИИ #БПЛА #AWS
_______
Источник | #theworldisnoteasy
Очень скоро война превратится в 5=ю казнь апокалипсиса.
Против умной «саранчи в железных нагрудниках» все бессильно.

«И грудь у неё была, словно железная броня, а шум её крыльев был подобен грохоту множества колесниц, влекомых скакунами, рвущимися в бой.» Откровение 9:7—9)

По Библии, пятой казнью апокалипсиса будет «саранча в железных нагрудниках», против которой никто и ничто не устоит.

В технологическом переложении 20-го века непобедимость роя «железной саранчи» прекрасно описал Станислав Лем в романе «Непобедимый». Там даже самый мощный робот космического корабля со знаковым именем «Непобедимый», вооружённый системой силовых полей и сферическим излучателем антиматерии, оказался бессилен перед миллиардным роем крохотных летающих роботов.

В современном переложении об этом пишут Эллиот Акерман и адмирал Джеймс Ставридис:
• в формате эссе «Рои беспилотников изменят баланс военной мощи» [1]
• в формате романа «2054», в котором они размышляют о многих аспектах и роли ИИ в будущих военных конфликтах [2].

Ключевая идея этих авторов проста и безотбойна – сочетание роя дронов с ИИ кардинально меняет ход боя.

«По своей сути ИИ — это технология, основанная на распознавании образов. В военной теории взаимодействие между распознаванием образов и принятием решений известно как цикл НОРД — наблюдать, ориентироваться, решать, действовать. Теория петли (цикла) НОРД, разработанная в 1950-х годах летчиком-истребителем ВВС Джоном Бойдом, утверждает, что сторона в конфликте, которая сможет быстрее пройти через петлю НОРД, будет обладать решающим преимуществом на поле боя».

Для максимально быстрого прохождения петли НОРД нужно автономное и адаптивное оружие.
• Промышленные роботы являются примером автономных, но неадаптивных машин: они неоднократно выполняют одну и ту же последовательность действий.
• И наоборот, беспилотные дроны являются примером адаптивных, но неавтономных машин: они демонстрируют адаптивные возможности своих удаленных людей-операторов.

Рой дронов столь же адаптивен, но неавтономен, как и единственный дрон. Но для дрона-одиночки эта проблема решается его связкой с оператором (или примитивизацией функций). А для роя дронов такого числа операторов не напасешься (и функции упрощать не хочется). Но невозможно запустить тысячи автономных дронов, пилотируемых отдельными людьми. А вычислительные возможности ИИ делают такие рои возможными.

Если роем будет управлять ИИ, проблема адаптивности и автономности роя более не существует. Связка роя и ИИ станет самым быстрым исполнителем прохождения петли НОРД.

Акерман и Ставридис пишут:
«Это изменит ведение войны. Гонка будет вестись не за лучшие платформы, а за лучший ИИ, управляющий этими платформами. Это война циклов НОРД, рой против роя. Победит та сторона, которая разработает систему принятия решений на основе ИИ, способную опередить противника. Война движется к конфликту "мозг против мозга"»

И оба мозга будут электронные, - добавлю я от себя.

P.S. В одном Аккерман и Ставридис, имхо, ошибаются:
• Рои дронов с ИИ – это лишь ближняя перспектива (т.н. ПЖРы – полуживые роботы [3])
• В 2054, про который пишется в романе, ПЖР уже уступят место еще более интеллектуально продвинутому «жидкому мозгу» [4]

#БПЛА #Война #ИИ #Роботы
1 www.wsj.com
2 www.penguinrandomhouse.com
3 https://t.iss.one/theworldisnoteasy/454
4 https://t.iss.one/theworldisnoteasy/654
_______
Источник | #theworldisnoteasy
@F_S_C_P
-------
поддержи канал
-------
Китайский «Щит Зевса».
Что содержат утечки секретных военных материалов в эпоху ИИ.

Еще 70 лет назад единичные утечки секретных военных материалов содержали карты военных объектов и чертежи новых вооружений противника.
10 лет назад, с приходом эпохи Интернета, утечки стали массовыми и включали в себя широкий спектр документов (погуглите, например, «Иракское досье» - 292 тыс документов).
В 2020-х интеграция ИИ в военный потенциал стала нормой для крупных военных держав по всему миру. И потому утечки секретных военных материалов кардинально поменяли свой характер.
✔️ Теперь наиболее ценные утечки содержат не документы, а наборы данных для обучения ИИ.
Вот новейший характерный пример – утекший в сеть китайский относительно небольшой набор данных Чжоусидун (переводится «Щит Зевса» или «Эгида» - мифическая могущественная сила, обладающая волшебными защитными свойствами).

Набор содержит «608 камерных и спутниковых фото американских эсминцев класса Arleigh Burke, а также других эсминцев и фрегатов союзников США" с ограничивающими рамками, нарисованными вокруг "радарных систем кораблей, являющихся частью боевой системы Aegis ... Ограничивающие рамки нарисованы вокруг радаров SPY на надстройке, один на левом борту и один на правом борту, а также вокруг вертикальных пусковых установок, расположенных ближе к носу и корме корабля".

Эти цитаты из только что опубликованной совместной работы исследователей Berkeley Risk and Security Lab и Berkeley AI Research Lab, озаглавленной «Open-Source Assessments of AI Capabilities: The Proliferation of AI Analysis Tools, Replicating Competitor Models, and the Zhousidun Dataset».

Авторы исследования обучили на этом наборе модель YOLOv8, а затем проверили ее успешность при идентификации радиолокационных изображений на кораблях для задачи нацеливания на них.

И хотя этот набор мал, проведенное исследование показывает, что обучать даже относительно небольшую открытую модель выявлять цели, а потом супер-точно наводить на них средства уничтожения, - хорошо решаемая практическая задача.

Военным же в таком случае можно будет целиком положиться на ИИ, который и цель выберет сам, и наведет на нее ракету.

Если же выбор цели окажется ошибочным, - ничего страшного. Значит ИИ просто плохо учили и надо переучить. Ведь и с людьми такое случается.
Короче, жуть ((

Несколько из 608 снимков набора данных telegra.ph
Набор данных и модель (если еще не прикрыли) universe.roboflow.com
Исследование arxiv.org
#ИИ #Война #АвтономноеОружие
_______
Источник | #theworldisnoteasy
@F_S_C_P

-------
поддержи канал
-------