Быть ли ядерной войне, - все больше зависит от алгоритмов.
«Принцип Златовласки» перестает работать в практике военных эскалаций.
ИИ сильно увеличивает шансы человечества самоистребиться путем ядерной войны.
Тогда как кибер-операции могут оказаться наиболее эффективным путем деэскалации военных конфликтов.
Согласно новому отчету Bloomberg, американские военные активизировали использование инструментов ИИ после атаки ХАМАС на Израиль 7 октября. Алгоритмы машинного обучения помогли Пентагону определить цели для более чем 85 воздушных ударов на Ближнем Востоке в этом месяце. Однако, по словам американских военных, люди в обязательном порядке проверяют целевые рекомендации систем ИИ. И окончательные решения о способах и времени нанесения ударов остаются исключительно за людьми [1].
Еще более многообещающим видится применение самых современных IT-технологий не только на оперативно-тактическом, но и на стратегическом уровне, вершиной которого является выбор оптимальной стратегии эскалации конфликтов.
Как пишут во 2й части отчета RAND «Managing Escalation» [2], существующий западный опыт войн основан на универсальном подходе к выбору стратегии эскалации конфликтов, называемом «Принцип Златовласки» (Goldilocks Challenge). Такое название отсылает к сказке «Три медведя», в которой девушка по имени Златовласка пробует три разные тарелки каши и выбирает ту, которая не слишком горячая и не слишком холодная, а в самый раз.
Концепция выбора «золотой середины» (“Sweet Spot”) интуитивно понимаема и применима к широкому кругу дисциплин. В области же выбора стратегии эскалации конфликтов она заключается в поиске точек для ударов или давления на соперника. Точки, находящиеся в «золотой середине», должны быть:
• достаточно ценны или чувствительны для соперника, чтобы ваши удары по ним склоняли его к нужным вам решениям или действиям;
• но все же не настолько ценны или чувствительны, чтобы ваши удары или давление на них спровоцировало соперника на неприемлемую для вас эскалацию (включая потенциальное использование ядерного оружия).
Происходящий колоссальный прогресс IT–технологий существенно затрудняет для военных и политиков использование старых привычных подходов к разруливанию и эскалации конфликтов (о чем пишут в 1й (закрытой) части этого отчета [2]).
Выражается это в следующем:
1. Границы «золотой середины» становятся «текучими» (постоянно меняются в непредсказуемом направлении).
2. В отдельных точках внутри области «золой середины» вдруг возникают «кротовые норы» - мгновенные переходы в зону неприемлемой эскалации (включая потенциальное использование ядерного оружия).
3. Временные рамки существования конкретной «золотой середины» становятся непредсказуемы (вот она была, а вот уже и нет).
Другим удивительным следствием усложнения IT–технологий, используемых при выборе и реализации стратегий эскалации конфликтов, является значительная непредсказуемость оказываемого ими влияния и на процесс выбора, и на результаты реализации стратегий.
Вот два наиболее ярких характерных примера.
✔️ Использование широкого спектра кибер-операций (через кибер-пространство наносящих противнику военный, материальный, информационный, политический, социальный или психологический ущерб) зачастую не только не способствует эскалации военных конфликтов, но и стабилизируют ситуацию, предоставляя возможности избежать дорогостоящих, затяжных конфликтов [3]
✔️ Использование автономных ИИ-агентов на основе генеративных моделей (в частности, GPT-4, GPT-3.5, Claude 2, Llama-2 (70B)) резко увеличивает шансы эскалации конфликтов (включая использование ядерного оружия в каждом 3ем конфликте), демонстрируя при этом труднопредсказуемые формы и паттерны эскалации конфликтов [4].
#Война #ИИ
0 https://telegra.ph/file/be8b1707bc07d2ce05652.jpg
1 https://bit.ly/3wA0dmz
2 https://bit.ly/4bQ9erM
3 https://bit.ly/49QbMUV
4 https://arxiv.org/abs/2401.03408
«Принцип Златовласки» перестает работать в практике военных эскалаций.
ИИ сильно увеличивает шансы человечества самоистребиться путем ядерной войны.
Тогда как кибер-операции могут оказаться наиболее эффективным путем деэскалации военных конфликтов.
Согласно новому отчету Bloomberg, американские военные активизировали использование инструментов ИИ после атаки ХАМАС на Израиль 7 октября. Алгоритмы машинного обучения помогли Пентагону определить цели для более чем 85 воздушных ударов на Ближнем Востоке в этом месяце. Однако, по словам американских военных, люди в обязательном порядке проверяют целевые рекомендации систем ИИ. И окончательные решения о способах и времени нанесения ударов остаются исключительно за людьми [1].
Еще более многообещающим видится применение самых современных IT-технологий не только на оперативно-тактическом, но и на стратегическом уровне, вершиной которого является выбор оптимальной стратегии эскалации конфликтов.
Как пишут во 2й части отчета RAND «Managing Escalation» [2], существующий западный опыт войн основан на универсальном подходе к выбору стратегии эскалации конфликтов, называемом «Принцип Златовласки» (Goldilocks Challenge). Такое название отсылает к сказке «Три медведя», в которой девушка по имени Златовласка пробует три разные тарелки каши и выбирает ту, которая не слишком горячая и не слишком холодная, а в самый раз.
Концепция выбора «золотой середины» (“Sweet Spot”) интуитивно понимаема и применима к широкому кругу дисциплин. В области же выбора стратегии эскалации конфликтов она заключается в поиске точек для ударов или давления на соперника. Точки, находящиеся в «золотой середине», должны быть:
• достаточно ценны или чувствительны для соперника, чтобы ваши удары по ним склоняли его к нужным вам решениям или действиям;
• но все же не настолько ценны или чувствительны, чтобы ваши удары или давление на них спровоцировало соперника на неприемлемую для вас эскалацию (включая потенциальное использование ядерного оружия).
Происходящий колоссальный прогресс IT–технологий существенно затрудняет для военных и политиков использование старых привычных подходов к разруливанию и эскалации конфликтов (о чем пишут в 1й (закрытой) части этого отчета [2]).
Выражается это в следующем:
1. Границы «золотой середины» становятся «текучими» (постоянно меняются в непредсказуемом направлении).
2. В отдельных точках внутри области «золой середины» вдруг возникают «кротовые норы» - мгновенные переходы в зону неприемлемой эскалации (включая потенциальное использование ядерного оружия).
3. Временные рамки существования конкретной «золотой середины» становятся непредсказуемы (вот она была, а вот уже и нет).
Другим удивительным следствием усложнения IT–технологий, используемых при выборе и реализации стратегий эскалации конфликтов, является значительная непредсказуемость оказываемого ими влияния и на процесс выбора, и на результаты реализации стратегий.
Вот два наиболее ярких характерных примера.
✔️ Использование широкого спектра кибер-операций (через кибер-пространство наносящих противнику военный, материальный, информационный, политический, социальный или психологический ущерб) зачастую не только не способствует эскалации военных конфликтов, но и стабилизируют ситуацию, предоставляя возможности избежать дорогостоящих, затяжных конфликтов [3]
✔️ Использование автономных ИИ-агентов на основе генеративных моделей (в частности, GPT-4, GPT-3.5, Claude 2, Llama-2 (70B)) резко увеличивает шансы эскалации конфликтов (включая использование ядерного оружия в каждом 3ем конфликте), демонстрируя при этом труднопредсказуемые формы и паттерны эскалации конфликтов [4].
#Война #ИИ
0 https://telegra.ph/file/be8b1707bc07d2ce05652.jpg
1 https://bit.ly/3wA0dmz
2 https://bit.ly/4bQ9erM
3 https://bit.ly/49QbMUV
4 https://arxiv.org/abs/2401.03408
США однозначно ближе к макроразвалу чем Россия.
Обновленный психоисторический прогноз основателя клиодинамики.
Вчера Верховный суд США разрешил Национальной гвардии штата Техас арест и депортацию мигрантов.
Бравые ребята из Нацгвардии Техаса (на фото под заголовком слева позируют под флагом Техаса), недавно уже «захватывавшие» участок границы с Мексикой, запретив доступ к нему федералам, смотрятся 1 в 1 с суровым «ополченцем» из грядущего блокбастера «Гражданская война», задающим остановленному им отцу семейства страшный вопрос, с которого и начинаются гражданские войны – «Ладно … А какой вы американец?» (на фото справа) [1].
Теперь ситуация в США еще ближе к предсказанию Петра Турчина, сделанного им еще 14 лет назад – нарастающие в США уровень неравенства и уровень перепроизводства элит способны в 2020-х довести страну до гражданской войны.
4 года назад я уже писал об этом [2] с подачи Петра Турчина [3].
А еще раньше, в 1-м лонгриде наступившего нового десятилетия 2020-х, мною в деталях были расписаны [4]:
• и сам прогноз - 2020е станут десятилетием насилия, войн и революций,
• и его «психоисторическое основание» клиодинамика - разработанная Петром Турчиным и его коллегами научная аналитика длинных данных о главных трендах истории, прообразом которой была психоистория из романа Азимова «Основание».
Обновленный прогноз Турчина, прозвучавший с интервью FT неделю назад [5], содержит сравнение вероятностей макроразвала для США и России. Далее цитата.
«Какое общество ближе к макроразвалу: Россия или США? Однозначно не Россия. Внешнее давление объединило страну… Без сомнения, Соединенные Штаты сейчас находятся в гораздо более опасном состоянии»
Основания такого прогноза читатель найдет в тексте интервью. Мне же лишь остается добавить следующее.
Математический гений Гэри Селдон из романа «Основание», равно как и его автор Айзек Азимов, были вдохновлены мечтой о социальной науке, которая может спасти цивилизацию от любой, даже, казалось бы, неминуемой гибели.
Петр Турчин никогда вслух не говорил столь высокопарных слов о созданной им новой социальной науке – клиодинамике.
Но все же очень хочется верить, что прогнозы клиодинамики (как и психоистории) могут использоваться для изменения текущих нежелательных векторов развития на более предпочтительные.
И если уж история никого ничему не учит, остается лишь надеяться на психоисторию.
#Клиодинамика #Прогноз #Насилие #Война #Революции
0 картинка поста https://telegra.ph/file/75d4cd6f9dcd1115d1047.jpg
1 https://youtu.be/jbfmREXeooE?t=79
2 https://t.iss.one/theworldisnoteasy/1083
3 https://twitter.com/peter_turchin/status/1280545361040465923
4 https://t.iss.one/theworldisnoteasy/962
5 https://www.ft.com/content/39084b44-ad8a-4954-a610-82edee9a377d
Обновленный психоисторический прогноз основателя клиодинамики.
Вчера Верховный суд США разрешил Национальной гвардии штата Техас арест и депортацию мигрантов.
Бравые ребята из Нацгвардии Техаса (на фото под заголовком слева позируют под флагом Техаса), недавно уже «захватывавшие» участок границы с Мексикой, запретив доступ к нему федералам, смотрятся 1 в 1 с суровым «ополченцем» из грядущего блокбастера «Гражданская война», задающим остановленному им отцу семейства страшный вопрос, с которого и начинаются гражданские войны – «Ладно … А какой вы американец?» (на фото справа) [1].
Теперь ситуация в США еще ближе к предсказанию Петра Турчина, сделанного им еще 14 лет назад – нарастающие в США уровень неравенства и уровень перепроизводства элит способны в 2020-х довести страну до гражданской войны.
4 года назад я уже писал об этом [2] с подачи Петра Турчина [3].
А еще раньше, в 1-м лонгриде наступившего нового десятилетия 2020-х, мною в деталях были расписаны [4]:
• и сам прогноз - 2020е станут десятилетием насилия, войн и революций,
• и его «психоисторическое основание» клиодинамика - разработанная Петром Турчиным и его коллегами научная аналитика длинных данных о главных трендах истории, прообразом которой была психоистория из романа Азимова «Основание».
Обновленный прогноз Турчина, прозвучавший с интервью FT неделю назад [5], содержит сравнение вероятностей макроразвала для США и России. Далее цитата.
«Какое общество ближе к макроразвалу: Россия или США? Однозначно не Россия. Внешнее давление объединило страну… Без сомнения, Соединенные Штаты сейчас находятся в гораздо более опасном состоянии»
Основания такого прогноза читатель найдет в тексте интервью. Мне же лишь остается добавить следующее.
Математический гений Гэри Селдон из романа «Основание», равно как и его автор Айзек Азимов, были вдохновлены мечтой о социальной науке, которая может спасти цивилизацию от любой, даже, казалось бы, неминуемой гибели.
Петр Турчин никогда вслух не говорил столь высокопарных слов о созданной им новой социальной науке – клиодинамике.
Но все же очень хочется верить, что прогнозы клиодинамики (как и психоистории) могут использоваться для изменения текущих нежелательных векторов развития на более предпочтительные.
И если уж история никого ничему не учит, остается лишь надеяться на психоисторию.
#Клиодинамика #Прогноз #Насилие #Война #Революции
0 картинка поста https://telegra.ph/file/75d4cd6f9dcd1115d1047.jpg
1 https://youtu.be/jbfmREXeooE?t=79
2 https://t.iss.one/theworldisnoteasy/1083
3 https://twitter.com/peter_turchin/status/1280545361040465923
4 https://t.iss.one/theworldisnoteasy/962
5 https://www.ft.com/content/39084b44-ad8a-4954-a610-82edee9a377d
Очень скоро война превратится в 5=ю казнь апокалипсиса.
Против умной «саранчи в железных нагрудниках» все бессильно.
«И грудь у неё была, словно железная броня, а шум её крыльев был подобен грохоту множества колесниц, влекомых скакунами, рвущимися в бой.» Откровение 9:7—9)
По Библии, пятой казнью апокалипсиса будет «саранча в железных нагрудниках», против которой никто и ничто не устоит.
В технологическом переложении 20-го века непобедимость роя «железной саранчи» прекрасно описал Станислав Лем в романе «Непобедимый». Там даже самый мощный робот космического корабля со знаковым именем «Непобедимый», вооружённый системой силовых полей и сферическим излучателем антиматерии, оказался бессилен перед миллиардным роем крохотных летающих роботов.
В современном переложении об этом пишут Эллиот Акерман и адмирал Джеймс Ставридис:
• в формате эссе «Рои беспилотников изменят баланс военной мощи» [1]
• в формате романа «2054», в котором они размышляют о многих аспектах и роли ИИ в будущих военных конфликтах [2].
Ключевая идея этих авторов проста и безотбойна – сочетание роя дронов с ИИ кардинально меняет ход боя.
«По своей сути ИИ — это технология, основанная на распознавании образов. В военной теории взаимодействие между распознаванием образов и принятием решений известно как цикл НОРД — наблюдать, ориентироваться, решать, действовать. Теория петли (цикла) НОРД, разработанная в 1950-х годах летчиком-истребителем ВВС Джоном Бойдом, утверждает, что сторона в конфликте, которая сможет быстрее пройти через петлю НОРД, будет обладать решающим преимуществом на поле боя».
Для максимально быстрого прохождения петли НОРД нужно автономное и адаптивное оружие.
• Промышленные роботы являются примером автономных, но неадаптивных машин: они неоднократно выполняют одну и ту же последовательность действий.
• И наоборот, беспилотные дроны являются примером адаптивных, но неавтономных машин: они демонстрируют адаптивные возможности своих удаленных людей-операторов.
Рой дронов столь же адаптивен, но неавтономен, как и единственный дрон. Но для дрона-одиночки эта проблема решается его связкой с оператором (или примитивизацией функций). А для роя дронов такого числа операторов не напасешься (и функции упрощать не хочется). Но невозможно запустить тысячи автономных дронов, пилотируемых отдельными людьми. А вычислительные возможности ИИ делают такие рои возможными.
Если роем будет управлять ИИ, проблема адаптивности и автономности роя более не существует. Связка роя и ИИ станет самым быстрым исполнителем прохождения петли НОРД.
Акерман и Ставридис пишут:
«Это изменит ведение войны. Гонка будет вестись не за лучшие платформы, а за лучший ИИ, управляющий этими платформами. Это война циклов НОРД, рой против роя. Победит та сторона, которая разработает систему принятия решений на основе ИИ, способную опередить противника. Война движется к конфликту "мозг против мозга"»
И оба мозга будут электронные, - добавлю я от себя.
P.S. В одном Аккерман и Ставридис, имхо, ошибаются:
• Рои дронов с ИИ – это лишь ближняя перспектива (т.н. ПЖРы – полуживые роботы [3])
• В 2054, про который пишется в романе, ПЖР уже уступят место еще более интеллектуально продвинутому «жидкому мозгу» [4]
#БПЛА #Война #ИИ #Роботы
1 https://www.wsj.com/tech/drone-swarms-are-about-to-change-the-balance-of-military-power-e091aa6f
2 https://www.penguinrandomhouse.com/books/696977/2054-by-elliot-ackerman-and-admiral-james-stavridis/
3 https://t.iss.one/theworldisnoteasy/454
4 https://t.iss.one/theworldisnoteasy/654
Против умной «саранчи в железных нагрудниках» все бессильно.
«И грудь у неё была, словно железная броня, а шум её крыльев был подобен грохоту множества колесниц, влекомых скакунами, рвущимися в бой.» Откровение 9:7—9)
По Библии, пятой казнью апокалипсиса будет «саранча в железных нагрудниках», против которой никто и ничто не устоит.
В технологическом переложении 20-го века непобедимость роя «железной саранчи» прекрасно описал Станислав Лем в романе «Непобедимый». Там даже самый мощный робот космического корабля со знаковым именем «Непобедимый», вооружённый системой силовых полей и сферическим излучателем антиматерии, оказался бессилен перед миллиардным роем крохотных летающих роботов.
В современном переложении об этом пишут Эллиот Акерман и адмирал Джеймс Ставридис:
• в формате эссе «Рои беспилотников изменят баланс военной мощи» [1]
• в формате романа «2054», в котором они размышляют о многих аспектах и роли ИИ в будущих военных конфликтах [2].
Ключевая идея этих авторов проста и безотбойна – сочетание роя дронов с ИИ кардинально меняет ход боя.
«По своей сути ИИ — это технология, основанная на распознавании образов. В военной теории взаимодействие между распознаванием образов и принятием решений известно как цикл НОРД — наблюдать, ориентироваться, решать, действовать. Теория петли (цикла) НОРД, разработанная в 1950-х годах летчиком-истребителем ВВС Джоном Бойдом, утверждает, что сторона в конфликте, которая сможет быстрее пройти через петлю НОРД, будет обладать решающим преимуществом на поле боя».
Для максимально быстрого прохождения петли НОРД нужно автономное и адаптивное оружие.
• Промышленные роботы являются примером автономных, но неадаптивных машин: они неоднократно выполняют одну и ту же последовательность действий.
• И наоборот, беспилотные дроны являются примером адаптивных, но неавтономных машин: они демонстрируют адаптивные возможности своих удаленных людей-операторов.
Рой дронов столь же адаптивен, но неавтономен, как и единственный дрон. Но для дрона-одиночки эта проблема решается его связкой с оператором (или примитивизацией функций). А для роя дронов такого числа операторов не напасешься (и функции упрощать не хочется). Но невозможно запустить тысячи автономных дронов, пилотируемых отдельными людьми. А вычислительные возможности ИИ делают такие рои возможными.
Если роем будет управлять ИИ, проблема адаптивности и автономности роя более не существует. Связка роя и ИИ станет самым быстрым исполнителем прохождения петли НОРД.
Акерман и Ставридис пишут:
«Это изменит ведение войны. Гонка будет вестись не за лучшие платформы, а за лучший ИИ, управляющий этими платформами. Это война циклов НОРД, рой против роя. Победит та сторона, которая разработает систему принятия решений на основе ИИ, способную опередить противника. Война движется к конфликту "мозг против мозга"»
И оба мозга будут электронные, - добавлю я от себя.
P.S. В одном Аккерман и Ставридис, имхо, ошибаются:
• Рои дронов с ИИ – это лишь ближняя перспектива (т.н. ПЖРы – полуживые роботы [3])
• В 2054, про который пишется в романе, ПЖР уже уступят место еще более интеллектуально продвинутому «жидкому мозгу» [4]
#БПЛА #Война #ИИ #Роботы
1 https://www.wsj.com/tech/drone-swarms-are-about-to-change-the-balance-of-military-power-e091aa6f
2 https://www.penguinrandomhouse.com/books/696977/2054-by-elliot-ackerman-and-admiral-james-stavridis/
3 https://t.iss.one/theworldisnoteasy/454
4 https://t.iss.one/theworldisnoteasy/654
WSJ
Essay | Drone Swarms Are About to Change the Balance of Military Power
On today’s battlefields, drones are a manageable threat. When hundreds of them can be harnessed to AI technology, they will become a tool of conquest.
Китайский «Щит Зевса».
Что содержат утечки секретных военных материалов в эпоху ИИ.
Еще 70 лет назад единичные утечки секретных военных материалов содержали карты военных объектов и чертежи новых вооружений противника.
10 лет назад, с приходом эпохи Интернета, утечки стали массовыми и включали в себя широкий спектр документов (погуглите, например, «Иракское досье» - 292 тыс документов).
В 2020-х интеграция ИИ в военный потенциал стала нормой для крупных военных держав по всему миру. И потому утечки секретных военных материалов кардинально поменяли свой характер.
✔️ Теперь наиболее ценные утечки содержат не документы, а наборы данных для обучения ИИ.
Вот новейший характерный пример – утекший в сеть китайский относительно небольшой набор данных Чжоусидун (переводится «Щит Зевса» или «Эгида» - мифическая могущественная сила, обладающая волшебными защитными свойствами).
Набор содержит «608 камерных и спутниковых фото американских эсминцев класса Arleigh Burke, а также других эсминцев и фрегатов союзников США" с ограничивающими рамками, нарисованными вокруг "радарных систем кораблей, являющихся частью боевой системы Aegis ... Ограничивающие рамки нарисованы вокруг радаров SPY на надстройке, один на левом борту и один на правом борту, а также вокруг вертикальных пусковых установок, расположенных ближе к носу и корме корабля".
Эти цитаты из только что опубликованной совместной работы исследователей Berkeley Risk and Security Lab и Berkeley AI Research Lab, озаглавленной «Open-Source Assessments of AI Capabilities: The Proliferation of AI Analysis Tools, Replicating Competitor Models, and the Zhousidun Dataset».
Авторы исследования обучили на этом наборе модель YOLOv8, а затем проверили ее успешность при идентификации радиолокационных изображений на кораблях для задачи нацеливания на них.
И хотя этот набор мал, проведенное исследование показывает, что обучать даже относительно небольшую открытую модель выявлять цели, а потом супер-точно наводить на них средства уничтожения, - хорошо решаемая практическая задача.
Военным же в таком случае можно будет целиком положиться на ИИ, который и цель выберет сам, и наведет на нее ракету.
Если же выбор цели окажется ошибочным, - ничего страшного. Значит ИИ просто плохо учили и надо переучить. Ведь и с людьми такое случается.
Короче, жуть ((
Несколько из 608 снимков набора данных https://telegra.ph/file/ffc419cb79d805bfa12fd.jpg
Набор данных и модель (если еще не прикрыли) https://universe.roboflow.com/shanghaitech-faxfj/zhousidun_model2
Исследование https://arxiv.org/pdf/2405.12167v1
#ИИ #Война #АвтономноеОружие
Что содержат утечки секретных военных материалов в эпоху ИИ.
Еще 70 лет назад единичные утечки секретных военных материалов содержали карты военных объектов и чертежи новых вооружений противника.
10 лет назад, с приходом эпохи Интернета, утечки стали массовыми и включали в себя широкий спектр документов (погуглите, например, «Иракское досье» - 292 тыс документов).
В 2020-х интеграция ИИ в военный потенциал стала нормой для крупных военных держав по всему миру. И потому утечки секретных военных материалов кардинально поменяли свой характер.
✔️ Теперь наиболее ценные утечки содержат не документы, а наборы данных для обучения ИИ.
Вот новейший характерный пример – утекший в сеть китайский относительно небольшой набор данных Чжоусидун (переводится «Щит Зевса» или «Эгида» - мифическая могущественная сила, обладающая волшебными защитными свойствами).
Набор содержит «608 камерных и спутниковых фото американских эсминцев класса Arleigh Burke, а также других эсминцев и фрегатов союзников США" с ограничивающими рамками, нарисованными вокруг "радарных систем кораблей, являющихся частью боевой системы Aegis ... Ограничивающие рамки нарисованы вокруг радаров SPY на надстройке, один на левом борту и один на правом борту, а также вокруг вертикальных пусковых установок, расположенных ближе к носу и корме корабля".
Эти цитаты из только что опубликованной совместной работы исследователей Berkeley Risk and Security Lab и Berkeley AI Research Lab, озаглавленной «Open-Source Assessments of AI Capabilities: The Proliferation of AI Analysis Tools, Replicating Competitor Models, and the Zhousidun Dataset».
Авторы исследования обучили на этом наборе модель YOLOv8, а затем проверили ее успешность при идентификации радиолокационных изображений на кораблях для задачи нацеливания на них.
И хотя этот набор мал, проведенное исследование показывает, что обучать даже относительно небольшую открытую модель выявлять цели, а потом супер-точно наводить на них средства уничтожения, - хорошо решаемая практическая задача.
Военным же в таком случае можно будет целиком положиться на ИИ, который и цель выберет сам, и наведет на нее ракету.
Если же выбор цели окажется ошибочным, - ничего страшного. Значит ИИ просто плохо учили и надо переучить. Ведь и с людьми такое случается.
Короче, жуть ((
Несколько из 608 снимков набора данных https://telegra.ph/file/ffc419cb79d805bfa12fd.jpg
Набор данных и модель (если еще не прикрыли) https://universe.roboflow.com/shanghaitech-faxfj/zhousidun_model2
Исследование https://arxiv.org/pdf/2405.12167v1
#ИИ #Война #АвтономноеОружие