N.Y.TIMES vs MICROSOFT and OPENAI
The New York Times подала в суд на OpenAI и Microsoft за нарушение авторских прав. В иске, поданном в Федеральный окружной суд Манхэттена, утверждается, что миллионы статей The Times использовались для тренировки автоматизированных чат-ботов, которые теперь конкурируют с The Times на рынке источников надежной информации.
Самая известная медиа корпорация через суд хочет выбороть у самой известной ИИ-корпорации приличную долю в развивающемся нейросетевом пироге. Защитники ИИ-корпораций будут говорить, что такие дела остановят прогресс ИИ, вызовут очередную ИИ-зиму и вообще убьют настроение. Хотя Times в первую очередь защищает свои коммерческие интересы, стратегически ее интересы во многом совпадают с интересами миллионов блгеров, музыкантов, программистов, дизайнеров и других создателей контента, за который в новом мире ИИ нужно будет платить.
Перевел несколько интересных мест из иска The New York Times к Ответчикам — OpenAI и Microsoft, которые отражают общую суть претензий издания и иллюстрируют юридический язык, которым это все сказано:
1) «Незаконное использование Ответчиками работ The Times для создания ИИ, конкурирующего с ними, угрожает способности The Times предоставлять свои услуги. Инструменты генеративного искусственного интеллекта («GenAI») Ответчиков основаны на больших языковых моделях («LLMs»), которые были созданы путём копирования и использования миллионов авторских новостных статей The Times, глубинных расследований, авторских колонок, обзоров, инструкций и многого другого. Хотя Ответчики занимались масштабным копированием и из многих других источников, особое внимание при создании своих LLM они уделяли контенту Times , и такое предпочтение, доказывает ценность этих работ.»
2) «Хотя The Times, как практически все онлайн-издатели, предоставляет поисковым системам доступ к своему контенту и разрешает использовать его для отображения в обычных результатах поиска, The Times никогда не давало разрешения никакой организации, включая Ответчиков, использовать свой контент для целей GenAI.»
3) «Например, коммерческая организация может приобрести лицензию CCC, чтобы сделать фотокопию контента The Times для внутреннего или внешнего распространения в обмен на лицензионный сбор около десяти долларов за статью. Лицензия CCC на размещение одной статьи The Times на коммерческом веб-сайте на срок до года стоит несколько тысяч долларов.»
4) «Сегодня OpenAI — это коммерческое предприятие, со стоимостью до 90 миллиардов долларов, и с прогнозируемым доходом более 1 миллиарда долларов в 2024 году… Более 80% компаний из списка Fortune 500 используют ChatGPT. Согласно последним отчетам, OpenAI генерирует доход в размере 80 миллионов долларов в месяц и находится на пути к превышению 1 миллиарда долларов в течение следующих 12 месяцев.»
5) «Использование Microsoft моделей LLM, обученных на материалах The Times, во всей своей линейке продуктов помогло увеличить её рыночную капитализацию на триллион долларов только за прошедший год.»
6) «Наши предыдущие переговоры не привели ни к какому решению. Ответчики публично настаивают на том, что их поведение защищено законом как «fair use», поскольку их нелицензированное использование авторских материалов для обучения моделей GenAI служит «трансформативной» цели. Однако нет ничего «трансформативного» в безоплатном использовании контента The Times для создания продуктов, которые заменяют The Times и отнимают у него аудиторию.»
The New York Times подала в суд на OpenAI и Microsoft за нарушение авторских прав. В иске, поданном в Федеральный окружной суд Манхэттена, утверждается, что миллионы статей The Times использовались для тренировки автоматизированных чат-ботов, которые теперь конкурируют с The Times на рынке источников надежной информации.
Самая известная медиа корпорация через суд хочет выбороть у самой известной ИИ-корпорации приличную долю в развивающемся нейросетевом пироге. Защитники ИИ-корпораций будут говорить, что такие дела остановят прогресс ИИ, вызовут очередную ИИ-зиму и вообще убьют настроение. Хотя Times в первую очередь защищает свои коммерческие интересы, стратегически ее интересы во многом совпадают с интересами миллионов блгеров, музыкантов, программистов, дизайнеров и других создателей контента, за который в новом мире ИИ нужно будет платить.
Перевел несколько интересных мест из иска The New York Times к Ответчикам — OpenAI и Microsoft, которые отражают общую суть претензий издания и иллюстрируют юридический язык, которым это все сказано:
1) «Незаконное использование Ответчиками работ The Times для создания ИИ, конкурирующего с ними, угрожает способности The Times предоставлять свои услуги. Инструменты генеративного искусственного интеллекта («GenAI») Ответчиков основаны на больших языковых моделях («LLMs»), которые были созданы путём копирования и использования миллионов авторских новостных статей The Times, глубинных расследований, авторских колонок, обзоров, инструкций и многого другого. Хотя Ответчики занимались масштабным копированием и из многих других источников, особое внимание при создании своих LLM они уделяли контенту Times , и такое предпочтение, доказывает ценность этих работ.»
2) «Хотя The Times, как практически все онлайн-издатели, предоставляет поисковым системам доступ к своему контенту и разрешает использовать его для отображения в обычных результатах поиска, The Times никогда не давало разрешения никакой организации, включая Ответчиков, использовать свой контент для целей GenAI.»
3) «Например, коммерческая организация может приобрести лицензию CCC, чтобы сделать фотокопию контента The Times для внутреннего или внешнего распространения в обмен на лицензионный сбор около десяти долларов за статью. Лицензия CCC на размещение одной статьи The Times на коммерческом веб-сайте на срок до года стоит несколько тысяч долларов.»
4) «Сегодня OpenAI — это коммерческое предприятие, со стоимостью до 90 миллиардов долларов, и с прогнозируемым доходом более 1 миллиарда долларов в 2024 году… Более 80% компаний из списка Fortune 500 используют ChatGPT. Согласно последним отчетам, OpenAI генерирует доход в размере 80 миллионов долларов в месяц и находится на пути к превышению 1 миллиарда долларов в течение следующих 12 месяцев.»
5) «Использование Microsoft моделей LLM, обученных на материалах The Times, во всей своей линейке продуктов помогло увеличить её рыночную капитализацию на триллион долларов только за прошедший год.»
6) «Наши предыдущие переговоры не привели ни к какому решению. Ответчики публично настаивают на том, что их поведение защищено законом как «fair use», поскольку их нелицензированное использование авторских материалов для обучения моделей GenAI служит «трансформативной» цели. Однако нет ничего «трансформативного» в безоплатном использовании контента The Times для создания продуктов, которые заменяют The Times и отнимают у него аудиторию.»
«Чума, Киборги и Суперсолдаты» ч.1
RAND Corporation – это наверное самый известный в мире think tank, созданный американскими военными еще в конце 1940х для анализа и разработки оружия будущего. Всегда с большим интересом читаю их аналитические записки и отчеты, которые довольно часто сложно отличить от научной фантастики или конспирологических теорий.
На днях прочитал их свежий отчет под называнием «Plagues, Cyborgs, and Supersoldiers: The Human Domain of War». Ключевой тезис «Чумы, Киборгов и Суперсолдат» заключается в том, что научные открытия и технологические прорывы последних лет (в первую очередь в синтетической биологии) создали условия, в которых к традиционным domains боевых действий (земле, воде, воздуху, космосу и киберпространству) теперь прибавилось новое измерение — человеческое тело.
«Может ли тело человека само по себе быть полем боя? Может ли тело быть наступательным или оборонительным оружием, или очень специализированной целью?» По мнению аналитиков RAND, а также китайских военных, тело однозначно может считаться еще одним полем битвы и уже сейчас есть три биотехнологии, которые составляют особую опасность и вызовы для военных: искусственно созданные патогены, технологии интернета тел (Internet of Bodies, IoB) и геномика.
Сначала разберем «Чуму» из названия исследования – искусственно созданные патогены. Вот как по мнению аналитиков RAND выглядит один из возможных сценариев войны в пространстве человеческого тела:
«Сценарий 1: Захват земель во время пандемии
В сентябре 2028 года начинается распространение ранее неизвестного коронавируса по странам Южно-Китайского моря. Специалисты системы здравоохранения обнаруживают, что вирус достаточно отличается от коронавируса тяжелого острого респираторного синдрома 2 (SARS-CoV-2), который вызвал пандемию коронавирусной болезни 2019 года (COVID-19), поэтому новый вирус получает свое собственное обозначение как SARS-CoV-3. Он легко уклоняется от иммунитета от предыдущих инфекций COVID-19 и вакцинаций и распространяется еще быстрее из-за текущего сезона муссонов, который заставляет людей оставаться в помещениях.
Затем вирус почти одновременно появляется на нескольких кораблях ВМС США, вынуждая большую часть ударной группы авианосца Nimitz прекратить операции. Чиновники из Центров по контролю и профилактике заболеваний (CDC), Министерства обороны (DoD) и Центрального разведывательного управления начинают бюрократическую борьбу за то, какое агентство лучше всего подходит для расследования того, является ли прекращение действий военно-морских сил следствием работы инфекционного агента исключительно естественного происхождения.
Тем не менее, с нарушением работы морских сил США и с учетом того, что Тайвань принял строгие меры борьбы против SARS-CoV-3, китайская армия начинает атаку на Тайвань в первую неделю октября, как только заканчиваются дожди, и захватывает остров за 46 часов. Новый вирус медленно распространяется среди населения Китая и, удивительно, практически отсутствует в среде китайских военных и работников военно-промышленного комплекса. Всемирная организация здравоохранения (ВОЗ) отмечает это как доказательство эффективности китайских мер по социальному дистанцированию. Однако ВОЗ не знает, что с конца 2027 года почти все члены китайской армии и примерно половина населения Китая были без их ведома вакцинированы от SARS-CoV-3 под видом стандартной кампании по бустерным прививкам от COVID-19.»
(продолжение в следующем посте)
RAND Corporation – это наверное самый известный в мире think tank, созданный американскими военными еще в конце 1940х для анализа и разработки оружия будущего. Всегда с большим интересом читаю их аналитические записки и отчеты, которые довольно часто сложно отличить от научной фантастики или конспирологических теорий.
На днях прочитал их свежий отчет под называнием «Plagues, Cyborgs, and Supersoldiers: The Human Domain of War». Ключевой тезис «Чумы, Киборгов и Суперсолдат» заключается в том, что научные открытия и технологические прорывы последних лет (в первую очередь в синтетической биологии) создали условия, в которых к традиционным domains боевых действий (земле, воде, воздуху, космосу и киберпространству) теперь прибавилось новое измерение — человеческое тело.
«Может ли тело человека само по себе быть полем боя? Может ли тело быть наступательным или оборонительным оружием, или очень специализированной целью?» По мнению аналитиков RAND, а также китайских военных, тело однозначно может считаться еще одним полем битвы и уже сейчас есть три биотехнологии, которые составляют особую опасность и вызовы для военных: искусственно созданные патогены, технологии интернета тел (Internet of Bodies, IoB) и геномика.
Сначала разберем «Чуму» из названия исследования – искусственно созданные патогены. Вот как по мнению аналитиков RAND выглядит один из возможных сценариев войны в пространстве человеческого тела:
«Сценарий 1: Захват земель во время пандемии
В сентябре 2028 года начинается распространение ранее неизвестного коронавируса по странам Южно-Китайского моря. Специалисты системы здравоохранения обнаруживают, что вирус достаточно отличается от коронавируса тяжелого острого респираторного синдрома 2 (SARS-CoV-2), который вызвал пандемию коронавирусной болезни 2019 года (COVID-19), поэтому новый вирус получает свое собственное обозначение как SARS-CoV-3. Он легко уклоняется от иммунитета от предыдущих инфекций COVID-19 и вакцинаций и распространяется еще быстрее из-за текущего сезона муссонов, который заставляет людей оставаться в помещениях.
Затем вирус почти одновременно появляется на нескольких кораблях ВМС США, вынуждая большую часть ударной группы авианосца Nimitz прекратить операции. Чиновники из Центров по контролю и профилактике заболеваний (CDC), Министерства обороны (DoD) и Центрального разведывательного управления начинают бюрократическую борьбу за то, какое агентство лучше всего подходит для расследования того, является ли прекращение действий военно-морских сил следствием работы инфекционного агента исключительно естественного происхождения.
Тем не менее, с нарушением работы морских сил США и с учетом того, что Тайвань принял строгие меры борьбы против SARS-CoV-3, китайская армия начинает атаку на Тайвань в первую неделю октября, как только заканчиваются дожди, и захватывает остров за 46 часов. Новый вирус медленно распространяется среди населения Китая и, удивительно, практически отсутствует в среде китайских военных и работников военно-промышленного комплекса. Всемирная организация здравоохранения (ВОЗ) отмечает это как доказательство эффективности китайских мер по социальному дистанцированию. Однако ВОЗ не знает, что с конца 2027 года почти все члены китайской армии и примерно половина населения Китая были без их ведома вакцинированы от SARS-CoV-3 под видом стандартной кампании по бустерным прививкам от COVID-19.»
(продолжение в следующем посте)
«Чума, Киборги и Суперсолдаты» ч.2
Авторы доклада считают, что вирусы вроде COVID-19 — практически идеальное с политической точки зрения био-оружие: практически невозможно с ходу выяснить и доказать, является ли вирус рукотворным или пришел к людям из природы, а также, если вирус таки создан человеком, была ли его утечка из биолабораторий умышленной или же это случайность? Четыре года спустя мы все еще не можем на 100% доказать или опровергнуть теорию лабораторного происхождения COVID-19, соответственно если какая-то сторона распространила его умышленно, она не понесла никакой ответственности, и, возможно, добилась своих менее очевидных чем в первом сценарии целей. А вот как выглядит второй «чумной» сценарий:
«Сценарий 2. Пандемия и геополитика
В жаркую и влажную погоду августа 2033 года в Вашингтоне, округ Колумбия, начинает распространяться новый воздушный патоген. Чиновники от здравоохранения спешат улучшить вентиляцию и соблюдение норм фильтрации воздуха для кондиционируемых помещений — особенности тех, на которые после пандемии COVID-19 никто не обращал внимания и которыми никто не занимался. Новая инфекция проявляет удивительно долгий бессимптомный заразный период в три недели, за которым следует смертность в 2,5 процента. Из-за бессимптомного распространения отслеживание контактов больных не работает как средство борьбы с вирусом, и через четыре месяца после того, как инфекция была впервые обнаружена, почти 1 миллион американцев умирает. При прогнозе в последующие 6,5 миллионах смертей, работники жизненно важных отраслей обоснованно настаивают на сокращении личных контактов до производства вакцины. Цепочки поставок США и Западной Европы сокращаются до одной трети от их первоначального объема.
Китай и Россия, тем временем, относительно не затронуты вирусом, потому что они заранее имели доступ к эффективной вакцине. Китай быстро развернул вакцинацию среди своего теперь еще более этнически однородного и послушного населения, а Россия жестко репрессировала своих антивакцинных популистов. Россия и Китай начинают одновременные агрессивные действия на своих границах, и Соединенные Штаты со своими европейскими союзниками не могут обьединиться для организации единого сопротивления. А переплетенность их военных цепочек поставок с гражданскими, серьезно ослабила бы любой их военный ответ, даже если бы они его предприняли. Несколько бывших советских стран целиком аннексируются Россией. Другие соседние страны, например, Индия, подписывают невыгодные договоры с агрессорами, чтобы сохранить суверенитет. Pax Americana («Американский мир»), ослабевший с момента вторжения в Украину в 2022 году и аннексии Тайваня Китаем в 2028 году, официально заканчивается.»
«Чумные» сценарии, рассматриваемые аналитиками RAND, опираются на исследования, согласно которым чем более строгие в стране культурные нормы, тем меньше в ней было смертей от COVID-19 — так как граждане были готовы соблюдать правила, неважно какие именно. И наоборот, чем более космополитно общество, чем более оно толерантно к различиям между людьми, тем больше там смертей от пандемии, так как в таком обществе сложнее заставить всех соблюдать единые правила. В этом смысле пандемию начала 2020х можно рассматривать как одно громадное милитарное упражнение, в котором соперники проверяли и демонстрировали способность обществ бороться с патогеннами. И неважно даже, был ли COVID-19 искусственным или нет — следующий вирус может быть искусственным и распространяться злонамеренно, а средства борьбы у стран останутся теми же самыми. И как правило, именно в автократических обществах, в первую очередь в КНР, борьба с коронавирусом оказалась самой эффективной, хотя и во многом значительно более затратной для правительств.
(to be continued)
Авторы доклада считают, что вирусы вроде COVID-19 — практически идеальное с политической точки зрения био-оружие: практически невозможно с ходу выяснить и доказать, является ли вирус рукотворным или пришел к людям из природы, а также, если вирус таки создан человеком, была ли его утечка из биолабораторий умышленной или же это случайность? Четыре года спустя мы все еще не можем на 100% доказать или опровергнуть теорию лабораторного происхождения COVID-19, соответственно если какая-то сторона распространила его умышленно, она не понесла никакой ответственности, и, возможно, добилась своих менее очевидных чем в первом сценарии целей. А вот как выглядит второй «чумной» сценарий:
«Сценарий 2. Пандемия и геополитика
В жаркую и влажную погоду августа 2033 года в Вашингтоне, округ Колумбия, начинает распространяться новый воздушный патоген. Чиновники от здравоохранения спешат улучшить вентиляцию и соблюдение норм фильтрации воздуха для кондиционируемых помещений — особенности тех, на которые после пандемии COVID-19 никто не обращал внимания и которыми никто не занимался. Новая инфекция проявляет удивительно долгий бессимптомный заразный период в три недели, за которым следует смертность в 2,5 процента. Из-за бессимптомного распространения отслеживание контактов больных не работает как средство борьбы с вирусом, и через четыре месяца после того, как инфекция была впервые обнаружена, почти 1 миллион американцев умирает. При прогнозе в последующие 6,5 миллионах смертей, работники жизненно важных отраслей обоснованно настаивают на сокращении личных контактов до производства вакцины. Цепочки поставок США и Западной Европы сокращаются до одной трети от их первоначального объема.
Китай и Россия, тем временем, относительно не затронуты вирусом, потому что они заранее имели доступ к эффективной вакцине. Китай быстро развернул вакцинацию среди своего теперь еще более этнически однородного и послушного населения, а Россия жестко репрессировала своих антивакцинных популистов. Россия и Китай начинают одновременные агрессивные действия на своих границах, и Соединенные Штаты со своими европейскими союзниками не могут обьединиться для организации единого сопротивления. А переплетенность их военных цепочек поставок с гражданскими, серьезно ослабила бы любой их военный ответ, даже если бы они его предприняли. Несколько бывших советских стран целиком аннексируются Россией. Другие соседние страны, например, Индия, подписывают невыгодные договоры с агрессорами, чтобы сохранить суверенитет. Pax Americana («Американский мир»), ослабевший с момента вторжения в Украину в 2022 году и аннексии Тайваня Китаем в 2028 году, официально заканчивается.»
«Чумные» сценарии, рассматриваемые аналитиками RAND, опираются на исследования, согласно которым чем более строгие в стране культурные нормы, тем меньше в ней было смертей от COVID-19 — так как граждане были готовы соблюдать правила, неважно какие именно. И наоборот, чем более космополитно общество, чем более оно толерантно к различиям между людьми, тем больше там смертей от пандемии, так как в таком обществе сложнее заставить всех соблюдать единые правила. В этом смысле пандемию начала 2020х можно рассматривать как одно громадное милитарное упражнение, в котором соперники проверяли и демонстрировали способность обществ бороться с патогеннами. И неважно даже, был ли COVID-19 искусственным или нет — следующий вирус может быть искусственным и распространяться злонамеренно, а средства борьбы у стран останутся теми же самыми. И как правило, именно в автократических обществах, в первую очередь в КНР, борьба с коронавирусом оказалась самой эффективной, хотя и во многом значительно более затратной для правительств.
(to be continued)
«Чума, Киборги и Суперсолдаты» ч.3
Интернет тел (Internet of Bodies, или IoB) - это экосистема подключенных к интернету устройств, которые собирают биометрические и сгенерированные телом человека данные. IoB-технологии соединяют организм человека с сетью через устройства подключенные к телу (такие устройства можно проглотить, имплантировать или носить на теле), так что подключенное тело при этом можно мониторить и/или контролировать удаленно.
IoB включает такие устройства, как фитнес трекеры, носимые устройства и другие умные потребительские устройства, а также такие медицинские устройства, подключенные к Интернету, как кардиостимуляторы, экзоскелеты и протезы конечностей, умные контактные линзы и нейроимпланты. Исследователи считают Интернет тел продолжением концепции Интернета вещей и указывают на три поколения, или этапа развития IoB-устройств: внешнее по отношению к телу, находящиеся внутри тела и слившиеся с телом. Люди, чьи способности усиливаются через IoB-устройства, считаются киборгами в соответствии с большинством словарных определений этого термина.
Исследователи RAND подчеркивают, что китайские военные большое значение уделяют развитию биотехнологий и считают их следующей революцией в военном деле — поэтому такие IoB технологии как BCI (Brain-Computer Interface, нейрокомпьютерный интерфейс) и соединение мозгов в единую сеть (brain networking) разрабатываются и тестируются в китайских военных госпиталях. В США самые известные нейрокомпьютерные интерфейсы разрабатывает компания Илона Маска Neuralink.
Нейрокомпьютерные интерфейсы могут быть внешними по отношению к телу (например, шлем для неинвазивной электроэнцефалограммы) или внутренними (нейроимпланты вроде Neuralink). Военные считают оба вида нейроинтерфейсов крайне перспективными с военной точки зрения: например, так как BCI считывают мозговые сигналы и превращают их в команды для внешних устройств, военных пилотов, потерявших контроль над конечностями, хотят через IoB подключать к самолетам, чтобы опытные пилоты продолжали летать несмотря на увечья.
(продолжение в следующем посте)
Интернет тел (Internet of Bodies, или IoB) - это экосистема подключенных к интернету устройств, которые собирают биометрические и сгенерированные телом человека данные. IoB-технологии соединяют организм человека с сетью через устройства подключенные к телу (такие устройства можно проглотить, имплантировать или носить на теле), так что подключенное тело при этом можно мониторить и/или контролировать удаленно.
IoB включает такие устройства, как фитнес трекеры, носимые устройства и другие умные потребительские устройства, а также такие медицинские устройства, подключенные к Интернету, как кардиостимуляторы, экзоскелеты и протезы конечностей, умные контактные линзы и нейроимпланты. Исследователи считают Интернет тел продолжением концепции Интернета вещей и указывают на три поколения, или этапа развития IoB-устройств: внешнее по отношению к телу, находящиеся внутри тела и слившиеся с телом. Люди, чьи способности усиливаются через IoB-устройства, считаются киборгами в соответствии с большинством словарных определений этого термина.
Исследователи RAND подчеркивают, что китайские военные большое значение уделяют развитию биотехнологий и считают их следующей революцией в военном деле — поэтому такие IoB технологии как BCI (Brain-Computer Interface, нейрокомпьютерный интерфейс) и соединение мозгов в единую сеть (brain networking) разрабатываются и тестируются в китайских военных госпиталях. В США самые известные нейрокомпьютерные интерфейсы разрабатывает компания Илона Маска Neuralink.
Нейрокомпьютерные интерфейсы могут быть внешними по отношению к телу (например, шлем для неинвазивной электроэнцефалограммы) или внутренними (нейроимпланты вроде Neuralink). Военные считают оба вида нейроинтерфейсов крайне перспективными с военной точки зрения: например, так как BCI считывают мозговые сигналы и превращают их в команды для внешних устройств, военных пилотов, потерявших контроль над конечностями, хотят через IoB подключать к самолетам, чтобы опытные пилоты продолжали летать несмотря на увечья.
(продолжение в следующем посте)
«Чума, Киборги и Суперсолдаты» ч.4
В будущем BCI смогут не только считывать, но и записывать информацию в мозг, что позволит военным общаться по сверхзащищенному каналу связи — от мозга к мозгу — и не давать противнику перехватить их коммуникацию. С другой стороны появляются новые опасности: если BCI взломают, то противники потенциально могут внушить страх, замешательство и гнев напрямую в мозг военачальника, помимо его воли и понимания, что может приводить к катастрофическим последствиям. К слову, китайские организации, предположительно помогающие военным разрабатывать «оружие контроля над мозгом» еще в 2021 попали под санкции Министерства торговли США. Аналитики RAND иллюстрируют такую угрозу в следующем гипотетическом сценарии (и попутно троллят президента Байдена):
«Сценарий 4. Нейрокомпьютерный интерфейс, влияющий на настроение
В 2050 году несколько восьмидесятилетних конгрессменов сталкиваются с трудностями во время предвыборной кампаниями из-за слухов о плохом здоровье и плохой когнитивной форме, не соответствующей ролям, на которые они претендуют. Трое из этих членов Конгресса тайно имплантируют в свои мозги самые передовые нейрокомпьютерные интерфейсы (BCI) — практика, которая стала довольно обычной среди богатых пожилых граждан. Ранее у этих членов наблюдались признаки замедления, но этот BCI позволяет им двигаться и говорить нормально, особенно с помощью политических союзников, скрывающих их истинное состояние.
Разработчики BCI подозревают, что их импланты способны не только считывать сигналы мозга, но и тонко и незаметно влиять на темперамент пользователей. Однако разработчики хранят это в тайне, так как пока не могут найти решение для этой проблемы. При таком сценарии эта уязвимость в BCI может вызвать значительный хаос среди конгрессменов. У них могут начаться спонтанные эпизоды неадекватного поведения, забывчивости и иррациональности, и вражды к своим коллегам по Конгрессу, союзникам и партнерам. Население США деморализовано. Ранее дружественные страны начинают дистанцироваться от Соединенных Штатов.»
В чем опасность дисфункции мозга у людей, которые управляют странами и принимают решения от имени миллионов граждан, нам и так ясно. В описанном сценарии не уточняется, почему именно нейроимплант сбоит: из-за несовершенства технологии и беспечности цепляющихся за власть политиков, готовых рисковать и собой, и благополучием страны ради сохранения статуса, или же из-за того, что эти нейроимпланты взломали спецслужбы вражеских стран. Второй вариант — взлом BCI — мне представляется гораздо более вероятным и опасным сценарием.
В будущем BCI смогут не только считывать, но и записывать информацию в мозг, что позволит военным общаться по сверхзащищенному каналу связи — от мозга к мозгу — и не давать противнику перехватить их коммуникацию. С другой стороны появляются новые опасности: если BCI взломают, то противники потенциально могут внушить страх, замешательство и гнев напрямую в мозг военачальника, помимо его воли и понимания, что может приводить к катастрофическим последствиям. К слову, китайские организации, предположительно помогающие военным разрабатывать «оружие контроля над мозгом» еще в 2021 попали под санкции Министерства торговли США. Аналитики RAND иллюстрируют такую угрозу в следующем гипотетическом сценарии (и попутно троллят президента Байдена):
«Сценарий 4. Нейрокомпьютерный интерфейс, влияющий на настроение
В 2050 году несколько восьмидесятилетних конгрессменов сталкиваются с трудностями во время предвыборной кампаниями из-за слухов о плохом здоровье и плохой когнитивной форме, не соответствующей ролям, на которые они претендуют. Трое из этих членов Конгресса тайно имплантируют в свои мозги самые передовые нейрокомпьютерные интерфейсы (BCI) — практика, которая стала довольно обычной среди богатых пожилых граждан. Ранее у этих членов наблюдались признаки замедления, но этот BCI позволяет им двигаться и говорить нормально, особенно с помощью политических союзников, скрывающих их истинное состояние.
Разработчики BCI подозревают, что их импланты способны не только считывать сигналы мозга, но и тонко и незаметно влиять на темперамент пользователей. Однако разработчики хранят это в тайне, так как пока не могут найти решение для этой проблемы. При таком сценарии эта уязвимость в BCI может вызвать значительный хаос среди конгрессменов. У них могут начаться спонтанные эпизоды неадекватного поведения, забывчивости и иррациональности, и вражды к своим коллегам по Конгрессу, союзникам и партнерам. Население США деморализовано. Ранее дружественные страны начинают дистанцироваться от Соединенных Штатов.»
В чем опасность дисфункции мозга у людей, которые управляют странами и принимают решения от имени миллионов граждан, нам и так ясно. В описанном сценарии не уточняется, почему именно нейроимплант сбоит: из-за несовершенства технологии и беспечности цепляющихся за власть политиков, готовых рисковать и собой, и благополучием страны ради сохранения статуса, или же из-за того, что эти нейроимпланты взломали спецслужбы вражеских стран. Второй вариант — взлом BCI — мне представляется гораздо более вероятным и опасным сценарием.
«Чума, Киборги и Суперсолдаты» ч. 5
В заключительной части постов о «Чуме, Киборгах и Суперсолдатах» рассмотрим роль генетических технологий в войне будущего. Ключевые открытия последних лет в сфере геномики — вакцины на основе мРНК и успешное использование методик CRISPR для генетической инженерии — заставили военных всерьез задуматься о милитаризации генов.
Геномика может очень сильно повлиять на подготовку и экипировку солдат, привести к усилению их стойкости, улучшению их способностей и возможностей восстанавливаться. Развитие геномики позволит, например, персонализировать питание и протоколы тренировок бойцов, подобрать и разработать для них оптимальные лекарства и даже генетически их усилить.
RAND выделяет два основных направления генетической мысли у военных: генетический надзор и генетическое усиление.
Генетический надзор — это сочетание генетических данных с технологиями идентификации, сортировки и наблюдения. Генетический надзор сильно напоминает продвинутые техники евгеники и сводится в первую очередь к идентификации самых подходящих для конкретной службы людей на основе генетических данных. Например, «если в государстве будет проводится всеобщая мобилизация, а нужные генетические и фенотипические данные населения будут упорядочены и доступны, то ИИ поможет более эффективно распределить кандидатов на разные виды службы».
Пока что такая генетическая сортировка осложняется из-за недостаточности знаний о связи генотипа (набора генов человека) с фенотипом (набора внешних и внутренних черт характеристик организма). Другими словами, если генотип — это абстрактный чертеж, то фенотип — это характеристики строящегося по этому чертежу здания, а научная проблема заключается в том, что глядя на чертежи мы все еще не знаем, как через год будет выглядеть конкретное здание.
«Геномный надзор принесет дополнительную пользу только в том случае, если он поможет предсказывать потенциальные или будущие фенотипические черты, которые не получается наблюдать через сам фенотип», утверждают аналитики RAND. «Например, генетический тест, предсказывающий рост или силу человека, будет относительно бесполезным, поскольку эти особенности легче и дешевле наблюдать непосредственно в фенотипе. Напротив, генетический тест, который предсказал бы возможность человека освоить специализированный BCI (нейрокомпьютерный интерфейс) после недолгого обучения, мог бы стать очень ценным, при условии что такой будущий потенциал не проще будет определить фенотипически.» А вот как выглядит иллюстрация такого подхода:
«Сценарий 5. Геномный рекрутинговый скрининг
В призывном пункте молчаливый капитан ВМС США наблюдает за 343 новобранцами, которым поручено участвовать в новой программе сброски десантников с орбиты. Капитан быстро просматривает данные отбора на своем планшете. У каждого кандидата есть несколько совокупностей способностей с подробной геномной историей. Геномные данные, собранные во время Selective Service регистрации (прим. американский аналог сдачи данных в военкомат), позволяют быстро идентифицировать кандидатов для участия в нескольких специальных программах на основе генетического потенциала. Оценка аналитического центра показала, что ВВС США (USAF) за счет применения геномных инструментов повысили эффективность отбора пилотов на 15%. Программа орбитального десантирования ВВС США отличалась и была гораздо более требовательной, чем программа отбора пилотов ВВС США; ожидается, что каждый кандидат выдержит испытания прыжков с большой высоты, таких как исторический прыжок Феликса Баумгартнера с высоты 39 000 м. Капитан знал, что эта программа была экспериментальной и рискованной, поэтому рекрутировать нужно только тех, кто соответствует строгим стандартам.»
В заключительной части постов о «Чуме, Киборгах и Суперсолдатах» рассмотрим роль генетических технологий в войне будущего. Ключевые открытия последних лет в сфере геномики — вакцины на основе мРНК и успешное использование методик CRISPR для генетической инженерии — заставили военных всерьез задуматься о милитаризации генов.
Геномика может очень сильно повлиять на подготовку и экипировку солдат, привести к усилению их стойкости, улучшению их способностей и возможностей восстанавливаться. Развитие геномики позволит, например, персонализировать питание и протоколы тренировок бойцов, подобрать и разработать для них оптимальные лекарства и даже генетически их усилить.
RAND выделяет два основных направления генетической мысли у военных: генетический надзор и генетическое усиление.
Генетический надзор — это сочетание генетических данных с технологиями идентификации, сортировки и наблюдения. Генетический надзор сильно напоминает продвинутые техники евгеники и сводится в первую очередь к идентификации самых подходящих для конкретной службы людей на основе генетических данных. Например, «если в государстве будет проводится всеобщая мобилизация, а нужные генетические и фенотипические данные населения будут упорядочены и доступны, то ИИ поможет более эффективно распределить кандидатов на разные виды службы».
Пока что такая генетическая сортировка осложняется из-за недостаточности знаний о связи генотипа (набора генов человека) с фенотипом (набора внешних и внутренних черт характеристик организма). Другими словами, если генотип — это абстрактный чертеж, то фенотип — это характеристики строящегося по этому чертежу здания, а научная проблема заключается в том, что глядя на чертежи мы все еще не знаем, как через год будет выглядеть конкретное здание.
«Геномный надзор принесет дополнительную пользу только в том случае, если он поможет предсказывать потенциальные или будущие фенотипические черты, которые не получается наблюдать через сам фенотип», утверждают аналитики RAND. «Например, генетический тест, предсказывающий рост или силу человека, будет относительно бесполезным, поскольку эти особенности легче и дешевле наблюдать непосредственно в фенотипе. Напротив, генетический тест, который предсказал бы возможность человека освоить специализированный BCI (нейрокомпьютерный интерфейс) после недолгого обучения, мог бы стать очень ценным, при условии что такой будущий потенциал не проще будет определить фенотипически.» А вот как выглядит иллюстрация такого подхода:
«Сценарий 5. Геномный рекрутинговый скрининг
В призывном пункте молчаливый капитан ВМС США наблюдает за 343 новобранцами, которым поручено участвовать в новой программе сброски десантников с орбиты. Капитан быстро просматривает данные отбора на своем планшете. У каждого кандидата есть несколько совокупностей способностей с подробной геномной историей. Геномные данные, собранные во время Selective Service регистрации (прим. американский аналог сдачи данных в военкомат), позволяют быстро идентифицировать кандидатов для участия в нескольких специальных программах на основе генетического потенциала. Оценка аналитического центра показала, что ВВС США (USAF) за счет применения геномных инструментов повысили эффективность отбора пилотов на 15%. Программа орбитального десантирования ВВС США отличалась и была гораздо более требовательной, чем программа отбора пилотов ВВС США; ожидается, что каждый кандидат выдержит испытания прыжков с большой высоты, таких как исторический прыжок Феликса Баумгартнера с высоты 39 000 м. Капитан знал, что эта программа была экспериментальной и рискованной, поэтому рекрутировать нужно только тех, кто соответствует строгим стандартам.»
«Чума, Киборги и Суперсолдаты» ч. 6
Генетическое усиление — это использование доступной геномной информации для изменения характеристик человеческого тела или окружающей среды с целью повышения устойчивости на микро (индивидуальном) или макро (общественном) уровне. С ним все еще проще — «это потенциально доступные в ближайшем будущем генетические модификации ключевых боевых качеств солдата: например, возможность дольше функционировать без сна, большая физическая выносливость, улучшенная дыхательная способность.»
Авторы доклада отмечают, что все еще до конца неясно, получиться ли генетически усиливать людей на массовом потоке — для этого есть ряд неразрешенных научных препятствий. Однако, отмечают они, в Китае в этом направлении работают не первый год: например, компания BGI Group разработала пренатальный генетический тест и вместе с китайскими военными работает над улучшением «качества населения» на основе данных этого теста.
«Пример 6. Генетическое усиление для обедненной окружающей среды
К 2050 году программа NASA «Артемида» уже более двадцати лет пользуется большим успехом, позволяя космонавтам выполнять различные миссии по исследованию лунной поверхности. Однако с созданием нескольких постоянных баз на Луне между крупнейшими космическими державами разразилась новая Холодная война из-за конкуренции за владение этими базами. USSF отправляет отважную молодую капитаншу в ее первую миссию поддержки на Луну. Когда космический корабль мчится к одной из таких оспариваемых баз, она смотрит в окно на восход Луны.
За несколько мгновений до приземления из-за пробоины в корпусе из углеродного волокна капитанского космического корабля (проблема, вероятно, вызвана тем, что этот полет стал пятым повторным использованием корабля), привела к тому, что он отклонился от курса. Капитан приземляется в нескольких милях от лунной базы, и ей не хватит воздуха и воды, чтобы добраться туда на марсоходе. Капитан связывается с домашней станцией и просит поддержки. Командир оперативного центра сообщает капитану, что ей разрешено экстренное использование генетического усиления для обедненных сред — эти модфикации должны замедлить дыхание капитана и ее потребление воды, а также продлить ее жизнеобеспечение на 96 часов. Капитан завершает голосовую связь, чтобы сохранить запасы кислорода и воды. Этих 96 часов достаточно для запуска другого космического корабля с материалами для пополнения запасов, и вскоре капитан подтверждает, что она выжила.»
Генетическое усиление — это использование доступной геномной информации для изменения характеристик человеческого тела или окружающей среды с целью повышения устойчивости на микро (индивидуальном) или макро (общественном) уровне. С ним все еще проще — «это потенциально доступные в ближайшем будущем генетические модификации ключевых боевых качеств солдата: например, возможность дольше функционировать без сна, большая физическая выносливость, улучшенная дыхательная способность.»
Авторы доклада отмечают, что все еще до конца неясно, получиться ли генетически усиливать людей на массовом потоке — для этого есть ряд неразрешенных научных препятствий. Однако, отмечают они, в Китае в этом направлении работают не первый год: например, компания BGI Group разработала пренатальный генетический тест и вместе с китайскими военными работает над улучшением «качества населения» на основе данных этого теста.
«Пример 6. Генетическое усиление для обедненной окружающей среды
К 2050 году программа NASA «Артемида» уже более двадцати лет пользуется большим успехом, позволяя космонавтам выполнять различные миссии по исследованию лунной поверхности. Однако с созданием нескольких постоянных баз на Луне между крупнейшими космическими державами разразилась новая Холодная война из-за конкуренции за владение этими базами. USSF отправляет отважную молодую капитаншу в ее первую миссию поддержки на Луну. Когда космический корабль мчится к одной из таких оспариваемых баз, она смотрит в окно на восход Луны.
За несколько мгновений до приземления из-за пробоины в корпусе из углеродного волокна капитанского космического корабля (проблема, вероятно, вызвана тем, что этот полет стал пятым повторным использованием корабля), привела к тому, что он отклонился от курса. Капитан приземляется в нескольких милях от лунной базы, и ей не хватит воздуха и воды, чтобы добраться туда на марсоходе. Капитан связывается с домашней станцией и просит поддержки. Командир оперативного центра сообщает капитану, что ей разрешено экстренное использование генетического усиления для обедненных сред — эти модфикации должны замедлить дыхание капитана и ее потребление воды, а также продлить ее жизнеобеспечение на 96 часов. Капитан завершает голосовую связь, чтобы сохранить запасы кислорода и воды. Этих 96 часов достаточно для запуска другого космического корабля с материалами для пополнения запасов, и вскоре капитан подтверждает, что она выжила.»
This media is not supported in your browser
VIEW IN TELEGRAM
2024 будет годом роботов, так же как 2023 был годом чатботов.
Пока что Tesla Optimus складывает фубтолку.
Пока что Tesla Optimus складывает фубтолку.
Об амбивалентность будущего
Мы проходим через очередной период тотального перераспределения власти в рамках научно-технологического скачка связанного с наступлением эры искусственного интеллекта и роботов.
Перераспределение власти происходит во всех сферах человеческой деятельности: в залах заседаний международных организаций и на поле боя, на суше, в море, в воздухе и в космосе, в мозгах и гормональных системах людей, в юридических документах и финансовых отчетах.
Старая система сдерживания и противовесов рухнула и теперь мировая система пытается прийти в новое равновесие, а пока это происходит каждый отдельный участник нашей цивилизации пытается занять в новом эквилибриуме как можно более выгодное положение.
Диктатор пытается урвать себе больше земли и граждан, капиталист – все больше денег и влияния, инфлюенсер – больше внимания и подписчиков. Матерая Google проигрывает технологическую гонку новичку OpenAI, 60-летний боксер Майк Тайсон собирается драться с 30-летним блогером Джейком Полом, а американские менеджеры собираются заменить половину сотрудников виртуальными рабами. Старое хаотично перемешивается с новым и вызывает еще больший хаос.
Если вслушаться в самые популярные голоса нашей цивилизации – от Харари до Джо Рогана, от Путина до Маска, от Жижека до Курцвейла, от Альтмана до Байдена, от Си до Греты Тунберг – получится что в новом мире, куда нас с такими муками выдавливает история, нас ждет одновременно:
– вечная жизнь и мгновенная смерть через 2 минуты
– совершенное здоровье и неизлечимые смертельные вирусы
– изобилие вещей и продуктов а также тотальный мор и засуха
– 4-дневная рабочая неделя и ежедневная смерть в окопе.
Опасность в Третью мировую вышла на такой уровень, что ее, как в математике, можно просто вынести за скобки наших жизненных уравнений. Поэтому я думаю что надо сконцентрироваться на возможностях нашего времени – и тут самая большая задача в том, чтобы эти возможности разглядеть.
Человечество близоруко всматривается в туман будущего и гибнет в кровавых спорах о том, что же оно там видит.
Мы проходим через очередной период тотального перераспределения власти в рамках научно-технологического скачка связанного с наступлением эры искусственного интеллекта и роботов.
Перераспределение власти происходит во всех сферах человеческой деятельности: в залах заседаний международных организаций и на поле боя, на суше, в море, в воздухе и в космосе, в мозгах и гормональных системах людей, в юридических документах и финансовых отчетах.
Старая система сдерживания и противовесов рухнула и теперь мировая система пытается прийти в новое равновесие, а пока это происходит каждый отдельный участник нашей цивилизации пытается занять в новом эквилибриуме как можно более выгодное положение.
Диктатор пытается урвать себе больше земли и граждан, капиталист – все больше денег и влияния, инфлюенсер – больше внимания и подписчиков. Матерая Google проигрывает технологическую гонку новичку OpenAI, 60-летний боксер Майк Тайсон собирается драться с 30-летним блогером Джейком Полом, а американские менеджеры собираются заменить половину сотрудников виртуальными рабами. Старое хаотично перемешивается с новым и вызывает еще больший хаос.
Если вслушаться в самые популярные голоса нашей цивилизации – от Харари до Джо Рогана, от Путина до Маска, от Жижека до Курцвейла, от Альтмана до Байдена, от Си до Греты Тунберг – получится что в новом мире, куда нас с такими муками выдавливает история, нас ждет одновременно:
– вечная жизнь и мгновенная смерть через 2 минуты
– совершенное здоровье и неизлечимые смертельные вирусы
– изобилие вещей и продуктов а также тотальный мор и засуха
– 4-дневная рабочая неделя и ежедневная смерть в окопе.
Опасность в Третью мировую вышла на такой уровень, что ее, как в математике, можно просто вынести за скобки наших жизненных уравнений. Поэтому я думаю что надо сконцентрироваться на возможностях нашего времени – и тут самая большая задача в том, чтобы эти возможности разглядеть.
Человечество близоруко всматривается в туман будущего и гибнет в кровавых спорах о том, что же оно там видит.
Повторение – мать пропаганды
В пропагандистских войнах никакое одно событие, заявление или статья не играют решающего значения – они могут дать ситуативное преимущество одной из сторон, но не могут обеспечить ее победу. В войнах за умы людей работает только последовательная и методичная обработка определенными посланиями пропаганды. Повторение — мать учения.
Пропаганда использует простое когнитивное искажение: чем чаще что-то повторяется, тем более правдоподобным оно кажется людям. Люди тысячелетиями знали о силе повторения, но по-настоящему эта сила заиграла тогда, когда в первой половине 20 века в домах у всех граждан появилось радио. У пропагандистов появилась возможность многократно повторять одно и то же одновременно миллионам людей. Послушав утром радио, они выходили на работу и повторяли услышанные тезисы друг другу, затем возвращались домой и за ужином опять слышали эти тезисы из радио.
Первым такую силу радио раскрыл нацистский министр пропаганды Геббельс, который даже спродюсировал появление недорогого “народного радиоприемника”, который мог бы себе позволить купить каждый немец. В повторяемых через эти дешевые приемники посланиях и родился тот самый “нацистский дух” немецкого народа. Родился в головах миллионы немцев, повторявших одни и те же геббельсовы ложные тезисы раз за разом, пока эти тезисы не становились правдой для всего народа.
Война, через которую мы сейчас проходим, — в первую очередь информационная и пропагандистская война, в которой задействовано на порядок больше людей, чем в непосредственных боевых действиях. Все они повторяют одни и те же утомительные тезисы, которые лично я у себя в голове перебиваю повторением другого утомительного тезиса: «Ничто не истинно, все дозволено».
В пропагандистских войнах никакое одно событие, заявление или статья не играют решающего значения – они могут дать ситуативное преимущество одной из сторон, но не могут обеспечить ее победу. В войнах за умы людей работает только последовательная и методичная обработка определенными посланиями пропаганды. Повторение — мать учения.
Пропаганда использует простое когнитивное искажение: чем чаще что-то повторяется, тем более правдоподобным оно кажется людям. Люди тысячелетиями знали о силе повторения, но по-настоящему эта сила заиграла тогда, когда в первой половине 20 века в домах у всех граждан появилось радио. У пропагандистов появилась возможность многократно повторять одно и то же одновременно миллионам людей. Послушав утром радио, они выходили на работу и повторяли услышанные тезисы друг другу, затем возвращались домой и за ужином опять слышали эти тезисы из радио.
Первым такую силу радио раскрыл нацистский министр пропаганды Геббельс, который даже спродюсировал появление недорогого “народного радиоприемника”, который мог бы себе позволить купить каждый немец. В повторяемых через эти дешевые приемники посланиях и родился тот самый “нацистский дух” немецкого народа. Родился в головах миллионы немцев, повторявших одни и те же геббельсовы ложные тезисы раз за разом, пока эти тезисы не становились правдой для всего народа.
Война, через которую мы сейчас проходим, — в первую очередь информационная и пропагандистская война, в которой задействовано на порядок больше людей, чем в непосредственных боевых действиях. Все они повторяют одни и те же утомительные тезисы, которые лично я у себя в голове перебиваю повторением другого утомительного тезиса: «Ничто не истинно, все дозволено».
В новом интервью Цукерберга меня заинтересовало, как он несколько раз мечтательно говорит, что рано или поздно кто-то наконец построит data-центр для тренировки ИИ с мощностью в 1 гигаватт — по сути, сделает целый ядерный реактор батарейкой для одной нейросети.
Еще недавно основной метрикой ИИ было количество параметров нейросети, исчислявшееся миллионами, а затем и миллиардами. Когда количество параметров начало приближаться к триллиону, тренд поменялся: теперь нейросеть Цукерберга нового поколения Llama 3 с 7 млрд параметров работает лучше, чем Llama 2 с 70 млрд. Меряться количеством параметров больше не актуально.
Теперь главной метрикой ИИ постепенно становится энергия.
CEO OpenAI Сэм Альтман утверждает, что будущее ИИ полностью зависит от развития сферы энергетики. Нейросети работают на полупроводниках (процессорах), которые потребляют громадное количество электричества. Для прогресса в ИИ нужно скармливать ему все больше процессоров, а для них нужно все больше энергии. Еще недавно все считали, что прогресс ИИ упрется в невозможность производить достаточное количество процессоров — но нет, теперь все упирается в электричество, которое питает эти процессоры в дата-центрах.
Сегодня средний дата центр, необходимый для тренировки и поддержания ИИ, потребляет от 50 до 100 мегаватт, крупный — 150 мегаватт. Чтобы ИИ в нынешнем его виде вышел на принципиально новый уровень, по мнению Цукерберга, нужно строить дата-центры уже на 300-500 мегаватт, а сам он, кажется, мечтает о 1000 мегаваттном (1 гВт) ИИ-комплексе.
И тут мы упираемся в очень интересную ситуацию. Энергия в нашей цивилизации принадлежит правительствам. Даже если не правительство ее производит и распределяет, все равно именно оно регулирует законами все, что с ней связано, и без его разрешений никакие серьезные добыча и распределение невозможны. Дальше — еще интереснее. Наибольшим количеством энергии в наше время распоряжаются автократические и тоталитарные режимы, например, путинская РФ.
Одна ЗАЭС, крупнейшая электростанция Европы, которую путинские войска отобрали у Украины, способна генерировать сразу 6 гигаватт — в шесть раз больше, чем в фантазиях Цукерберга. То есть потенциально РФ, в худшем случае, или монархии Персидского залива в лучшем, могут в обозримом будущем перещеголять США и Европу в развитии ИИ просто за счет того, что смогут пустить на это дело больше энергии. Пикантность ситуации заключается в том, что им даже не придется изобретать велосипед и создавать нейросети с ноля. Им даже красть ничего не придется: они просто возьмут open-source модели того же Цукерберга и продолжат развивать их на базе своей электрогенерации.
Хорошо, что энергия – все же пока что не единственное узкое место в развитии ИИ. В мире уже заканчиваются качественные данные для тренировки нейросетей. Но об этом в другой раз.
Еще недавно основной метрикой ИИ было количество параметров нейросети, исчислявшееся миллионами, а затем и миллиардами. Когда количество параметров начало приближаться к триллиону, тренд поменялся: теперь нейросеть Цукерберга нового поколения Llama 3 с 7 млрд параметров работает лучше, чем Llama 2 с 70 млрд. Меряться количеством параметров больше не актуально.
Теперь главной метрикой ИИ постепенно становится энергия.
CEO OpenAI Сэм Альтман утверждает, что будущее ИИ полностью зависит от развития сферы энергетики. Нейросети работают на полупроводниках (процессорах), которые потребляют громадное количество электричества. Для прогресса в ИИ нужно скармливать ему все больше процессоров, а для них нужно все больше энергии. Еще недавно все считали, что прогресс ИИ упрется в невозможность производить достаточное количество процессоров — но нет, теперь все упирается в электричество, которое питает эти процессоры в дата-центрах.
Сегодня средний дата центр, необходимый для тренировки и поддержания ИИ, потребляет от 50 до 100 мегаватт, крупный — 150 мегаватт. Чтобы ИИ в нынешнем его виде вышел на принципиально новый уровень, по мнению Цукерберга, нужно строить дата-центры уже на 300-500 мегаватт, а сам он, кажется, мечтает о 1000 мегаваттном (1 гВт) ИИ-комплексе.
И тут мы упираемся в очень интересную ситуацию. Энергия в нашей цивилизации принадлежит правительствам. Даже если не правительство ее производит и распределяет, все равно именно оно регулирует законами все, что с ней связано, и без его разрешений никакие серьезные добыча и распределение невозможны. Дальше — еще интереснее. Наибольшим количеством энергии в наше время распоряжаются автократические и тоталитарные режимы, например, путинская РФ.
Одна ЗАЭС, крупнейшая электростанция Европы, которую путинские войска отобрали у Украины, способна генерировать сразу 6 гигаватт — в шесть раз больше, чем в фантазиях Цукерберга. То есть потенциально РФ, в худшем случае, или монархии Персидского залива в лучшем, могут в обозримом будущем перещеголять США и Европу в развитии ИИ просто за счет того, что смогут пустить на это дело больше энергии. Пикантность ситуации заключается в том, что им даже не придется изобретать велосипед и создавать нейросети с ноля. Им даже красть ничего не придется: они просто возьмут open-source модели того же Цукерберга и продолжат развивать их на базе своей электрогенерации.
Хорошо, что энергия – все же пока что не единственное узкое место в развитии ИИ. В мире уже заканчиваются качественные данные для тренировки нейросетей. Но об этом в другой раз.
Впервые о ИИ-пилотах за штурвалом истребителей F-16 я прочитал в книге «4 поля битвы» Пола Шарре, где он описывал соревнования 2020 года по воздушному бою между реальными пилотами и нейросетями. Тогда ИИ впервые выиграл все воздушные дуэли у людей — правда, произошло это внутри симуляции. А совсем недавно испытания провели уже в физическом мире: живой пилот и пилот-нейросеть, конечно, не стреляли друг в друга, но их самолеты взаимодействовали на небольшом расстоянии в воздухе.
Нельзя сказать, что роботизация самолетов — что-то принципиально новое. Есть разные виды автономии машин, и автономия типа систем с экспертным кодированием (или основанные на правилах системы) применяется в аэрокосмической индустрии практически с момента ее появления. Для такой автономии эксперты (инженеры и пилоты) прописывают четкие процедуры поведения аэросистем по принципу “если - тогда”: если ветер сильнее “х”, тогда снижаем высоту на “y”, и т.д. Но очевидный недостаток такой автономии — невозможность выдать машине инструкции на все случаи жизни.
Другой тип автономии основывается на машинном обучении: ИИ-системам просто скармливают все доступные о полетах людей данные и позволяют самостоятельно сделать выводы о том, как нужно летать и маневрировать в тех или иных ситуациях. Такой подход ведет нас к полной автономии машин и несет множество бонусов: например, ИИ часто находит закономерности и берет на вооружение трюки, почерпнутые из опыта живых пилотов, но ускользнувшие от внимания и понимания самих пилотов, совершавших эти трюки.
Именно второй тип автономии и тестировали участники программы Air Combat Evolution (ACE) от DARPA в симуляциях 2020 года и в реальном полете сейчас. Первый тест в физическом мире не включал в себя стрельбу, а служил доказательством концепции — да, ИИ-системы способны самостоятельно научиться летать и затем пилотировать на уровне топ асов в реальном мире.
У меня не вызывает сомнения, что раз нейросети “порвали” живых асов в симуляции, в физическом мире они превзойдут живых пилотов еще радикальнее. Просто посмотрите, как выглядит воздушный бой с живым пилотом, послушайте, как он дышит, и представьте физические перегрузки, которые он испытывает, просто маневрируя. Машина лишена физического тела и соответствующих ограничений, поэтому я и думаю, что она будет “рвать” людей на раз-два.
Проблема с использованием ИИ-пилотов в реальных боях заключается в том, что люди не всегда и не до конца понимают, что именно делает нейросеть — поэтому ее невозможно контролировать и гарантировать, что она, например, не наделает беды своим. Я бы сказал, что проблема не только и не столько в ненадежности ИИ-пилотов, сколько в общем психологическом барьере: люди пока не настолько доверяют машинам, чтобы вручать им штурвал заряженного под завязку F-16.
Нельзя сказать, что роботизация самолетов — что-то принципиально новое. Есть разные виды автономии машин, и автономия типа систем с экспертным кодированием (или основанные на правилах системы) применяется в аэрокосмической индустрии практически с момента ее появления. Для такой автономии эксперты (инженеры и пилоты) прописывают четкие процедуры поведения аэросистем по принципу “если - тогда”: если ветер сильнее “х”, тогда снижаем высоту на “y”, и т.д. Но очевидный недостаток такой автономии — невозможность выдать машине инструкции на все случаи жизни.
Другой тип автономии основывается на машинном обучении: ИИ-системам просто скармливают все доступные о полетах людей данные и позволяют самостоятельно сделать выводы о том, как нужно летать и маневрировать в тех или иных ситуациях. Такой подход ведет нас к полной автономии машин и несет множество бонусов: например, ИИ часто находит закономерности и берет на вооружение трюки, почерпнутые из опыта живых пилотов, но ускользнувшие от внимания и понимания самих пилотов, совершавших эти трюки.
Именно второй тип автономии и тестировали участники программы Air Combat Evolution (ACE) от DARPA в симуляциях 2020 года и в реальном полете сейчас. Первый тест в физическом мире не включал в себя стрельбу, а служил доказательством концепции — да, ИИ-системы способны самостоятельно научиться летать и затем пилотировать на уровне топ асов в реальном мире.
У меня не вызывает сомнения, что раз нейросети “порвали” живых асов в симуляции, в физическом мире они превзойдут живых пилотов еще радикальнее. Просто посмотрите, как выглядит воздушный бой с живым пилотом, послушайте, как он дышит, и представьте физические перегрузки, которые он испытывает, просто маневрируя. Машина лишена физического тела и соответствующих ограничений, поэтому я и думаю, что она будет “рвать” людей на раз-два.
Проблема с использованием ИИ-пилотов в реальных боях заключается в том, что люди не всегда и не до конца понимают, что именно делает нейросеть — поэтому ее невозможно контролировать и гарантировать, что она, например, не наделает беды своим. Я бы сказал, что проблема не только и не столько в ненадежности ИИ-пилотов, сколько в общем психологическом барьере: люди пока не настолько доверяют машинам, чтобы вручать им штурвал заряженного под завязку F-16.
«Задача трех тел» и Лю Цысинь
«Книжка по астрономии познакомила меня с концепцией светового года. До того я уже знал, что свет может за одну секунду пройти расстояние, равное семи с половиной экваторам Земли, но не предполагал, какое уму непостижимое расстояние можно преодолеть, если лететь с такой скоростью целый год. Я представлял себе луч света, путешествующий сквозь холодное безмолвие космоса со скоростью 300 тысяч километров в секунду. Пытаясь с помощью своего воображения постичь этот леденящий кровь простор и бездонную глубину, я ощущал ужас, благоговение и одновременно эйфорию, вроде той, что бывает при приеме наркотика».
Так китайский писатель-фантаст Лю Цысинь описывает особенности своего детского восприятия. Примерно такими же словами я могу описать свои ощущения от прочтения его трилогии «В память о прошлом Земли» — леденящие кровь просторы, бездонная глубина, ощущение смеси ужаса, благоговения и эйфории, вроде той, что случается при приеме наркотика.
Нетфликсова адаптация первой части трилогии, «Задача трех тел», вышедшая месяц назад, – только тень произведения Цысиня, но в принципе дает неплохое представление о том, что ждет вас в книге. С другой стороны, «В память о прошлом Земли» не просто так считалась “не-экранизируемой” книгой – чего стоит одна только задача показать переход космического корабля из четырехмерного пространство в трехмерное и из трехмерного в двухмерное (впрочем, полностью обойти эту проблему не выйдет, так что интересно, как с переходом между измерениями справятся шоураннеры Уайсс и Бениофф, ранее экранизировавшие «Игру престолов»).
«В память о прошлом Земли» относят к hard sci-fi — направлению научной фантастики, в котором технологиям и наукам вроде математики, физики и биологии уделяется много внимания, в отличие от soft sci-fi, где акцент больше на гуманитарных науках вроде психологии, антропологии и социологии. По-моему, у Цысиня получился очень сбалансированный микс между hard и soft sci-fi. Не могу сказать, что меня поразило больше: его коллективный психологический портрет человеческой цивилизации — или умопомрачительные описания технологий и физических законов Вселенной.
Сам Лю утверждает, что он не очень-то и разбирается в науке: был «средним студентом в среднем провинциальном университете», а впоследствии “средним” компьютерным инженером на угольной электростанции — скорее программистом, чем ученым. Тем не менее, у него всю жизнь складывались очевидно интимные отношения с наукой. Например, «Краткую историю времени» Стивена Хокинга Лю читал как роман: даже не пытаясь запомнить и досконально понять, скорее, проникаясь общим ощущением.
Чтение этой трилогии на фоне полномасштабного вторжения РФ в Украину оказало на меня крайне терапевтический эффект: черный пессимизм Цысиня по поводу людей срезонировал с моими ощущениями и странным образом успокоил горечь от разворачивающегося милитаристского безумия нашей цивилизации. На фоне черноты наших умов и душ хардкорная наука показалась мне свежим глотком воздуха, чем-то неотличимым от магии и способным творить чудеса.
На самом деле, никаких чудес в итоге не будет, потому что наука/магия находится в руках людей, и мы готовы пользоваться ей для чего угодно — только не для того, чтобы разобраться в самих себе и перестать с таким остервенением толкать друг друга в небытие. “Потому что наша цивилизация больше не способна решать собственные проблемы”, — как пишет автор.
(поставьте смайл с привидением, если вы прочитали всю трилогию или смайл в очках, если сейчас ее читаете)
(на фото – Лю Цысинь)
«Книжка по астрономии познакомила меня с концепцией светового года. До того я уже знал, что свет может за одну секунду пройти расстояние, равное семи с половиной экваторам Земли, но не предполагал, какое уму непостижимое расстояние можно преодолеть, если лететь с такой скоростью целый год. Я представлял себе луч света, путешествующий сквозь холодное безмолвие космоса со скоростью 300 тысяч километров в секунду. Пытаясь с помощью своего воображения постичь этот леденящий кровь простор и бездонную глубину, я ощущал ужас, благоговение и одновременно эйфорию, вроде той, что бывает при приеме наркотика».
Так китайский писатель-фантаст Лю Цысинь описывает особенности своего детского восприятия. Примерно такими же словами я могу описать свои ощущения от прочтения его трилогии «В память о прошлом Земли» — леденящие кровь просторы, бездонная глубина, ощущение смеси ужаса, благоговения и эйфории, вроде той, что случается при приеме наркотика.
Нетфликсова адаптация первой части трилогии, «Задача трех тел», вышедшая месяц назад, – только тень произведения Цысиня, но в принципе дает неплохое представление о том, что ждет вас в книге. С другой стороны, «В память о прошлом Земли» не просто так считалась “не-экранизируемой” книгой – чего стоит одна только задача показать переход космического корабля из четырехмерного пространство в трехмерное и из трехмерного в двухмерное (впрочем, полностью обойти эту проблему не выйдет, так что интересно, как с переходом между измерениями справятся шоураннеры Уайсс и Бениофф, ранее экранизировавшие «Игру престолов»).
«В память о прошлом Земли» относят к hard sci-fi — направлению научной фантастики, в котором технологиям и наукам вроде математики, физики и биологии уделяется много внимания, в отличие от soft sci-fi, где акцент больше на гуманитарных науках вроде психологии, антропологии и социологии. По-моему, у Цысиня получился очень сбалансированный микс между hard и soft sci-fi. Не могу сказать, что меня поразило больше: его коллективный психологический портрет человеческой цивилизации — или умопомрачительные описания технологий и физических законов Вселенной.
Сам Лю утверждает, что он не очень-то и разбирается в науке: был «средним студентом в среднем провинциальном университете», а впоследствии “средним” компьютерным инженером на угольной электростанции — скорее программистом, чем ученым. Тем не менее, у него всю жизнь складывались очевидно интимные отношения с наукой. Например, «Краткую историю времени» Стивена Хокинга Лю читал как роман: даже не пытаясь запомнить и досконально понять, скорее, проникаясь общим ощущением.
Чтение этой трилогии на фоне полномасштабного вторжения РФ в Украину оказало на меня крайне терапевтический эффект: черный пессимизм Цысиня по поводу людей срезонировал с моими ощущениями и странным образом успокоил горечь от разворачивающегося милитаристского безумия нашей цивилизации. На фоне черноты наших умов и душ хардкорная наука показалась мне свежим глотком воздуха, чем-то неотличимым от магии и способным творить чудеса.
На самом деле, никаких чудес в итоге не будет, потому что наука/магия находится в руках людей, и мы готовы пользоваться ей для чего угодно — только не для того, чтобы разобраться в самих себе и перестать с таким остервенением толкать друг друга в небытие. “Потому что наша цивилизация больше не способна решать собственные проблемы”, — как пишет автор.
(поставьте смайл с привидением, если вы прочитали всю трилогию или смайл в очках, если сейчас ее читаете)
(на фото – Лю Цысинь)
Дочитываю книгу основателя эволюционной медицины и психиатрии Рэндольфа Нэсси «Хорошие плохие чувства». Далеко не со всеми мыслями автора и его коллег согласен, но в целом мне очень нравится применение эволюционной логики к психической жизни человека. Эволюционная психиатрия, по крайней мере, уводит нас от совершенно наивного, с моей точки зрения, тезиса: якобы эмоции человека — это физиологическая случайность, которая нам только мешает.
«Эмоции — это специфические состояния, которые регулируют физиологию, когнитивные процессы, субъективный опыт, мимику и поведение с тем, чтобы увеличить приспособленность в тех обстоятельствах и ситуациях, которые все время повторяются на протяжении эволюционной истории вида», — пишет Несси. В нашей культуре принято превозносить положительные эмоции вроде радости, гордости и энтузиазма, а к негативным – вроде печали, тревоги и подавленности – относиться как к откровенной дисфункции, которую нужно лечить.
Эволюционная психиатрия исходит из постулата, что раз негативные эмоции существуют, значит, они сохранились в ходе эволюции и естественного отбора, а значит — они выполняют какие-то полезные для вида функции. Чтобы объяснить эту идею, Нэсси многократно повторяет пример из сферы физиологии: физическая боль — крайне неприятное ощущение, однако если у человека оно отсутствует, он получает травму за травмой, которых не чувствует, и из-за этого живет совсем недолго. Боль нужна, чтобы сигнализировать нам о повреждении тканей организма, она заставляет нас корректировать наше поведение для выживания. Точно так же негативные эмоции сигнализируют о проблемах особи, вынуждая ее менять поведение и жизненные стратегии.
Хотя Нэсси как практикующий десятилетиями психиатр сам использует антидепрессанты в работе с пациентами, он критикует современную психиатрию за чрезмерную увлеченность этим средством, которое лечит симптом, а не болезнь. Он пишет:
«Стандартный способ тестирования антидепрессанта на эффективность — проверить, заставит ли он подопытное животное упорствовать в бессмысленных попытках. В тесте Порсолта, в частности, замеряется, как долго крыса или мышь будет плыть в цилиндрическом сосуде с водой. На прозаке и других антидепрессантах крысы гребут лапами дольше. На базе этого теста, успешно идентифицирующего антидепрессанты, написано более четырех тысяч научных статей, и с частотой примерно раз в день появляются новые. Упорство воспринимается как положительное качество, поэтому во многих статьях замирание животного в воде расценивается как признак отчаяния или апатии. Однако прекращение активной гребли не означает, что животное сдалось и готово пойти ко дну, это просто смена стратегии: вместо того, чтобы грести, крыса будет дрейфовать, выставив над поверхностью воды только нос. Момент для переключения она почти всегда угадает самый подходящий. А те, кого антидепрессант заставит грести упорнее, гораздо больше рискуют выбиться из сил и утонуть.»
Книга не дает никаких однозначных определений и рецептов, зато учит мыслить на пересечении психологии, психиатрии и эволюции. Мне она помогает развивать подход к эмоциям, своим и чужим, как к технологиям, которыми можно пользоваться для достижения определенных целей. Чем глубже понимание технологии, тем меньше ее использование отличимо от магии и поэзии.
«Эмоции — это специфические состояния, которые регулируют физиологию, когнитивные процессы, субъективный опыт, мимику и поведение с тем, чтобы увеличить приспособленность в тех обстоятельствах и ситуациях, которые все время повторяются на протяжении эволюционной истории вида», — пишет Несси. В нашей культуре принято превозносить положительные эмоции вроде радости, гордости и энтузиазма, а к негативным – вроде печали, тревоги и подавленности – относиться как к откровенной дисфункции, которую нужно лечить.
Эволюционная психиатрия исходит из постулата, что раз негативные эмоции существуют, значит, они сохранились в ходе эволюции и естественного отбора, а значит — они выполняют какие-то полезные для вида функции. Чтобы объяснить эту идею, Нэсси многократно повторяет пример из сферы физиологии: физическая боль — крайне неприятное ощущение, однако если у человека оно отсутствует, он получает травму за травмой, которых не чувствует, и из-за этого живет совсем недолго. Боль нужна, чтобы сигнализировать нам о повреждении тканей организма, она заставляет нас корректировать наше поведение для выживания. Точно так же негативные эмоции сигнализируют о проблемах особи, вынуждая ее менять поведение и жизненные стратегии.
Хотя Нэсси как практикующий десятилетиями психиатр сам использует антидепрессанты в работе с пациентами, он критикует современную психиатрию за чрезмерную увлеченность этим средством, которое лечит симптом, а не болезнь. Он пишет:
«Стандартный способ тестирования антидепрессанта на эффективность — проверить, заставит ли он подопытное животное упорствовать в бессмысленных попытках. В тесте Порсолта, в частности, замеряется, как долго крыса или мышь будет плыть в цилиндрическом сосуде с водой. На прозаке и других антидепрессантах крысы гребут лапами дольше. На базе этого теста, успешно идентифицирующего антидепрессанты, написано более четырех тысяч научных статей, и с частотой примерно раз в день появляются новые. Упорство воспринимается как положительное качество, поэтому во многих статьях замирание животного в воде расценивается как признак отчаяния или апатии. Однако прекращение активной гребли не означает, что животное сдалось и готово пойти ко дну, это просто смена стратегии: вместо того, чтобы грести, крыса будет дрейфовать, выставив над поверхностью воды только нос. Момент для переключения она почти всегда угадает самый подходящий. А те, кого антидепрессант заставит грести упорнее, гораздо больше рискуют выбиться из сил и утонуть.»
Книга не дает никаких однозначных определений и рецептов, зато учит мыслить на пересечении психологии, психиатрии и эволюции. Мне она помогает развивать подход к эмоциям, своим и чужим, как к технологиям, которыми можно пользоваться для достижения определенных целей. Чем глубже понимание технологии, тем меньше ее использование отличимо от магии и поэзии.
Компания Anduril выиграла контракт с Воздушными силами США на разработку автономных дронов-истребителей, которые будут выполнять боевые задания вместе с истребителями и бомбардировщиками, пилотируемыми живыми пилотами. Примечательно, что победивший в тендере Anduril — это 7-летний стартап, то есть частная компания, в отличие от его конкурентов — публичных компаний, десятилетиями производивших все самые известные истребители, бомбардировщики, ракеты и крупные боевые дроны: Boeing, Lockheed Martin и Northrop Grumman (например, F-16, HIMARS, ATACMS, Javelin — все это произведения этих компаний).
Этот кейс заставляет вспомнить слегка подзабытое в технобизнесе словечко “disruption”, которое было в ходу с начала 2000-х, когда цифровизация музыкальной индустрии, медиа, рекламы и других отраслей привела к падению старых бизнес-элит, доминировавших в них, и возвела на трон компании из Кремниевой долины — Apple, Google, Facebook и т.д. Сейчас семимильными шагами цифровизуется война и, видимо, намечается аналогичная тенденция: так как теперь в войне все больше будет решать ИИ, бизнес и тут преимущество переходит к компаниям, специализирующимся на ИИ с первого дня, а не к старожилам военной индустрии, которым на бегу нужно ИИ-зироваться.
Anduril специализируется сразу и на ИИ, и на производстве техники. Основатель компании Палмер Лаки изначально прославился другой своей компанией — производителем шлемов виртуальной реальности Oculus VR, которую в 2014 году за $2 млрд купил Facebook. После продажи своего VR-стартапа Цукербергу Лаки еще пару лет продолжал курировать его внутри Facebook, но в 2017 году был вынужден уйти из-за скандала вокруг его политической ориентации — донатов в поддержку Дональда Трампа. В том же 2017 году он основал компанию Anduril, заручившись дополнительным финансированием другого сторонника Трампа техно-олигарха Питера Тилля.
Питер Тилль и основанная им в 2003 году ИИ-компания Palantir стали первопроходцами в деле сотрудничества современных технокорпораций и американских военных. Кремниевая долина начиналась почти 100 лет назад как сотрудничество американских военных, бизнеса и ученых. Но к началу 21 века, когда она обрела современный вид благодаря интернет-буму, в ней сложилась преимущественно лево-либеральная культура, запрещавшая использовать технологии для убийства людей. Фильмы вроде «Терминатора» и «Матрицы» влияли на инженеров и техно-предпринимателей как и на всех остальных, формируя страх перед роботами-убийцам: инженеры из Google и Microsoft не раз устраивали протесты внутри компаний, пытаясь принудить руководство отказываться от сотрудничества с военными. А вот Palantir Питера Тилля сразу исповедовал консервативные ценности и был ориентирован на работу с военными и спецслужбами.
Как и в случае с Palantir Тилля, название стартапа Палмера Лаки взято из трилогии «Властелин колец» Толкиена. Anduril это имя меча Арагорна из третьей части, в переводе означающее «Пламя Запада». Как и Тиль, Лаки поддерживает Трампа и считает, что роботы-убийцы должны быть «на стороне хороших парней», как и Palantir, компания помогает украинским военным бороться против РФ (правда, какая именно их техника работает в Украине, они держат в тайне).
Я думаю, что цифровизация и ИИ-зация войны (автономные дроны-истребители, робопсы с огнеметами, спутники с лазерами, нано-дроны с нейротоксинами и т.д.) теперь не просто неизбежна, но и крайне желательна — так мы поскорее либо исчезнем как вид, либо прийдем к новым формам сдерживания друг друга и затем к миру.
Этот кейс заставляет вспомнить слегка подзабытое в технобизнесе словечко “disruption”, которое было в ходу с начала 2000-х, когда цифровизация музыкальной индустрии, медиа, рекламы и других отраслей привела к падению старых бизнес-элит, доминировавших в них, и возвела на трон компании из Кремниевой долины — Apple, Google, Facebook и т.д. Сейчас семимильными шагами цифровизуется война и, видимо, намечается аналогичная тенденция: так как теперь в войне все больше будет решать ИИ, бизнес и тут преимущество переходит к компаниям, специализирующимся на ИИ с первого дня, а не к старожилам военной индустрии, которым на бегу нужно ИИ-зироваться.
Anduril специализируется сразу и на ИИ, и на производстве техники. Основатель компании Палмер Лаки изначально прославился другой своей компанией — производителем шлемов виртуальной реальности Oculus VR, которую в 2014 году за $2 млрд купил Facebook. После продажи своего VR-стартапа Цукербергу Лаки еще пару лет продолжал курировать его внутри Facebook, но в 2017 году был вынужден уйти из-за скандала вокруг его политической ориентации — донатов в поддержку Дональда Трампа. В том же 2017 году он основал компанию Anduril, заручившись дополнительным финансированием другого сторонника Трампа техно-олигарха Питера Тилля.
Питер Тилль и основанная им в 2003 году ИИ-компания Palantir стали первопроходцами в деле сотрудничества современных технокорпораций и американских военных. Кремниевая долина начиналась почти 100 лет назад как сотрудничество американских военных, бизнеса и ученых. Но к началу 21 века, когда она обрела современный вид благодаря интернет-буму, в ней сложилась преимущественно лево-либеральная культура, запрещавшая использовать технологии для убийства людей. Фильмы вроде «Терминатора» и «Матрицы» влияли на инженеров и техно-предпринимателей как и на всех остальных, формируя страх перед роботами-убийцам: инженеры из Google и Microsoft не раз устраивали протесты внутри компаний, пытаясь принудить руководство отказываться от сотрудничества с военными. А вот Palantir Питера Тилля сразу исповедовал консервативные ценности и был ориентирован на работу с военными и спецслужбами.
Как и в случае с Palantir Тилля, название стартапа Палмера Лаки взято из трилогии «Властелин колец» Толкиена. Anduril это имя меча Арагорна из третьей части, в переводе означающее «Пламя Запада». Как и Тиль, Лаки поддерживает Трампа и считает, что роботы-убийцы должны быть «на стороне хороших парней», как и Palantir, компания помогает украинским военным бороться против РФ (правда, какая именно их техника работает в Украине, они держат в тайне).
Я думаю, что цифровизация и ИИ-зация войны (автономные дроны-истребители, робопсы с огнеметами, спутники с лазерами, нано-дроны с нейротоксинами и т.д.) теперь не просто неизбежна, но и крайне желательна — так мы поскорее либо исчезнем как вид, либо прийдем к новым формам сдерживания друг друга и затем к миру.
Наша цивилизация находится в глубокой депрессии.
Чтобы разглядеть ее, достаточно взглянуть на Часы Судного дня. Судя по ним, сейчас вероятность ядерной войны как никогда высока и до полночи человечества осталось 90 секунд. Это не что иное, как суицидальные мысли — и вполне конкретные попытки совершить массовое самоубийство.
Бесконечная война людей — это преодоление искусственных трудностей, которые мы сами себе и создаем. Разделенный на части, и все же глобальный, мир хочет победить “зло”, но злом считает самого себя: западный мир хочет победить «ось зла», южный — «империю лжи». Это ненависть человечества к себе.
Другой менее очевидный пример — зеленая повестка и обещания ученых, что нашу цивилизацию, как некогда динозавров, уничтожит экологический коллапс. Только в отличие от ни в чем неповинных динозавров, мы, люди, сами виноваты в этом климатическим апокалипсисе. Мы “надругались” и загрязнили матушку Землю, были слишком агрессивны и из-за нас погибла масса растений, животных, целых видов и экосистем. Самые ярые борцы против климатических катастроф считают, что мы уже прошли точку невозврата и на полной скорости летим в климатический ад — никакой переход к зеленой повестке нам уже не поможет, уже слишком поздно. Такой ход мыслей — ни что иное, как очередной признак цивилизационной депрессии.
Один из самых мрачных и суицидальных, на мой взгляд, выводов из концепции климатического кризиса — идея, что людям нужно перестать размножаться, чтобы “сохранить планету”. С точки зрения эволюционной биологии, это призывы к видовому суициду, ведь биологический смысл существования нашей цивилизации — это как раз размножение людей. Мысли о собственной порочности, ощущение, что мы портим все, к чему прикасаемся, стремление не существовать, чтобы не пачкать светлый мир — признак глубочайшей, тяжелейшей депрессии.
Самой позитивной повесткой с проблесками оптимизма сегодня торгуют представители Больших Технологий: кто-то хочет сделать людей почти бессмертными, кто-то — обеспечить всех бесплатной энергией и нескончаемой едой, кто-то верит, что мы вот-вот создадим цифрового бога и он решит все проблемы. Все это звучит заманчиво, но если ковырнуть чуть глубже, то за этими высокими устремлениями стоит в основном неуемная жажда богатства и власти тех, кто предлагает нам отсыпать оптимизма в виде технологий.
Сальвадор Дали в середине 20 века отчаянно ругал стремление людей улететь в космос — ему хотелось, чтобы человечество не тратило деньги на такую чепуху, а вместо этого сконцентрировалось на продлении жизни и здоровья. В первую очередь, его собственного: «Гении не должны умирать», — хрипел Дали на пороге смерти. Раньше я был с ним согласен, но теперь все чаще думаю о порочности такого желания. В старости Дали страдал не только и не столько от болезней, сколько от одиночества и невозможности объединиться с другими людьми в стремлении к чему-то осмысленному.
Я все больше соглашаюсь с Уильямом Берроузом, который в конце 20 столетия, наоборот, только в космосе и видел спасение для человечества и через звезды предлагал обрести смысл, который способен спасти от депрессии. В романе «Пространство мертвых дорог» Берроуз писал:
«Единственное, что способно объединить всю нашу планету — это планетарная космическая программа. Земля превращается в космическую станцию, и война просто исчезает из повестки дня, даже мысль о ней превращается в безумие в контексте исследовательских центров, космопортов, восхитительного ощущения, возникающего из совместного труда с людьми, которые тебе нравятся и которые испытывают глубокое уважение к своим, определенным по взаимному согласию целям — целям, которые принесут выгоду всем, кто сможет их достичь. Счастье есть побочный продукт осмысленной деятельности. Планетарная космическая станция представляет всем членам своего экипажа возможность действовать осмысленно».
Чтобы разглядеть ее, достаточно взглянуть на Часы Судного дня. Судя по ним, сейчас вероятность ядерной войны как никогда высока и до полночи человечества осталось 90 секунд. Это не что иное, как суицидальные мысли — и вполне конкретные попытки совершить массовое самоубийство.
Бесконечная война людей — это преодоление искусственных трудностей, которые мы сами себе и создаем. Разделенный на части, и все же глобальный, мир хочет победить “зло”, но злом считает самого себя: западный мир хочет победить «ось зла», южный — «империю лжи». Это ненависть человечества к себе.
Другой менее очевидный пример — зеленая повестка и обещания ученых, что нашу цивилизацию, как некогда динозавров, уничтожит экологический коллапс. Только в отличие от ни в чем неповинных динозавров, мы, люди, сами виноваты в этом климатическим апокалипсисе. Мы “надругались” и загрязнили матушку Землю, были слишком агрессивны и из-за нас погибла масса растений, животных, целых видов и экосистем. Самые ярые борцы против климатических катастроф считают, что мы уже прошли точку невозврата и на полной скорости летим в климатический ад — никакой переход к зеленой повестке нам уже не поможет, уже слишком поздно. Такой ход мыслей — ни что иное, как очередной признак цивилизационной депрессии.
Один из самых мрачных и суицидальных, на мой взгляд, выводов из концепции климатического кризиса — идея, что людям нужно перестать размножаться, чтобы “сохранить планету”. С точки зрения эволюционной биологии, это призывы к видовому суициду, ведь биологический смысл существования нашей цивилизации — это как раз размножение людей. Мысли о собственной порочности, ощущение, что мы портим все, к чему прикасаемся, стремление не существовать, чтобы не пачкать светлый мир — признак глубочайшей, тяжелейшей депрессии.
Самой позитивной повесткой с проблесками оптимизма сегодня торгуют представители Больших Технологий: кто-то хочет сделать людей почти бессмертными, кто-то — обеспечить всех бесплатной энергией и нескончаемой едой, кто-то верит, что мы вот-вот создадим цифрового бога и он решит все проблемы. Все это звучит заманчиво, но если ковырнуть чуть глубже, то за этими высокими устремлениями стоит в основном неуемная жажда богатства и власти тех, кто предлагает нам отсыпать оптимизма в виде технологий.
Сальвадор Дали в середине 20 века отчаянно ругал стремление людей улететь в космос — ему хотелось, чтобы человечество не тратило деньги на такую чепуху, а вместо этого сконцентрировалось на продлении жизни и здоровья. В первую очередь, его собственного: «Гении не должны умирать», — хрипел Дали на пороге смерти. Раньше я был с ним согласен, но теперь все чаще думаю о порочности такого желания. В старости Дали страдал не только и не столько от болезней, сколько от одиночества и невозможности объединиться с другими людьми в стремлении к чему-то осмысленному.
Я все больше соглашаюсь с Уильямом Берроузом, который в конце 20 столетия, наоборот, только в космосе и видел спасение для человечества и через звезды предлагал обрести смысл, который способен спасти от депрессии. В романе «Пространство мертвых дорог» Берроуз писал:
«Единственное, что способно объединить всю нашу планету — это планетарная космическая программа. Земля превращается в космическую станцию, и война просто исчезает из повестки дня, даже мысль о ней превращается в безумие в контексте исследовательских центров, космопортов, восхитительного ощущения, возникающего из совместного труда с людьми, которые тебе нравятся и которые испытывают глубокое уважение к своим, определенным по взаимному согласию целям — целям, которые принесут выгоду всем, кто сможет их достичь. Счастье есть побочный продукт осмысленной деятельности. Планетарная космическая станция представляет всем членам своего экипажа возможность действовать осмысленно».
За последние 2 недели в западной прессе появилась новая рамка глобального конфликта: теперь глобальное противостояние США и КНР (и вооруженные конфликты их союзников) называется не Третья мировая война, а Вторая Холодная.
Одним из первых этот термин запустил британский историк-консерватор Нил Фергюсон в статье на Bloomberg. Я обратил внимание на эту статью не только из-за броского заголовка “Вторая Холодная война обостряется быстрее, чем Первая”, но и из-за возмутившего меня подзаголовка: «Чтобы понять, что на кону в войне против оси Китая, России и Ирана, просто почитайте «Властелина колец». Я, конечно, очень люблю историю Толкина, но не ожидал от уважаемого мною Bloomberg такого кликбейтного упрощения — за последние два года я очень сильно устал от пропагандистских упрощений.
Консерватор Фергюсон в статье хвалит республиканцев и Трампа, ругает демократов и Байдена, рисует очень сильный Китай и в очередной раз констатирует, что в основе то ли Третьей мировой, то ли Второй Холодной лежит борьба США и КНР за превосходство в сфере технологий: ИИ, квантовых компьютеров, ядерного оружия и ПВО.
Сама формулировка «не Третья мировая, а Вторая Холодная», по-моему, не значит вообще ничего, кроме того, что западные мыслители отчаянно пытаются деэскалировать ситуацию в целом. Пока не совсем ясно, делают ли они это чтобы притушить пожар снизу, или потому что пожар уже притушен сверху, на уровне глав враждующих блоков, и теперь надо об этом постоянно напоминать. Будучи украинцем, я знаю, что пожар войны горит вовсю. Однако и понимаю, что в глобальном контексте у этого пожара ужасающе большой потенциал для еще большего разгорания, так что я в принципе приветствую переведение этой глобальной войны из горячей в холодную — экономические войны мне гораздо ближе, чем кинетические.
Больше всего в статье Фергюсона меня заинтересовала цитата американского политика и мыслителя Збигнева Бжезинского из его легендарной книги «Большая шахматная доска: главенство Америки и ее геостратегические императивы», написанной в 1997 году: «Самый опасный сценарий — это формирование большой коалиции Китая, России и, возможно, Ирана. Такая “анти-гегемонная” коалиция будет объединяться не за счет общей идеологии, а за счет дополняющих друг друга обид (на гегемона, прим)». Именно это мы сейчас и наблюдаем: как бы старательно стороны этого мирового конфликта не прикрывались идеологиями, в основе всего лежит простое желание доминировать и задавить конкурента любой ценой.
По-моему, главная беда этой войны (наверное, всех войн) в том, что в ней вообще отсутствует добро. Точнее, добро, конечно, присутствует, но оно определяется сугубо через его отношение ко злу. Зло — это абсолютная реальность, а добро — это просто все, что не зло. Никто не борется «за добро», потому что добро неопределенно и непонятно, зато зло — осязаемо, сильно и неотступно, и борьба против него понятнее.
Блаженный Августин писал: «Как тишина есть отсутствие всякого шума, нагота — отсутствие одежды, болезнь — отсутствие здоровья, а темнота — света, так и зло есть отсутствие добра, а не нечто, существующее само по себе». Но на войне — Третьей мировой или Второй Холодной — все наоборот: добро есть отсутствие зла, а не нечто существующее само по себе. Никто на самом деле не воюет за добро, потому что это даже и непонятно, что значит. Зато все борются против зла, потому что оно вполне конкретно: это оппонирующая сторона, другой гегемон. В борьбе против зла можно идти на какие угодно преступления и нарушения правил, потому что если в конце будет победа, значит, все что сделано и все что в итоге получилось — постфактум и станет добром.
Одним из первых этот термин запустил британский историк-консерватор Нил Фергюсон в статье на Bloomberg. Я обратил внимание на эту статью не только из-за броского заголовка “Вторая Холодная война обостряется быстрее, чем Первая”, но и из-за возмутившего меня подзаголовка: «Чтобы понять, что на кону в войне против оси Китая, России и Ирана, просто почитайте «Властелина колец». Я, конечно, очень люблю историю Толкина, но не ожидал от уважаемого мною Bloomberg такого кликбейтного упрощения — за последние два года я очень сильно устал от пропагандистских упрощений.
Консерватор Фергюсон в статье хвалит республиканцев и Трампа, ругает демократов и Байдена, рисует очень сильный Китай и в очередной раз констатирует, что в основе то ли Третьей мировой, то ли Второй Холодной лежит борьба США и КНР за превосходство в сфере технологий: ИИ, квантовых компьютеров, ядерного оружия и ПВО.
Сама формулировка «не Третья мировая, а Вторая Холодная», по-моему, не значит вообще ничего, кроме того, что западные мыслители отчаянно пытаются деэскалировать ситуацию в целом. Пока не совсем ясно, делают ли они это чтобы притушить пожар снизу, или потому что пожар уже притушен сверху, на уровне глав враждующих блоков, и теперь надо об этом постоянно напоминать. Будучи украинцем, я знаю, что пожар войны горит вовсю. Однако и понимаю, что в глобальном контексте у этого пожара ужасающе большой потенциал для еще большего разгорания, так что я в принципе приветствую переведение этой глобальной войны из горячей в холодную — экономические войны мне гораздо ближе, чем кинетические.
Больше всего в статье Фергюсона меня заинтересовала цитата американского политика и мыслителя Збигнева Бжезинского из его легендарной книги «Большая шахматная доска: главенство Америки и ее геостратегические императивы», написанной в 1997 году: «Самый опасный сценарий — это формирование большой коалиции Китая, России и, возможно, Ирана. Такая “анти-гегемонная” коалиция будет объединяться не за счет общей идеологии, а за счет дополняющих друг друга обид (на гегемона, прим)». Именно это мы сейчас и наблюдаем: как бы старательно стороны этого мирового конфликта не прикрывались идеологиями, в основе всего лежит простое желание доминировать и задавить конкурента любой ценой.
По-моему, главная беда этой войны (наверное, всех войн) в том, что в ней вообще отсутствует добро. Точнее, добро, конечно, присутствует, но оно определяется сугубо через его отношение ко злу. Зло — это абсолютная реальность, а добро — это просто все, что не зло. Никто не борется «за добро», потому что добро неопределенно и непонятно, зато зло — осязаемо, сильно и неотступно, и борьба против него понятнее.
Блаженный Августин писал: «Как тишина есть отсутствие всякого шума, нагота — отсутствие одежды, болезнь — отсутствие здоровья, а темнота — света, так и зло есть отсутствие добра, а не нечто, существующее само по себе». Но на войне — Третьей мировой или Второй Холодной — все наоборот: добро есть отсутствие зла, а не нечто существующее само по себе. Никто на самом деле не воюет за добро, потому что это даже и непонятно, что значит. Зато все борются против зла, потому что оно вполне конкретно: это оппонирующая сторона, другой гегемон. В борьбе против зла можно идти на какие угодно преступления и нарушения правил, потому что если в конце будет победа, значит, все что сделано и все что в итоге получилось — постфактум и станет добром.
Сэм Альтман в последнее время системно троллит техно-общественность одним и тем же месседжем: все, что OpenAI выпустила до сих пор, — полный отстой, а вот следующее поколение продуктов будет реально крутым. Золотой стандарт ИИ-индустрии, заданный компанией Альтмана, — LLM-нейросеть GPT-4 — он сам называет «самой тупой моделью, которую вам когда-либо придется использовать» и говорит, что она «kind of sucks» — а вот следующая версия, GPT-5, будет «намного умнее».
Из его же слов становится понятно, что довольно быстро “тупой”, по его меркам, станет и GPT-5. Ведь к моменту, когда она попадет в открытый доступ, его команда уже будет полным ходом работать над GPT-6 (которая, следуя логике Альтмана, будет умнее пятой настолько же, насколько пятая была умнее четвертой).
Такая позиция Альтмана напомнила мне подход Вуди Аллена к съемкам фильмов: он предпочитал начинать работу над следующим фильмом еще до того, как вышел предыдущий, — и так снижал свои тревоги об успешности проката его кино. Но, в отличие от фильмов Аллена, которые мало чем отличаются друг от друга, нейросети Альтмана реально развиваются.
Стороннему наблюдателю демонстративная самокритичность Альтмана может даже казаться симпатичной, ведь при нынешнем уровне развития ChatGPT мало чем полезен обычному пользователю. По-настоящему прорывным этот продукт станет, только когда приблизится к уровню AGI, создание которого и есть настоящая миссия OpenAI. Но разработчики и стартаперы часто впадают от таких саморазоблачительных эскапад Альтмана в уныние.
Конкуренты OpenAI, разрабатывающие собственные LLM, вроде Meta со своей Llama 3, Google c Gemini и Anthropic с их Claude 3, нервничают. Только-только они с большим трудом сумели догнать GPT-4 (и даже в некоторых тестах слегка обогнали) — а тут Альтман плюется на свою нейросеть и попутно опускает всех конкурентов: мол, пока вы там пупки надрываете, мы тут реально возвышенными вещами занимаемся.
Такая позиция лидера индустрии плохо сказывается на финансировании остальных компаний: какой смысл поддерживать догоняющих, если номер один настолько лучше, что может позволить себе такую публичную самокритику? К счастью для Цукерберга и других догоняющих, Альтман пока даже приблизительно не говорит, когда ждать тот самый GPT-5.
У стартапов, которые не разрабатывают LLM, а строят свои приложения и бизнесы на уже существующих моделях, поза Альтмана тоже вызывает головную боль. Он объясняет, что сегодня ИИ-стартапы можно строить на двух стратегиях. Первая исходит из того, что ИИ-модель вроде GPT-4 не будет развиваться — и поэтому нужно вкладываться в строительство на ее основе. Вторая — из того, что модели продолжат улучшаться с такой же скоростью, как сейчас. «Мне кажется, что 95% стартапам лучше делать ставку на вторую стратегию, но очень многие ставят на первую. А мы просто делаем нашу работу и улучшаем модели — отсюда и берутся мемы вроде «OpenAI убил мой стартап», — говорит Альтман. — «Не то что вы нам не нравитесь, у нас просто есть миссия, поэтому мы просто переедем вас катком».
Уровень откровенной агрессивности этого человека, скрывающейся под мальчишеской внешностью и игривой застенчивостью, временами зашкаливает. Поэтому истории о том, что он покупает острова и готовится к апокалиптичным событиям, кажутся довольно правдивыми: желание спрятаться и быть в полной безопасности очень хорошо компенсирует агрессивное желание задоминировать всех и вся — а вдруг они все соберутся вместе и побьют его?
Из его же слов становится понятно, что довольно быстро “тупой”, по его меркам, станет и GPT-5. Ведь к моменту, когда она попадет в открытый доступ, его команда уже будет полным ходом работать над GPT-6 (которая, следуя логике Альтмана, будет умнее пятой настолько же, насколько пятая была умнее четвертой).
Такая позиция Альтмана напомнила мне подход Вуди Аллена к съемкам фильмов: он предпочитал начинать работу над следующим фильмом еще до того, как вышел предыдущий, — и так снижал свои тревоги об успешности проката его кино. Но, в отличие от фильмов Аллена, которые мало чем отличаются друг от друга, нейросети Альтмана реально развиваются.
Стороннему наблюдателю демонстративная самокритичность Альтмана может даже казаться симпатичной, ведь при нынешнем уровне развития ChatGPT мало чем полезен обычному пользователю. По-настоящему прорывным этот продукт станет, только когда приблизится к уровню AGI, создание которого и есть настоящая миссия OpenAI. Но разработчики и стартаперы часто впадают от таких саморазоблачительных эскапад Альтмана в уныние.
Конкуренты OpenAI, разрабатывающие собственные LLM, вроде Meta со своей Llama 3, Google c Gemini и Anthropic с их Claude 3, нервничают. Только-только они с большим трудом сумели догнать GPT-4 (и даже в некоторых тестах слегка обогнали) — а тут Альтман плюется на свою нейросеть и попутно опускает всех конкурентов: мол, пока вы там пупки надрываете, мы тут реально возвышенными вещами занимаемся.
Такая позиция лидера индустрии плохо сказывается на финансировании остальных компаний: какой смысл поддерживать догоняющих, если номер один настолько лучше, что может позволить себе такую публичную самокритику? К счастью для Цукерберга и других догоняющих, Альтман пока даже приблизительно не говорит, когда ждать тот самый GPT-5.
У стартапов, которые не разрабатывают LLM, а строят свои приложения и бизнесы на уже существующих моделях, поза Альтмана тоже вызывает головную боль. Он объясняет, что сегодня ИИ-стартапы можно строить на двух стратегиях. Первая исходит из того, что ИИ-модель вроде GPT-4 не будет развиваться — и поэтому нужно вкладываться в строительство на ее основе. Вторая — из того, что модели продолжат улучшаться с такой же скоростью, как сейчас. «Мне кажется, что 95% стартапам лучше делать ставку на вторую стратегию, но очень многие ставят на первую. А мы просто делаем нашу работу и улучшаем модели — отсюда и берутся мемы вроде «OpenAI убил мой стартап», — говорит Альтман. — «Не то что вы нам не нравитесь, у нас просто есть миссия, поэтому мы просто переедем вас катком».
Уровень откровенной агрессивности этого человека, скрывающейся под мальчишеской внешностью и игривой застенчивостью, временами зашкаливает. Поэтому истории о том, что он покупает острова и готовится к апокалиптичным событиям, кажутся довольно правдивыми: желание спрятаться и быть в полной безопасности очень хорошо компенсирует агрессивное желание задоминировать всех и вся — а вдруг они все соберутся вместе и побьют его?
Люди определяют политическую ориентацию других с точностью около 55% — это слегка эффективнее, чем попытка определить, консерватор человек или либерал, подбросив монетку (50%). Но как показало исследование профессора Стэнфордского университета Михала Косински, ИИ вычисляет принадлежность человека к консервативным или либеральным взглядам гораздо точнее: в выборке из 1 млн фотографий людей нейросети определили их политориентацию с более чем 70% точностью. Результаты исследования Косински подтвердились двумя экспериментами других ученых.
В самом свежем варианте этого эксперимента Косински доказывает, что алгоритмы распознавания лиц могут угадать политическую ориентацию человека даже по фотографиям с нейтральным выражением лица (как на паспорт), без растительности на лице, пирсинга, тату, украшений, макияжа и любых других форм саморепрезентации. Другая серия экспериментов с использованием фотографий из профиля людей (то есть содержащих информацию о саморепрезентации) показала, что нейросети с высокой вероятностью умеют определять также и их сексуальную ориентацию.
Такое ясновидение ИИ возможно за счет того, что он умеет распознавать паттерны значительно лучше, чем это получается у людей. Если мы посмотрим на фотографии десяти рандомных геев или консервативно настроенных женщин, мы можем не заметить между ними ничего общего — каждый и каждая могут оказаться непохожими друг на друга уникальными персонажами. Но когда ИИ смотрит на десять тысяч фотографий этих категорий мужчин и женщин, он, в отличие от человека, научается определять закономерности, паттерны, по которым затем может распознать гея или консервативную женщину на изображениях не из выборки.
Безусловно, эксперименты с распознаванием сексуальных и политических предпочтений человека по его лицу можно подвергать бесконечной критике. В глаза бросается не 100% точность таких ИИ-дознавателей: кроме несовершенства самой технологии, проблема в том, что сексуальная ориентация, а тем более политическая, может измениться под воздействием обстоятельств жизни или по выбору человека. Правозащитник вправе сказать, что это антигуманная практика, нарушающая права человека на личную жизнь — в конце концов, лицо у нас одно, и если оно рассказывает больше, чем человек хочет рассказать, то это большая проблема в обществе, где ценят приватность.
Но все эти неточности и несправедливости — не проблема в обществе авторитарном, тоталитарном и в обществе надзора. Однополый секс считается преступлением в более чем 60 странах, и имплементация алгоритмов, распознающих сексуальную ориентацию по фотографии человека может привести к массовым репрессиям невиданных масштабов. Авторитарные режимы, вооруженные алгоритмами, распознающими политическую оппозицию и диссидентов по лицу, быстро превратятся в стерильные тоталитарные режимы без тени инакомыслия. Неточность алгоритмов, распознающих неугодные слои населения, не будет пугать цифровых автократов: ИИ все равно точнее человека определяет неугодного по лицу, а невинные жертвы никогда не останавливали тиранов — «лес рубят, щепки летят».
Авторитарный режим стремится к контролю внешних проявлений гражданина, а тоталитарный хочет контролировать и его чувства. Чем совершеннее будут нейросети тиранов, чем лучше они будут судить о внутреннем мире человека по его лицу, тем меньше автократий и больше тоталитарных режимов мы будем наблюдать.
Выход из этого только один: автократии и тирании должны исчезнуть до того момента, когда технологии сделают психику человека полностью прозрачной.
В самом свежем варианте этого эксперимента Косински доказывает, что алгоритмы распознавания лиц могут угадать политическую ориентацию человека даже по фотографиям с нейтральным выражением лица (как на паспорт), без растительности на лице, пирсинга, тату, украшений, макияжа и любых других форм саморепрезентации. Другая серия экспериментов с использованием фотографий из профиля людей (то есть содержащих информацию о саморепрезентации) показала, что нейросети с высокой вероятностью умеют определять также и их сексуальную ориентацию.
Такое ясновидение ИИ возможно за счет того, что он умеет распознавать паттерны значительно лучше, чем это получается у людей. Если мы посмотрим на фотографии десяти рандомных геев или консервативно настроенных женщин, мы можем не заметить между ними ничего общего — каждый и каждая могут оказаться непохожими друг на друга уникальными персонажами. Но когда ИИ смотрит на десять тысяч фотографий этих категорий мужчин и женщин, он, в отличие от человека, научается определять закономерности, паттерны, по которым затем может распознать гея или консервативную женщину на изображениях не из выборки.
Безусловно, эксперименты с распознаванием сексуальных и политических предпочтений человека по его лицу можно подвергать бесконечной критике. В глаза бросается не 100% точность таких ИИ-дознавателей: кроме несовершенства самой технологии, проблема в том, что сексуальная ориентация, а тем более политическая, может измениться под воздействием обстоятельств жизни или по выбору человека. Правозащитник вправе сказать, что это антигуманная практика, нарушающая права человека на личную жизнь — в конце концов, лицо у нас одно, и если оно рассказывает больше, чем человек хочет рассказать, то это большая проблема в обществе, где ценят приватность.
Но все эти неточности и несправедливости — не проблема в обществе авторитарном, тоталитарном и в обществе надзора. Однополый секс считается преступлением в более чем 60 странах, и имплементация алгоритмов, распознающих сексуальную ориентацию по фотографии человека может привести к массовым репрессиям невиданных масштабов. Авторитарные режимы, вооруженные алгоритмами, распознающими политическую оппозицию и диссидентов по лицу, быстро превратятся в стерильные тоталитарные режимы без тени инакомыслия. Неточность алгоритмов, распознающих неугодные слои населения, не будет пугать цифровых автократов: ИИ все равно точнее человека определяет неугодного по лицу, а невинные жертвы никогда не останавливали тиранов — «лес рубят, щепки летят».
Авторитарный режим стремится к контролю внешних проявлений гражданина, а тоталитарный хочет контролировать и его чувства. Чем совершеннее будут нейросети тиранов, чем лучше они будут судить о внутреннем мире человека по его лицу, тем меньше автократий и больше тоталитарных режимов мы будем наблюдать.
Выход из этого только один: автократии и тирании должны исчезнуть до того момента, когда технологии сделают психику человека полностью прозрачной.
Nature
Facial recognition technology can expose political orientation from naturalistic facial images
Scientific Reports - Facial recognition technology can expose political orientation from naturalistic facial images
Израильская армия разработала алгоритмическую систему «Лаванда», которая помогает военным с помощью ИИ и больших данных быстро и массово идентифицировать боевиков Хамас в Секторе Газа для их дальнейшего уничтожения в ходе операции «Железные мечи». В первые недели этой операции израильская армия очень сильно полагалась на Лаванду при определении целей для нанесения бомбовых ударов.
За несколько недель операции, начавшейся после вторжения 7 октября, Лаванда выделила около 37 000 палестинцев из более чем 2 млн жителей Газы, в которых она распознала скрытых боевиков Хамас. Исходя из расследования журналистов израильского издания +972, основанного на 6 источниках из израильской разведки, Лаванда опирается на систему массовой слежки за палестинцами в секторе Газа и на основе собранных данных присваивает жителям рейтинг от 1 до 100: чем выше рейтинг, тем больше вероятность, что человек принадлежит к боевикам.
Такое распознавание осуществляется с помощью ИИ, который натренировали на данных уже известных боевиков и научили распознавать похожие паттерны в других людях. К общим паттернам прибавляются очки за более конкретные нюансы: например, если человек состоит в одной Whatsapp-группе c известным боевиком, меняет телефон каждые несколько месяцев или часто переезжает. Визуальная информация, данные мобильного телефона, связи в соцсетях, информация с поля боя, фотографии и тд — все это идет в топку ИИ, который выписывает рекомендации к ликвидации.
Это пока еще не полностью автономная ИИ-система, скорее, так называемый ИИ-кентавр — гибрид человека с ИИ — поэтому финальное решение для ликвидации маркированного Лавандой палестинца принимали живые военные. По словам источника издания, работавшего с Лавандой, на подтверждение корректности цели у него уходило совсем не много времени: «Я тратил по 20 секунд на каждую цель в тот период и подтверждал десятки целей каждый день. Как человек, я не привносил никакой добавочной ценности, кроме того, что ставил печать одобрения. Это экономило много времени».
Расследование +972 утверждает, что Лаванда ошибается минимум в 10% целей, а приоритетное место для уничтожения помеченных целей — их дома, так что вместе с предполагаемыми хамасовцами под огонь часто попадали их семьи и соседи. Армия обороны Израиля утверждает, что значительная часть расследования — безосновательные утверждения, а другая часть — неправильно понятая правда.
Я не спешу верить всем деталям этого расследования, так как понимаю, что это тоже часть информационной войны.
Однако я не сомневаюсь, что системы вроде Лаванды (смесь нейросетей, больших данных, социального рейтинга и предиктивного полисинга) используются в зонах конфликтов и в том числе служат основанием для ликвидации людей — в данном случае, если это правда, поражает только масштаб.
Ранее Израиль уже использовал аналогичную Лаванде систему «Евангелие», она специализировалась на определении хамасовских зданий, а не людей. Ее пользу объясняет бывший начальник Генштаба Израиля Авив Кохави: «Эта машина с помощью ИИ обрабатывает большой объем данных лучше и быстрее, чем любой человек, и превращает эти данные в цели для атак. В результате с момента активации машины во время Операции «Страж стен» [в Газе в 2021], она генерировала 100 новых целей каждый день. Понимаете, в прошлом бывали времена, когда мы могли сгенерировать только 50 целей за год. А тут вам машина, производящая 100 целей в день».
За несколько недель операции, начавшейся после вторжения 7 октября, Лаванда выделила около 37 000 палестинцев из более чем 2 млн жителей Газы, в которых она распознала скрытых боевиков Хамас. Исходя из расследования журналистов израильского издания +972, основанного на 6 источниках из израильской разведки, Лаванда опирается на систему массовой слежки за палестинцами в секторе Газа и на основе собранных данных присваивает жителям рейтинг от 1 до 100: чем выше рейтинг, тем больше вероятность, что человек принадлежит к боевикам.
Такое распознавание осуществляется с помощью ИИ, который натренировали на данных уже известных боевиков и научили распознавать похожие паттерны в других людях. К общим паттернам прибавляются очки за более конкретные нюансы: например, если человек состоит в одной Whatsapp-группе c известным боевиком, меняет телефон каждые несколько месяцев или часто переезжает. Визуальная информация, данные мобильного телефона, связи в соцсетях, информация с поля боя, фотографии и тд — все это идет в топку ИИ, который выписывает рекомендации к ликвидации.
Это пока еще не полностью автономная ИИ-система, скорее, так называемый ИИ-кентавр — гибрид человека с ИИ — поэтому финальное решение для ликвидации маркированного Лавандой палестинца принимали живые военные. По словам источника издания, работавшего с Лавандой, на подтверждение корректности цели у него уходило совсем не много времени: «Я тратил по 20 секунд на каждую цель в тот период и подтверждал десятки целей каждый день. Как человек, я не привносил никакой добавочной ценности, кроме того, что ставил печать одобрения. Это экономило много времени».
Расследование +972 утверждает, что Лаванда ошибается минимум в 10% целей, а приоритетное место для уничтожения помеченных целей — их дома, так что вместе с предполагаемыми хамасовцами под огонь часто попадали их семьи и соседи. Армия обороны Израиля утверждает, что значительная часть расследования — безосновательные утверждения, а другая часть — неправильно понятая правда.
Я не спешу верить всем деталям этого расследования, так как понимаю, что это тоже часть информационной войны.
Однако я не сомневаюсь, что системы вроде Лаванды (смесь нейросетей, больших данных, социального рейтинга и предиктивного полисинга) используются в зонах конфликтов и в том числе служат основанием для ликвидации людей — в данном случае, если это правда, поражает только масштаб.
Ранее Израиль уже использовал аналогичную Лаванде систему «Евангелие», она специализировалась на определении хамасовских зданий, а не людей. Ее пользу объясняет бывший начальник Генштаба Израиля Авив Кохави: «Эта машина с помощью ИИ обрабатывает большой объем данных лучше и быстрее, чем любой человек, и превращает эти данные в цели для атак. В результате с момента активации машины во время Операции «Страж стен» [в Газе в 2021], она генерировала 100 новых целей каждый день. Понимаете, в прошлом бывали времена, когда мы могли сгенерировать только 50 целей за год. А тут вам машина, производящая 100 целей в день».
В последнее время я много думаю о пропаганде: почти каждый день читаю статьи и исследования, слушаю лекции и семинары по этой теме. Моему увлечению пропагандой уже больше 10 лет, но в последние 2 года эта тема стала особенно актуальной, потому что меня — и всех вокруг — с утра до ночи омывают потоки грубой, злой и беспощадной пропаганды со всех сторон.
Увлечение пропагандой начиналось с изучения трудов Уолтера Липпмана и Эдварда Бернейса, корифеев пропаганды в демократиях, и изучением нацистских и советских практик тоталитарной пропаганды. “Пропаганда, очевидно, работает, просто она не на те цели направлена», — думал я. Так что какое-то время я был озабочен «пропагандой осознанности» — идеей, что используя методы убеждения, разработанные на фоне двух мировых войн, можно склонить даже самых дремучих людей в сторону более осмысленной, вдумчивой жизни.
Я, конечно, понимал, что пропаганда в основном работает на отупение, что ее монотонный бубнеж не способствует развитию интеллекта и мышления, которого я хотел добиться, да и в целом она тем лучше работает, чем менее человек образован и смышлен — и все же надеялся, что смогу что-то придумать. Наверное, я вдохновлялся фразой «пропаганда здорового образа жизни», которая вполне себе работала на отдельные категории людей, и думал, что так же можно «заставить людей быть осознанными».
Начиная с 2022 года, я окончательно убедился, что пропаганда вообще не подходит для моих целей, потому что испытал на себе ее действие на максималках. Пропаганда не только рассчитана на “слабоумие” людей, но и чаще всего представляет собой набор очень грубых примитивных инструментов.
О главном инструменте пропаганды я недавно писал: это остервенелое повторение, без которого не работает никакая пропаганда, — особенно в век соцсетей и рекомендательных алгоритмов.
Окей, может тогда что-то интересное происходит на уровне послания, которое бесконечно повторяется, может, там есть пространство для маневра мысли? Тоже нет: ведь чем грубее и примитивнее послание, тем лучше — людям легче запомнить, проще повторить и не надо напрягаться чтобы вникнуть.
Чуть интереснее становится на уровне поверхностной психологии, к которой эти повторяемые грубые послания постоянно обращаются: искусство пропагандистов в том, чтобы правильно уловить эмоционально-психологическое состояние народа и доминирующие в нем настроения, и постоянно долбить в эти состояния соответствующими дубовыми посланиями, чтобы какие-то настроения разжечь, а другие — наоборот, погасить.
Проще всего повторять послание. Но ощутимо сложнее — сформулировать это послание. А труднее всего угадать настроение объекта и понять, до какой степени это настроение можно изменить своими посланиями.
В любом случае, классическая пропаганда — это инструмент прошлого века, когда основными каналами ее распространения были газеты, кино, радио и телевидение. Это не значит, что пропаганда сегодня не эффективна – так же, как архаичные молоток и отвертка нужны при строительстве адронного коллайдера, пропаганда сегодня тоже нужна для строительства чего-то гораздо более совершенного и тотального, чем простенькие агитки, которыми недалекие политики все еще плюются в народы. Но об этом поговорим позже.
Увлечение пропагандой начиналось с изучения трудов Уолтера Липпмана и Эдварда Бернейса, корифеев пропаганды в демократиях, и изучением нацистских и советских практик тоталитарной пропаганды. “Пропаганда, очевидно, работает, просто она не на те цели направлена», — думал я. Так что какое-то время я был озабочен «пропагандой осознанности» — идеей, что используя методы убеждения, разработанные на фоне двух мировых войн, можно склонить даже самых дремучих людей в сторону более осмысленной, вдумчивой жизни.
Я, конечно, понимал, что пропаганда в основном работает на отупение, что ее монотонный бубнеж не способствует развитию интеллекта и мышления, которого я хотел добиться, да и в целом она тем лучше работает, чем менее человек образован и смышлен — и все же надеялся, что смогу что-то придумать. Наверное, я вдохновлялся фразой «пропаганда здорового образа жизни», которая вполне себе работала на отдельные категории людей, и думал, что так же можно «заставить людей быть осознанными».
Начиная с 2022 года, я окончательно убедился, что пропаганда вообще не подходит для моих целей, потому что испытал на себе ее действие на максималках. Пропаганда не только рассчитана на “слабоумие” людей, но и чаще всего представляет собой набор очень грубых примитивных инструментов.
О главном инструменте пропаганды я недавно писал: это остервенелое повторение, без которого не работает никакая пропаганда, — особенно в век соцсетей и рекомендательных алгоритмов.
Окей, может тогда что-то интересное происходит на уровне послания, которое бесконечно повторяется, может, там есть пространство для маневра мысли? Тоже нет: ведь чем грубее и примитивнее послание, тем лучше — людям легче запомнить, проще повторить и не надо напрягаться чтобы вникнуть.
Чуть интереснее становится на уровне поверхностной психологии, к которой эти повторяемые грубые послания постоянно обращаются: искусство пропагандистов в том, чтобы правильно уловить эмоционально-психологическое состояние народа и доминирующие в нем настроения, и постоянно долбить в эти состояния соответствующими дубовыми посланиями, чтобы какие-то настроения разжечь, а другие — наоборот, погасить.
Проще всего повторять послание. Но ощутимо сложнее — сформулировать это послание. А труднее всего угадать настроение объекта и понять, до какой степени это настроение можно изменить своими посланиями.
В любом случае, классическая пропаганда — это инструмент прошлого века, когда основными каналами ее распространения были газеты, кино, радио и телевидение. Это не значит, что пропаганда сегодня не эффективна – так же, как архаичные молоток и отвертка нужны при строительстве адронного коллайдера, пропаганда сегодня тоже нужна для строительства чего-то гораздо более совершенного и тотального, чем простенькие агитки, которыми недалекие политики все еще плюются в народы. Но об этом поговорим позже.