Малоизвестное интересное
67K subscribers
122 photos
1 video
11 files
1.83K links
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
Что ждет Страну Отцов в 2019-2029
Куда идет мир? Каким будет ближайшее десятилетие? Что станет определяющим будущее фактором - новые технологии, изменения в самом человеке или во всем обществе?

После позавчерашних событий в Москве, ответы на эти вопросы применительно к России для многих изменились. В этом контексте, новый мини-сериал «Годы» (Years and Years) https://www.youtube.com/watch?v=lSOo4_7Pccg становится по актуальности рядом с сериалом «Чернобыль».
• Тот был правдой о не таком уж давнем прошлом.
• Этот – правда о довольно скором будущем.

Этот текст – вовсе не рецензия на «Годы». Да и куда мне лезть на поляну кино-корифеев типа Юрия Гладильщикова.
Но о самом, как мне кажется, главном и актуальном для нас в сериале «Годы» пока еще никто не написал. А в свете субботних событий в Москве, понять это крайне важно.

1) Сериал «Долгие годы» о том же, о чем и «Обитаемый остров» Стругацких – может ли меньшинство подорвать власть «Неизвестных отцов» над оболваниваемым большинством.
2) Ответ обоих произведений – ДА.
- Но в XX веке (рецепт повести «Обитаемый остров») нужно было подрывать «Башни-излучатели», останавливая тем самым одуряющий большинство инфопоток.
- А в XXI веке (рецепт сериала «Годы») нужно подрывать «Башни-глушилки», открывая тем самым инфопотоку правды путь через смартфоны к умам большинства.

И в этом главное отличие мира будущего. Как минимум, на грядущее десятилетие.
✔️ Новые технологии, конечно, тоже кое-что поменяют в мире (в 1ю очередь, все более вытесняя людей из все новых профессий).
✔️ И даже люди кое в чем изменятся (вплоть до имплантов в мозг, позволяющих напрямую управлять своими действиями в инфосети).
✔️ Но главное изменение произойдет в ключевом механизме управления обществом (да и всем человечеством):
- от массированной пропаганды,
- через мир фейковых новостей
- к управлению инфо-заслонками на пути правды.

Китайские «неизвестные отцы» это поняли первыми и уже вовсю идут этим путем.
Британии и другим развитым странам (как показано в сериале) этот путь - с закрытием BBC, строительством «башен-глушилок», ограничениям в Инете и «неизвестными отцами или матерями», пилящими тем временем бабло - предстоит пройти в грядущем десятилетии.
Другим странам, с разной степенью технологической готовности, предстоит то же самое с поправкой на сроки.
И выход один – взрывать «башни-глушилки». Ну а если они еще не построены, - не дать их построить.

Иначе на смену Больших Богов придет их сын – Большой Брат.
А наш мир превратится в Саракш. Ибо на языке Страны Отцов это означает «Мир».
#Будущее
Беспроводная зарядка дронов может совершить революцию.
Поскольку:
- не нужны опасные и энергозатратные посадки и взлеты;
- достаточно влететь внутрь «зарядной области»;
- 6 мин зарядки обеспечивают 25 мин полета;
- в «зарядной области» могут одновременно заряжаться несколько дронов;
- если создать соты из «зарядных областей» над крышами домов, дроны будут летать без ограничений времени и расстояния.
https://twitter.com/ExtremeTech/status/1155561058519506944

А если еще оснастить дроны новой системой умного видения SlimYOLOv3, делающей их по-настоящему умными - будет совсем улет https://arxiv.org/abs/1907.11093.
Вот так мир и изменится: быстро и радикально.
#БПЛА
В нас заложен инструмент управления эмоциями.
Нужно только научиться им пользоваться.

Самый могучий инструмент, заложенный в человека эволюцией – вовсе не интеллект, не разум и не сознание. Это эмоции, на нейрохимическом уровне управляющие всей нашей жизнью. Это своего рода фундамент, над которым надстраивается не только все вышеназванное, но даже и бессознательное.
Управлять этим мощнейшим инструментом куда сложнее, чем собственным телом или своими мыслями. Даже йоги, пройдя многолетнюю спецподготовку, не всегда в состоянии справляться с эмоциями.
И если бы кто-то открыл способ, помогающий это делать, это было бы весьма ценно для каждого из нас.

Новое исследование «Beyond emotional similarity: The role of situation-specific motives» - важный шаг на пути открытия способов управления эмоциями.
Его авторы поставили под сомнение железобетонную основу нашего понимания того, как формируются эмоциональные реакции. Всегда считалось, что реакция людей на эмоции других происходит автоматически на бессознательном уровне. Но авторы нового исследования доказали, что это не так.
Наши эмоции не являются ни пассивными, ни автоматическими. Это значит, что ими можно управлять. И в частности, можно регулировать то, как на наши эмоции влияют эмоции других.

Наши эмоции – многофункциональный инструмент, сформированный в нас эволюцией. И одна из его важных функций – способствовать достижению нужных нам целей при коммуникации с другими людьми.
Например,
- мы выражаем определенные эмоции, чтобы убедить других людей сделать что-то для нас или присоединиться к нашему коллективному делу;
- а в социальных сетях мы используем эмоции, чтобы показать другим людям, что нас заботят проблемы группы, к которой мы хотим принадлежать, и своими эмоциями мы хотим дать людям знать, что мы являемся ее частью.
Но как же работает на практике подобная передача эмоций?

Исследование экспериментально подтвердило известное крылатой выражение -"Хотеть - значит мочь". Т.е. все упирается в мотивацию людей, которая оказывается сильнее их эмоций.
Например, когда человек ХОЧЕТ сохранять спокойствие, он будет оставаться относительно спокойным даже среди толпы брызжущих слюной от гнева людей. Но если он сам ХОЧЕТ сердиться, то на него будут оказывать сильное влияние эмоции разгневанного окружения. Вот такая положительная обратная связь.

В ходе экспериментов исследователи обнаружили, что участники, которые хотели чувствовать меньше злости, в три раза чаще испытывали влияние людей, выражающих спокойные эмоции, чем злящихся людей. Но участники, которые сами хотели злиться, также были в три раза чаще подвержены влиянию других людей, более озлобленных, чем они, в отличие от людей с более спокойными эмоциями. Исследователи также обнаружили, что эти участники стали более эмоциональными, когда узнали, что другие также чувствовали схожие с ними эмоции.

Ну а что из этого следует на практике?
Примерно так.
1) Самый простой и эффективный способ отрегулировать свои эмоции – выбирать нужное вам социальное окружение. Например:
- хотите сегодня негодовать и злиться – вам в эту группу общения;
- хотите испытывать спокойствие и благодушие – вам в другую группу общения.
2) Ну и разберитесь со своей волей – чего вы, на самом деле, хотите. Поскольку именно это вы и получаете в процессе общения с другими людьми: в семье, на работе, с друзьями и френдами.
Иными словами, - научитесь хотеть нужного для вас, и выбирайте/формируйте себе правильное окружение.

Исследование:
- популярно https://news.stanford.edu/2019/06/13/examining-peoples-emotions-influenced-others/
- для профи https://psycnet.apa.org/record/2019-32092-001
#Эмоции
Алгоритм экономического доверия зашит в наших генах.
Это удивительное открытие озадачивает – а что еще там зашито?

Насколько сложные поведенческие стратегии и алгоритмы их исполнения зашиты в наших генах и передаются по наследству? Речь здесь не о простых поведенческих реакциях, типа страха, а о сложных поведенческих стратегиях, отсутствующих у животных, но имеющихся у людей.
Например, - базовая поведенческая стратегия, на которой стоит вся экономика человечества, и без которой нашей цивилизации просто не было бы. Речь об экономическом доверии – основе взаимовыгодного взаимодействия.

Что это такое, никому объяснять не нужно. Взрослый человек понимает это интуитивно. Два главных параметра этого понятия для нас столь же очевидны, как ощущение усталости или головной боли.
Первый параметр – потенциал пользы от проявляемого нами доверия (что мы может за наше доверие получить). Второй – моральный риск того, что партнер может нас обмануть (насколько больно нам будет в душе, если нас кинут).

До сих пор считалось, что сложные поведенческие стратегии, уровня экономического доверия, - продукт исключительно культурной эволюции человека. И, следовательно, экономическое доверие – плод социального научения человека в процессе жизни.
Однако, результаты исследования «Экономическое доверие у маленьких детей», опубликованного на прошлой неделе в Трудах Королевского научного общества, опровергает существующую точку зрения.

✔️ Путем разработанных авторами забавных и весьма креативных поведенческих экспериментов с куклами (см. видео, которое пока что посмотрели меньше 100 человек во всем мире!), авторы убедительно доказали, что в головах детей 4-6 летнего возраста уже есть все необходимое для понимания и следования стратегиям экономического доверия.

Дело в том, что в этом возрасте у детей просто отсутствуют:
- способности к ориентированному на будущее мышлению,
- опыт социального научения экономическим отношениям.
А это значит, что базовый уровень поведенческой стратегии экономического доверия, а также алгоритмы исполнения этой стратегии зашиты в наших генах.

И это поразительно. Ведь алгоритмика нейро-химического управления стратегией столь высокого уровня сложности куда сложней, чем, например, зашитые в нас алгоритмы ориентации в 3х мерном пространстве или оценки расстояний между предметами (FYI: оба этих умения лежат в основе научения ребенком тому, что мы называем «видеть», в первые месяцы после его рождения).

• Каким образом в ДНК умещаются столь сложные алгоритмы?
• Каким супер-эффективным кодом они там закодированы?
• А может, все-таки, они загружаются из каких-то внешних источников, отличных от опыта социального научения?


Все это пока неизвестно. Но тем интересней 🤓

Исследование:
- популярно;
- для профи.

#Биопсихология #ЭволюционнаяПсихология #ПринятиеРешений #Эволюция #СравнительнаяПсихология
90%+ информации, публикуемой в западных и наших СМИ, социальных сетях и блогосфере о китайской системе социального кредита – миф.
Глобальной системы мониторинга и оценки поступков людей, в соответствии с которой им присваивается социальный рейтинг, определяющий его возможности в жизни, - сейчас не существует и в следующем 2020 году не появится.
О том,
• почему этот миф появился и получил широчайшее распространение на Западе и у нас,
• что, на самом деле, подразумевается под системой социального рейтинга Китая,
• что уже сделано, и каковы перспективы,
• и самое главное, - чем этот миф опасен для нас,
читайте в моем новом посте на 5 мин
- на Medium https://bit.ly/2OEyKJW
- на Яндекс Дзен https://clck.ru/HQkck
#Китай #СоциальныйРейтинг
Ситуация похожа, как если бы доказали, что Дарвиновская теория эволюции — лишь частный случай, подобно тому, как законы классической механики Ньютона оказались частным случаем релятивистской механики Эйнштейна.
Читать дальше (3 мин.)
- на Medium https://bit.ly/2Zt8gfv
- на Яндекс Дзен https://clck.ru/HSNot

#Эволюция #СоциальнаяСложность
Ваши метакогнитивные искажения не оставляют вам шансов.
Современное просвещение дает обратный эффект.

В этом веке «модель дефицита знаний» оказалась разрушенной. Повсюду рулит эффект Даннинга-Крюгера и лавиной нарастает интеллектуальная слепота. Сегодня те люди, кто меньше всего разбирается в сложных вопросах, более всего убеждены, что знают о них предостаточно.
Это относится ко всем странам и культурам, и распространяется на любые сложные вопросы, по которым нет научного консенсуса.

Но это еще не самое плохое.
Куда хуже то, что все современные попытки просвещения масс в таких вопросах дают прямо противоположный результат.

Практика последнего десятилетия доказывает, что эффект Даннинга-Крюгера (метакогнитивное искажение типа «чем тупее, тем уверенней в себе») не преодолевается путем предоставления «незнайкам» истинных данных и научной аргументации.
Им от этого становится только хуже! Их тупая самоуверенность крепчает, и убедить их в обратном будет еще труднее.

Причина в том, что наше время оказалось временем краха «модели дефицита знаний» - идеи о том, что люди выступают против правильной политики и истинной науки из-за недостатка у них проверенной научной информации. Мол, достаточно людей просветить, - они поумнеют, и в мире возобладают научные истины.

XXI век опроверг «модель дефицита знаний». Главными причинами этого стали:
1) взрывной рост объемов информации, в которой истинные знания просто тонут, да их и невозможно идентифицировать в падающем на нас, подобно Ниагаре, инфопотоке;
2) новые, весьма важные и полезные изобретения человечества в области массовых коммуникаций и информационных технологий: основанные на сетевой стигмергии поисковики, электронные СМИ, социальные сети, Википедия, технокультура смартфонов и т.д.
Все эти замечательные технологии, к сожалению, делают «модель дефицита знаний» все менее работоспособной. В результате чего:
- во-первых, растет интеллектуальная слепота масс;
- в во-вторых, даже профессионалы предпочитают все более следовать мейнстриму массовых заблуждений (оно спокойней и доходней).
Т.е. весь мир неуклонно глупеет.

Для борьбы с этим необходимы новые методы донесения научных данных в электронной инфосфере Земли, способные хотя бы конкурировать (а нужно, чтобы они побеждали) с вирусными каскадами интеллектуальной слепоты масс и фейкового контента всякого рода интересантов (просто зарабатывающих на нем).
Но такие методы человечеством пока не разработаны.

Желающие ознакомиться с конкретными исследованиями, доказывающими крах «модели дефицита знаний», могут пройти по ссылкам в кристально ясном эссе проф. Аарона Кэрролла «Health Facts Aren’t Enough. Should Persuasion Become a Priority?»

Ну и перечитать мои предыдущие посты на тему «интеллектуальной слепоты» 1, 2, 3

P.S. О стигмергии поисковиков я предупреждал еще 6 лет назад.

#ИнтеллектуальнаяСлепота #Вызовы21века
Что могло объединить усилия троих супер-знаменитых, уже все имеющих и все еще рулящих в высоких кругах людей, чтобы они в течение 3х лет (!) регулярно брейнштормили некую тему и вот теперь решили поделиться с народом своими итоговыми соображениями?
Как ни странно, но ответ почти очевиден –
будущее человечества, которое теперь зависит не только от людей, но и от их изобретения, по недоразумению названного ими ИИ.

Вот моя интерпретация 3х примеров, иллюстрирующих ход мыслей авторов эссе «Метаморфоза».

1) Пример микро-изменений (для отдельных людей) из области человеческих ценностей.
А. Уже ясно, что очень скоро домашние ассистенты будут понимать предпочтения своих владельцев и учитывать их при формировании своих ответов. И тогда они будут становиться не только «умнее» для своих «хозяев», но и ближе для них (интеллектуально и эмоционально). В результате ИИ сможет побуждать людей чувствовать к нему эмоции, на которые он не способен ответить взаимностью.
Б. Алгоритмы ИИ помогают открывать новые рубежи знаний, одновременно сужая выбор информации и расширяя возможности подавления новых или сложных идей. ИИ способен устранять языковые препятствия и многие запреты культуры. Но также он обладает беспрецедентной способностью ограничивать (или трансформировать) пути распространения информации.
В результате
- эмоциональной переориентации коммуникативных предпочтений людей (и особенно детей) на ИИ
- и все более зависящих от ИИ (а не от самого человека) потоков информации, формирующих миропонимание людей,
у людей начнутся изменения в их системах ценностей. Куда поведут человечество подобные изменения, и что будет их следствием – мы пока не знаем.

2) Пример макро-изменений (для многих стран) из области глобальной и национальной безопасности
Великая стратегия безопасности человечества, созданная после появления ядерного оружия, держалась на фундаменте концепции сдерживания.
С повышением роли ИИ в национальной безопасности концепция сдерживания перестает работать, поскольку:
- ее механизм держался на возможностях взаимного контроля сторон;
- но непрозрачность и скорость ИИ становятся новым стратегическим преимуществом, которым стороны уже не хотят пожертвовать за столом переговоров.

3) Пример гипер-изменений (для человеческой цивилизации)– изменения понятий знаний, восприятия и реальности.
Самым сопоставимым с идущей ИИ-революцией событием мировой истории был переход от средневековья к новому времени. В средневековый период люди интерпретировали вселенную как творение божественного, а все его проявления - как эманации божественной воли. Когда единство христианской церкви было нарушено, возник вопрос - какое объединяющее понятие может заменить Бога!
Ответом была эпоха Просвещения. Великие философы заменили божественное вдохновение разумом, экспериментами и прагматическим подходом. Последовали и другие интерпретации: философия истории, социологические интерпретации реальности.
Но феномен машины, которая помогает - или, возможно, превосходит - людей в умственном труде и помогает не только предсказывать, так и формировать результаты, уникален в истории человечества.
- Философ Просвещения Иммануил Кант приписал истину влиянию структуры человеческого разума на наблюдаемую реальность.
- Истина ИИ куда более случайна и неоднозначна. Она изменяет себя по мере получения и анализа данных.
Просвещение стремилось подчинить традиционные истины освобожденному, аналитическому человеческому разуму.
Цель связки Интернета с ИИ - ратифицировать знания путем накопления и манипулирования постоянно растущими данными. Человеческое познание теряет свой личный характер . Носители интеллекта, в восприятии ИИ, превращаются исключительно в данные. И эти данные, по сути, становятся новым носителем интеллекта, властвующим в инфосетевом мире.

https://www.theatlantic.com/magazine/archive/2019/08/henry-kissinger-the-metamorphosis-ai/592771/
#AI #Будущее
Карта 168и техно-щупалец Китая, подгребающих под себя мир.
Аналитическая онлайн-платформа о технологической экспансии Китая.
Согласно Кай-Фу Ли, мир будущего будет китае-американским. С этим никто особенно и не спорит. Ибо как тут поспоришь, если в списке стоимости TOP 20 Global Internet Companies 11 компаний из США (от Apple до Uber) и 9 из Китая (от Alibaba до Toutiao).
Про технологическое доминирование США нам рассказывать не нужно – все видели и видим своими глазами уже не первый десяток лет.
Но вот про экспансию Китая мы знаем непростительно мало. А если почитать СМИ, Телегу и ФБ, то что мы реально узнаем о том, как Китай завоевывает себе половину мира? Да почти ни-че-го.
Вот почему так полезно время от времени заходить на онлайн-платформу Австралийского института стратегической политики «Карта экспансии техгигантов Китая».
Здесь ведется геомониторинг и анализируются:
• 17 000+ элементов данных о деятельности в 1700+ точках мирового присутствия 12 китайских техногигантов;
• 404 университетских и научно-исследовательских партнерства Китая по миру, в том числе 195+ партнерств университета Huawei Seeds for the Future;
• 75 проектов «Умный город» или «Решение общественной безопасности» в 46 странах мира;
• 52 инициативы 5G в 34 странах;
• 119 научно-исследовательских лабораторий, наибольшая концентрация которых в Европе;
• 56 подводных кабелей, 31 арендованный кабель и 17 наземных кабелей;
• 202 дата-центра и 305 телекоммуникационных и ИКТ-проектов распределены по всему миру.

Здесь онлайн-отчет проекта с указанием 127 ссылок на источники.
А здесь сама карта, позволяющая анализировать, как экспансию конкретных компаний, так и географию протягивания 168 техно-щупалец Китая (14 категорий экспансии 12ти техно-гигантов), подгребающих под себя мир.
#Китай
Роботы уже меняют нашу мораль.
В нас растут жестокость к людям и непреодолимая тяга к роботам.

Нагрузить вас перед уикендом сразу двумя крутыми исследованиями было бы не гуманно. Но исследования реально крутые и очень интересные. А фишка в том, что нужно их читать параллельно.
Но нам повезло. На помощь пришла Sigal Samuel, опубликовав в Vox синтетический анализ обоих исследований: популярным языком и со всеми полезными ссылками.
Мне же остается лишь сделать для вас наводку на резкость в этой теме.

Суть в том, что под влиянием роботов люди уже начали меняться. Причем, не в лучшую сторону и с ускорением.
1) Мы становимся более нетерпимыми и даже жестокими, перенося вседозволенность по отношению к роботам на людей.
2) Мы неуклонно движемся к тому, чтобы всюду, где это будет возможным, предпочитать общение с роботами, вместо людей (от кол-центра до постели)

Новое исследование Embodiment into a robot increases its acceptability – прорывное. Впервые экспериментально доказали, что процесс роста нашей жестокости к роботам можно остановить, и даже повернуть вспять.
Для этого оказывается достаточным:
А) начать видеть мир глазами робота;
Б) в буквальном смысле, влезть в его шкуру (то бишь, тело).
Изумительная выдумка авторов исследования сработала. Достаточно, надев VR очки и посмотрев на себя в зеркале, увидеть там Чудо-юдо Ужасное, как мы начинаем проникаться в нему симпатией и всяческой толерантностью. Короче, перечитайте «Превращение» Кафки и только представьте, насколько проще было бы семье Грегора Замза смириться с его новым гадким видом, имей они тогда VR очки с хорошим софтом.

Второе исследование Social Robots and Empathy: The Harmful Effects of Always Getting What We Want показывает, что сопереживание роботам может снижать нашу эмпатию к людям. Роботы устраняют для нас необходимость сопереживать другим людям, предоставляя нам возможность получать от роботов ровно то, что мы хотим (и как хотим) без каких-либо компромиссов.
Не поленитесь сходить и по иллюстративным ссылкам. Например, про китайское приложение Love and Producer, на которое в Поднебесной подсели уже миллионы женщин. И всего-то дел, - простенький симулятор свиданий с четырьмя мужчинами, с которыми можно развивать отношения по ходу сюжета игры. Плюс чуть-чуть мистики и немного фэнтези... И вот уже дамы берут смартфон в постель, предпочитая сладкоголосого виртуального героя мужу.

Прочтите пятиминутный пост Sigal Samuel
https://www.vox.com/future-perfect/2019/8/2/20746236/ai-robot-empathy-ethics-racism-gender-bias
А уж пойти ли по многочисленным приведенным там ссылкам, решите по ходу.

P.S. И вся эта гадость по отношению к виртуальным персонажам и роботам начинает проявляться в людях лишь после 30 месячного возраста. А до того матушка-природа уберегла, - нет в малых детях никакой тяги к виртуалам. Малышам нужны лишь живые люди. Получается, что первые 30 месяцев жизни дети всё еще пребывают как бы в раю. Ну а потом искушения е-культуры берут своё
https://news.vanderbilt.edu/2019/07/31/toddler-brains-resist-learning-from-screens-even-video-chat/

#Роботы #Эмпатия #Мораль
Засада на пути мирового господства Китая в ИИ.
Утечка мозгов удерживает Китай от доминирования.

Среди четырех ключевых факторов, влияющих на ИИ-экосистему страны (талант, данные, капитал и оборудование), - 1й оказывает наибольшее влияние.
И хотя Кай-Фу Ли довольно успешно втирает миру, будто бы Китай обречен на победу из-за превосходства в объемах данных, это все же не совсем так.
Кай-Фу Ли лукавит. А ИИ-энтузиасты, типа Грефа на это ведутся, повторяя мантру «данные – это новая нефть».
Данные – это НЕ нефть.
Чтобы прочувствовать это, просто замените одно слово в мантре: "данные" на "мнения".
И то и другое – вещи абсолютно субъективные и зависящие от их представления и трактовки. И то и другое – понятия редуктивные, упрощающие сложные явления, и к тому же совсем не гарантированного качества.
Так что забудьте про мантру «Данные – это новая нефть», которой вас через СМИ гипнотизируют ИИ-энтузиасты.

Таланты – вот новая нефть! И Китай это понял одним из первых.
Поставив на приоритетность ИИ, Китай за 10 лет сумел увеличить число китайских ИИ-спецов почти в 10 раз. В 2009 среди авторов докладов на крупнейшей мировой конференции NeurIPS было всего 100 китайских исследователей (14% от общего числа). В 2018 году их было уже 1000, что составляет 25%.

Но тут Китай нарвался на страшную засаду – утечку мозгов.
Сегодня примерно 75% китайских авторов публикуемых исследований работают за пределами Китая.
Причем 85% из них работают в США - либо в техно-гигантах, типа Google и IBM, либо университетских лабах.

С этим никакие объемы данных ничего поделать не могут. И капиталы с оборудованием тоже. Здесь «кадры решают все».
Увы, мы в России это на своей шкуре ох как чувствуем.

Ну а прочий свободный мир с китайской ИИ-угрозой еще поборется.

Резюме по отчету чикагского аналитического центра MacroPolo
Релиз MIT Technology Review

P.S. Про то, что данные – это вовсе не новая нефть кое-кто и в США хорошо понимает.

#ИИ #Китай
Оптимизм в перспективах сильного ИИ ведет к большой войне.
Таков вердикт моделирования развития прорывных технологий.

Все развитые страны стоят перед важным выбором - какая национальная ИИ-стратегия будет для них наиболее успешной:
А) антиморальный эгоизм типа «каждый за себя»: забить на все моральные и гуманистические принципы, не останавливаясь ни перед чем, лишь бы обеспечить себе максимально высокое место в международной конкурентной гонке?
Б) прозорливое высокоморальное международное сотрудничество, наподобие Эры Мирового Воссоединения в «Туманности Андромеды» И.А. Ефремова?
Навряд ли, принимая это решение, Трамп, Си Цзиньпин, Путин или Макрон будут полагаться на результаты анализа и моделирования того, куда приведет мир избранный ими путь.
И это очень жаль. Поскольку:
- такая модель уже существует;
- и она демонстрирует страшные результаты.

Что если смоделировать международную гонку в наиболее прорывных технологических направлениях с помощью эволюционной теории игр?

Что если допустить для каждого из участников гонки выбор одной из 3х стратегий: антиморальный эгоизм (см. выше стратегию А), прозорливое высокоморальное сотрудничество (см. выше стратегию Б) или смешанная стратегия А+Б?

Что если поставить целью моделирования не только шансы на выигрыш конкретных стратегий, но и анализ вероятности возникновения в результате международной гонки «большой катастрофы» (называя вещи своими именами, - большой войны)?

Что если запитать такую модель экспертными оценками специалистов и модельным расчетом шансов выигрыша страны в конкурентной борьбе, следуя одной из 3х вышеназванных стратегий?

Все это и было сделано в новом исследовании Modelling the Safety and Surveillance of the AI Race.
https://arxiv.org/abs/1907.12393

1й из 2х главных результатов моделирования интуитивно понятен и без всякого моделирования (что не снижает ценности его подтверждения путем симуляции).
✔️ Выигрыш в конкурентной гонке быстродостижимых прорывных технологий обеспечивает стратегия А - антиморальный эгоизм (шансы «большой катастрофы» максимальны).
✔️ Выигрыш в конкурентной гонке быстроНЕдостижимых прорывных технологий обеспечивает стратегия Б - прозорливое высокоморальное сотрудничество (шансы «большой катастрофы» минимальны).

2й главный результат совсем не так очевиден.
✔️ Чем больше оптимистический прогнозов (не важно, стращалки это или обещалки) приближения исследований к реализации «Сильного ИИ – AGI», тем выше шансы его восприятия лицами принимающими госрешения в качестве быстродостижимой прорывной технологии.
Следствием этого будет:
- приоритет национальных стратегий «каждый за себя» (ИИ-национализм);
- подхлестывание гонки ИИ-вооружений;
- максимизация риска большой войны.

Полученные выводы одинаково справедливы и для 4х других технологий высшего государственного приоритета, названных директором-основателем Центра безопасности и новейших технологий и бывший директором отдела перспективных исследований в области разведки США Джейсоном Матени:
• Биотехнологии
• Малые спутники
• Квантовые компьютеры
• Когнитивные усовершенствования
#БольшаяВойна #ВысокоприоритетныеТехнологии
Пять мифов о сознании
Есть такие статьи – короткие, понятные и полезные, - которые получаются только у самых крутых профессионалов. Когда читателю не нужно даже пытаться что-то перепроверять, ну и конечно совершенно бессмысленно спорить. Просто прочесть, понять и запомнить.
Кристоф Кох (главный ученый и президент Института наук о мозге Аллена) – именно такой профи. А его статья опровергает пять самых распространенных мифов о сознании.

Миф №1 - Человеческий мозг уникален, имея некие принципиальные отличия от мозга животных.
На самом деле, это не так. Никакие качественные отличия пока не найдены.
Миф №2 - Наука никогда не поймет сознание.
На самом деле, никаких принципиально непреодолимых проблем здесь нет. Просто нужно время.
Миф №3 - Сны содержат скрытые подсказки о наших тайных желаниях.
На самом деле, сны не скрывают наших желаний, а скорее выражают наши заботы в легко понятной и вполне логичной форме.
Миф №4 – Реклама может воздействовать на подсознательным уровне.
На самом деле, последствия подсознательных воздействий рекламы испаряются уже через 15 мин.
Миф №5 - "Видения" людей, побывавших в шаге от смерти являются свидетельством загробной жизни.
На самом деле, такие видения, скорее всего, являются попытками мозга продолжать выполнять свою работу по постижению мира, даже когда его собственные функции затруднены, и когда некоторые из его цепей восприятия и памяти отключены или генерируют ложную активность. И хотя здесь не требуются никакие сверхъестественные объяснения, тем ни менее, важно изучить, почему эти видения оставляют у многих пациентов длительное чувство спокойствия, безмятежности и принятия их окончательной кончины. Понимание этого может привести к терапевтическим прорывам.
https://www.washingtonpost.com/outlook/five-myths/five-myths-about-consciousness/2019/07/26/93e04b64-aef6-11e9-b071-94a3f4d59021_story.html
#Сознание
​​Эксперимент «Человек-светлячок» доказывает фрактальность жизни.
Координация живых систем - от клеток до людей – универсально масштабируется.

Я бы назвал это открытие – шагом к построению «Общей теории поля человеческих взаимодействий».
О чем речь.
• Ключевое отличие живых систем и биологической сложности в том, что в них целое может быть больше и отличаться от суммы его частей (это называется эмерджентность)
• Одним из механизмов эмерджентности может быть ритмическая координация пространственно-временных паттернов во всех живых системах: от слизистой плесени и светлячков до социальных групп и мозга.
• В случаях маломасштабной (диадической) координации у людей, обнаруживаются такие паттерны, как синфазная и антифазная синхронизация / синкопация (причем обнаруживаются на нейронном, сенсомоторном и социальном уровнях).
• А в случаях крупномасштабной координации (например, толпа или социальная сеть), обнаруживаются иные статистические особенности, - например, общий уровень синхронности и переходы от беспорядка (хаоса) к порядку и обратно.

В чем вопрос.
✔️ Существует ли принципиальная разница между крупными и мелкими координационными явлениями?

Что было сделано в эксперименте под кодовым названием «Человек-светлячок».
• 120 человек разбили на группы по 8 участников, чтобы анализировать их взаимодействие на разных уровнях - диады, группы, ансамбли
• Люди в каждой восьмерке одновременно взаимодействовали друг с другом с помощью набора тачпадов (сенсорных панелей) и светодиодных матриц. Касания сенсорных панелей каждым из участников записывались (1 – касание; 0 – отсоединение) и отображались в виде вспышек соответствующего светодиода на матрицах, установленных перед каждым из участников.
• Перед каждым участником стоял метроном. Его назначение - разделить 8 участников на две частотные группы по 4 человека (на рис. группы A и B, они окрашенные в красный и синий цвета; для иллюстративных целей, все светодиоды показаны белыми – т.е. не горящими). Разность частот метронома между группами A и B систематически менялась, чтобы вызвать различное групповое поведение. А людям было предложено сохранять эту частоту во время взаимодействия после выключения метронома
• Люди не были явно проинструктированы о необходимости координации друг с другом.

Результат эксперимента «Человек-светлячок».
А) Экспериментальная модель позволила проанализировать ключевые характеристики многоагентной координации в разных масштабах.
Б) Модель показала, как увеличение разности частот ослабляет синфазные и противофазные действия участников, что приводит к сегрегации: сначала – на уровне пар участников, а потом и между двумя группами.
В) Обнаруженная масштабная инвариантность ключевых характеристик многоагентной координации обеспечивает единый подход к биологической координации, объединяющий статистическую механику и нелинейную динамику.

Почему это важно.
✔️ Экспериментально доказано, что бесконечное множество уровней жизни разворачивается фрактально.
✔️ Это значит, что микро и макро уровни человеческих взаимодействий (от супругов до государств) описываются одной и той же математикой и управляются одними и теми же законами.
И, следовательно, мы на шаг ближе к общей теории поля … Как минимум, особого класса полей - «поле человеческих взаимодействий» или даже «поле фрактальности жизни».
https://royalsocietypublishing.org/doi/abs/10.1098/rsif.2019.0360

P.S. Следовательно, масштабной координацией людей (например, сетевой накачкой «цветных революций») можно управлять. И это, - ох как актуально (постараюсь написать об этом в следующий раз).

#Сложность #Жизнь
Большой Брат смотрит на Землю «Взглядом Горгоны».
А наивные жители Канзасщины полагают, что это к ним прилетела НЛО.
Это лето станет поворотным моментом на пути к созданию Всемирного Большого Брата. С подачи Gardian мир узнал, что Пентагон уже начал 3х месячное тестирование системы массового видеонаблюдения нового поколения.
Новизна радикальная. Система видит и записывает ВСЕ – любые объекты и каждое перемещение на территории целого города. В то время, как обычная аэрофотосъемка может снимать в конкретный момент времени только определенный небольшой участок, новая система позволяет одновременно отслеживать десятки тысяч целей, движущихся внутри гигантской территории. В сочетании с методами анализа больших данных эта система не только видит ВСЕ, но и способна прогнозировать, что будет происходить дальше.
В тестовом пилотном проекте задействованы 25 беспилотных аэростатов на солнечной энергии с гарантированным беспосадочным периодом не менее месяца. Они летают на высоте 20 км (выше самолетов) и оснащены самой совершенной в мире (ау, Китай!) системой видеонаблюдения "Взгляд Горгоны". Модель Gorgon Stare Increment II покрывает видеонаблюдением площадь более 50 квадратных километров. Два сенсорных шара интегрируют и ужимают изображения с 368 камер широкоугольной съемки (WAMI), которые затем оцифровываются и «сшиваются» в единый цифровой ландшафт. При этом сенсорная система "Взгляда Горгоны" видит и пишет круглосуточно, как обычное изображение, так и инфракрасный спектр, включая пограничные состояния заката и рассвета. Аэростаты будут всепогодно летать над 6 штатами по 400 км траекториям, зависая на месте, где потребуется (разработчики научили систему управления аэростата использовать т.н. стратосферные ветры).
Кроме того, система позволяет ее пользователям «путешествовать во времени», чтобы пересмотреть любое интересующее их событие и точно увидеть, что произошло, кто был вовлечен и откуда они пришли, приехали или прилетели.
Испытания проводит Южное командование США, якобы для отработки слежки за наркотрафиком. Но в эту отмазку никто не верит. Для всех очевидно, что "Взглядом Горгоны", ранее использовавшийся только военными, собираются оснастить Большого Брата.
«То, что предлагает эта новая технология, - это наблюдать за всем сразу», - сказал The Guardian Артур Холланд Мишель - один из руководителей Центра по изучению беспилотников в Бард-колледже в Нью-Йорке и автор только что вышедшего бестселлера «Глаза в небе: секретный взгляд Горгоны и как он будет наблюдать за всеми нами».
В книге в деталях рассказывается, как сверхсекретная команда безумных ученых, вдохновленная научно-фантастическим фильмом "Враг государства" 1998 года, создала систему "Взгляд Горгоны", и как потом эта система стала беспрецедентной угрозой частной жизни и свободе людей.
#БольшойБрат
Если кому и верить, - то ученым.
Но политики поджимают их под себя.

В середине ХХ века человечество лишь чудом избежало ядерного ада. И этим оно обязано не политикам и не военным, а ученым. Незадолго до смерти в 1955 году Альберт Эйнштейн стал соавтором доклада о том, как избежать ядерной войны, что привело к Пагуошским конференциям и способствовало появлению соглашения о нераспространении ядерного оружия.
Тогда это стало возможным из-за высокого авторитета ученых в обществе и независимой от политиков позиции ряда звезд тогдашней науки.

В наши дни все иначе. Во всех странах власти подгребают под себя науку, заставляя ученых есть из рук политиков. И потому авторитет ученых, во всем мире низведенных властью в обслугу, падал не один десяток лет. А их голос в обществе становился все тише, что полностью устраивало политиков.

Но как пишет в редакционной статье журнал Nature, в последнюю пару лет ситуация стала меняться. Корыстная тупость политиков все сильнее достает людей. И практически во всех развитых странах люди понимают, что политикам больше верить нельзя. А если кому и верить, то ученым.
Вследствие этого тренда, сегодня в США ученым доверяют в 2,5 раза больше людей, чем политикам.

Но для доверия нужна независимость. Тогда как во всем мире ученые финансово все больше зависят от государства. Мало того. Во многих странах власти не только финансово, но и административно ставят под свой контроль науку. И это происходит, как вы понимаете, не только в Бразилии, но и кое-где поближе.

Это гибельный путь для всего человечества. Если наука будет под пятой государства, и если ученые будут стоять в стороне от принимаемых государствами решений, опасаясь лишиться финансирования, - не только процветание, но и само выживание человечества будет под вопросом.
#Наука #Политика
​​Изучайте историю будущего – мать вашу!
• Кавалерия Чингисхана атаковала со скоростью мотопехоты XX века.
• Стационарный лук династии Сун бил на полторы тысячи метров – не меньше, чем современный мне автомат.
Но всадники древности и луки не могут соперничать с современной армией. Фундаментальные науки – залог успеха. Исследователи истории будущего это четко обосновали.
Вы же ослеплены сиянием умирающих примитивных технологий; вы изнежились в яслях цивилизации. Вы даже не пытаетесь собраться с духом и подготовиться к грядущему судьбоносному сражению …

Это слова Чжан Бэйхая – героя «Темного леса» Лю Цысиня, - заплатившего жизнью за непонимание этой его мысли человечеством.

Но о каком сражении идет речь?
О сражении с будущим. Ибо оно уничтожит большинство из того, что мы ценим и что нам дорого в настоящем.
А чтобы понять это – см. заголовок.
Вот всего лишь тройка примеров, чему учит история будущего.

1. Скоро на Земле будет два мира: нормальный мир и мир, управляемый ИИ.
Этот 2й мир уже формируется. Им управляют не люди, а классификаторы поисковиков, работающих на основе ИИ. Именно ИИ здесь решает, что люди заметят (узнают, поймут), а что нет. ИИ делает это запросто, все лишь маркируя триллионами ярлыков экзобайты информации о мире и о самих людях. Но в конечном счете, именно ИИ принимает решения, отдавая предпочтения всего лишь некоторым доминирующим культурам / языкам / стереотипам современного мира.
Вот почему в мире будущего – мире «Темного леса» Лю Цысиня, - будет лишь один язык – англокитайский.
• И что ж, в этом будущем мире все остальные культуры, языки, мировоззрения будут забыты?
• Хоть кто-то пытается этому противостоять?
Да, пытаются. Проект Kannada-MNIST пытается сохранить в новом управляемом ИИ мире, хоть что-то от мира одного из старейших на Земле языков - дравидийского языка Каннанда, на котором сейчас говорят 40 млн. жителей юго-западной Индии.

2. Как узнать, когда прогресс реален, а когда – лишь иллюзия?
Это вопрос, в частности, сводится к измерению способности людей выявлять причины прогресса в конкретной научной области (см. цитату в начале).
Взять к примеру область эксплуатации технических средств (от стиралок и посудомоек до авто и самолетов). Согласно истории будущего, весьма возможно, что управляющий всеми техническими средствами ИИ будет предсказывать их выход из строя по звуку. Наборы звуковых данных для машинного обучения уже формируются, а ИИ уже вовсю выявляет аномальные звуки, предсказывающие неисправности. Пока для игрушек. А в перспективе и прочих механизмов.

А теперь вопрос – это прогресс? Как узнать это?

Чтобы помочь людям измерять и оценивать прогресс ИИ, исследователи из DeepMind разработали Behavior Suite - программный пакет, помогающий проверять возможности все более сложных агентов для обучения с подкреплением.
Чтобы помочь людям оценить, насколько умны ИИ агенты, нужно выявить и измерить конкретные факторы роста их интеллекта. Здесь мы сталкиваемся с фундаментальной проблемой, - как измерить рост конкретных показателей ИИ так, чтобы это можно было легко проверить и повторить. Для решения этой задачи авторы Behavior Suite предлагают использовать измеримые и фальсифицируемые гипотезы, которые затем можно было бы оформить в доказуемые гарантии.

3. А как узнать, когда ИИ уже близок к универсальным «сверхчеловеческим» способностям?
Behavior Suite из предыдущего пункта будет способен это заранее определить.
Так что проблемы со срочным «выдергиванием компа из розетки», дабы остановить назревающего в нем Терминатора, в будущем просто не будет.
Так считают разработчики Behavior Suite из DeepMind, опираясь на свое знание истории будущего.

#ИсторияБудущего
Cамая актуальная инфа по ИИ Китая здесь
Тема ИИ Китая приоритетна не только на моем инфо-радаре. Однако, как ни прискорбно, лучшие источники по этой теме в Рунете мало кому известны. А может это специально так.
Кабы то ни было, но вот эти источники. Если тема вам действительно интересна, здесь вы найдете самую полную, актуальную и профессионально отобранную и проанализированную инфу.

1. Китайский взгляд на состояние дел
Здесь наиболее интересны отчеты Академии IT и коммуникаций Китая (CAICT). Вот для примера оригинал последнего из них и его перевод Global Artificial Intelligence Industry Data Report

2. Взгляд из США на состояние дел
Здесь рекомендую онлайн проект MacroPolo – «мозгового центра» Чикагского Paulson Institute.
А вот опубликованный ими же вчера анализ текущего состояния глобальной китайской зонтичной программы «Сделано в Китае 2025», (куда входит и ИИ).

3. Анализ плюсов и минусов национальной ИИ стратегии Китая, а также оценка хода ее выполнения.
Здесь рекомендую превосходный анализ ИИ стратегий 3х лидеров Юго-Востока – Китай, Япония, Южная Корея, - с позиций их сравнения с ИИ-стратегией Канады (1я страна мира, принявшая ИИ-стратегию и сейчас весьма успешно ее претворяющая).

4. Ну и конечно же еженедельник Джеффа Динга по ИИ Китая (с ним точно не пропустите главного).
Вот новый уже 62й выпуск.

#Китай #ИИ
Как обмануть демократию
Наихудший сценарий для США – кибервойна на следующих выборах президента.
А для России – переход на э-голосование.
2 млн. руб, обещанные Алексеем Венедиктовым за взлом системы э-голосования в ходе ее вчерашнего тестирования горе-взломщикам не светят. «Взлом никому не удался» - написал вчера у себя в канале Венедиктов.

Так что ж, система э-голосования настолько надежна, что ее не взломать?

Увы, нет. Современные средства кибервойны в состоянии взломать что угодно. Условий 3:
1) была бы необходимость;
2) достаточно денег на покупку персональных данных и оплату услуг социальных сетей;
3) физическое подключение выборных систем к Инету.
2е - относится ко взлому голов избирателей. 3е – системы управления выборами.

Ну а вчерашнее тестирование в Москве с призом взломщикам в 2 млн. руб. – это ни о чём. Здесь и обсуждать нечего.

А вот серьезный пример.
Вчерашняя статья проф. Халдермана - директора «Центра компьютерной безопасности и общества», специализирующегося на кибербезопасности выборов. Его статья анализирует сценарии кибервойны, которая может разразиться на следующих президентских выборах США.
Кто, по мнению проф. Халдермана, нападет, и как это может быть сделано, - в деталях описано в статье. Приведу лишь её резюме.
• Серьезные уязвимости в кибербезопасности президентских выборов США в 2020 году по-прежнему существуют.
• Для злоумышленников, по-прежнему уязвимы, как списки избирателей, так и сама машинерия выборов, что может повлиять на результаты выборов и посеять в обществе хаос и сомнения.
• Наихудшие сценарии могут привести к беспрецедентному конституционному кризису.

Желающие прочтут обоснование этих выводов самостоятельно.
✔️ Там далеко не только про использование известных уязвимостей в системах, но и про новые средства управления психологией и доверчивостью людей (влияние на соцсети станет намного более точным и управляемым, чем когда-либо прежде, и, следовательно, более эффективным и трудным для обнаружения).
✔️ Главной целью кибервойны 2020 станут не выборные системы, а головы людей. Задачей будет увеличение разобщенности общества и повышение общего хаоса.

Имхо, аргументация Халдермана верная и обоснованная.

Возвращаясь к надежности чисто электронного голосования, вот что пишет проф. Халдерман.
«Научный консенсус заключается в том, что наилучший способ провести надежное голосование - это использование бумажных бюллетеней с последующим тщательным аудитом случайной выборки.»

Только бумажки. При аудите даже нельзя использовать сканы бюллетеней, т.к. и их можно сфальсифицировать.
И вообще, все что угодно в компьютерах можно сфальсифицировать при условии, что они имеют хоть какую-то связь с инетом.
А выборные системы в США именно таковы. Кроме того.
• В 12 штатах нет полных бумажных списков, и поэтому они вообще не могут проводить бумажный аудит.
• Только в 22 шт. предусмотрена возможность бумажного аудита.
• И в 20 из этих 22 нет требования к статистической значимости аудита.

Ну а в России как с этим?
Сами понимаете. Сделать потайную дырку у нас умеют в любой стене: от лаборатории допинга до МКС. Ну а с электронной стеной вокруг выборов уж как-нибудь справятся. И сотни миллионов долларов, как в США, у нас для этого вряд ли потребуются.

#Выборы
​​На прошлой неделе многих поразила новость о размерах финансовых потерь крупнейшего в мире исследовательского центра по ИИ – принадлежащей Alphabet компании DeepMind. За три года компания уже потеряла более $1млрд, а долг в размере более $1млрд должен быть погашен в течение следующих 12 месяцев.
• Значит ли это, что ИИ разваливается?
• Что эти потери означают для будущего ИИ?
• Находится ли DeepMind на правильном пути и являются ли эти немалые инвестиций разумными?
• Как, в конце концов, эти потери повлияют на ИИ в целом?

Эти вопросы анализирует Гэри Маркус - основатель и генеральный директор Robust.AI и профессор психологии и нейронологии в Нью-Йоркском университете, – в своей статье «Deepmind's losses and the future of AI».
Вот суть его позиции.
1) Затраты далеко не беспрецедентные по сравнению с суммами, потраченными на некоторые из крупнейших научных проектов. Для сравнения, затраты на Большой адронный коллайдер тоже составляют около $1млрд в год, а общая стоимость открытия бозона Хиггса оценивается более чем в $10 млрд.
Так что проблема не в сумме затрат, а в том, на что они идут.
2) А идут они, в основном на одно. Все яйца складываются в одну корзину – глубокое обучение с подкреплением (deep reinforcement learning). Реальная проблема с этой корзиной - это доверие. На данный момент глубокому обучению с подкреплением можно доверять только в задачах, которые хорошо контролируются и не несут больших сюрпризов; например, это хорошо работает для Go - ни доска, ни правила не изменились за 2000 лет - но вы не захотите полагаться на этот метод во многих реальных ситуациях.
3) В сложных областях практической жизни глубокое обучение с подкреплением довольно быстро заходит в тупик. IBM первая наступила на эти грабли, когда попыталась использовать Watson, выигравший у людей в интеллектуальной игре Jeopardy!, в медицинской диагностике. Успех оказался весьма невелик. Watson работал хорошо в некоторых случаях и терпел неудачу в других, временами ошибаясь в тривиальных диагнозах, типа сердечных приступов, которые были бы очевидны для студентов-первокурсников.
4) Отрицательная экономика DeepMind, к сожалению, может повлиять на ИИ в целом. Если ажиотаж еще год-другой не принесет достойных практических результатов, это может привести к «зиме ИИ», когда даже сторонники не хотят вкладывать сюда все новые инвестиции.
5) Проблема гораздо шире, чем потери DeepMind. Многие достижения, обещанные к практическому внедрению уже несколько лет назад, такие как самоуправляемые автомобили или чат-боты, способные понимать разговоры, еще не осуществились. Обещание Марка Цукерберга в апреле 2018 года Конгрессу о том, что ИИ скоро решит проблему с фейковыми новостями, уже откатывается назад.
6) Так что же делать? Ответ очевиден – раскладывать яйца по разным корзинам. На каждый доллар, вложенный в глубокое обучение с подкреплением, как минимум, доллар (а лучше 2 или 3) нужно вкладывать в перспективные альтернативные направления.

Например, решение задачи понимания того, как дети овладевают языком и узнают мир, используя минимум энергии и данных, - не менее ценно и перспективно, чем все, что делает DeepMind.
Да что DeepMind. Ведь и все остальные киты направления ИИ пока что по-прежнему складывают яйца в одну корзину.
Ох как это глупо и недальновидно!
#ИИ