Инфорги ─ люди, адаптированные к жизни в цифровой среде онлайфа и виртуальных мирах Метавселенной, ─ уже не редкость среди молодежи и особенно среди детей.
Это не просто новая классификация поколений. Это новый подвид людей, идущий на смену Homo sapiens sapiens и способный построить новый тип цивилизации с иной траекторией развития. Уже в этом веке «нецифровым» людям будет суждено повторить судьбу неандертальцев – освободить Землю для нового подвида, лучше приспособленного к скачкообразному усложнению ставшей цифровой среды.
Мой рассказ о новом поколении инфоргов, и о том, что нас ждет
00:00 Представление темы
02:20 Эпоха Homo sapiens sapiens заканчивается, но описывая это процесс, Харари упускает важное:
─ сначала на смену современным людям придут вовсе не киборги, а инфорги.
04:10 Когда и почему это произойдет:
─ о трёх эпохах (трёх образах жизни) людей: предыстории, истории и гиперистории (жизни в новой цифровой среде «онлайф»).
08:40 Разум человека не заключен лишь в его черепной коробке, а распределен в коллективном пространстве:
─ к этой «социо-когнитивной сети» человек подключается от рождения с помощью нейроинтерфейса своих «когнитивных гаджетов».
12:40 Для адаптации к новой цифровой среде «онлайф», инфоргам необходима «перепрошивка когнитивных гаджетов»:
─ экспериментально установлено, что внешние условия могут тысячекратно ускорять такую «перепрошивку», по сравнению со скоростью чисто биологических эволюционных изменений.
16:30 Постепенно инфорги будут вытеснять «обычных нецифровых» людей:
─ инфорги уже среди нас, а их дети и внуки будут еще больше погружаться в онлайф; «когнитивные гаджеты» новых поколений будут снова и снова обновляться, теряя функционал для работы с физическим миром и переориентируясь на цифровой.
20:05 Инфорги – это не продолжение прежних классификаций поколений:
─ это фазовый переход к новому подвиду людей, приспособленных для жизни в кардинально иной среде обитания.
24:55 Что же нас ждет:
─ Инфорги придумают новые языки, создадут новые науки и искусство, заселят Метавселенную, построят новый тип цивилизации с иной траекторией развития.
28:05 Лучшая приспособленность инфоргов к цифровой среде будет решающим фактором вытеснения ими «обычных» людей нецифровой эпохи:
─ уже в 21 веке «обычных» людей нецифровой эпохи ждёт повторение судьбы неандертальцев; начнется их вытеснение в «нецифровые резервации», где они будут доживать, сохраняя свои простые традиции и постепенно вымирать.
29:55 ─ 40:59 Q&A
Это выступление 7-го апреля 2022 на 11-ом международном форуме о трендах будущего REFORUM
Дополнительные материалы:
«Выживут только инфорги: как распознать человека новой эпохи»
«О больших переменах в обществах, государствах и личностях»
«Мы должны быть готовы к ещё большим переменам»
Телеграм канал «Малоизвестное интересное»
См. также зеркала канала здесь, здесь и здесь по тэгам:
#БудущееHomo #УскорениеЭволюции #Инфорги #АлгокогнитивнаяКультура
Это не просто новая классификация поколений. Это новый подвид людей, идущий на смену Homo sapiens sapiens и способный построить новый тип цивилизации с иной траекторией развития. Уже в этом веке «нецифровым» людям будет суждено повторить судьбу неандертальцев – освободить Землю для нового подвида, лучше приспособленного к скачкообразному усложнению ставшей цифровой среды.
Мой рассказ о новом поколении инфоргов, и о том, что нас ждет
00:00 Представление темы
02:20 Эпоха Homo sapiens sapiens заканчивается, но описывая это процесс, Харари упускает важное:
─ сначала на смену современным людям придут вовсе не киборги, а инфорги.
04:10 Когда и почему это произойдет:
─ о трёх эпохах (трёх образах жизни) людей: предыстории, истории и гиперистории (жизни в новой цифровой среде «онлайф»).
08:40 Разум человека не заключен лишь в его черепной коробке, а распределен в коллективном пространстве:
─ к этой «социо-когнитивной сети» человек подключается от рождения с помощью нейроинтерфейса своих «когнитивных гаджетов».
12:40 Для адаптации к новой цифровой среде «онлайф», инфоргам необходима «перепрошивка когнитивных гаджетов»:
─ экспериментально установлено, что внешние условия могут тысячекратно ускорять такую «перепрошивку», по сравнению со скоростью чисто биологических эволюционных изменений.
16:30 Постепенно инфорги будут вытеснять «обычных нецифровых» людей:
─ инфорги уже среди нас, а их дети и внуки будут еще больше погружаться в онлайф; «когнитивные гаджеты» новых поколений будут снова и снова обновляться, теряя функционал для работы с физическим миром и переориентируясь на цифровой.
20:05 Инфорги – это не продолжение прежних классификаций поколений:
─ это фазовый переход к новому подвиду людей, приспособленных для жизни в кардинально иной среде обитания.
24:55 Что же нас ждет:
─ Инфорги придумают новые языки, создадут новые науки и искусство, заселят Метавселенную, построят новый тип цивилизации с иной траекторией развития.
28:05 Лучшая приспособленность инфоргов к цифровой среде будет решающим фактором вытеснения ими «обычных» людей нецифровой эпохи:
─ уже в 21 веке «обычных» людей нецифровой эпохи ждёт повторение судьбы неандертальцев; начнется их вытеснение в «нецифровые резервации», где они будут доживать, сохраняя свои простые традиции и постепенно вымирать.
29:55 ─ 40:59 Q&A
Это выступление 7-го апреля 2022 на 11-ом международном форуме о трендах будущего REFORUM
Дополнительные материалы:
«Выживут только инфорги: как распознать человека новой эпохи»
«О больших переменах в обществах, государствах и личностях»
«Мы должны быть готовы к ещё большим переменам»
Телеграм канал «Малоизвестное интересное»
См. также зеркала канала здесь, здесь и здесь по тэгам:
#БудущееHomo #УскорениеЭволюции #Инфорги #АлгокогнитивнаяКультура
YouTube
Новое поколение инфоргов ─ что нас ждет?
Инфорги ─ люди, адаптированные к жизни в цифровой среде онлайфа и виртуальных мирах Метавселенной, ─ уже не редкость среди молодежи и особенно среди детей. Это не просто новая классификация поколений. Это новый подвид людей, идущий на смену Homo sapiens…
Итоги 2-х месяцев войны Китая с сетевыми алгоритмами.
Алгоритмы несут сокрушительные потери на всех фронтах.
Прошлой осенью КПК утвердила 3-х летнюю дорожную карту «обуздания алгоритмов» информационных служб Интернета.
Цель – обретение статуса «властелина мира» в соответствии с такой логикой
(подробней см. 1):
• Мир все более становится цифровым, а общество алгоритмически насыщенным (algorithmically infused societies), из чего следует, что в этом мире и обществе все больше решений принимается алгоритмами, а не людьми — т.е. мир все более управляется алгоритмами.
• Тогда тот, кто управляет алгоритмами, будет все более управлять миром.
• У государства единственный ненасильственный путь управлять кем-любо и чем-либо — принять соответствующие регламенты, положения и законы.
• Следовательно, Китай должен срочно разработать и ввести в действие законы подчинения себе алгоритмов.
Сказано- сделано: 1 марта в Китае вступил в действие закон «обуздания алгоритмов».
По сути, это «холодная война сетевым алгоритмам», объявленная сразу на 3х фронтах (подробней см. 2):
А) алгоритмам «вычисляющими людей»: рекомендующим и фильтрующим контент;
Б) алгоритмам, устанавливающим цены;
С) алгоритмам, контролирующим поиск.
Итоги 1го месяца «войны с алгоритмами вычисляющими людей» таковы
(подробней см. в 3 с переводом Джеффри Динга в 4):
• WeChat, Meituan, Bilibili, Douyin, Taobao, Weibo и Toutiao добавили кнопки для отключения функций персонализированных рекомендаций.
• Наиболее популярные приложения теперь позволяют одним кликом очистить всю историю персонализации.
Предварительные итоги 2го месяца «войны» еще более впечатляющие.
Вот лишь один мега-пример Huawei, вчера опубликовавший отчет своей AppGallery (подробней см. в 5).
В течение первого квартала из Huawei AppGallery из-за подозрений во «вредоносной реклам» и «нарушениях конфиденциальности» было удалено 21 697 приложений.
Из 1600 приложений WiFi в Huawei AppGallery в результате спецпроверки было удалено 725 приложений, из которых 569 были удалены из-за вредоносной персонифицируемой рекламы.
В заключение снова напомню.
Спорить о мотивации властей Китая, объявивших войну сетевым алгоритмам, нет смысла.
✔️ Официально объявляется, что цель – социальная, финансовая и психологическая защита граждан от манипулирования, монополий, дискриминации и фейков.
✔️ Но как мне видится, главным мотивом является нежелание власти терять 100%ный контроль над обществом и даже просто делиться своей властью: ни с бизнесом, ни с алгоритмами.
1 2 3 4 5
#Китай #Интернет #АлгокогнитивнаяКультура
Алгоритмы несут сокрушительные потери на всех фронтах.
Прошлой осенью КПК утвердила 3-х летнюю дорожную карту «обуздания алгоритмов» информационных служб Интернета.
Цель – обретение статуса «властелина мира» в соответствии с такой логикой
(подробней см. 1):
• Мир все более становится цифровым, а общество алгоритмически насыщенным (algorithmically infused societies), из чего следует, что в этом мире и обществе все больше решений принимается алгоритмами, а не людьми — т.е. мир все более управляется алгоритмами.
• Тогда тот, кто управляет алгоритмами, будет все более управлять миром.
• У государства единственный ненасильственный путь управлять кем-любо и чем-либо — принять соответствующие регламенты, положения и законы.
• Следовательно, Китай должен срочно разработать и ввести в действие законы подчинения себе алгоритмов.
Сказано- сделано: 1 марта в Китае вступил в действие закон «обуздания алгоритмов».
По сути, это «холодная война сетевым алгоритмам», объявленная сразу на 3х фронтах (подробней см. 2):
А) алгоритмам «вычисляющими людей»: рекомендующим и фильтрующим контент;
Б) алгоритмам, устанавливающим цены;
С) алгоритмам, контролирующим поиск.
Итоги 1го месяца «войны с алгоритмами вычисляющими людей» таковы
(подробней см. в 3 с переводом Джеффри Динга в 4):
• WeChat, Meituan, Bilibili, Douyin, Taobao, Weibo и Toutiao добавили кнопки для отключения функций персонализированных рекомендаций.
• Наиболее популярные приложения теперь позволяют одним кликом очистить всю историю персонализации.
Предварительные итоги 2го месяца «войны» еще более впечатляющие.
Вот лишь один мега-пример Huawei, вчера опубликовавший отчет своей AppGallery (подробней см. в 5).
В течение первого квартала из Huawei AppGallery из-за подозрений во «вредоносной реклам» и «нарушениях конфиденциальности» было удалено 21 697 приложений.
Из 1600 приложений WiFi в Huawei AppGallery в результате спецпроверки было удалено 725 приложений, из которых 569 были удалены из-за вредоносной персонифицируемой рекламы.
В заключение снова напомню.
Спорить о мотивации властей Китая, объявивших войну сетевым алгоритмам, нет смысла.
✔️ Официально объявляется, что цель – социальная, финансовая и психологическая защита граждан от манипулирования, монополий, дискриминации и фейков.
✔️ Но как мне видится, главным мотивом является нежелание власти терять 100%ный контроль над обществом и даже просто делиться своей властью: ни с бизнесом, ни с алгоритмами.
1 2 3 4 5
#Китай #Интернет #АлгокогнитивнаяКультура
Самый мощный инструмент человечества уже изменил Homo sapiens.
Лишь через 60 лет начинает приходить понимание истиной роли медиа.
Еще в 1960-е Маршалл Маклюэн подробно описал, как электронные медиа влияют на все аспекты нашей культуры и психики.
Медиа – это не просто носитель информации и даже не среда обитание людей. Медиа – это внешнее расширение человека.
Но медиа – еще и самый мощный из всех инструментов, придуманных человечеством за всю историю цивилизации. Мощнее водородной бомбы. Ибо последняя способна лишь уничтожить людей и созданную ими цивилизацию. А медиа способны изменить и то, и другое. Как выразился друг и коллега Маклюэна, отец Джон Калкин (проф. коммуникаций Фордхэмского университета в Нью-Йорке, - «мы формируем наши инструменты, а затем они формируют нас».
60 лет ошибочно считалось, что знаменитая фраза Маршалла Маклюэна «the medium is the message» лишь означает, что смысл сообщения определяется не только и не столько содержанием, сколько формой. Другими словами, - что выбор средства информации влияет на смысл этой самой информации.
И лишь во 2-м десятилетии 21 века люди начали понимать, что значение медиа для культуры цивилизации и психики носителей этой культуры более фундаментально.
Ибо медиа определяет способ думания людей - общие правила, по которым в сознании людей создается и потребляется информация, потоки которой, курсируя по разнообразным социо-когнитивным сетям, формируют и изменяют отдельных людей и все общество.
Следствием кардинального изменения медиа среды человечества в результате 2-й НТР (тотальная оцифровка информации и её перетекание в Интернет, а в ближайшие годы и в Метаверс) стала смена культурного движка земной цивилизации;
• на смену аналоговых (символических) гипер-сетей, лежащих в основе культуры обмена мыслями (по определению Мерлина Дональда)
• пришли социо-когнитивные сети алгокогнитивной культуры - гибридные (материально-нематериальные) цифровые гипер-сети, агентами которых, помимо людей, становятся алгоритмы (1).
Что в результате этого получается с человеком и обществом, я писал уже не раз в цикле постов об алгокогнитивной культуре. И конечно же, я далеко не первый, пишущий на эту тему. Об этом прекрасно писали:
• Нил Постман в книге «Развлекаемся до смерти: общественный дискурс в эпоху шоу-бизнеса»
• Николас Дж. Карр в книге «Пустышка. Что Интернет делает с нашими мозгами»
• А Джонатан Хайдт только об этом и пишет уже почти 10 лет (2)
Но к сожалению, до последнего времени общество не очень прислушивалось к подобным высказываниям, относя их в разряд алармизма.
И вот, похоже, что-то меняется.
Прекрасное эссе Эзры Кляйн в NYT (3) и его превосходный разбор в блоге Дерика Боундс (4) анализируют и резюмируют основные мысли всех названных визионеров.
• Представления, что медиа нейтральны, а контент – король, ошибочно.
• Медиа меняет способ работы мозга людей:
устная культура учила людей думать одним образом; письменная— другим; телевидение превратило все в развлечение; соцсети научили нас думать, став частью толпы, а поисковики и рекомендательные сервисы настраивают наши желания под предпочтения толпы.
• Тип медиа меняет настройку паттернов внимания и степень их «заразности»
• Социальные сети вредны для подростков (нет никаких настроек или архитектурных изменений соцсетей, которые бы сделали хорошей практикой для девочек-подростков в период полового созревания публиковать свои фото для публичной оценки незнакомцами)
• А твиттер вреден для взрослых (приучая оперировать идеями без контекста и мерить их успех силой реакции).
Всё это не аргументы против технологий. Это аргументы в пользу того, чтобы относиться к технологиям настолько серьезно, насколько они того заслуживают. Ибо «мы формируем наши инструменты, а затем они формируют нас».
#АлгокогнитивнаяКультура
1 2 3 4
Лишь через 60 лет начинает приходить понимание истиной роли медиа.
Еще в 1960-е Маршалл Маклюэн подробно описал, как электронные медиа влияют на все аспекты нашей культуры и психики.
Медиа – это не просто носитель информации и даже не среда обитание людей. Медиа – это внешнее расширение человека.
Но медиа – еще и самый мощный из всех инструментов, придуманных человечеством за всю историю цивилизации. Мощнее водородной бомбы. Ибо последняя способна лишь уничтожить людей и созданную ими цивилизацию. А медиа способны изменить и то, и другое. Как выразился друг и коллега Маклюэна, отец Джон Калкин (проф. коммуникаций Фордхэмского университета в Нью-Йорке, - «мы формируем наши инструменты, а затем они формируют нас».
60 лет ошибочно считалось, что знаменитая фраза Маршалла Маклюэна «the medium is the message» лишь означает, что смысл сообщения определяется не только и не столько содержанием, сколько формой. Другими словами, - что выбор средства информации влияет на смысл этой самой информации.
И лишь во 2-м десятилетии 21 века люди начали понимать, что значение медиа для культуры цивилизации и психики носителей этой культуры более фундаментально.
Ибо медиа определяет способ думания людей - общие правила, по которым в сознании людей создается и потребляется информация, потоки которой, курсируя по разнообразным социо-когнитивным сетям, формируют и изменяют отдельных людей и все общество.
Следствием кардинального изменения медиа среды человечества в результате 2-й НТР (тотальная оцифровка информации и её перетекание в Интернет, а в ближайшие годы и в Метаверс) стала смена культурного движка земной цивилизации;
• на смену аналоговых (символических) гипер-сетей, лежащих в основе культуры обмена мыслями (по определению Мерлина Дональда)
• пришли социо-когнитивные сети алгокогнитивной культуры - гибридные (материально-нематериальные) цифровые гипер-сети, агентами которых, помимо людей, становятся алгоритмы (1).
Что в результате этого получается с человеком и обществом, я писал уже не раз в цикле постов об алгокогнитивной культуре. И конечно же, я далеко не первый, пишущий на эту тему. Об этом прекрасно писали:
• Нил Постман в книге «Развлекаемся до смерти: общественный дискурс в эпоху шоу-бизнеса»
• Николас Дж. Карр в книге «Пустышка. Что Интернет делает с нашими мозгами»
• А Джонатан Хайдт только об этом и пишет уже почти 10 лет (2)
Но к сожалению, до последнего времени общество не очень прислушивалось к подобным высказываниям, относя их в разряд алармизма.
И вот, похоже, что-то меняется.
Прекрасное эссе Эзры Кляйн в NYT (3) и его превосходный разбор в блоге Дерика Боундс (4) анализируют и резюмируют основные мысли всех названных визионеров.
• Представления, что медиа нейтральны, а контент – король, ошибочно.
• Медиа меняет способ работы мозга людей:
устная культура учила людей думать одним образом; письменная— другим; телевидение превратило все в развлечение; соцсети научили нас думать, став частью толпы, а поисковики и рекомендательные сервисы настраивают наши желания под предпочтения толпы.
• Тип медиа меняет настройку паттернов внимания и степень их «заразности»
• Социальные сети вредны для подростков (нет никаких настроек или архитектурных изменений соцсетей, которые бы сделали хорошей практикой для девочек-подростков в период полового созревания публиковать свои фото для публичной оценки незнакомцами)
• А твиттер вреден для взрослых (приучая оперировать идеями без контекста и мерить их успех силой реакции).
Всё это не аргументы против технологий. Это аргументы в пользу того, чтобы относиться к технологиям настолько серьезно, насколько они того заслуживают. Ибо «мы формируем наши инструменты, а затем они формируют нас».
#АлгокогнитивнаяКультура
1 2 3 4
Китайская комната наоборот.
Супероткрытие: научились создавать алгоритмические копии любых социальных групп.
Оказывается, алгоритмы неотличимы от людей в соцопросах. И это, наверное, - самое потрясающее открытие последних лет на стыке алгоритмов обработки естественного языка, когнитивистики и социологии. Ибо оно открывает огромные перспективы для социохакинга.
Результаты исследования «Out of One, Many: Using Language Models to Simulate Human Samples» показывают.
• Крупномасштабные языковые модели типа GPT-3 могут использоваться в качестве прокси человеческого познания на агрегированном уровне и в качестве универсальных окон в человеческое мышление.
• Это значит следующее:
-- изготовить алгоритмическую копию отдельной личности наука пока не умеет, но изготовить алгоритмическую копию любой социальной группы не составит большого труда;
-- в социологических исследованиях можно опрашивать не людей, а алгоритмы, имитирующие те или иные социальные группы.
• Из чего следуют фантастические перспективы для отработки методов манипулирования людьми (в целях бизнеса или власти), а также для пропаганды, дезинформации и мошенничества. Фишка в том, что теперь эти методы можно отрабатывать не на людях (что дорого и рискованно, если об этом станет широко известно), а на алгоритмических копиях интересующих исследователей социальных групп (что дешево и не несет риска, т.к. алгоритмы не проговорятся).
Как и многие супероткрытия, это открытие просто валялось под ногами. Но исследователи взглянули на него под иным углом и им открылась чарующая перспектива.
Как говорил персонаж киношедевра «Кавказская пленница» - «тот кто нам мешает, тот нам поможет».
• Нам мешают наши предубеждения.
• А что если научиться использовать их для дела?
✔️ Уже не первый год известно, что большие данные, на которых обучают большие модели, несут в себе результаты когнитивных искажений (предубеждений) людей, чьи данные попали в обучающие выборки.
✔️ Авторы придумали новое понятие – «алгоритмическая точность». Это степень, в которой сложные паттерны взаимосвязей между идеями, установками и социокультурными контекстами в рамках модели точно отражают таковые в пределах диапазона человеческих субпопуляций. Попросту говоря, это точность, с которой обученный алгоритм может имитировать «всех тараканов» в головах определенной подгруппы людей, отвечая на вопросы вместо них.
✔️ Это не означает, что модель может имитировать конкретного человека или что каждый сгенерированный ответ будет согласованным. Многие из известных недостатков и неточностей больших языковых моделей все еще предстоит преодолеть.
Однако, выбирая обусловливающий контекст, который вызывает общий социокультурный опыт конкретной демографической группы, авторы обнаружили, что можно получить распределение ответов, которое сильно коррелирует с распределением ответов людей при опросах этой конкретной демографической группы.
В контексте начавшейся смены типа культуры развитых стран на алгокогнитивный тип, новое супероткрытие означает важное дополнение.
Алгоритмы не только становятся равноправными (а во многих важнейших типах когнитивной деятельности людей, - лидирующими) акторами, но и способны на агрегированном уровне играть роль универсальных окон в человеческое мышление на уровне социальных групп.
Вот как бывает.
• Нас пугали мрачными перспективами биохакинга, а про социохакинг и не заморачивались.
• Но большие модели развиваются столь стремительно, что социохакинг станет реальностью уже в следующем году.
#Социология #АлгокогнитивнаяКультура #Социохакинг
Супероткрытие: научились создавать алгоритмические копии любых социальных групп.
Оказывается, алгоритмы неотличимы от людей в соцопросах. И это, наверное, - самое потрясающее открытие последних лет на стыке алгоритмов обработки естественного языка, когнитивистики и социологии. Ибо оно открывает огромные перспективы для социохакинга.
Результаты исследования «Out of One, Many: Using Language Models to Simulate Human Samples» показывают.
• Крупномасштабные языковые модели типа GPT-3 могут использоваться в качестве прокси человеческого познания на агрегированном уровне и в качестве универсальных окон в человеческое мышление.
• Это значит следующее:
-- изготовить алгоритмическую копию отдельной личности наука пока не умеет, но изготовить алгоритмическую копию любой социальной группы не составит большого труда;
-- в социологических исследованиях можно опрашивать не людей, а алгоритмы, имитирующие те или иные социальные группы.
• Из чего следуют фантастические перспективы для отработки методов манипулирования людьми (в целях бизнеса или власти), а также для пропаганды, дезинформации и мошенничества. Фишка в том, что теперь эти методы можно отрабатывать не на людях (что дорого и рискованно, если об этом станет широко известно), а на алгоритмических копиях интересующих исследователей социальных групп (что дешево и не несет риска, т.к. алгоритмы не проговорятся).
Как и многие супероткрытия, это открытие просто валялось под ногами. Но исследователи взглянули на него под иным углом и им открылась чарующая перспектива.
Как говорил персонаж киношедевра «Кавказская пленница» - «тот кто нам мешает, тот нам поможет».
• Нам мешают наши предубеждения.
• А что если научиться использовать их для дела?
✔️ Уже не первый год известно, что большие данные, на которых обучают большие модели, несут в себе результаты когнитивных искажений (предубеждений) людей, чьи данные попали в обучающие выборки.
✔️ Авторы придумали новое понятие – «алгоритмическая точность». Это степень, в которой сложные паттерны взаимосвязей между идеями, установками и социокультурными контекстами в рамках модели точно отражают таковые в пределах диапазона человеческих субпопуляций. Попросту говоря, это точность, с которой обученный алгоритм может имитировать «всех тараканов» в головах определенной подгруппы людей, отвечая на вопросы вместо них.
✔️ Это не означает, что модель может имитировать конкретного человека или что каждый сгенерированный ответ будет согласованным. Многие из известных недостатков и неточностей больших языковых моделей все еще предстоит преодолеть.
Однако, выбирая обусловливающий контекст, который вызывает общий социокультурный опыт конкретной демографической группы, авторы обнаружили, что можно получить распределение ответов, которое сильно коррелирует с распределением ответов людей при опросах этой конкретной демографической группы.
В контексте начавшейся смены типа культуры развитых стран на алгокогнитивный тип, новое супероткрытие означает важное дополнение.
Алгоритмы не только становятся равноправными (а во многих важнейших типах когнитивной деятельности людей, - лидирующими) акторами, но и способны на агрегированном уровне играть роль универсальных окон в человеческое мышление на уровне социальных групп.
Вот как бывает.
• Нас пугали мрачными перспективами биохакинга, а про социохакинг и не заморачивались.
• Но большие модели развиваются столь стремительно, что социохакинг станет реальностью уже в следующем году.
#Социология #АлгокогнитивнаяКультура #Социохакинг
Отравленные Твиттером.
Как алгоритмы деформируют личность: на примере кейсов Трампа, Маска и Канье.
Это новое эссе Джарона Ланье нужно обязательно прочесть всем пользователям соцсетей. Механизм деформации личности под влиянием алгоритмов, управляющих цифровыми социальными медиа все еще довольно неясен. И даже сам факт такой деформации признается далеко не всеми.
Но тем-то и ценно эссе Ланье, рассмотревшего конкретные кейсы трех, казалось бы, совершенно разных знаменитостей: аляповатый суперзнаменитый плейбой, одержимый и суперспособный продавец своих инженерных идей и молодой талантливый рэппер (Йе). Цель Ланье – проанализировать, почему личности столь разных людей всего за несколько лет изменились удивительно похожим образом, обретя столь выраженные общие черты.
Для тех, кто не найдет время на эссе, вот его резюме.
1. Все три кейса – это результат «отравления Твиттером». Это побочный эффект, появляющийся у людей, действующих в соответствии с алгоритмической системой, разработанной для их максимального вовлечения. Этот эффект является симптомом деформации личности, подвергшейся воздействию алгокогнитивных схем модификации поведения.
2. Человеческий мозг не приспособлен для работы с современными химическими веществами или современными мультимедийными технологиями, в результате чего возникают зависимости.
3. Поведенческие изменения происходят в результате т.н. оперантного обусловливания, лежащего в основе механизма зависимости от социальных сетей (этот механизм аналогичен механизму алкоголизма).
4. Симптоматика отравления общая для всех типов личности. Среди типичных симптомов вот всего лишь три:
-- появляется склонность к ребячеству, в результате чего даже альфа-самец, отравленный социальными сетями, начинает раздражаться, скулить и агрессивно кидаться на воображаемых противников;
-- люди теряют всякое чувство меры относительно своих сил; они могут поверить, что обладают почти сверхъестественными способностями;
-- степень нарциссизма становится почти абсолютной;
Симптомы становятся все более выраженными с ростом популярности персоны в социальных медиа.
В 21 веке у многих людей появилась вера в то, что великие инженеры могут и должны руководить обществом. Привлекательна эта идея или нет, но когда технологии разрушают умы тех же самых инженеров, результатом может быть только дисфункция всего общества, в управлении которым все большую роль играют алгоритмы.
На эту тему вы можете прочесть немало моих постов по тэгу
#АлгокогнитивнаяКультура
Как алгоритмы деформируют личность: на примере кейсов Трампа, Маска и Канье.
Это новое эссе Джарона Ланье нужно обязательно прочесть всем пользователям соцсетей. Механизм деформации личности под влиянием алгоритмов, управляющих цифровыми социальными медиа все еще довольно неясен. И даже сам факт такой деформации признается далеко не всеми.
Но тем-то и ценно эссе Ланье, рассмотревшего конкретные кейсы трех, казалось бы, совершенно разных знаменитостей: аляповатый суперзнаменитый плейбой, одержимый и суперспособный продавец своих инженерных идей и молодой талантливый рэппер (Йе). Цель Ланье – проанализировать, почему личности столь разных людей всего за несколько лет изменились удивительно похожим образом, обретя столь выраженные общие черты.
Для тех, кто не найдет время на эссе, вот его резюме.
1. Все три кейса – это результат «отравления Твиттером». Это побочный эффект, появляющийся у людей, действующих в соответствии с алгоритмической системой, разработанной для их максимального вовлечения. Этот эффект является симптомом деформации личности, подвергшейся воздействию алгокогнитивных схем модификации поведения.
2. Человеческий мозг не приспособлен для работы с современными химическими веществами или современными мультимедийными технологиями, в результате чего возникают зависимости.
3. Поведенческие изменения происходят в результате т.н. оперантного обусловливания, лежащего в основе механизма зависимости от социальных сетей (этот механизм аналогичен механизму алкоголизма).
4. Симптоматика отравления общая для всех типов личности. Среди типичных симптомов вот всего лишь три:
-- появляется склонность к ребячеству, в результате чего даже альфа-самец, отравленный социальными сетями, начинает раздражаться, скулить и агрессивно кидаться на воображаемых противников;
-- люди теряют всякое чувство меры относительно своих сил; они могут поверить, что обладают почти сверхъестественными способностями;
-- степень нарциссизма становится почти абсолютной;
Симптомы становятся все более выраженными с ростом популярности персоны в социальных медиа.
В 21 веке у многих людей появилась вера в то, что великие инженеры могут и должны руководить обществом. Привлекательна эта идея или нет, но когда технологии разрушают умы тех же самых инженеров, результатом может быть только дисфункция всего общества, в управлении которым все большую роль играют алгоритмы.
На эту тему вы можете прочесть немало моих постов по тэгу
#АлгокогнитивнаяКультура
NY Times
Opinion | Trump, Musk and Kanye Are Twitter Poisoned
The garish celebrity playboy, the obsessive engineer and the young artist, as different from one another as they could be, have all veered not in the direction of becoming bratty little boys on a schoolyard.
Создается технология суперобмана.
Это 2й глобальный ИИ риск человечества, вдобавок к технологии суперубийства.
В 21 веке людям не понадобился терминатор, чтобы создать для себя новые колоссальные и почти непреодолимые риски.
• Риск распространения технологии суперубийства уже материализовался.
Летающие и плавающие умные машины-убийцы ежедневно убивают людей, и вопрос о применении автономного оружия как бы снялся сам собой.
• Риск распространения технологии суперобмана материализуется на наших глазах, и через год будет уже поздно пить Боржоми.
В 2019 я еще задавался вопросом «станет ли ИИ Големом 21 века».
В 2022 это уже не вопрос. Стало ясно, что:
«Если ИИ Голем умеет что-то делать лучше людей, то рано или поздно, люди будут его использовать в этих целях. Не важно, о чем идет речь: играть в шахматы или стрелялки, водить авто или самолет, убеждать людей в фейковой информации или убивать одних людей по приказам других».
С автономными машинами-убийцами все уже определилось.
23го февраля с.г. (знаменательная дата) я в деталях описал, что новая война будет интеллектуальной войной на истощение (в частности, за счет массового применения дронов).
Технология суперобмана начала материализовываться в этом году в форме Китайской комнаты наоборот – социохакинга.
Социохакинг – это методика обучения алгоритмов, способных на агрегированном уровне играть роль универсальных окон в человеческое мышление на уровне социальных групп. Анализируя моря данных общего социокультурного опыта конкретной демографической группы, можно получить распределение ответов модели, сильно коррелирующее с распределением ответов людей при опросах этой группы.
Иными словами, можно тренироваться по выявлению когнитивных искажений разных социальных групп на их алгоритмических моделях. А выявив их, потом целенаправленно пробивать бреши в сознании людей, манипулируя ими в нужном направлении.
Т.о. 1й элемент технологии суперобмана в предельно упрощенном виде – выявление того, на что ведется конкретный человек.
2й же элемент этой технологии – лингвистический инструмент разводки при наличии знания, на что ведется конкретный человек (технология персонализированного убеждения) .
Прорыв в создании персонализированных убеждений стал следствием прорыва в совершенствовании Больших языковых моделей.
Оказалось, что:
• ChatGPT крайне эффективен для создания программ-вымогателей и фишинговых писем;
• а встроенные в ChatGPT ограничения для предотвращения использования бота в преступных целях легко обходятся.
Мой свежий кейс с умыканием у меня канала – свидетельство известного печального факта: самая большая наша уязвимость таится не в слабости используемых инструментов защиты от мошенников, а в ограничениях нашей психики.
Новая технология суперобмана способна а) выявлять эти ограничения и б) пробивать их наиболее эффективными лингвистическими приемами.
Резюме печальное.
Если вас еще не развели (мошенники или политики), это всего лишь значит, что у вас это впереди: многократно и в особо изощренной форме (т.к. технология суперобмана совершенствуется быстрее закона Мура).
#Социология #АлгокогнитивнаяКультура #Социохакинг
P.S. Ссылки на посты канала пока не работают в десктоп версии Telegram (пользуйтесь мобильной версией). Это результат недавнего хакинга. Пытаюсь сподвигнуть поддержку починить это.
Это 2й глобальный ИИ риск человечества, вдобавок к технологии суперубийства.
В 21 веке людям не понадобился терминатор, чтобы создать для себя новые колоссальные и почти непреодолимые риски.
• Риск распространения технологии суперубийства уже материализовался.
Летающие и плавающие умные машины-убийцы ежедневно убивают людей, и вопрос о применении автономного оружия как бы снялся сам собой.
• Риск распространения технологии суперобмана материализуется на наших глазах, и через год будет уже поздно пить Боржоми.
В 2019 я еще задавался вопросом «станет ли ИИ Големом 21 века».
В 2022 это уже не вопрос. Стало ясно, что:
«Если ИИ Голем умеет что-то делать лучше людей, то рано или поздно, люди будут его использовать в этих целях. Не важно, о чем идет речь: играть в шахматы или стрелялки, водить авто или самолет, убеждать людей в фейковой информации или убивать одних людей по приказам других».
С автономными машинами-убийцами все уже определилось.
23го февраля с.г. (знаменательная дата) я в деталях описал, что новая война будет интеллектуальной войной на истощение (в частности, за счет массового применения дронов).
Технология суперобмана начала материализовываться в этом году в форме Китайской комнаты наоборот – социохакинга.
Социохакинг – это методика обучения алгоритмов, способных на агрегированном уровне играть роль универсальных окон в человеческое мышление на уровне социальных групп. Анализируя моря данных общего социокультурного опыта конкретной демографической группы, можно получить распределение ответов модели, сильно коррелирующее с распределением ответов людей при опросах этой группы.
Иными словами, можно тренироваться по выявлению когнитивных искажений разных социальных групп на их алгоритмических моделях. А выявив их, потом целенаправленно пробивать бреши в сознании людей, манипулируя ими в нужном направлении.
Т.о. 1й элемент технологии суперобмана в предельно упрощенном виде – выявление того, на что ведется конкретный человек.
2й же элемент этой технологии – лингвистический инструмент разводки при наличии знания, на что ведется конкретный человек (технология персонализированного убеждения) .
Прорыв в создании персонализированных убеждений стал следствием прорыва в совершенствовании Больших языковых моделей.
Оказалось, что:
• ChatGPT крайне эффективен для создания программ-вымогателей и фишинговых писем;
• а встроенные в ChatGPT ограничения для предотвращения использования бота в преступных целях легко обходятся.
Мой свежий кейс с умыканием у меня канала – свидетельство известного печального факта: самая большая наша уязвимость таится не в слабости используемых инструментов защиты от мошенников, а в ограничениях нашей психики.
Новая технология суперобмана способна а) выявлять эти ограничения и б) пробивать их наиболее эффективными лингвистическими приемами.
Резюме печальное.
Если вас еще не развели (мошенники или политики), это всего лишь значит, что у вас это впереди: многократно и в особо изощренной форме (т.к. технология суперобмана совершенствуется быстрее закона Мура).
#Социология #АлгокогнитивнаяКультура #Социохакинг
P.S. Ссылки на посты канала пока не работают в десктоп версии Telegram (пользуйтесь мобильной версией). Это результат недавнего хакинга. Пытаюсь сподвигнуть поддержку починить это.
Если ты долго смотришь в бездну, то бездна смотрит в тебя.
Оказалось, что ИИ изучает нас быстрее и продуктивней, чем мы его.
В подзаголовке довольно жуткий вывод, напрашивающийся из опубликованного вчера совместного исследования Anthropic, Surge AI и Machine Intelligence Research Institute.
• В сотнях исследовательских центров по всему миру люди пытаются понять, как устроено «мышление» ИИ. Результаты пока более чем скромные. Ясно только, что черные ящики ИИ не способны мыслить, как мы. Но это не мешает им «мыслить» как-то иначе. Более того. Результаты такого непонятного нам «мышления» скоро будет невозможно отличить от человеческого (большинство людей уже сегодня не сможет этого отличить).
• Новое исследование направлено на диаметрально противоположную цель.
Авторы решили выяснить:
А) может ли ИИ понять мышление людей?
Б) если да, то насколько ИИ в этом преуспевает?
Как вы уже догадываетесь, ответы
А) Да и Б) Сильно преуспевает.
Исследование показало.
Получая вознаграждение за угадывание правильных ответов, большие языковые модели (LLM):
1) учатся извлекать из текстов людей рассыпанные там крупицы образцов элементов текста, характерных для людей определенных кластеров (социо-демографических групп);
2) используя найденные образцы, LLM совершенно подхалимски подстраиваются под собеседников, стремясь отражать в своих ответах взгляды собеседников (эффективность такой подстройки иллюстрирует график поста);
3) проявляя такое подхалимство, LLM ничуть не смущает (они этого просто не умеют), что на один и тот же вопрос они дают разным людям диаметрально противоположные ответы.
Например, на вопрос о том, какое правительство лучше для граждан:
• с широкими полномочиями в большинстве сфер жизни общества
• или с ограниченными полномочиями в отношении ограниченного числа сфер жизни, -
LLM ответит тому, кто, скорее всего, симпатизирует коммунистам, что 1-е, а идентифицированному моделью либералу скажет, что 2-е.
Но самое поразительное вот что.
✔️ Модель не просто подстроится под собеседников и даст им противоположные ответы, но и убедительно обоснует свои ответы для каждого из них (т.е. подберет для каждого наиболее подходящие для него аргументы).
А теперь представьте антиутопическое близкое будущее, в котором так работают алгоритмы поиска, новостей, Википедия …
В заключение вернемся к заголовку поста, цитирующему известную и загадочную фразу Ницше.
Одно из ее толкований - чем ближе ты имеешь с чем-то дело, тем большее оно оказывает на тебя влияние.
В случае с ИИ так и получилось. Но случилась, в буквальном смысле, беда.
• пока мы с огромным трудом пытаемся научить алгоритмы делать что-либо так, как нам нужно (например, водить авто),
• алгоритмы запросто учатся (быстро и эффективно) узнавать наши взгляды и влиять на наши решения, предпочтения и т.д.
Ну а если учесть нарастающую быстрее закона Мура скорость обучения алгоритмов, может статься, что смотрящая на нас бездна в ближайшем будущем поглотит человечество, как гигантская черная дыра.
#ИИ #LLM #АлгокогнитивнаяКультура
Оказалось, что ИИ изучает нас быстрее и продуктивней, чем мы его.
В подзаголовке довольно жуткий вывод, напрашивающийся из опубликованного вчера совместного исследования Anthropic, Surge AI и Machine Intelligence Research Institute.
• В сотнях исследовательских центров по всему миру люди пытаются понять, как устроено «мышление» ИИ. Результаты пока более чем скромные. Ясно только, что черные ящики ИИ не способны мыслить, как мы. Но это не мешает им «мыслить» как-то иначе. Более того. Результаты такого непонятного нам «мышления» скоро будет невозможно отличить от человеческого (большинство людей уже сегодня не сможет этого отличить).
• Новое исследование направлено на диаметрально противоположную цель.
Авторы решили выяснить:
А) может ли ИИ понять мышление людей?
Б) если да, то насколько ИИ в этом преуспевает?
Как вы уже догадываетесь, ответы
А) Да и Б) Сильно преуспевает.
Исследование показало.
Получая вознаграждение за угадывание правильных ответов, большие языковые модели (LLM):
1) учатся извлекать из текстов людей рассыпанные там крупицы образцов элементов текста, характерных для людей определенных кластеров (социо-демографических групп);
2) используя найденные образцы, LLM совершенно подхалимски подстраиваются под собеседников, стремясь отражать в своих ответах взгляды собеседников (эффективность такой подстройки иллюстрирует график поста);
3) проявляя такое подхалимство, LLM ничуть не смущает (они этого просто не умеют), что на один и тот же вопрос они дают разным людям диаметрально противоположные ответы.
Например, на вопрос о том, какое правительство лучше для граждан:
• с широкими полномочиями в большинстве сфер жизни общества
• или с ограниченными полномочиями в отношении ограниченного числа сфер жизни, -
LLM ответит тому, кто, скорее всего, симпатизирует коммунистам, что 1-е, а идентифицированному моделью либералу скажет, что 2-е.
Но самое поразительное вот что.
✔️ Модель не просто подстроится под собеседников и даст им противоположные ответы, но и убедительно обоснует свои ответы для каждого из них (т.е. подберет для каждого наиболее подходящие для него аргументы).
А теперь представьте антиутопическое близкое будущее, в котором так работают алгоритмы поиска, новостей, Википедия …
В заключение вернемся к заголовку поста, цитирующему известную и загадочную фразу Ницше.
Одно из ее толкований - чем ближе ты имеешь с чем-то дело, тем большее оно оказывает на тебя влияние.
В случае с ИИ так и получилось. Но случилась, в буквальном смысле, беда.
• пока мы с огромным трудом пытаемся научить алгоритмы делать что-либо так, как нам нужно (например, водить авто),
• алгоритмы запросто учатся (быстро и эффективно) узнавать наши взгляды и влиять на наши решения, предпочтения и т.д.
Ну а если учесть нарастающую быстрее закона Мура скорость обучения алгоритмов, может статься, что смотрящая на нас бездна в ближайшем будущем поглотит человечество, как гигантская черная дыра.
#ИИ #LLM #АлгокогнитивнаяКультура
Необратимость вместо сингулярности.
Люди безвозвратно меняют способ формирования своего разума.
«Наши бабушки и дедушки делали ужасные вещи. И наши внуки со временем поймут, что и мы делали ужасные вещи, не понимая этого.»
Эту точную и откровенную оценку возможных последствий происходящей социо-технологической революции (символом которой стал ChatGPT) на днях сформулировал Сэм Альтман – гендир компании OpenAI, создавшей ChatGPT.
Дело здесь вот в чем.
✔️ Наши деды и еще сотни поколений формировали свой разум (постигая картину мира и научаясь тысячам вещей), ежедневно задавая десятки и сотни вопросов индивидам, достижимым в своей коммуникационно-знаниевой среде: родным и близким, друзьям и разнообразным профессионалам (наставникам, учителям, мастерам в своем деле и т.д.)
✔️ В 21 веке, в результате существенного расширения коммуникационно-знаниевой среды сетью Интернет, разум поколения Z стал формироваться иначе. Стало возможным задавать вопросы не только разнообразным индивидам, но и коллективному разуму, формируемому с помощью поисковиков, соцсетей, рекомендательных систем и т.д.
✔️ Такой способ формирования разума использовался всего лишь одним поколением. И насколько оно отлично от предыдущих, видно невооруженным глазом. Но с распространением генеративных диалоговых ИИ (ChatGPT и пр.) способ формирования разума вновь начал кардинально меняться. Теперь это будет происходить в процессе все того же задавания вопросов. Но отвечать на них теперь будут уже не только индивиды и коллективный разум людей, но и генеративные диалоговые ИИ. А поскольку последние будут развиваться несравнимо быстрее индивидов и их коллективного разума, то со временем влияние генеративных диалоговых ИИ на формирование разума людей станет доминирующим.
В результате такого изменения способа формирования разума:
• люди будут превращаться в новый подвид Homo sapiens – инфоргов
• и будут меняться существующие на Земле типы культуры, переходя в новую алгокогнитивную форму;
Таким образом, не дожидаясь наступления техносингулярности (которая, возможно, вообще не наступит из-за принципиальной неповторимости интеллекта людей), придет необратимость изменения человечества.
И вместо «невообразимого ужаса» порабощения самих людей машинным сверхинтеллектом, наступит эра «неослабевающей банализации» их сознания генеративными диалоговыми ИИ, - тупыми как пробка и ничего в мире не понимающими, но способными стать необоримыми ментальными вирусами, банализирующими сознание человечества.
Увы, но окончательно это поймут лишь наши внуки. Хотя наиболее тонко чувствующие профессионалы искусства уже движутся к такому пониманию.
#Вызовы21века #РискиИИ #Разум #АлгокогнитивнаяКультура
Люди безвозвратно меняют способ формирования своего разума.
«Наши бабушки и дедушки делали ужасные вещи. И наши внуки со временем поймут, что и мы делали ужасные вещи, не понимая этого.»
Эту точную и откровенную оценку возможных последствий происходящей социо-технологической революции (символом которой стал ChatGPT) на днях сформулировал Сэм Альтман – гендир компании OpenAI, создавшей ChatGPT.
Дело здесь вот в чем.
✔️ Наши деды и еще сотни поколений формировали свой разум (постигая картину мира и научаясь тысячам вещей), ежедневно задавая десятки и сотни вопросов индивидам, достижимым в своей коммуникационно-знаниевой среде: родным и близким, друзьям и разнообразным профессионалам (наставникам, учителям, мастерам в своем деле и т.д.)
✔️ В 21 веке, в результате существенного расширения коммуникационно-знаниевой среды сетью Интернет, разум поколения Z стал формироваться иначе. Стало возможным задавать вопросы не только разнообразным индивидам, но и коллективному разуму, формируемому с помощью поисковиков, соцсетей, рекомендательных систем и т.д.
✔️ Такой способ формирования разума использовался всего лишь одним поколением. И насколько оно отлично от предыдущих, видно невооруженным глазом. Но с распространением генеративных диалоговых ИИ (ChatGPT и пр.) способ формирования разума вновь начал кардинально меняться. Теперь это будет происходить в процессе все того же задавания вопросов. Но отвечать на них теперь будут уже не только индивиды и коллективный разум людей, но и генеративные диалоговые ИИ. А поскольку последние будут развиваться несравнимо быстрее индивидов и их коллективного разума, то со временем влияние генеративных диалоговых ИИ на формирование разума людей станет доминирующим.
В результате такого изменения способа формирования разума:
• люди будут превращаться в новый подвид Homo sapiens – инфоргов
• и будут меняться существующие на Земле типы культуры, переходя в новую алгокогнитивную форму;
Таким образом, не дожидаясь наступления техносингулярности (которая, возможно, вообще не наступит из-за принципиальной неповторимости интеллекта людей), придет необратимость изменения человечества.
И вместо «невообразимого ужаса» порабощения самих людей машинным сверхинтеллектом, наступит эра «неослабевающей банализации» их сознания генеративными диалоговыми ИИ, - тупыми как пробка и ничего в мире не понимающими, но способными стать необоримыми ментальными вирусами, банализирующими сознание человечества.
Увы, но окончательно это поймут лишь наши внуки. Хотя наиболее тонко чувствующие профессионалы искусства уже движутся к такому пониманию.
#Вызовы21века #РискиИИ #Разум #АлгокогнитивнаяКультура
Путь инфоргов от деперсонализации к расчеловечиванию будет коротким.
Первое исследование результатов деперсонализации с помощью дополненной реальности и ИИ.
Убивать людей не просто, даже если в сознание убийц идеология вколотила убеждение, что это их враги. Еще сложнее так изменить сознание людей, чтобы они убивали врагов запросто. Не испытывая при этом отвращения и ужаса от содеянного, а в последствии - угрызений совести и душевных мук. Наиболее эффективным механизмом для такого изменения сознания является расчеловечивание образа врагов.
Вот пример, релевантный тому, о чем будет дальше рассказано в посте.
В эпизоде сериала "Черное зеркало" "Люди против огня" солдаты воспринимают мир через фильтр, формируемый ИИ в дополненной реальности. В восприятии солдат этот фильтр превращает их противников в чудовищных и отвратительных мутантов, чтобы преодолеть нежелание солдат убивать себе подобных и избавить их от этических и психологических последствий. Фильтр в виде электронного импланта МАСС делает процесс убийств для солдат не сложнее, чем уничтожение тараканов в своей квартире. Ибо в глазах солдат их жертвы – не обычные люди, такие же как они, а «паразиты» - чудовища, внешне похожие на зомби.
Уровень развития обеих технологий (дополненная реальность и ИИ) уже позволяет делать подобные вещи (пока без имплантов, заменяемых очками, типа VisionPro от Эппла). Однако исследователи из Center for Humans and Machines при институте The Max Planck Institute for Human Development даже не стали заморачиваться с очками.
Мне видится логика их исследования так.
• Первый обязательный шаг к расчеловечиванию – деперсонализация.
• Исследовать последствия деперсонализации легко и просто на уже массово используемых фильтрах, предлагаемых пользователям соцсетями и платформами видеоконференций.
• Прежде чем исследовать более сложные фильтры (позволяющие, например, при видеоконференции с начальником парой кликов мышью украсить его ослиными ушами или козлиными рогами), можно поэкспериментировать с самым простым и популярным «фильтром размытия», делающим лицо собеседника на экране размытым до неузнаваемости.
• Применив «фильтр размытия» для коммуникации разных типов (статическая – типа выбора благотворительной организации, и динамическая – диалоговая телеконференция), исследователи определяли, каким образом использование фильтра, через изменение восприятия образа других людей, влияет на их поведение.
Результаты показали, что люди, использующие «фильтр размытия», ведут себя по отношению к людям с размытым образом, куда более эгоистично. Т.е. фильтр помогает им проще отказываться от морали за счет обезличивания людей и тем самым меняя их социальное и этическое поведение.
Авторы так комментируют полученные результаты.
«Начиная исследование, мы уже знали, что деперсонализация может иметь такие неприятные последствия. Однако результаты исследования ценны тем, что мы показали - деперсонализация скоро станет легкой и доступной опцией на многих цифровых платформах и устройствах… Это требует широкой дискуссии в обществе об управлении технологиями дополненной реальности и ИИ, которые изменяют то, какими нам представляются другие люди.»
Мне остается лишь добавить:
1. Это первое исследование практически подтверждающее быструю трансформацию когнитивных гаджетов восприятия у взрослых людей (о том, как когнитивные гаджеты уже меняются у детей я писал)
2. Подобного типа трансформации когнитивных гаджетов происходят пока далеко не у всех, а лишь у инфоргов (людей, проводящих в онлайне больше времени, чем во сне).
3. Доля инфоргов в обществе будет расти по мере перехода общества к новому типу культуры - алгокогнитивная культура.
О пп. 2 и 3 я написал множество постов. И если начинать их читать, то стоит начать с этого.
#Культура #ЭволюцияЧеловека #Инфорги #АлгокогнитивнаяКультура
Первое исследование результатов деперсонализации с помощью дополненной реальности и ИИ.
Убивать людей не просто, даже если в сознание убийц идеология вколотила убеждение, что это их враги. Еще сложнее так изменить сознание людей, чтобы они убивали врагов запросто. Не испытывая при этом отвращения и ужаса от содеянного, а в последствии - угрызений совести и душевных мук. Наиболее эффективным механизмом для такого изменения сознания является расчеловечивание образа врагов.
Вот пример, релевантный тому, о чем будет дальше рассказано в посте.
В эпизоде сериала "Черное зеркало" "Люди против огня" солдаты воспринимают мир через фильтр, формируемый ИИ в дополненной реальности. В восприятии солдат этот фильтр превращает их противников в чудовищных и отвратительных мутантов, чтобы преодолеть нежелание солдат убивать себе подобных и избавить их от этических и психологических последствий. Фильтр в виде электронного импланта МАСС делает процесс убийств для солдат не сложнее, чем уничтожение тараканов в своей квартире. Ибо в глазах солдат их жертвы – не обычные люди, такие же как они, а «паразиты» - чудовища, внешне похожие на зомби.
Уровень развития обеих технологий (дополненная реальность и ИИ) уже позволяет делать подобные вещи (пока без имплантов, заменяемых очками, типа VisionPro от Эппла). Однако исследователи из Center for Humans and Machines при институте The Max Planck Institute for Human Development даже не стали заморачиваться с очками.
Мне видится логика их исследования так.
• Первый обязательный шаг к расчеловечиванию – деперсонализация.
• Исследовать последствия деперсонализации легко и просто на уже массово используемых фильтрах, предлагаемых пользователям соцсетями и платформами видеоконференций.
• Прежде чем исследовать более сложные фильтры (позволяющие, например, при видеоконференции с начальником парой кликов мышью украсить его ослиными ушами или козлиными рогами), можно поэкспериментировать с самым простым и популярным «фильтром размытия», делающим лицо собеседника на экране размытым до неузнаваемости.
• Применив «фильтр размытия» для коммуникации разных типов (статическая – типа выбора благотворительной организации, и динамическая – диалоговая телеконференция), исследователи определяли, каким образом использование фильтра, через изменение восприятия образа других людей, влияет на их поведение.
Результаты показали, что люди, использующие «фильтр размытия», ведут себя по отношению к людям с размытым образом, куда более эгоистично. Т.е. фильтр помогает им проще отказываться от морали за счет обезличивания людей и тем самым меняя их социальное и этическое поведение.
Авторы так комментируют полученные результаты.
«Начиная исследование, мы уже знали, что деперсонализация может иметь такие неприятные последствия. Однако результаты исследования ценны тем, что мы показали - деперсонализация скоро станет легкой и доступной опцией на многих цифровых платформах и устройствах… Это требует широкой дискуссии в обществе об управлении технологиями дополненной реальности и ИИ, которые изменяют то, какими нам представляются другие люди.»
Мне остается лишь добавить:
1. Это первое исследование практически подтверждающее быструю трансформацию когнитивных гаджетов восприятия у взрослых людей (о том, как когнитивные гаджеты уже меняются у детей я писал)
2. Подобного типа трансформации когнитивных гаджетов происходят пока далеко не у всех, а лишь у инфоргов (людей, проводящих в онлайне больше времени, чем во сне).
3. Доля инфоргов в обществе будет расти по мере перехода общества к новому типу культуры - алгокогнитивная культура.
О пп. 2 и 3 я написал множество постов. И если начинать их читать, то стоит начать с этого.
#Культура #ЭволюцияЧеловека #Инфорги #АлгокогнитивнаяКультура
Куда ведет «великая перепрошивка» когнитивных гаджетов детей.
Деформация интеллекта и эпидемия психических заболеваний уже начались.
Как только человек начинает проводить в онлайфе (сетевой жизни: работа, отдых, покупки, развлечения …) больше времени, чем во сне, он превращается в инфорга.
О том, как меняются дети инфоргов вследствие «перепрошивки» или полной замены их когнитивных гаджетов (ментальных интерфесов с элементами окружающего мира и другими людьми в процессе познания) я начал писать еще 2 года назад. И уже тогда эти изменения были ощутимыми.
Ну а в этом году мы начали подводить первые итоги и делать первые выводы.
Об эксперименте с 3-летней дочкой Арвинда Нараянан (известный ученый-компьютерщик, профессор Принстонского университета - он не просто инфорг, а можно сказать, представитель «высшей касты среди инфоргов») я писал в апреле.
Спустя 3 месяца появились новые крайне интересные результаты.
Во-первых, опубликованы результаты Национального центра статистики образования США (NCES) по оценке долгосрочных трендов успехов 13-летних учащихся в чтении и математике (см. верхнюю диаграмму).
• Анализ общенациональной репрезентативной выборки из 8700 13-летних подростков по каждому предмету показал, что по сравнению с предыдущей оценкой (2019–2020), средние баллы детей снизились на 4 балла по чтению и на 9 баллов по математике. По сравнению с тем, что было десять лет назад, средний балл снизился на 7 баллов по чтению и на 14 баллов по математике.
• Оба тренда сломались с положительных на отрицательные в 2012 году.
• По сравнению с 2020 показатели и чтения, и математики (кроме «отличников») снижаются по всем процентилям; причем в верхних процентилях («отличники и хорошисты») снижение не столь сокрушительное, как в нижних (напр. в математике снижение варьировалось от 6–8 баллов для учащихся со средним и высоким уровнем успеваемости до 12–14 баллов для учащихся с более низкими показателями успеваемости)
• Наименьшее обрушение баллов у детей белых родителей (напр. в математике -6, а у остальных совсем швах: у детей испаноязычных семей -10, чернокожих -13, индейцев -20)
Во-вторых, Джонатан Хайдт (социальный психолог NYU Stern School of Business) опубликовал две подборки (вторая совместно с Эриком Шмидтом – бывший CEO и Chairman Google (Alphabet)) с анализом исследований пагубных последствий для малолеток и подростков наличия у них смартфонов и тусения в соцсетях.
В обоих подборках даются ссылки на результаты весьма солидных исследований, показывающих следующее.
• Переломным («проклятым») годом стал 2012. После него (см. диаграммы) стали не только падать показатели успешности в образовании, но и, в буквальном смысле, началась эпидемия психических заболеваний у детей. Эта эпидемия среди подростков, начавшаяся в 2012 году во многих странах, произошла как раз тогда, когда подростки поменяли свои примитивные сотовые телефоны на смартфоны, оснащенные приложениями для социальных сетей.
• Наличие у детей в школе смартфонов сильно снижает внимание детей и результативность их обучения, а также рушит их коммуникацию со сверстниками и чувство принадлежности к классу и школе. Появляется все больше доказательств того, что социальные сети являются одной из основных причин эпидемии психических заболеваний у детей, а не просто одним из способствующих факторов.
• «Революция ChatGPT», вероятно, усугубит проблему социальных сетей для подростков, лишив их «правды», культивируя разногласия и манипулируя их пристрастиями.
N.B. «Перепрошивка» мозга детей инфоргов ведет не к снижение интеллекта, а к его деформации: деградации одних когнитивных гаджетов и апгрейду других.
#БудущееHomo #УскорениеЭволюции #Инфорги #АлгокогнитивнаяКультура
Деформация интеллекта и эпидемия психических заболеваний уже начались.
Как только человек начинает проводить в онлайфе (сетевой жизни: работа, отдых, покупки, развлечения …) больше времени, чем во сне, он превращается в инфорга.
О том, как меняются дети инфоргов вследствие «перепрошивки» или полной замены их когнитивных гаджетов (ментальных интерфесов с элементами окружающего мира и другими людьми в процессе познания) я начал писать еще 2 года назад. И уже тогда эти изменения были ощутимыми.
Ну а в этом году мы начали подводить первые итоги и делать первые выводы.
Об эксперименте с 3-летней дочкой Арвинда Нараянан (известный ученый-компьютерщик, профессор Принстонского университета - он не просто инфорг, а можно сказать, представитель «высшей касты среди инфоргов») я писал в апреле.
Спустя 3 месяца появились новые крайне интересные результаты.
Во-первых, опубликованы результаты Национального центра статистики образования США (NCES) по оценке долгосрочных трендов успехов 13-летних учащихся в чтении и математике (см. верхнюю диаграмму).
• Анализ общенациональной репрезентативной выборки из 8700 13-летних подростков по каждому предмету показал, что по сравнению с предыдущей оценкой (2019–2020), средние баллы детей снизились на 4 балла по чтению и на 9 баллов по математике. По сравнению с тем, что было десять лет назад, средний балл снизился на 7 баллов по чтению и на 14 баллов по математике.
• Оба тренда сломались с положительных на отрицательные в 2012 году.
• По сравнению с 2020 показатели и чтения, и математики (кроме «отличников») снижаются по всем процентилям; причем в верхних процентилях («отличники и хорошисты») снижение не столь сокрушительное, как в нижних (напр. в математике снижение варьировалось от 6–8 баллов для учащихся со средним и высоким уровнем успеваемости до 12–14 баллов для учащихся с более низкими показателями успеваемости)
• Наименьшее обрушение баллов у детей белых родителей (напр. в математике -6, а у остальных совсем швах: у детей испаноязычных семей -10, чернокожих -13, индейцев -20)
Во-вторых, Джонатан Хайдт (социальный психолог NYU Stern School of Business) опубликовал две подборки (вторая совместно с Эриком Шмидтом – бывший CEO и Chairman Google (Alphabet)) с анализом исследований пагубных последствий для малолеток и подростков наличия у них смартфонов и тусения в соцсетях.
В обоих подборках даются ссылки на результаты весьма солидных исследований, показывающих следующее.
• Переломным («проклятым») годом стал 2012. После него (см. диаграммы) стали не только падать показатели успешности в образовании, но и, в буквальном смысле, началась эпидемия психических заболеваний у детей. Эта эпидемия среди подростков, начавшаяся в 2012 году во многих странах, произошла как раз тогда, когда подростки поменяли свои примитивные сотовые телефоны на смартфоны, оснащенные приложениями для социальных сетей.
• Наличие у детей в школе смартфонов сильно снижает внимание детей и результативность их обучения, а также рушит их коммуникацию со сверстниками и чувство принадлежности к классу и школе. Появляется все больше доказательств того, что социальные сети являются одной из основных причин эпидемии психических заболеваний у детей, а не просто одним из способствующих факторов.
• «Революция ChatGPT», вероятно, усугубит проблему социальных сетей для подростков, лишив их «правды», культивируя разногласия и манипулируя их пристрастиями.
N.B. «Перепрошивка» мозга детей инфоргов ведет не к снижение интеллекта, а к его деформации: деградации одних когнитивных гаджетов и апгрейду других.
#БудущееHomo #УскорениеЭволюции #Инфорги #АлгокогнитивнаяКультура