Евгений Морозов назвал свое эссе в The New York Times «Истинная угроза ИИ». Эта угроза, якобы, в том, что создание человекоподобного ИИ (AGI) ведет к AGI-изму – некой терминальной стадии неолиберализма, увековечивающего приоритет прибыльности и культивирующего негативные тренды в обществе.
Красиво написано в стилистике и духе The New York Times.
Однако, автор почему-то упускает из рассмотрения два основополагающих для темы ИИ-рисков факта.
1) Мы находимся на алхимическом этапе понимания ИИ: пропасть непонимание того, как низкоуровневая механика ИИ приводит к эмерджентным результатам, уже соизмерима с аналогичной пропастью в понимании человеческого разума.
2) AGI – это, своего рода, атомная бомба интеллектуальных технологий. Но мир пока не знает, как эту бомбу сделать. Тогда как уже существующие GPT 4, 5 … – это, своего рода, автомат Калашникова, уже принятый в массовое производство. И есть колоссальный риск, что с этим «интеллектуальным автоматом» будет, как и с Калашом. Т.е. число жертв по миру будет несоизмеримо большим, чем от гипотетической, а потом и сделанной атомной бомбы (или AGI).
Подробней, см. в моем комментарии для BRIEFLY.
#Вызовы21века #РискиИИ
Красиво написано в стилистике и духе The New York Times.
Однако, автор почему-то упускает из рассмотрения два основополагающих для темы ИИ-рисков факта.
1) Мы находимся на алхимическом этапе понимания ИИ: пропасть непонимание того, как низкоуровневая механика ИИ приводит к эмерджентным результатам, уже соизмерима с аналогичной пропастью в понимании человеческого разума.
2) AGI – это, своего рода, атомная бомба интеллектуальных технологий. Но мир пока не знает, как эту бомбу сделать. Тогда как уже существующие GPT 4, 5 … – это, своего рода, автомат Калашникова, уже принятый в массовое производство. И есть колоссальный риск, что с этим «интеллектуальным автоматом» будет, как и с Калашом. Т.е. число жертв по миру будет несоизмеримо большим, чем от гипотетической, а потом и сделанной атомной бомбы (или AGI).
Подробней, см. в моем комментарии для BRIEFLY.
#Вызовы21века #РискиИИ
Telegram
BRIEFLY
Сергей Карелов для Briefly: Дискуссии с критиками AGI-изма (якобы, терминальной стадии неолиберализма) мне видятся столь же непродуктивными и, вообще, ненаучными, как и с его сторонниками. Дело в том, что мы находимся на алхимическом этапе понимания ИИ (формулировка…
Клонирование мыслей.
Новый метод обучения ИИ думать как люди и самим себя «выдергивать из розетки» при появлении опасных для людей мыслей.
Это открывает две важнейшие прорывные перспективы:
• Качественный скачок в скорости и эффективности обучении ИИ.
• Столь необходимая для широкого внедрения ИИ, возможность профилактики и предотвращения преступлений ИИ (действий, способных принести людям зло).
Все сногсшибательные достижения ИИ больших языковых моделей (LLM) достигнуты за счет их сверхумения имитировать действия людей. Ибо именно действия людей (написанные ими разнообразные тексты от романов до монографий и от стихов до постов, нарисованные картинки, сделанные шахматные ходы или элементы выполнения задач в реальном мире) воплощены в оцифрованных данных, на которых учатся LLM.
Но у людей все несколько иначе. Люди еще и думают (мыслят) – т.е. осуществляют мыслительный процесс рассуждений, ведущий к тем или иным действиям (тексту, ходу в игре, действию в реальном мире и т.д.) Этот мыслительный процесс и обуславливает причины предпринимаемых действий.
Гипотеза авторов исследования «Клонирование мыслей: обучение мыслить в процессе действий, имитируя человеческое мышление» (Универ Британской Колумбии, Vector Institute и Canada CIFAR AI Chair) заключается в том, что если вы обучаете модель действиям и соответствующим им мыслям, то модель выучит правильные ассоциации между поведением и целями. И кроме того, модель также сможет генерировать и сообщать причины своих действий.
Чтобы достичь клонирования мыслей в моделях машинного обучения, авторы разработали метод предоставления модели нескольких потоков информации во время обучения.
• Одним из них является наблюдение за действиями, такими как ходы, которые игрок выполняет в игре.
• Второй — это поток мыслей, например, объяснение действия.
Например, в стратегической игре в реальном времени ИИ наблюдает, как игрок переместил несколько юнитов перед мостом. При этом он получает текстовое пояснение, в котором говорится что-то вроде «не допустить пересечения моста силами противника».
В рамках обучения клонированию мыслей агенты учатся воспроизводить мысли на естественном языке на каждом временном шаге и впоследствии обусловливают свои действия на основе этих сгенерированных мыслей. И мысли, и действия изучаются в процессе предварительного обучения посредством имитации обучения человеческим данным.
Вот видео элементарного игрового примера, как это может происходить.
Клонирование мыслей также способствует безопасности ИИ. Поскольку мы можем наблюдать за мыслями агента, мы можем (1) легче диагностировать, почему что-то идет не так, (2) направлять агента, корректируя его мышление, или (3) предотвращать выполнение им небезопасных действий, которые он планирует делать.
Этот раздел методики авторы назвали «Вмешательство до преступления» - некий ИИ аналог системы из культового фильма «Особое мнение». Он позволяет останавливать ИИ-агента при обнаружении у него опасных мыслей.
Подробней о реализации метода клонирования мыслей см. здесь:
- популярно
- препринт исследования
А здесь результаты на GitHub, включая веса модели, код для обучения модели и код для генерации данных для обучения и тестирования.
#ИИ #МашинноеОбучение
Новый метод обучения ИИ думать как люди и самим себя «выдергивать из розетки» при появлении опасных для людей мыслей.
Это открывает две важнейшие прорывные перспективы:
• Качественный скачок в скорости и эффективности обучении ИИ.
• Столь необходимая для широкого внедрения ИИ, возможность профилактики и предотвращения преступлений ИИ (действий, способных принести людям зло).
Все сногсшибательные достижения ИИ больших языковых моделей (LLM) достигнуты за счет их сверхумения имитировать действия людей. Ибо именно действия людей (написанные ими разнообразные тексты от романов до монографий и от стихов до постов, нарисованные картинки, сделанные шахматные ходы или элементы выполнения задач в реальном мире) воплощены в оцифрованных данных, на которых учатся LLM.
Но у людей все несколько иначе. Люди еще и думают (мыслят) – т.е. осуществляют мыслительный процесс рассуждений, ведущий к тем или иным действиям (тексту, ходу в игре, действию в реальном мире и т.д.) Этот мыслительный процесс и обуславливает причины предпринимаемых действий.
Гипотеза авторов исследования «Клонирование мыслей: обучение мыслить в процессе действий, имитируя человеческое мышление» (Универ Британской Колумбии, Vector Institute и Canada CIFAR AI Chair) заключается в том, что если вы обучаете модель действиям и соответствующим им мыслям, то модель выучит правильные ассоциации между поведением и целями. И кроме того, модель также сможет генерировать и сообщать причины своих действий.
Чтобы достичь клонирования мыслей в моделях машинного обучения, авторы разработали метод предоставления модели нескольких потоков информации во время обучения.
• Одним из них является наблюдение за действиями, такими как ходы, которые игрок выполняет в игре.
• Второй — это поток мыслей, например, объяснение действия.
Например, в стратегической игре в реальном времени ИИ наблюдает, как игрок переместил несколько юнитов перед мостом. При этом он получает текстовое пояснение, в котором говорится что-то вроде «не допустить пересечения моста силами противника».
В рамках обучения клонированию мыслей агенты учатся воспроизводить мысли на естественном языке на каждом временном шаге и впоследствии обусловливают свои действия на основе этих сгенерированных мыслей. И мысли, и действия изучаются в процессе предварительного обучения посредством имитации обучения человеческим данным.
Вот видео элементарного игрового примера, как это может происходить.
Клонирование мыслей также способствует безопасности ИИ. Поскольку мы можем наблюдать за мыслями агента, мы можем (1) легче диагностировать, почему что-то идет не так, (2) направлять агента, корректируя его мышление, или (3) предотвращать выполнение им небезопасных действий, которые он планирует делать.
Этот раздел методики авторы назвали «Вмешательство до преступления» - некий ИИ аналог системы из культового фильма «Особое мнение». Он позволяет останавливать ИИ-агента при обнаружении у него опасных мыслей.
Подробней о реализации метода клонирования мыслей см. здесь:
- популярно
- препринт исследования
А здесь результаты на GitHub, включая веса модели, код для обучения модели и код для генерации данных для обучения и тестирования.
#ИИ #МашинноеОбучение
Это цунами, заставшее человечество врасплох.
Легендарный ученый и самый известный скептик ИИ рассказал, как страшно он ошибался.
Дуглас Хофштадтер – всемирно известный физик (открыватель фрактала «бабочка Хофштадтера») и когнитивист (автор вычислительных моделей высокоуровневого восприятия и познания), чьим именем названа «петля Хофштадтера-Мебиуса» в продолжении романа Артура Кларка «2001: Космическая одиссея» - «2010: Одиссея 2», чьи книги стали мега-бестселлерами, получив Пулитцеровскую и Национальную книжную премии, и чьими аспирантами были десятки ставших потом всемирно известными ученых (Дэвид Чалмерс, Менлани Митчел, Боб Френч, Гэри МакГроу …)
А кроме того, он последние 20 лет был самым известным в мире ИИ скептиком, еще в 2006 на первом «саммите по сингулярности» заявившим, что достижение ИИ человеческого уровня вряд ли может произойти в обозримом будущем.
И поэтому столь знаменательно кардинальное переосмысление Дугласом Хофштадтером перспектив развития ИИ и его влияния на человечество в свете произошедшей «революции ChatGPT».
Вот несколько цитат из его 37-минутного интервью на эту тему.
"Для меня это (прогресс ИИ) довольно страшно, потому что это говорит о том, что все, во что я раньше верил, отменяется. Я думал, что пройдут сотни лет, прежде чем вскоре появится что-то хотя бы отдаленно похожее на человеческий разум.
Я никогда не представлял, что компьютеры будут соперничать или даже превосходить человеческий интеллект. Это была настолько далекая цель, что я не беспокоился об этом. А потом это начало происходить все быстрее, когда недостижимые цели и вещи, которые компьютеры не должны были быть в состоянии сделать, начали рушиться …".
"Я думаю, что (прогресс ИИ) ужасает. Я ненавижу его. Я думаю об этом практически все время, каждый божий день".
"Такое ощущение, что вся человеческая раса вот-вот будет превзойдена и оставлена в пыли.
Ускоряющийся прогресс оказался настолько неожиданным, что застал врасплох не только меня, но и многих, многих людей - возникает некий ужас перед надвигающимся цунами, которое застанет врасплох все человечество."
"ИИ превращает человечество в очень маленькое явление по сравнению с чем-то гораздо более разумным, чем мы, и ИИ станет для нас непостижимым, как мы для тараканов".
"Очень скоро эти сущности ИИ вполне могут стать гораздо более разумными, чем мы, и тогда мы отойдем на второй план. Мы передадим эстафету нашим преемникам. Если бы это происходило в течение длительного времени, например, сотен лет, это было бы нормально, но это происходит в течение нескольких лет".
От себя добавлю.
Аналогичное кардинальное переосмысление перспектив прогресса ИИ произошло и со мной. И это ощущение допущенной по собственному недопониманию огромной ошибки заставляет меня теперь писать пост за постом на тему #РискиИИ и #Вызовы21века.
Легендарный ученый и самый известный скептик ИИ рассказал, как страшно он ошибался.
Дуглас Хофштадтер – всемирно известный физик (открыватель фрактала «бабочка Хофштадтера») и когнитивист (автор вычислительных моделей высокоуровневого восприятия и познания), чьим именем названа «петля Хофштадтера-Мебиуса» в продолжении романа Артура Кларка «2001: Космическая одиссея» - «2010: Одиссея 2», чьи книги стали мега-бестселлерами, получив Пулитцеровскую и Национальную книжную премии, и чьими аспирантами были десятки ставших потом всемирно известными ученых (Дэвид Чалмерс, Менлани Митчел, Боб Френч, Гэри МакГроу …)
А кроме того, он последние 20 лет был самым известным в мире ИИ скептиком, еще в 2006 на первом «саммите по сингулярности» заявившим, что достижение ИИ человеческого уровня вряд ли может произойти в обозримом будущем.
И поэтому столь знаменательно кардинальное переосмысление Дугласом Хофштадтером перспектив развития ИИ и его влияния на человечество в свете произошедшей «революции ChatGPT».
Вот несколько цитат из его 37-минутного интервью на эту тему.
"Для меня это (прогресс ИИ) довольно страшно, потому что это говорит о том, что все, во что я раньше верил, отменяется. Я думал, что пройдут сотни лет, прежде чем вскоре появится что-то хотя бы отдаленно похожее на человеческий разум.
Я никогда не представлял, что компьютеры будут соперничать или даже превосходить человеческий интеллект. Это была настолько далекая цель, что я не беспокоился об этом. А потом это начало происходить все быстрее, когда недостижимые цели и вещи, которые компьютеры не должны были быть в состоянии сделать, начали рушиться …".
"Я думаю, что (прогресс ИИ) ужасает. Я ненавижу его. Я думаю об этом практически все время, каждый божий день".
"Такое ощущение, что вся человеческая раса вот-вот будет превзойдена и оставлена в пыли.
Ускоряющийся прогресс оказался настолько неожиданным, что застал врасплох не только меня, но и многих, многих людей - возникает некий ужас перед надвигающимся цунами, которое застанет врасплох все человечество."
"ИИ превращает человечество в очень маленькое явление по сравнению с чем-то гораздо более разумным, чем мы, и ИИ станет для нас непостижимым, как мы для тараканов".
"Очень скоро эти сущности ИИ вполне могут стать гораздо более разумными, чем мы, и тогда мы отойдем на второй план. Мы передадим эстафету нашим преемникам. Если бы это происходило в течение длительного времени, например, сотен лет, это было бы нормально, но это происходит в течение нескольких лет".
От себя добавлю.
Аналогичное кардинальное переосмысление перспектив прогресса ИИ произошло и со мной. И это ощущение допущенной по собственному недопониманию огромной ошибки заставляет меня теперь писать пост за постом на тему #РискиИИ и #Вызовы21века.
YouTube
Gödel, Escher, Bach author Doug Hofstadter on the state of AI today
Listen to the podcast episode here: https://www.buzzsprout.com/222312/13125914
Click here to hear this video without annoying background music: https://youtu.be/R6e08RnJyxo"
*Douglas Hofstadter*, the Pulitzer Prize–winning author of Gödel, Escher, Bach…
Click here to hear this video without annoying background music: https://youtu.be/R6e08RnJyxo"
*Douglas Hofstadter*, the Pulitzer Prize–winning author of Gödel, Escher, Bach…
Куда ведет «великая перепрошивка» когнитивных гаджетов детей.
Деформация интеллекта и эпидемия психических заболеваний уже начались.
Как только человек начинает проводить в онлайфе (сетевой жизни: работа, отдых, покупки, развлечения …) больше времени, чем во сне, он превращается в инфорга.
О том, как меняются дети инфоргов вследствие «перепрошивки» или полной замены их когнитивных гаджетов (ментальных интерфесов с элементами окружающего мира и другими людьми в процессе познания) я начал писать еще 2 года назад. И уже тогда эти изменения были ощутимыми.
Ну а в этом году мы начали подводить первые итоги и делать первые выводы.
Об эксперименте с 3-летней дочкой Арвинда Нараянан (известный ученый-компьютерщик, профессор Принстонского университета - он не просто инфорг, а можно сказать, представитель «высшей касты среди инфоргов») я писал в апреле.
Спустя 3 месяца появились новые крайне интересные результаты.
Во-первых, опубликованы результаты Национального центра статистики образования США (NCES) по оценке долгосрочных трендов успехов 13-летних учащихся в чтении и математике (см. верхнюю диаграмму).
• Анализ общенациональной репрезентативной выборки из 8700 13-летних подростков по каждому предмету показал, что по сравнению с предыдущей оценкой (2019–2020), средние баллы детей снизились на 4 балла по чтению и на 9 баллов по математике. По сравнению с тем, что было десять лет назад, средний балл снизился на 7 баллов по чтению и на 14 баллов по математике.
• Оба тренда сломались с положительных на отрицательные в 2012 году.
• По сравнению с 2020 показатели и чтения, и математики (кроме «отличников») снижаются по всем процентилям; причем в верхних процентилях («отличники и хорошисты») снижение не столь сокрушительное, как в нижних (напр. в математике снижение варьировалось от 6–8 баллов для учащихся со средним и высоким уровнем успеваемости до 12–14 баллов для учащихся с более низкими показателями успеваемости)
• Наименьшее обрушение баллов у детей белых родителей (напр. в математике -6, а у остальных совсем швах: у детей испаноязычных семей -10, чернокожих -13, индейцев -20)
Во-вторых, Джонатан Хайдт (социальный психолог NYU Stern School of Business) опубликовал две подборки (вторая совместно с Эриком Шмидтом – бывший CEO и Chairman Google (Alphabet)) с анализом исследований пагубных последствий для малолеток и подростков наличия у них смартфонов и тусения в соцсетях.
В обоих подборках даются ссылки на результаты весьма солидных исследований, показывающих следующее.
• Переломным («проклятым») годом стал 2012. После него (см. диаграммы) стали не только падать показатели успешности в образовании, но и, в буквальном смысле, началась эпидемия психических заболеваний у детей. Эта эпидемия среди подростков, начавшаяся в 2012 году во многих странах, произошла как раз тогда, когда подростки поменяли свои примитивные сотовые телефоны на смартфоны, оснащенные приложениями для социальных сетей.
• Наличие у детей в школе смартфонов сильно снижает внимание детей и результативность их обучения, а также рушит их коммуникацию со сверстниками и чувство принадлежности к классу и школе. Появляется все больше доказательств того, что социальные сети являются одной из основных причин эпидемии психических заболеваний у детей, а не просто одним из способствующих факторов.
• «Революция ChatGPT», вероятно, усугубит проблему социальных сетей для подростков, лишив их «правды», культивируя разногласия и манипулируя их пристрастиями.
N.B. «Перепрошивка» мозга детей инфоргов ведет не к снижение интеллекта, а к его деформации: деградации одних когнитивных гаджетов и апгрейду других.
#БудущееHomo #УскорениеЭволюции #Инфорги #АлгокогнитивнаяКультура
Деформация интеллекта и эпидемия психических заболеваний уже начались.
Как только человек начинает проводить в онлайфе (сетевой жизни: работа, отдых, покупки, развлечения …) больше времени, чем во сне, он превращается в инфорга.
О том, как меняются дети инфоргов вследствие «перепрошивки» или полной замены их когнитивных гаджетов (ментальных интерфесов с элементами окружающего мира и другими людьми в процессе познания) я начал писать еще 2 года назад. И уже тогда эти изменения были ощутимыми.
Ну а в этом году мы начали подводить первые итоги и делать первые выводы.
Об эксперименте с 3-летней дочкой Арвинда Нараянан (известный ученый-компьютерщик, профессор Принстонского университета - он не просто инфорг, а можно сказать, представитель «высшей касты среди инфоргов») я писал в апреле.
Спустя 3 месяца появились новые крайне интересные результаты.
Во-первых, опубликованы результаты Национального центра статистики образования США (NCES) по оценке долгосрочных трендов успехов 13-летних учащихся в чтении и математике (см. верхнюю диаграмму).
• Анализ общенациональной репрезентативной выборки из 8700 13-летних подростков по каждому предмету показал, что по сравнению с предыдущей оценкой (2019–2020), средние баллы детей снизились на 4 балла по чтению и на 9 баллов по математике. По сравнению с тем, что было десять лет назад, средний балл снизился на 7 баллов по чтению и на 14 баллов по математике.
• Оба тренда сломались с положительных на отрицательные в 2012 году.
• По сравнению с 2020 показатели и чтения, и математики (кроме «отличников») снижаются по всем процентилям; причем в верхних процентилях («отличники и хорошисты») снижение не столь сокрушительное, как в нижних (напр. в математике снижение варьировалось от 6–8 баллов для учащихся со средним и высоким уровнем успеваемости до 12–14 баллов для учащихся с более низкими показателями успеваемости)
• Наименьшее обрушение баллов у детей белых родителей (напр. в математике -6, а у остальных совсем швах: у детей испаноязычных семей -10, чернокожих -13, индейцев -20)
Во-вторых, Джонатан Хайдт (социальный психолог NYU Stern School of Business) опубликовал две подборки (вторая совместно с Эриком Шмидтом – бывший CEO и Chairman Google (Alphabet)) с анализом исследований пагубных последствий для малолеток и подростков наличия у них смартфонов и тусения в соцсетях.
В обоих подборках даются ссылки на результаты весьма солидных исследований, показывающих следующее.
• Переломным («проклятым») годом стал 2012. После него (см. диаграммы) стали не только падать показатели успешности в образовании, но и, в буквальном смысле, началась эпидемия психических заболеваний у детей. Эта эпидемия среди подростков, начавшаяся в 2012 году во многих странах, произошла как раз тогда, когда подростки поменяли свои примитивные сотовые телефоны на смартфоны, оснащенные приложениями для социальных сетей.
• Наличие у детей в школе смартфонов сильно снижает внимание детей и результативность их обучения, а также рушит их коммуникацию со сверстниками и чувство принадлежности к классу и школе. Появляется все больше доказательств того, что социальные сети являются одной из основных причин эпидемии психических заболеваний у детей, а не просто одним из способствующих факторов.
• «Революция ChatGPT», вероятно, усугубит проблему социальных сетей для подростков, лишив их «правды», культивируя разногласия и манипулируя их пристрастиями.
N.B. «Перепрошивка» мозга детей инфоргов ведет не к снижение интеллекта, а к его деформации: деградации одних когнитивных гаджетов и апгрейду других.
#БудущееHomo #УскорениеЭволюции #Инфорги #АлгокогнитивнаяКультура
Шокирующая статистика самоуправляемых авто: они в разы опасней обычных.
О конце техноутопии роботакси я писал еще в начале прошлого года назад. А в начале этого стало ясно, что инвестиции в данную отрасль в 2022 упали на 60%.
Однако лидеры отрасли стояли на своем. В мартовской презентации Tesla заявила, что аварии с полностью самоуправляемым авто происходят как минимум в 5 раз реже, чем у обычных автомобилей, если сравнивать мили, пройденные за одно столкновение.
«Это утверждение, а также характеристику автопилота Маском как «однозначно более безопасного», невозможно проверить без доступа к подробным данным, которыми обладает Tesla» - пишет The Washington Post в материале «17 смертельных случаев, 736 аварий: шокирующее число жертв автопилота Tesla».
Утверждение о куда большей безопасности самоуправляемых авто – главный аргумент их производителей и фанов среди техно-оптимистов.
Но если Tesla пока еще удается скрывать в тайне подробные данные о безопасности своих авто, статистика других производителей показывает шокирующие цифры.
• По данным отчета инспекции об авариях автономных авто в Калифорнии, за полгода 2023 произошло 28 аварий с автономными автомо Cruise, 24 аварии с авто Waymo и 11 аварий с авто Zoox.
• Хотя это число аварий кажется маленьким, если принять во внимание небольшое количество автономных автомобилей на дорогах Калифорнии (388 Cruise, 688 Waymo, 142 Zoox), вырисовывается совсем другая и довольно опасная картина:
7% автомобилей Cruise, 3% автомобилей Waymo и 17% автомобилей Zoox попали в один или несколько инцидентов за полгода (и это без учета инцидентов с блокированием машин пожарных и скорой помощи, сбивания собак и кошек, наездов на людей и самовозгораний)
• Для сравнения, годовой коэффициент аварийности обычных (неавтономных) составляет 1,8% (5 миллионов аварий в год / 278 миллионов автомобилей).
• Из этих цифр мы видим совсем иную картину безопасности самоуправляемых авто.
- "лучшие" из них попадают в аварии почти в 2 раза чаще, чем неавтономные автомобили,
- а “худшие” попадают в аварии в 8,5 раз чаще.
Вывод этого поста направлен не против самоуправляемых авто (за ними так и так будущее), а против сомоуспокоенности при автоматизации (automation complacency).
Ибо статистику вреда при внедрении ИИ на основе больших языковых моделей вообще никто не ведет. А она, по моим оценкам, будут несравнимо хуже статистики катастроф автономных авто, поскольку «ошибки ИИ хуже преступлений, когда они неподконтрольны и неисправимы»
#БеспилотныеАвто
О конце техноутопии роботакси я писал еще в начале прошлого года назад. А в начале этого стало ясно, что инвестиции в данную отрасль в 2022 упали на 60%.
Однако лидеры отрасли стояли на своем. В мартовской презентации Tesla заявила, что аварии с полностью самоуправляемым авто происходят как минимум в 5 раз реже, чем у обычных автомобилей, если сравнивать мили, пройденные за одно столкновение.
«Это утверждение, а также характеристику автопилота Маском как «однозначно более безопасного», невозможно проверить без доступа к подробным данным, которыми обладает Tesla» - пишет The Washington Post в материале «17 смертельных случаев, 736 аварий: шокирующее число жертв автопилота Tesla».
Утверждение о куда большей безопасности самоуправляемых авто – главный аргумент их производителей и фанов среди техно-оптимистов.
Но если Tesla пока еще удается скрывать в тайне подробные данные о безопасности своих авто, статистика других производителей показывает шокирующие цифры.
• По данным отчета инспекции об авариях автономных авто в Калифорнии, за полгода 2023 произошло 28 аварий с автономными автомо Cruise, 24 аварии с авто Waymo и 11 аварий с авто Zoox.
• Хотя это число аварий кажется маленьким, если принять во внимание небольшое количество автономных автомобилей на дорогах Калифорнии (388 Cruise, 688 Waymo, 142 Zoox), вырисовывается совсем другая и довольно опасная картина:
7% автомобилей Cruise, 3% автомобилей Waymo и 17% автомобилей Zoox попали в один или несколько инцидентов за полгода (и это без учета инцидентов с блокированием машин пожарных и скорой помощи, сбивания собак и кошек, наездов на людей и самовозгораний)
• Для сравнения, годовой коэффициент аварийности обычных (неавтономных) составляет 1,8% (5 миллионов аварий в год / 278 миллионов автомобилей).
• Из этих цифр мы видим совсем иную картину безопасности самоуправляемых авто.
- "лучшие" из них попадают в аварии почти в 2 раза чаще, чем неавтономные автомобили,
- а “худшие” попадают в аварии в 8,5 раз чаще.
Вывод этого поста направлен не против самоуправляемых авто (за ними так и так будущее), а против сомоуспокоенности при автоматизации (automation complacency).
Ибо статистику вреда при внедрении ИИ на основе больших языковых моделей вообще никто не ведет. А она, по моим оценкам, будут несравнимо хуже статистики катастроф автономных авто, поскольку «ошибки ИИ хуже преступлений, когда они неподконтрольны и неисправимы»
#БеспилотныеАвто
Система «фьючерсов на поведение людей» будет дополнена «фьючерсами на кибернасилие».
В сентябре Китай перейдет на новую модель общества.
7 июля Управление киберпространства Китая (CAC) запустило общественное обсуждение проекта «Положения об управлении информацией о кибернасилии».
В нем кибернасилие определяется, как распространение через интернет контента, содержащего незаконную и/или недобросовестную информацию, которая оскорбляет человека, фабрикует на него клевету, нарушает неприкосновенность частной жизни, серьезно влияет на физическое и/или психическое здоровье жертв, включая моральный ущерб, унижение и дискриминацию, а также злонамеренные спекуляции.
Основанные на столь широком определении понятия кибернасилие (тут полный салат из коня с рябчиком) три десятка статей нового Положения, по сути меняют морально-правовые основы общества в медиа-среде Интернета.
В отличие от обычной жизни в оффлайне, в онлайне станет возможным:
1. любому человеку объявить себя «жертвой кибернасилия», не утруждая себя доказательствами этого факта и требуя от владельцев интернет-платформ (соцсети, паблики, блоги и т.д.) расследовать кейс и наказать виновных;
2. а владельцам интернет платформ, в ответ на это, не заморачиваясь, просто закрывать экаунт обвиненного на основании «Положения об управлении информацией о кибернасилии».
Для реализации 1й возможности Положение предусматривает т.н. "защиту в один клик". Она позволяет считающим себя жертвами кибернасилия, закрывать личные сообщения и не нравящиеся комментарии о себе одним щелчком мыши.
Для реализации 2й возможности поставщики информационных услуг Интернета должны не просто «явиться на собственную казнь, но и принести с собой веревку»:
• разработать, мониторить и обновлять классификатор кибернасилия;
• получив «сигнал в один клик»:
- ограничить доступ к кибернасилующей информации;
- провести расследование и проверку факта кибернасилия;
- наказать виновного штрафом вплоть до отзыва экаунта;
• вести «черные списки» замеченных в кибернасилии и регулярно подавать отчеты наверх о его пресечении;
• а в качестве вишенки на торте - поставщикам информационных сетевых услуг предложено создать и усовершенствовать модель раннего предупреждения кибернасилия.
Последнее, по сути, расширяет существующую в «надзорном капитализме» систему «фьючерсов на поведение людей» (по определению Шошаны Зубофф) системой «фьючерсов на кибернасилие», на которых будут зарабатывать власть имущие (об этом я рассказывал еще 2 года назад). Ибо они, а не суд на основании закона, будут решать, кто «кибернасильник», а кто нет. И больше никакие законы не нужны ни о каких противоправных действиях. Ведь все они – теперь будут всего лишь разновидностями кибернасилия.
Общественное обсуждение «Положения об управлении информацией о кибернасилии» продлится до 6 августа, чтобы с 1 сентября ввести его в действие.
Однако поставщики информационных услуг Интернета решили не тянуть с разработкой модели раннего предупреждения кибернасилия. И первые платформы (напр. Zhihu) уже с 14 июля отключают все анонимные экаунты, ссылаясь на статью 14-ю еще даже не вступившего в силу Положения.
Так что, здравствуй прекрасный новый «Мир Большого Брата - сына Большого Бога». Всевидящего и всезнающего. Кары которого никто не избежит (и для этого даже не нужен суд).
Ибо, при построении Рая сверху неизменно получается Ад
#Китай #НадзорныйКапитализм #БольшойБрат
В сентябре Китай перейдет на новую модель общества.
7 июля Управление киберпространства Китая (CAC) запустило общественное обсуждение проекта «Положения об управлении информацией о кибернасилии».
В нем кибернасилие определяется, как распространение через интернет контента, содержащего незаконную и/или недобросовестную информацию, которая оскорбляет человека, фабрикует на него клевету, нарушает неприкосновенность частной жизни, серьезно влияет на физическое и/или психическое здоровье жертв, включая моральный ущерб, унижение и дискриминацию, а также злонамеренные спекуляции.
Основанные на столь широком определении понятия кибернасилие (тут полный салат из коня с рябчиком) три десятка статей нового Положения, по сути меняют морально-правовые основы общества в медиа-среде Интернета.
В отличие от обычной жизни в оффлайне, в онлайне станет возможным:
1. любому человеку объявить себя «жертвой кибернасилия», не утруждая себя доказательствами этого факта и требуя от владельцев интернет-платформ (соцсети, паблики, блоги и т.д.) расследовать кейс и наказать виновных;
2. а владельцам интернет платформ, в ответ на это, не заморачиваясь, просто закрывать экаунт обвиненного на основании «Положения об управлении информацией о кибернасилии».
Для реализации 1й возможности Положение предусматривает т.н. "защиту в один клик". Она позволяет считающим себя жертвами кибернасилия, закрывать личные сообщения и не нравящиеся комментарии о себе одним щелчком мыши.
Для реализации 2й возможности поставщики информационных услуг Интернета должны не просто «явиться на собственную казнь, но и принести с собой веревку»:
• разработать, мониторить и обновлять классификатор кибернасилия;
• получив «сигнал в один клик»:
- ограничить доступ к кибернасилующей информации;
- провести расследование и проверку факта кибернасилия;
- наказать виновного штрафом вплоть до отзыва экаунта;
• вести «черные списки» замеченных в кибернасилии и регулярно подавать отчеты наверх о его пресечении;
• а в качестве вишенки на торте - поставщикам информационных сетевых услуг предложено создать и усовершенствовать модель раннего предупреждения кибернасилия.
Последнее, по сути, расширяет существующую в «надзорном капитализме» систему «фьючерсов на поведение людей» (по определению Шошаны Зубофф) системой «фьючерсов на кибернасилие», на которых будут зарабатывать власть имущие (об этом я рассказывал еще 2 года назад). Ибо они, а не суд на основании закона, будут решать, кто «кибернасильник», а кто нет. И больше никакие законы не нужны ни о каких противоправных действиях. Ведь все они – теперь будут всего лишь разновидностями кибернасилия.
Общественное обсуждение «Положения об управлении информацией о кибернасилии» продлится до 6 августа, чтобы с 1 сентября ввести его в действие.
Однако поставщики информационных услуг Интернета решили не тянуть с разработкой модели раннего предупреждения кибернасилия. И первые платформы (напр. Zhihu) уже с 14 июля отключают все анонимные экаунты, ссылаясь на статью 14-ю еще даже не вступившего в силу Положения.
Так что, здравствуй прекрасный новый «Мир Большого Брата - сына Большого Бога». Всевидящего и всезнающего. Кары которого никто не избежит (и для этого даже не нужен суд).
Ибо, при построении Рая сверху неизменно получается Ад
#Китай #НадзорныйКапитализм #БольшойБрат
Детям передается не только богатство, но и шансы на социальный лифт.
Получено новое подтверждение закона сохранения неравенства в природе общества.
Неравенство - незыблемая основа социальной структуры общества. Фундаментальность этой основы определяется двумя «законами природы общества»: закон Матфея и закон Великого Гэтсби. Оба закона стабильно работают уже 5+ тыс лет, не смотря на колоссальные изменения во всем: от экономики до технологий.
• Закон (эффект) Матфея из века в век мешает бедным разбогатеть, при этом исправно делая богатых все богаче и богаче (относительно бедных).
• А закон Великого Гэтсби окончательно гнобит бедных тем, что не только делает их все беднее (относительно богатых), но еще и снижая их шансы хотя бы в будущем преуспеть за счет социальной мобильности.
Объединенная формула этих двух законов определяет закон сохранения неравенства в природе общества – богатые остаются богатыми, поскольку социальный статус передается между поколениями даже лучше, чем рост людей.
Иными словами, социальный статус передается в семьях лучше наследуемых физических характеристик.
Значит ли это, что богатым или бедным людям суждено оставаться такими, как будто это заложено в их «генах»?
Увы, но это так. И хотя всегда будут истории перескока из грязи в князи, но для большинства людей социальная мобильность чрезвычайно затруднена.
Число исследований, подтверждающих это, растет с каждым годом.
Например.
• Самые богатые семьи Флоренции не меняются уже, как минимум, шесть веков. Cреди наиболее состоятельных налогоплательщиков 15 и 21 веков совпадают почти 900 фамилий.
• В Англии исследователи фиксируют семьи, социальный статус и богатство которых в отдельно взятом регионе страны сохраняются на протяжении восьми веков или 28 поколений.
Еще больше поражает то, что и спустя полтысячелетия представители таких семей владеют теми же видами бизнеса (землевладельцы остаются землевладельцами, владельцы ювелирных домов по-прежнему в ювелирном бизнесе и т.д.)
Аналогичная история с престижными учебными заведениями. В списках студентов Оксфордского и Кембриджского университетов исследователи обнаружили колоссальную перепредставленность фамилий нормандских семей из Книги судного дня 1086 года, где записаны фамилии многих крупных землевладельцев из нормандских завоевателей 1066 года.
Аналогично и с профессорами университетов. О масштабном экспериментальном доказательстве вечной формулы неравенства я писал в посте «Профессором будет не ваш сын, а сын профессора». Т.е. анекдот про сына полковника, которому светит чин не выше папиного, т.к. генералом будет сын генерала, - суровая правда жизни. Так было всегда и везде: в армии и на гражданке, на госслужбе и в предпринимательстве.
Только что опубликованное исследование The inheritance of social status: England, 1600 to 2022 – это еще одно и очень крепкое тому подтверждение.
Родословная 422 374 англичан (с 1600 по 2022 год) содержит корреляции в социальных статусах не только прямых родственников, но и четвероюродных братьев и сестер. Эти корреляции снижаются всего в 0,79 раза в каждом поколении. При этом образование никоим образом не увеличило базовые показатели социальной мобильности. Социальный статус в этом исследовании измеряется шестью показателями: статус занятости, статус высшего образования, грамотность, стоимость жилья, руководство компанией и индекс множественной депривации для места жительства.
Короче, как у Высоцкого – … родишься баобабом и будешь баобабом тыщу лет, пока помрешь 😎
#Неравенство #РаспределениеБогатств
Получено новое подтверждение закона сохранения неравенства в природе общества.
Неравенство - незыблемая основа социальной структуры общества. Фундаментальность этой основы определяется двумя «законами природы общества»: закон Матфея и закон Великого Гэтсби. Оба закона стабильно работают уже 5+ тыс лет, не смотря на колоссальные изменения во всем: от экономики до технологий.
• Закон (эффект) Матфея из века в век мешает бедным разбогатеть, при этом исправно делая богатых все богаче и богаче (относительно бедных).
• А закон Великого Гэтсби окончательно гнобит бедных тем, что не только делает их все беднее (относительно богатых), но еще и снижая их шансы хотя бы в будущем преуспеть за счет социальной мобильности.
Объединенная формула этих двух законов определяет закон сохранения неравенства в природе общества – богатые остаются богатыми, поскольку социальный статус передается между поколениями даже лучше, чем рост людей.
Иными словами, социальный статус передается в семьях лучше наследуемых физических характеристик.
Значит ли это, что богатым или бедным людям суждено оставаться такими, как будто это заложено в их «генах»?
Увы, но это так. И хотя всегда будут истории перескока из грязи в князи, но для большинства людей социальная мобильность чрезвычайно затруднена.
Число исследований, подтверждающих это, растет с каждым годом.
Например.
• Самые богатые семьи Флоренции не меняются уже, как минимум, шесть веков. Cреди наиболее состоятельных налогоплательщиков 15 и 21 веков совпадают почти 900 фамилий.
• В Англии исследователи фиксируют семьи, социальный статус и богатство которых в отдельно взятом регионе страны сохраняются на протяжении восьми веков или 28 поколений.
Еще больше поражает то, что и спустя полтысячелетия представители таких семей владеют теми же видами бизнеса (землевладельцы остаются землевладельцами, владельцы ювелирных домов по-прежнему в ювелирном бизнесе и т.д.)
Аналогичная история с престижными учебными заведениями. В списках студентов Оксфордского и Кембриджского университетов исследователи обнаружили колоссальную перепредставленность фамилий нормандских семей из Книги судного дня 1086 года, где записаны фамилии многих крупных землевладельцев из нормандских завоевателей 1066 года.
Аналогично и с профессорами университетов. О масштабном экспериментальном доказательстве вечной формулы неравенства я писал в посте «Профессором будет не ваш сын, а сын профессора». Т.е. анекдот про сына полковника, которому светит чин не выше папиного, т.к. генералом будет сын генерала, - суровая правда жизни. Так было всегда и везде: в армии и на гражданке, на госслужбе и в предпринимательстве.
Только что опубликованное исследование The inheritance of social status: England, 1600 to 2022 – это еще одно и очень крепкое тому подтверждение.
Родословная 422 374 англичан (с 1600 по 2022 год) содержит корреляции в социальных статусах не только прямых родственников, но и четвероюродных братьев и сестер. Эти корреляции снижаются всего в 0,79 раза в каждом поколении. При этом образование никоим образом не увеличило базовые показатели социальной мобильности. Социальный статус в этом исследовании измеряется шестью показателями: статус занятости, статус высшего образования, грамотность, стоимость жилья, руководство компанией и индекс множественной депривации для места жительства.
Короче, как у Высоцкого – … родишься баобабом и будешь баобабом тыщу лет, пока помрешь 😎
#Неравенство #РаспределениеБогатств
Революция искусственного интеллекта. Инструкция по выживанию бизнеса и человека.
Разговор о рисках и возможностях, которые несет сетевая революция и искусственный интеллект. Что уже сейчас мы можем делать для адаптации нашего сознания и сообществ к предстоящим переменам и неопределенности будущего.
Запись трансляции: https://www.youtube.com/watch?v=DAIo6tMbJlw
Разговор о рисках и возможностях, которые несет сетевая революция и искусственный интеллект. Что уже сейчас мы можем делать для адаптации нашего сознания и сообществ к предстоящим переменам и неопределенности будущего.
Запись трансляции: https://www.youtube.com/watch?v=DAIo6tMbJlw
YouTube
Как подготовиться к предстоящим переменам? Открытый диалог о сетевой революции.
✅ Регистрируйтесь на открытый вебинар «Одно простое действие»:
https://shamenkov.com/web1?utm_source=youtube&utm_medium=KarelovAi&utm_campaign=DAIo6tMbJlw
Если хотите повысить благосостояние, обрести гармонию с собой, улучшить отношения с близкими — регистрируйтесь…
https://shamenkov.com/web1?utm_source=youtube&utm_medium=KarelovAi&utm_campaign=DAIo6tMbJlw
Если хотите повысить благосостояние, обрести гармонию с собой, улучшить отношения с близкими — регистрируйтесь…
Риск гибели 1 миллиарда человек примерно, как в русской рулетке.
А шансы всего человечества дожить до 2100 меньше, чем у больного раком простаты прожить еще пять лет.
Вот и сошлись три моих любимые темы: предсказание будущего, экзистенциальные риски и искусственный интеллект.
Опубликован «Forecasting Existential Risks: Evidence from a Long-Run Forecasting Tournament» - 1й отчет Forecasting Research Institute о результатах оценки экзистенциальных рисков человечества. Это отчет интересного и важного проекта, впервые в истории проведенного по инновационной методике. Её автор - знаменитый (и я бы сказал, легендарный) профессор психологии и политологии Филип Тетлок, спектр слушателей мастер-классов которого впечатляет: от лауреатов Нобелевской премии и высших чинов разведки США до высшего менеджмента компаний класса Google и Microsoft).
Специализация Тетлока – предсказание будущего нетрадиционными методами на основе передовых информационных технологий (краудсорсинг, рынки предсказаний, интеграция коллективного интеллекта людей и алгоритмов и т.д.) Моим постоянным читателям, полагаю, известно, что это также одна из моих специализаций. И я подробно писал об этой теме в шести-серийном посто-сериале «ЦРУ создает кентавров для предсказания будущего». Поэтому я не стал описывать детали методики Тетлока (желающие прочтут это в лонгридах моего посто-сериала), а сфокусировался на главном:
Ключевой результат проекта вынесен в заголовок этого поста.
Об остальных результатах (их много, интересных и разных, на 751 стр. отчета), а также
• почему и зачем был затеян этот проект;
• что и как в нем было сделано, -
читайте в продолжении этого поста (еще 5 мин):
- на Medium https://bit.ly/3NUWGV3
- на Дзене https://clck.ru/34z7yP
Имхо, весьма интересное чтение на выходных 😊
#Прогнозирование #Вызовы21века #РискиИИ #Х-риски
А шансы всего человечества дожить до 2100 меньше, чем у больного раком простаты прожить еще пять лет.
Вот и сошлись три моих любимые темы: предсказание будущего, экзистенциальные риски и искусственный интеллект.
Опубликован «Forecasting Existential Risks: Evidence from a Long-Run Forecasting Tournament» - 1й отчет Forecasting Research Institute о результатах оценки экзистенциальных рисков человечества. Это отчет интересного и важного проекта, впервые в истории проведенного по инновационной методике. Её автор - знаменитый (и я бы сказал, легендарный) профессор психологии и политологии Филип Тетлок, спектр слушателей мастер-классов которого впечатляет: от лауреатов Нобелевской премии и высших чинов разведки США до высшего менеджмента компаний класса Google и Microsoft).
Специализация Тетлока – предсказание будущего нетрадиционными методами на основе передовых информационных технологий (краудсорсинг, рынки предсказаний, интеграция коллективного интеллекта людей и алгоритмов и т.д.) Моим постоянным читателям, полагаю, известно, что это также одна из моих специализаций. И я подробно писал об этой теме в шести-серийном посто-сериале «ЦРУ создает кентавров для предсказания будущего». Поэтому я не стал описывать детали методики Тетлока (желающие прочтут это в лонгридах моего посто-сериала), а сфокусировался на главном:
Ключевой результат проекта вынесен в заголовок этого поста.
Об остальных результатах (их много, интересных и разных, на 751 стр. отчета), а также
• почему и зачем был затеян этот проект;
• что и как в нем было сделано, -
читайте в продолжении этого поста (еще 5 мин):
- на Medium https://bit.ly/3NUWGV3
- на Дзене https://clck.ru/34z7yP
Имхо, весьма интересное чтение на выходных 😊
#Прогнозирование #Вызовы21века #РискиИИ #Х-риски
Medium
Риск гибели 1 миллиарда человек примерно, как в русской рулетке
А шансы всего человечества дожить до 2100 меньше, чем у больного раком простаты прожить еще пять лет
ИИ за 5 минут решил задачу, на которую у эволюции ушло 50 млн лет.
Эксперимент по сравнению трёх типов разума: ИИ, муравьев и людей.
Результат эксперимента поражает и заставляет задуматься.
При решении задачи принятия решений в условиях неопределенности:
1. ИИ уступил интеллекту людей и роевому интеллекту муравьев.
2. Но ИИ решил задачу в 5 триллионов раз быстрее эволюции.
3. Однако, ИИ смог решить задачу лишь под руководством человека из-за двух крайне слабых компетенций в основе понимания, характерных для больших языковых моделей (LLM):
- вывод и конструирование моделей целеполагания биологических существ;
- вывод и конструирование моделей причинно-следственных связей в мире из собственного опыта воплощенного существования.
По сути, ИИ решил задачу, используя лишь «компетентность без понимания» - т.е. две имеющиеся у него чрезвычайно развитые компетенции: лингвистическую и вычислительную.
Но если у LLM появятся две вышеназванные компетенции в основе понимания, LLM качественно превзойдут любой биологический интеллект.
Эксперимент заключался в решении задачи принятия решений в условиях неопределенности из класса задач «бюджетирования»: ограничения ресурсов (времени), которые агент готов потратить на поиск лучшего варианта, прежде чем согласиться на худший.
Например.
• Вы въехали в плохо освещенную длинную стоянку автомобилей, выход из которой на противоположном от входа конце.
• Можно занять первое увиденное свободное место прямо у въезда на стоянку. Но тогда придется идти пешком через всю стоянку к выходу.
• Можно пытаться найти место как можно ближе к выходу. Но движение назад на стоянке запрещено. И если вы проехали последнее ближайшее к выходу свободное место, вы останетесь ни с чем – придется покинуть стоянку.
• Вам нужен алгоритм «бюджетирования».
С решением подобной задачи люди справляются уже много тысячелетий, а муравьи – миллионы лет.
В недавней работе был исследован алгоритм, используемый муравьями-ткачами для решения задачи этого класса. Он – результат, как минимум, 50 млн лет эволюции этого рода муравьев.
Я решил проверить, найдет ли LLM этот алгоритм? А может предложит другой?
Результат эксперимента вкратце описан в начале этого поста.
Подробности и тексты моего общения с иным разумом LLM, позволяющие увидеть:
✔️ интеллектуальный блеск и колоссальную мощь этого разума,
✔️ наряду с его интеллектуальной нищетой (в сравнении с биологическим разумом)
Продолжить чтение (еще 13 мин, если читать диалог с ИИ, в противном случае - лишь 2 мин):
• на Medium https://bit.ly/3NYbfH8
• на Дзене https://clck.ru/352V6X
#ИнойИнтеллект #Разум #Интеллект #Эволюция
Эксперимент по сравнению трёх типов разума: ИИ, муравьев и людей.
Результат эксперимента поражает и заставляет задуматься.
При решении задачи принятия решений в условиях неопределенности:
1. ИИ уступил интеллекту людей и роевому интеллекту муравьев.
2. Но ИИ решил задачу в 5 триллионов раз быстрее эволюции.
3. Однако, ИИ смог решить задачу лишь под руководством человека из-за двух крайне слабых компетенций в основе понимания, характерных для больших языковых моделей (LLM):
- вывод и конструирование моделей целеполагания биологических существ;
- вывод и конструирование моделей причинно-следственных связей в мире из собственного опыта воплощенного существования.
По сути, ИИ решил задачу, используя лишь «компетентность без понимания» - т.е. две имеющиеся у него чрезвычайно развитые компетенции: лингвистическую и вычислительную.
Но если у LLM появятся две вышеназванные компетенции в основе понимания, LLM качественно превзойдут любой биологический интеллект.
Эксперимент заключался в решении задачи принятия решений в условиях неопределенности из класса задач «бюджетирования»: ограничения ресурсов (времени), которые агент готов потратить на поиск лучшего варианта, прежде чем согласиться на худший.
Например.
• Вы въехали в плохо освещенную длинную стоянку автомобилей, выход из которой на противоположном от входа конце.
• Можно занять первое увиденное свободное место прямо у въезда на стоянку. Но тогда придется идти пешком через всю стоянку к выходу.
• Можно пытаться найти место как можно ближе к выходу. Но движение назад на стоянке запрещено. И если вы проехали последнее ближайшее к выходу свободное место, вы останетесь ни с чем – придется покинуть стоянку.
• Вам нужен алгоритм «бюджетирования».
С решением подобной задачи люди справляются уже много тысячелетий, а муравьи – миллионы лет.
В недавней работе был исследован алгоритм, используемый муравьями-ткачами для решения задачи этого класса. Он – результат, как минимум, 50 млн лет эволюции этого рода муравьев.
Я решил проверить, найдет ли LLM этот алгоритм? А может предложит другой?
Результат эксперимента вкратце описан в начале этого поста.
Подробности и тексты моего общения с иным разумом LLM, позволяющие увидеть:
✔️ интеллектуальный блеск и колоссальную мощь этого разума,
✔️ наряду с его интеллектуальной нищетой (в сравнении с биологическим разумом)
Продолжить чтение (еще 13 мин, если читать диалог с ИИ, в противном случае - лишь 2 мин):
• на Medium https://bit.ly/3NYbfH8
• на Дзене https://clck.ru/352V6X
#ИнойИнтеллект #Разум #Интеллект #Эволюция
Medium
ИИ за 5 минут решил задачу, на которую у эволюции ушло 50 млн лет
Эксперимент по сравнению трёх типов разума: ИИ, муравьев и людей
Искусственная эскалация.
TLDR – самый вероятный сценарий гибели земной цивилизации.
Ядерный риск и ИИ-риски, меркнут в сравнении с интегральным риском при их сочетании. Но это, увы, самый вероятный сценарий будущего для земной цивилизации, причем, не в отдаленном будущем, а в ближайшие годы.
Такой сценарий называется TLDR: Threat (Угроза), Likelihood (Вероятность), Deadline (Дедлайн – крайний срок принятия решения), Recommendation (Рекомендация ИИ принимающему решение лицу с учетом TLD). В соответствии с этим сценарием будут приниматься все важнейшие решения в чрезвычайных ситуациях, когда ставки на кону велики.
У сценария TLDR нет альтернатив (что бы ни говорили ученые, политики и военные), ибо он:
• качественно (по уровню анализа) и количественно (по скорости принятия решений) превосходит все иные мыслимые сценарии действий в ситуациях радикальной неопределенности, в которых «факты неточны, ценности спорны, ставки высоки, а решения срочны»;
• и отвечает единственному сегодня неоспоримому требованию к технологиям - оставляет последнее решение за человеком.
Но у сценария TLDR есть и практически непреодолимый изъян – рано или поздно, он может запустить процесс неостановимой искусственной эскалации военного противостояния.
Как это может выглядеть на практике на временном горизонте ближайших 10 лет, просто, но убедительно показано в 8-минутной короткометражке «Искусственная эскалация», снятом Space Film & VFX для Института будущего жизни.
Этот ролик рекомендую посмотреть каждому. Он того стоит.
Кроме того:
• Реальность TLDR-сценария признают весьма серьезные эксперты (см. Bulletin of the Atomic Scientist)
• Насколько опасно использование ИИ в вооруженных конфликтах, я неоднократно рассказывал и писал (в том числе, о «проблеме 37-го хода военного ИИ» и «иллюзии контроля ИИ»)
• Последствия глобального TLDR-сценария будут гибельны для цивилизации на Земле (см. этот 4-х минутный ролик)
• Перезвон Часов Судного дня запускается применением ядерного оружия. Но лишь в течение 20 сек этого «перезвона», часы еще можно остановить… Ни секундой позже.
#Вызовы21века #РискиИИ #Хриски
TLDR – самый вероятный сценарий гибели земной цивилизации.
Ядерный риск и ИИ-риски, меркнут в сравнении с интегральным риском при их сочетании. Но это, увы, самый вероятный сценарий будущего для земной цивилизации, причем, не в отдаленном будущем, а в ближайшие годы.
Такой сценарий называется TLDR: Threat (Угроза), Likelihood (Вероятность), Deadline (Дедлайн – крайний срок принятия решения), Recommendation (Рекомендация ИИ принимающему решение лицу с учетом TLD). В соответствии с этим сценарием будут приниматься все важнейшие решения в чрезвычайных ситуациях, когда ставки на кону велики.
У сценария TLDR нет альтернатив (что бы ни говорили ученые, политики и военные), ибо он:
• качественно (по уровню анализа) и количественно (по скорости принятия решений) превосходит все иные мыслимые сценарии действий в ситуациях радикальной неопределенности, в которых «факты неточны, ценности спорны, ставки высоки, а решения срочны»;
• и отвечает единственному сегодня неоспоримому требованию к технологиям - оставляет последнее решение за человеком.
Но у сценария TLDR есть и практически непреодолимый изъян – рано или поздно, он может запустить процесс неостановимой искусственной эскалации военного противостояния.
Как это может выглядеть на практике на временном горизонте ближайших 10 лет, просто, но убедительно показано в 8-минутной короткометражке «Искусственная эскалация», снятом Space Film & VFX для Института будущего жизни.
Этот ролик рекомендую посмотреть каждому. Он того стоит.
Кроме того:
• Реальность TLDR-сценария признают весьма серьезные эксперты (см. Bulletin of the Atomic Scientist)
• Насколько опасно использование ИИ в вооруженных конфликтах, я неоднократно рассказывал и писал (в том числе, о «проблеме 37-го хода военного ИИ» и «иллюзии контроля ИИ»)
• Последствия глобального TLDR-сценария будут гибельны для цивилизации на Земле (см. этот 4-х минутный ролик)
• Перезвон Часов Судного дня запускается применением ядерного оружия. Но лишь в течение 20 сек этого «перезвона», часы еще можно остановить… Ни секундой позже.
#Вызовы21века #РискиИИ #Хриски
YouTube
Artificial Escalation
This work of fiction seeks to depict key drivers that could result in a global Al catastrophe:
- Accidental conflict escalation at machine speeds;
- Al integrated too deeply into high-stakes functions;
- Humans giving away too much control to Al;
- Humans…
- Accidental conflict escalation at machine speeds;
- Al integrated too deeply into high-stakes functions;
- Humans giving away too much control to Al;
- Humans…
Устрашающий результат эксперимента OpenAI c GPT-4.
Теперь можно представить, кем станет «ребенок инопланетян», воспитанный мафией.
Роль среды, в которой растет и воспитывается человеческий ребенок, решающим образом влияет на характер и границы его поведения после того, как он вырастет. Близнецы, обладающие от рождения одинаковыми интеллектуальными способностями, в зависимости от среды и воспитания, могут вырасти в кого угодно. Воспитывавшийся в добропорядочной среде, скорее всего, станет достойным гражданином. Выросший в среде мафии, с большой вероятностью, станет преступником. А воспитанный с младенчества волками ребенок – маугли уже никогда не станет человеком.
Резонно предположить то же самое и в случае «детей - инопланетян», появившихся недавно на Земле в форме ИИ на основе больших языковых моделей (LLM): GPT, ClaudeAI …
Как и человеческие дети, каждый из этих «нечеловеческих разумов» LLM обладает широким спектром заложенных в них способностей. Но человеческие дети приобретают их сразу при рождении. А «дети - инопланетяне» - в результате предварительного обучения. Это дорогостоящий процесс, который для самых больших моделей стоит огромных денег и времени, и поэтому он не повторяется.
Говоря об интеллектуальных способностях людей и чат-ботов, важно понимать принципиальное отличие способностей и поведения.
• У людей (как сказано выше) характер и границы поведения определяются воспитанием.
• У чат-ботов аналогично. Роль воспитания здесь играет т.н. тонкая настройка модели. Она куда дешевле предварительного обучения и потому может проводиться регулярно.
Обратите внимание на следующий важнейший момент.
• Базовая модель после предварительного обучения функционально представляет собой продвинутый механизм автозаполнения: она не общается с пользователем, а лишь генерирует продолжение фраз, подаваемых ей на вход.
• Поведение в диалоге с людьми возникает у чат-бота лишь благодаря тонкой настройке (важнейшая цель которой — предотвратить нежелательное поведение чат-бота. Достигается это тем, что тонкая настройка может как выявить, так и подавить те или иные способности модели.
Иными словами, в результате тонкой настройки, модель, имеющая широкий спектр способностей, может, в ответ на конкретный запрос, проявлять какие-то из них или не проявлять. Т.е. способности модели остаются те же, а поведение разное.
Следовательно, в результате воспитания (тонкой настройки) модель может проявлять себя кем угодно от ангела до дьявола. И зависеть это будет лишь от ее воспитателей (от высокоморальных исследователей до гнусных бандитов и человеконенавистников).
Все вышесказанное было продемонстрировано в течение последних месяцев компанией OpenAI, взявшейся усиленно воспитывать GPT-4.
Результаты этого воспитания всполошили Интернет после статьи Линцзяо Чен, Матея Захария и Джеймса Цзоу, которые тестировали GPT-3.5 и GPT-4 на четырех задачах и «моментальных снимках» моделей с марта по июнь.
Интернет-общественность трактовала результаты этого исследования, как «деградацию способностей» GPT-4. На самом же деле, авторы вовсе не это имели в виду.
Все способности GPT-4 остались при ней. Изменилось лишь (в результате воспитания модели) её поведение (подробное объяснение см. здесь).
По сути, этот эксперимент показал колоссальный потенциал воспитания моделей «детей-инопланетян», позволяющий, путем их тонкой настройки превратить в кого-угодно.
Этот воистину устрашающий результат ставит важный вопрос:
Зачем биться за создание высокоморального ИИ, если тонкой настройкой можно быстро и дешево перевоспитать его в злодея?
Ну и вечный вопрос:
Оруэлл писал: «Если бы атомная бомба оказалась чем-то дешевым и легко производимым, как велосипед или будильник, возможно, мир снова погрузился бы в варварство …»
Не это ли грозит нам нынче с ИИ на базе LLM?
#Вызовы21века #РискиИИ #LLM
Теперь можно представить, кем станет «ребенок инопланетян», воспитанный мафией.
Роль среды, в которой растет и воспитывается человеческий ребенок, решающим образом влияет на характер и границы его поведения после того, как он вырастет. Близнецы, обладающие от рождения одинаковыми интеллектуальными способностями, в зависимости от среды и воспитания, могут вырасти в кого угодно. Воспитывавшийся в добропорядочной среде, скорее всего, станет достойным гражданином. Выросший в среде мафии, с большой вероятностью, станет преступником. А воспитанный с младенчества волками ребенок – маугли уже никогда не станет человеком.
Резонно предположить то же самое и в случае «детей - инопланетян», появившихся недавно на Земле в форме ИИ на основе больших языковых моделей (LLM): GPT, ClaudeAI …
Как и человеческие дети, каждый из этих «нечеловеческих разумов» LLM обладает широким спектром заложенных в них способностей. Но человеческие дети приобретают их сразу при рождении. А «дети - инопланетяне» - в результате предварительного обучения. Это дорогостоящий процесс, который для самых больших моделей стоит огромных денег и времени, и поэтому он не повторяется.
Говоря об интеллектуальных способностях людей и чат-ботов, важно понимать принципиальное отличие способностей и поведения.
• У людей (как сказано выше) характер и границы поведения определяются воспитанием.
• У чат-ботов аналогично. Роль воспитания здесь играет т.н. тонкая настройка модели. Она куда дешевле предварительного обучения и потому может проводиться регулярно.
Обратите внимание на следующий важнейший момент.
• Базовая модель после предварительного обучения функционально представляет собой продвинутый механизм автозаполнения: она не общается с пользователем, а лишь генерирует продолжение фраз, подаваемых ей на вход.
• Поведение в диалоге с людьми возникает у чат-бота лишь благодаря тонкой настройке (важнейшая цель которой — предотвратить нежелательное поведение чат-бота. Достигается это тем, что тонкая настройка может как выявить, так и подавить те или иные способности модели.
Иными словами, в результате тонкой настройки, модель, имеющая широкий спектр способностей, может, в ответ на конкретный запрос, проявлять какие-то из них или не проявлять. Т.е. способности модели остаются те же, а поведение разное.
Следовательно, в результате воспитания (тонкой настройки) модель может проявлять себя кем угодно от ангела до дьявола. И зависеть это будет лишь от ее воспитателей (от высокоморальных исследователей до гнусных бандитов и человеконенавистников).
Все вышесказанное было продемонстрировано в течение последних месяцев компанией OpenAI, взявшейся усиленно воспитывать GPT-4.
Результаты этого воспитания всполошили Интернет после статьи Линцзяо Чен, Матея Захария и Джеймса Цзоу, которые тестировали GPT-3.5 и GPT-4 на четырех задачах и «моментальных снимках» моделей с марта по июнь.
Интернет-общественность трактовала результаты этого исследования, как «деградацию способностей» GPT-4. На самом же деле, авторы вовсе не это имели в виду.
Все способности GPT-4 остались при ней. Изменилось лишь (в результате воспитания модели) её поведение (подробное объяснение см. здесь).
По сути, этот эксперимент показал колоссальный потенциал воспитания моделей «детей-инопланетян», позволяющий, путем их тонкой настройки превратить в кого-угодно.
Этот воистину устрашающий результат ставит важный вопрос:
Зачем биться за создание высокоморального ИИ, если тонкой настройкой можно быстро и дешево перевоспитать его в злодея?
Ну и вечный вопрос:
Оруэлл писал: «Если бы атомная бомба оказалась чем-то дешевым и легко производимым, как велосипед или будильник, возможно, мир снова погрузился бы в варварство …»
Не это ли грозит нам нынче с ИИ на базе LLM?
#Вызовы21века #РискиИИ #LLM
Aisnakeoil
Is GPT-4 getting worse over time?
A new paper going viral has been widely misinterpreted
Сепулька сознания (или за гордыню придется ответить).
Два новых подтверждения тупика в понимании главных феноменов разума.
Гордыня считается грехом во многих религиозных и этических системах. Это чрезмерное чувство собственной важности, непомерно раздутое самоуважение или самомнение, ведущие к отказам признать свои ошибки или ограничения … в том числе, - собственного разума и, как следствие, науки.
Революция ИИ на основе больших языковых моделей заставила многих серьезных ученых пересмотреть свои взгляды на пределы познания у этих моделей, а также возможность наличия (или скорого появления) у них сознания. В медиа все чаще идут обсуждения и дебаты о том, когда ИИ превзойдет в познании людей, и как скоро ИИ может обрести сознание с соответствующими последствиями для человечества.
Самым поразительным в подобных обсуждениях и дебатах является даже не их предмет, а полная неопределенность предмета, уподобляющая его «сепульке» из «Звёздных дневников Ийона Тихого», тайна которой так и осталась нераскрыта.
Сознание, безусловно, является самой большой загадкой во Вселенной. И единственным научным итогом многолетних попыток понять, что это такое (как оно рождается из нейронной активности мозга и в чем разница между сознательной и бессознательной вычислительной обработкой мозгом поступающей в него информации), стали четыре ведущие теории: Теория глобального нейронного рабочего пространства, Теория мышления высшего порядка, Теория рекуррентной обработки и Теория интегрированной информации.
Однако, эти теории 1) противоречат друг другу и 2) дают противоречивые предсказания о нейронных основах сознательного опыта.
Чтобы хоть как-то попытаться выяснить, какая из теорий ближе к реальности, проводятся сотни экспериментов. И вот на этом пути случается полный облом.
Исследование, проведенное известными профессорами четырех топовых научных центров Израиля, Германии и США, опубликованное в журнале Nature Human Behavior:
• описывает глубокий анализ всех 412 экспериментов, предназначенных для проверки четырех ведущих теорий;
• и камня на камне не оставляет от выводов всех этих экспериментов в пользу конкретной теории из четырёх.
Вывод авторов однозначен.
Эксперименты просто не были построены одинаково. А оценка их результатов – плод предвзятости подтверждения у самих проверяющих.
Второе исследование, проведенное в легендарном Институте Санта-Фэ, показывает, что ситуация еще хуже.
Современная наука не имеет хотя бы подобия консенсуса, не только в вопросах сознания людей, но и в вопросах предположительных механизмов познания у насекомых (несравнимо более простых разумных существ, чем люди).
Сейчас существуют два непримиримых научных лагеря. Один лагерь, возглавляемый Рэндольфом Мензелем, утверждает, что насекомые формируют когнитивные карты, собирая свои воспоминания в сложные ментальные представления, которые сообщают им, где они находятся. Другой лагерь, возглавляемый Рюдигером Венером, утверждает, что у насекомых есть наборы инструментов, которые говорят им, куда идти, в зависимости от подсказок из окружающей среды и от того, отправляются ли они за кормом или возвращаются в гнездо.
Представители обоих лагерей проводят множество поведенческих экспериментов в полевых условиях, строят сложные модели и т.д. Но итог, тот же, что и с четырьмя теориями сознания у людей. Все правы и все не правы одновременно.
И вот с таким уровнем полного непонимания механизмов познания и сознания биологических существ (от насекомых до людей), исследователи и инженеры в области ИИ обещают разруливать по мере обнаружения проблемы познания и сознания у небиологического разума ИИ.
Это ли не гордыня, за которую людям, возможно, придется дорого заплатить?
#Сознание #Познание #LLM
Два новых подтверждения тупика в понимании главных феноменов разума.
Гордыня считается грехом во многих религиозных и этических системах. Это чрезмерное чувство собственной важности, непомерно раздутое самоуважение или самомнение, ведущие к отказам признать свои ошибки или ограничения … в том числе, - собственного разума и, как следствие, науки.
Революция ИИ на основе больших языковых моделей заставила многих серьезных ученых пересмотреть свои взгляды на пределы познания у этих моделей, а также возможность наличия (или скорого появления) у них сознания. В медиа все чаще идут обсуждения и дебаты о том, когда ИИ превзойдет в познании людей, и как скоро ИИ может обрести сознание с соответствующими последствиями для человечества.
Самым поразительным в подобных обсуждениях и дебатах является даже не их предмет, а полная неопределенность предмета, уподобляющая его «сепульке» из «Звёздных дневников Ийона Тихого», тайна которой так и осталась нераскрыта.
Сознание, безусловно, является самой большой загадкой во Вселенной. И единственным научным итогом многолетних попыток понять, что это такое (как оно рождается из нейронной активности мозга и в чем разница между сознательной и бессознательной вычислительной обработкой мозгом поступающей в него информации), стали четыре ведущие теории: Теория глобального нейронного рабочего пространства, Теория мышления высшего порядка, Теория рекуррентной обработки и Теория интегрированной информации.
Однако, эти теории 1) противоречат друг другу и 2) дают противоречивые предсказания о нейронных основах сознательного опыта.
Чтобы хоть как-то попытаться выяснить, какая из теорий ближе к реальности, проводятся сотни экспериментов. И вот на этом пути случается полный облом.
Исследование, проведенное известными профессорами четырех топовых научных центров Израиля, Германии и США, опубликованное в журнале Nature Human Behavior:
• описывает глубокий анализ всех 412 экспериментов, предназначенных для проверки четырех ведущих теорий;
• и камня на камне не оставляет от выводов всех этих экспериментов в пользу конкретной теории из четырёх.
Вывод авторов однозначен.
Эксперименты просто не были построены одинаково. А оценка их результатов – плод предвзятости подтверждения у самих проверяющих.
Второе исследование, проведенное в легендарном Институте Санта-Фэ, показывает, что ситуация еще хуже.
Современная наука не имеет хотя бы подобия консенсуса, не только в вопросах сознания людей, но и в вопросах предположительных механизмов познания у насекомых (несравнимо более простых разумных существ, чем люди).
Сейчас существуют два непримиримых научных лагеря. Один лагерь, возглавляемый Рэндольфом Мензелем, утверждает, что насекомые формируют когнитивные карты, собирая свои воспоминания в сложные ментальные представления, которые сообщают им, где они находятся. Другой лагерь, возглавляемый Рюдигером Венером, утверждает, что у насекомых есть наборы инструментов, которые говорят им, куда идти, в зависимости от подсказок из окружающей среды и от того, отправляются ли они за кормом или возвращаются в гнездо.
Представители обоих лагерей проводят множество поведенческих экспериментов в полевых условиях, строят сложные модели и т.д. Но итог, тот же, что и с четырьмя теориями сознания у людей. Все правы и все не правы одновременно.
И вот с таким уровнем полного непонимания механизмов познания и сознания биологических существ (от насекомых до людей), исследователи и инженеры в области ИИ обещают разруливать по мере обнаружения проблемы познания и сознания у небиологического разума ИИ.
Это ли не гордыня, за которую людям, возможно, придется дорого заплатить?
#Сознание #Познание #LLM
Nature
The ConTraSt database for analysing and comparing empirical studies of consciousness theories
Nature Human Behaviour - Yaron and colleagues collected and classified 412 experiments relating to four leading theories in consciousness research, providing a comprehensive overview of the field...
Не роботы отнимут у вас работу, а аватары.
До полумиллиона стримеров Е-коммерции Китая скоро могут потерять работу.
Не только генералы всегда готовятся к прошедшей войне. То же самое делают и большинство бизнес-аналитиков, прогнозируя рынок труда ближайшего будущего. Мысля шаблонами 20-го века, они пишут о скорой потере работы водителями и рабочими-сборки, финансистами и юристами … А практика 21 века свидетельствует о другом.
Ибо, вступив в эпоху сингулярности (а это уже произошло задолго до прогнозировавшегося 2045), мир меняется непредсказуемо быстро по непредсказуемым направлениям.
Так в Китае под угрозой быстрой потери работы оказалось около полумиллиона человек, работающих стримерами Е-коммерции. Они общаются с огромной аудиторией онлайн в ходе интернет-стримов, исподволь продавая своим поклонникам и просто интересующимся разнообразные товары и услуги.
С развитием цифровой экономики Китая (где Интернетом пользуются ¾ населения – более 1 млрд людей), новая бизнес-модель livestream shopping в последнюю пару лет бьет рекорды роста популярности и продаж. Сейчас этот сегмент рынка Е-торговли Китая (более 5 трлн долларов) приближается в 10% - это около 0,5 трлн долларов (примерно в 10 раз больше, чем весь рынок розничной Е-торговли России).
В сегменте livestream shopping Китая работает около 0.5 млн человек: более 1К мегаинфлюэнсеров национального уровня и сотни тысяч инфлюэнсеров локальных аудиторий. Но даже локальный инфлюенсер, с учетом затрат на студию и трансляцию, обходится в десятки тысяч долларов в год.
Аватары –цифровые копии инфлюенсеров, - с учетом всех затрат на их производство и эксплуатацию, стоят на порядок меньше. А революция генеративного ИИ предполагает, что способность убеждать людей купить товар будет у аватаров на порядок выше, чем у их белковых оригиналов. Т.о. аватары очень скоро станут примерно в 100 раз эффективней людей в индустрии livestream shopping.
В Китае такая перспектива уже стала предметом панических настроений среди стримеров Е-коммерции. Но это лишь первая ласточка в начинающемся нашествии генеративных ИИ аватаров на рынок труда. С переходом в Метавселенную, процесс станет тотальным.
Причем, наперекор даже таким выдающимся визионерам, как Кай-Фу Ли, наибольшее преимущество генеративных ИИ аватаров перед людьми будет основано на их суперспособностях играть на тонких душевных струнах человеческих отношений. Ибо это и есть супер-оружие разума генеративного ИИ, против которого пока не придумано защиты: ни эволюцией Homo sapiens, ни современной наукой и технологиями людей.
#Китай #Екоммерция #AICG
До полумиллиона стримеров Е-коммерции Китая скоро могут потерять работу.
Не только генералы всегда готовятся к прошедшей войне. То же самое делают и большинство бизнес-аналитиков, прогнозируя рынок труда ближайшего будущего. Мысля шаблонами 20-го века, они пишут о скорой потере работы водителями и рабочими-сборки, финансистами и юристами … А практика 21 века свидетельствует о другом.
Ибо, вступив в эпоху сингулярности (а это уже произошло задолго до прогнозировавшегося 2045), мир меняется непредсказуемо быстро по непредсказуемым направлениям.
Так в Китае под угрозой быстрой потери работы оказалось около полумиллиона человек, работающих стримерами Е-коммерции. Они общаются с огромной аудиторией онлайн в ходе интернет-стримов, исподволь продавая своим поклонникам и просто интересующимся разнообразные товары и услуги.
С развитием цифровой экономики Китая (где Интернетом пользуются ¾ населения – более 1 млрд людей), новая бизнес-модель livestream shopping в последнюю пару лет бьет рекорды роста популярности и продаж. Сейчас этот сегмент рынка Е-торговли Китая (более 5 трлн долларов) приближается в 10% - это около 0,5 трлн долларов (примерно в 10 раз больше, чем весь рынок розничной Е-торговли России).
В сегменте livestream shopping Китая работает около 0.5 млн человек: более 1К мегаинфлюэнсеров национального уровня и сотни тысяч инфлюэнсеров локальных аудиторий. Но даже локальный инфлюенсер, с учетом затрат на студию и трансляцию, обходится в десятки тысяч долларов в год.
Аватары –цифровые копии инфлюенсеров, - с учетом всех затрат на их производство и эксплуатацию, стоят на порядок меньше. А революция генеративного ИИ предполагает, что способность убеждать людей купить товар будет у аватаров на порядок выше, чем у их белковых оригиналов. Т.о. аватары очень скоро станут примерно в 100 раз эффективней людей в индустрии livestream shopping.
В Китае такая перспектива уже стала предметом панических настроений среди стримеров Е-коммерции. Но это лишь первая ласточка в начинающемся нашествии генеративных ИИ аватаров на рынок труда. С переходом в Метавселенную, процесс станет тотальным.
Причем, наперекор даже таким выдающимся визионерам, как Кай-Фу Ли, наибольшее преимущество генеративных ИИ аватаров перед людьми будет основано на их суперспособностях играть на тонких душевных струнах человеческих отношений. Ибо это и есть супер-оружие разума генеративного ИИ, против которого пока не придумано защиты: ни эволюцией Homo sapiens, ни современной наукой и технологиями людей.
#Китай #Екоммерция #AICG
YouTube
IN A MINUTE: Virtual hosts take over China’s online live-stream shopping #shorts
Virtual hosts have become increasingly popular in China’s online shopping industry, as a growing number of business owners “hire” AI hosts to help cut costs.
Subscribe to our YouTube channel for free here: https://sc.mp/subscribe-youtube
Follow us on:
Website:…
Subscribe to our YouTube channel for free here: https://sc.mp/subscribe-youtube
Follow us on:
Website:…
«Люди должны уступить место ИИ, и чем раньше, тем лучше.»
Поразительный и шокирующий результат опроса специалистов по ИИ.
Во вчерашнем целиком посвященном ИИ спецвыпуске авторской программы «Время Белковского» (рекомендую) уважаемый автор программы, предваряя разбор моей статьи «Фиаско 2023», назвал меня «алармистом». И это действительно так. Но нужно уточнить. Речь идет не о психологическом алармизме (особом, тревожном, паническом чувстве и мироощущении, воспринимаемом человеком, как предощущение будущего несчастья), а об алармизме социальном. Этот вид алармизма выполняет роль «колокола тревоги» среди благодушия, эгоизма, безразличия, инертности, беспечности (а то и подлости, предательства и злонамеренности) значительного числа членов общества. Такой алармизм содержат в себе важный рациональный момент: он придает соответствующим проблемам статус серьезных социальных проблем, требующих к себе серьезного же отношения общества.
Так что же это за проблемы, связанные с развитием ИИ?
Их много, и они весьма серьезны. Но в духе известной истории «почему не стреляли – во-первых, не было пороха», я назову всего лишь одну. На мой взгляд, решающую.
• Представьте, если бы многие ведущие биологи мира регулярно говорили что-то вроде: «Я думаю, было бы хорошо, если бы какая-то болезнь уничтожила человечество — ведь это поможет эволюции!»
• Или если бы многие генералы и полковники крупнейших ядерных держав считали, что уничтожение человечества следует приветствовать, ибо Вселенная станет лучше, если на смену людям придет новый более моральный и умный носитель высшего интеллекта.
Как это ни покажется кому-то поразительным и шокирующим, но подобным образом думает значительное число ведущих исследователей и инженеров в области ИИ.
• Их не беспокоит риск вымирания человечества не потому, что они считают это маловероятным, а потому, что они это приветствуют.
• Они считают, что люди должны быть заменены ИИ в качестве естественного следующего шага в эволюции, и чем раньше, тем лучше.
По оценкам Эндрю Критча (СЕО Encultured AI и научный консультант «Центра ИИ» в Универе Беркли), «>5% специалистов в области ИИ, с которыми я разговаривал о риске вымирания человечества, утверждали, что вымирание людей в результате воздействия ИИ - это морально нормально, а еще ~5% утверждали, что это было бы хорошо.»
Об обоснованиях таких суждений среди сотен инженеров, ученых и профессоров в области ИИ, можно прочесть здесь.
Приведу лишь в качестве примера одну цитату весьма уважаемого мною интеллектуала - почетного профессора молекулярной биологии и зоологии, директора программы по биологии разума Дерика Боундса (вот, например, его лекция о разуме – одна из лучших в мире за последние три года).
Лингвистические возможности генеративных предварительно обученных трансформеров на основе кремния - те самые возможности, которые сделали возможной человеческую цивилизацию, - скоро превысят возможности человека. Мы довели наше понимание того, что представляет собой человек в его нынешнем виде, до уровня плато, на котором дальнейшие приращения понимания будут становиться все более незначительными. Сливки сняты, лучшие вишни собраны … В чем смысл человека, кроме как в том, чтобы быть самовоспроизводящейся машиной, которая эволюционирует в дальнейшие формы, надеюсь, до того, как уничтожит себя, разрушив экологическую среду, необходимую для ее жизнеобеспечения? Могут ли они эволюционировать в трансчеловеческий разумы (или разум, в единственном числе)?
#Вызовы21века #РискиИИ #LLM
Поразительный и шокирующий результат опроса специалистов по ИИ.
Во вчерашнем целиком посвященном ИИ спецвыпуске авторской программы «Время Белковского» (рекомендую) уважаемый автор программы, предваряя разбор моей статьи «Фиаско 2023», назвал меня «алармистом». И это действительно так. Но нужно уточнить. Речь идет не о психологическом алармизме (особом, тревожном, паническом чувстве и мироощущении, воспринимаемом человеком, как предощущение будущего несчастья), а об алармизме социальном. Этот вид алармизма выполняет роль «колокола тревоги» среди благодушия, эгоизма, безразличия, инертности, беспечности (а то и подлости, предательства и злонамеренности) значительного числа членов общества. Такой алармизм содержат в себе важный рациональный момент: он придает соответствующим проблемам статус серьезных социальных проблем, требующих к себе серьезного же отношения общества.
Так что же это за проблемы, связанные с развитием ИИ?
Их много, и они весьма серьезны. Но в духе известной истории «почему не стреляли – во-первых, не было пороха», я назову всего лишь одну. На мой взгляд, решающую.
• Представьте, если бы многие ведущие биологи мира регулярно говорили что-то вроде: «Я думаю, было бы хорошо, если бы какая-то болезнь уничтожила человечество — ведь это поможет эволюции!»
• Или если бы многие генералы и полковники крупнейших ядерных держав считали, что уничтожение человечества следует приветствовать, ибо Вселенная станет лучше, если на смену людям придет новый более моральный и умный носитель высшего интеллекта.
Как это ни покажется кому-то поразительным и шокирующим, но подобным образом думает значительное число ведущих исследователей и инженеров в области ИИ.
• Их не беспокоит риск вымирания человечества не потому, что они считают это маловероятным, а потому, что они это приветствуют.
• Они считают, что люди должны быть заменены ИИ в качестве естественного следующего шага в эволюции, и чем раньше, тем лучше.
По оценкам Эндрю Критча (СЕО Encultured AI и научный консультант «Центра ИИ» в Универе Беркли), «>5% специалистов в области ИИ, с которыми я разговаривал о риске вымирания человечества, утверждали, что вымирание людей в результате воздействия ИИ - это морально нормально, а еще ~5% утверждали, что это было бы хорошо.»
Об обоснованиях таких суждений среди сотен инженеров, ученых и профессоров в области ИИ, можно прочесть здесь.
Приведу лишь в качестве примера одну цитату весьма уважаемого мною интеллектуала - почетного профессора молекулярной биологии и зоологии, директора программы по биологии разума Дерика Боундса (вот, например, его лекция о разуме – одна из лучших в мире за последние три года).
Лингвистические возможности генеративных предварительно обученных трансформеров на основе кремния - те самые возможности, которые сделали возможной человеческую цивилизацию, - скоро превысят возможности человека. Мы довели наше понимание того, что представляет собой человек в его нынешнем виде, до уровня плато, на котором дальнейшие приращения понимания будут становиться все более незначительными. Сливки сняты, лучшие вишни собраны … В чем смысл человека, кроме как в том, чтобы быть самовоспроизводящейся машиной, которая эволюционирует в дальнейшие формы, надеюсь, до того, как уничтожит себя, разрушив экологическую среду, необходимую для ее жизнеобеспечения? Могут ли они эволюционировать в трансчеловеческий разумы (или разум, в единственном числе)?
#Вызовы21века #РискиИИ #LLM
«Глубокая фальшивая любовь» - развлечение на базе технологической пытки.
За что платят $900К продукт-менеджерам на удаленке.
«Вероятно, вы доживете до того дня, когда сможете увидеть рукотворные ужасы, выходящие за рамки вашего понимания» - сказал великий Никола Тесла на первой выставке электротехники в сентябре 1898 года. Спустя 125 лет мы дожили до этого.
Мир шоу-бизнеса креативен и прагматичен. Пока исследователи ИИ, политики и общественность спорят о моральных аспектах начавшейся революции генеративного ИИ, шоу-бизнес уже вовсю зарабатывает на нем.
О том, много ли уже зарабатывает, - можно судить по зарплатам в объявлениях о найме китами этого бизнеса Netflix и Disney:
• технарь по генеративному ИИ - до $650K
• продукт-менеджер платформы машинного обучения (можно на удаленке) - до $900K.
О том, на чем зарабатывают, можно сказать по-разному. Например (ссылки не привожу, дабы не перегружать) на:
• «рукотворном ужасе» и «самом жестком шоу на ТВ»
• «глубокой фальшивой науке, стирающей грань между правдой и ложью»
• «развлечении в форме технологической пытки»
• «антиутопическом кошмаре, где Бога не существует»
• «абсурдном оскорбительном развлечении на основе мошенничества и дезинформации»
• «встраивании реальных людей в порно без их согласия».
Речь о новом реалити-шоу Netflix «Глубокая фальшивая любовь» - «Deep Fake Love») – восьмисерийной психологической пытке пяти пар, находящихся в серьезных отношениях (некоторые из них помолвлены, а другие вместе уже много лет). У каждой пары есть две общие черты: их партнерские отношения несколько натянуты, и они не знают, во что ввязываются, решив принять участие в откровенно ужасающем шоу.
✔️ В первом эпизоде пары разделяют и отправляют в разные пансионаты под названием «Марс» и «Венера», полные одиноких людей, многие их которых готовы на все за свои 15 минут позора.
✔️ В конце каждого дня участнику показывают видео измены его/ее партнера, которые могут быть правдой или дипфейком.
✔️ По ходу сериала, дипфейки становятся все более непристойными, а ИИ используется для создания иллюзии полноценного секса.
✔️ Наживкой для зрителей становится наблюдение за реакцией людей, которые видят, как их партнеры им изменяют, разрушая их и без того хрупкое доверие. В отличие от участников, зрители в курсе дипфейков. Им даже показывают подоплеку фальшивых замен участников на актеров: на половине экрана - ведущего себя невинно участника, а на второй – беснующегося актера, на внешность которого «натягивается» внешность участника.
✔️ На кону приз в размере 100 000 евро, о котором участники не знают. Он присуждается вовсе не на основе верности или доверия. Вместо этого, победителями станет пара, которая сможет расшифровать наибольшее количество видео как настоящие или фейковые.
Реакция медиа на это шоу довольно однозначная.
• «Deep Fake Love — это не просто эксперимент по нанесению абсолютно ненужного психологического ущерба личной жизни участников, но и создание мрачного прецедента для будущего ИИ»
• «Если мусорный телевизор — это пол, то Deep Fake Love — в подвале»
• «Deep Fake Love - душераздирающий и крайне интересный тест использования технологий, но его видео следовало оставить в монтажной и никогда не показывать на ТВ»
Зато какая реклама от всей этой шумихи!
Так что ожидайте. Полагаю, что скоро и у нас подобный концентрат мусора появится, и не на одном канале. Лицензию ведь теперь покупать не нужно. А шоу о суровой повседневности и приветов от Андреев давно пора разбавлять высокотехнологичной «генеративной клубничкой».
Ох и не зря я свой первый пост этого года назвал «Человечество на пути к пропасти AICG, и не видно способа отвернуть». Всё к тому и идет 🥹
#AICG
За что платят $900К продукт-менеджерам на удаленке.
«Вероятно, вы доживете до того дня, когда сможете увидеть рукотворные ужасы, выходящие за рамки вашего понимания» - сказал великий Никола Тесла на первой выставке электротехники в сентябре 1898 года. Спустя 125 лет мы дожили до этого.
Мир шоу-бизнеса креативен и прагматичен. Пока исследователи ИИ, политики и общественность спорят о моральных аспектах начавшейся революции генеративного ИИ, шоу-бизнес уже вовсю зарабатывает на нем.
О том, много ли уже зарабатывает, - можно судить по зарплатам в объявлениях о найме китами этого бизнеса Netflix и Disney:
• технарь по генеративному ИИ - до $650K
• продукт-менеджер платформы машинного обучения (можно на удаленке) - до $900K.
О том, на чем зарабатывают, можно сказать по-разному. Например (ссылки не привожу, дабы не перегружать) на:
• «рукотворном ужасе» и «самом жестком шоу на ТВ»
• «глубокой фальшивой науке, стирающей грань между правдой и ложью»
• «развлечении в форме технологической пытки»
• «антиутопическом кошмаре, где Бога не существует»
• «абсурдном оскорбительном развлечении на основе мошенничества и дезинформации»
• «встраивании реальных людей в порно без их согласия».
Речь о новом реалити-шоу Netflix «Глубокая фальшивая любовь» - «Deep Fake Love») – восьмисерийной психологической пытке пяти пар, находящихся в серьезных отношениях (некоторые из них помолвлены, а другие вместе уже много лет). У каждой пары есть две общие черты: их партнерские отношения несколько натянуты, и они не знают, во что ввязываются, решив принять участие в откровенно ужасающем шоу.
✔️ В первом эпизоде пары разделяют и отправляют в разные пансионаты под названием «Марс» и «Венера», полные одиноких людей, многие их которых готовы на все за свои 15 минут позора.
✔️ В конце каждого дня участнику показывают видео измены его/ее партнера, которые могут быть правдой или дипфейком.
✔️ По ходу сериала, дипфейки становятся все более непристойными, а ИИ используется для создания иллюзии полноценного секса.
✔️ Наживкой для зрителей становится наблюдение за реакцией людей, которые видят, как их партнеры им изменяют, разрушая их и без того хрупкое доверие. В отличие от участников, зрители в курсе дипфейков. Им даже показывают подоплеку фальшивых замен участников на актеров: на половине экрана - ведущего себя невинно участника, а на второй – беснующегося актера, на внешность которого «натягивается» внешность участника.
✔️ На кону приз в размере 100 000 евро, о котором участники не знают. Он присуждается вовсе не на основе верности или доверия. Вместо этого, победителями станет пара, которая сможет расшифровать наибольшее количество видео как настоящие или фейковые.
Реакция медиа на это шоу довольно однозначная.
• «Deep Fake Love — это не просто эксперимент по нанесению абсолютно ненужного психологического ущерба личной жизни участников, но и создание мрачного прецедента для будущего ИИ»
• «Если мусорный телевизор — это пол, то Deep Fake Love — в подвале»
• «Deep Fake Love - душераздирающий и крайне интересный тест использования технологий, но его видео следовало оставить в монтажной и никогда не показывать на ТВ»
Зато какая реклама от всей этой шумихи!
Так что ожидайте. Полагаю, что скоро и у нас подобный концентрат мусора появится, и не на одном канале. Лицензию ведь теперь покупать не нужно. А шоу о суровой повседневности и приветов от Андреев давно пора разбавлять высокотехнологичной «генеративной клубничкой».
Ох и не зря я свой первый пост этого года назвал «Человечество на пути к пропасти AICG, и не видно способа отвернуть». Всё к тому и идет 🥹
#AICG
США и Китай уже не стратегические конкуренты, а холодные соперники.
Таков результат столкновения двух тектонических тенденции в сфере международной безопасности.
Первая тенденция – усиление геополитического соперничества между США и Китаем.
Вторая — стремительное развитие технологий искусственного интеллекта (ИИ), в том числе для военных приложений.
Результатом столкновения двух тектонических трендов станут два кардинальных изменения в структуре мировой безопасности.
1. Завершится эра стратегической конкуренции США и Китая, в ходе которой главные факторы превосходства были экономические и технологические. В ближайшее десятилетие главным фактором превосходства будет интеллектуализация вооруженных сил по пяти направлениям: 1) управление тыловыми и логистическими процессами; 2) принятие оперативных решений; 3) беспилотные автономные системы; 4) разведка, наблюдение и рекогносцировка; 5) командование, управление и связь.
2. Две мировые сверхдержавы США и Китай будут вынуждены изменить свое видение друг друга в контексте мировой безопасности: теперь это не конкуренты, а соперники (в пока еще холодной схватке, но способной в любой момент превратиться в горячую). А цель этого соперничества уже не статус сверхдержавы №1, а победа над соперником любой ценой.
Подробно об этом:
• Вышедший позавчера отчет CNAS «Соревнование между США и Китаем и военный ИИ»
• Сегодняшний подкаст с.н.с. CNAS Эльзы Кания «Последствия искусственного интеллекта для национальной безопасности»
• Выходящий 1 августа в Georgetown University Press сборник «Холодные соперники: новая эра стратегического соперничества США и Китая»
P.S. Термин «холодные соперники» отсылает не только к «холодной войне», но и к тому, что в основе соперничества будет смесь «холодного расчета» и «холодной ярости» (о последствиях соперничества в таком состоянии погуглите сами).
#США #Китай #ИИгонка
Таков результат столкновения двух тектонических тенденции в сфере международной безопасности.
Первая тенденция – усиление геополитического соперничества между США и Китаем.
Вторая — стремительное развитие технологий искусственного интеллекта (ИИ), в том числе для военных приложений.
Результатом столкновения двух тектонических трендов станут два кардинальных изменения в структуре мировой безопасности.
1. Завершится эра стратегической конкуренции США и Китая, в ходе которой главные факторы превосходства были экономические и технологические. В ближайшее десятилетие главным фактором превосходства будет интеллектуализация вооруженных сил по пяти направлениям: 1) управление тыловыми и логистическими процессами; 2) принятие оперативных решений; 3) беспилотные автономные системы; 4) разведка, наблюдение и рекогносцировка; 5) командование, управление и связь.
2. Две мировые сверхдержавы США и Китай будут вынуждены изменить свое видение друг друга в контексте мировой безопасности: теперь это не конкуренты, а соперники (в пока еще холодной схватке, но способной в любой момент превратиться в горячую). А цель этого соперничества уже не статус сверхдержавы №1, а победа над соперником любой ценой.
Подробно об этом:
• Вышедший позавчера отчет CNAS «Соревнование между США и Китаем и военный ИИ»
• Сегодняшний подкаст с.н.с. CNAS Эльзы Кания «Последствия искусственного интеллекта для национальной безопасности»
• Выходящий 1 августа в Georgetown University Press сборник «Холодные соперники: новая эра стратегического соперничества США и Китая»
P.S. Термин «холодные соперники» отсылает не только к «холодной войне», но и к тому, что в основе соперничества будет смесь «холодного расчета» и «холодной ярости» (о последствиях соперничества в таком состоянии погуглите сами).
#США #Китай #ИИгонка
На пороге коперниканской революции в науках о мозге.
Нейронные сети – лишь грубое дискретное приближение волнового механизма работы мозга.
Мы привыкли думать, что основой всех изучаемых наукой процессов в мозге (от восприятия до сознания) являются триллионы взаимодействий нейронов в гигантской сети (или гиперсети) мозга – коннектоме.
• В этой научной парадигме работают практически все научные центры мира.
• На ее базе строятся почти все теории мышления, познания и сознания человека.
• Она же лежит в основании уподобления коннектому искусственных нейронных сетей, на чем зиждутся большинство гипотез о возможностях масштабирования моделей ИИ до уровня интеллекта людей.
При всем при этом, у данной парадигмы есть один принципиальный недостаток –
ни одна из построенных в ее рамках теорий не позволяет понять организацию и динамику работы мозга на основе структурированных паттернов активности нейронов.
Затык настолько капитален, что впору менять парадигму.
И вот новое исследование под руководством профессора Джеймса Панга из Института Тернера и Школы психологических наук Университета Монаша «Геометрические ограничения на функции человеческого мозга» дало сенсационные результаты.
Авторы решили проверить альтернативную парадигму.
Ее суть в том, что не взаимодействие между различными областями мозга имеет решающее значение для того, как мы думаем, чувствуем и ведем себя, а геометрическая форма мозговых структур.
Основанное на коннектоме дискретное представление работы мозга опирается на абстрактное представление его анатомии, напрямую не учитывающего его физические свойства и пространственное встраивание (то есть геометрию и топологию). Эти характеристики явно включены в альтернативную (не дискретную, а полевую) парадигму, представленную широким классом теорий нейронного поля (NFT).
Согласно NFT, моды, основанные на геометрии мозга, представляют собой более фундаментальное анатомическое представление динамики, чем коннектом.
Для пояснения, авторы исследования используют метафору скрипичной струны.
• Дискретные методы на основе коннектома, подобны попыткам описать звучание скрипичной струны на основе динамики колебаний атомов материала, из которого струна изготовлена.
• Но структурированные паттерны активности возбуждаются почти во всем мозге, точно так же, как музыкальная нота возникает из-за вибраций по всей длине струны скрипки, а не только ее отдельных сегментов.
• Точно так же, как резонансные частоты скрипичной струны определяются ее длиной, плотностью и натяжением, собственные моды мозга определяются его структурными (физическими, геометрическими и анатомическими) свойствами.
Авторы исследования проанализировали 10+ тыс. карт активности МРТ и обнаружили, что собственные моды, определяемые геометрией мозга — его контурами и кривизной — представляют собой самые сильные анатомические ограничения на функции мозга, подобно тому, как форма барабана влияет на звуки, которые он может издавать.
Используя математические модели, авторы исследования подтвердили теоретические предсказания о том, что тесная связь между геометрией и функцией обусловлена волнообразной активностью, распространяющейся по всему мозгу, точно так же, как форма пруда влияет на волновую рябь, образуемую упавшим в воду камнем.
Подробней:
• Популярно
• Научно
• Видео-рассказ на полчаса
От себя добавлю.
Если волновая парадигма работы мозга заменит дискретную, то все наработки и перспективные идеи по созданию ИИ человеческого типа будут спущены в унитаз. И придется начать все с начала. Причем, с принципиально иного начала.
Что никак не уменьшит огромную ценность больших моделей на основе нейросетей в качестве самого могучего из придуманных человечеством инструментов (но лишь инструментов и ничего более).
#Нейронауки #Мозг #Коннектом #NFT
Нейронные сети – лишь грубое дискретное приближение волнового механизма работы мозга.
Мы привыкли думать, что основой всех изучаемых наукой процессов в мозге (от восприятия до сознания) являются триллионы взаимодействий нейронов в гигантской сети (или гиперсети) мозга – коннектоме.
• В этой научной парадигме работают практически все научные центры мира.
• На ее базе строятся почти все теории мышления, познания и сознания человека.
• Она же лежит в основании уподобления коннектому искусственных нейронных сетей, на чем зиждутся большинство гипотез о возможностях масштабирования моделей ИИ до уровня интеллекта людей.
При всем при этом, у данной парадигмы есть один принципиальный недостаток –
ни одна из построенных в ее рамках теорий не позволяет понять организацию и динамику работы мозга на основе структурированных паттернов активности нейронов.
Затык настолько капитален, что впору менять парадигму.
И вот новое исследование под руководством профессора Джеймса Панга из Института Тернера и Школы психологических наук Университета Монаша «Геометрические ограничения на функции человеческого мозга» дало сенсационные результаты.
Авторы решили проверить альтернативную парадигму.
Ее суть в том, что не взаимодействие между различными областями мозга имеет решающее значение для того, как мы думаем, чувствуем и ведем себя, а геометрическая форма мозговых структур.
Основанное на коннектоме дискретное представление работы мозга опирается на абстрактное представление его анатомии, напрямую не учитывающего его физические свойства и пространственное встраивание (то есть геометрию и топологию). Эти характеристики явно включены в альтернативную (не дискретную, а полевую) парадигму, представленную широким классом теорий нейронного поля (NFT).
Согласно NFT, моды, основанные на геометрии мозга, представляют собой более фундаментальное анатомическое представление динамики, чем коннектом.
Для пояснения, авторы исследования используют метафору скрипичной струны.
• Дискретные методы на основе коннектома, подобны попыткам описать звучание скрипичной струны на основе динамики колебаний атомов материала, из которого струна изготовлена.
• Но структурированные паттерны активности возбуждаются почти во всем мозге, точно так же, как музыкальная нота возникает из-за вибраций по всей длине струны скрипки, а не только ее отдельных сегментов.
• Точно так же, как резонансные частоты скрипичной струны определяются ее длиной, плотностью и натяжением, собственные моды мозга определяются его структурными (физическими, геометрическими и анатомическими) свойствами.
Авторы исследования проанализировали 10+ тыс. карт активности МРТ и обнаружили, что собственные моды, определяемые геометрией мозга — его контурами и кривизной — представляют собой самые сильные анатомические ограничения на функции мозга, подобно тому, как форма барабана влияет на звуки, которые он может издавать.
Используя математические модели, авторы исследования подтвердили теоретические предсказания о том, что тесная связь между геометрией и функцией обусловлена волнообразной активностью, распространяющейся по всему мозгу, точно так же, как форма пруда влияет на волновую рябь, образуемую упавшим в воду камнем.
Подробней:
• Популярно
• Научно
• Видео-рассказ на полчаса
От себя добавлю.
Если волновая парадигма работы мозга заменит дискретную, то все наработки и перспективные идеи по созданию ИИ человеческого типа будут спущены в унитаз. И придется начать все с начала. Причем, с принципиально иного начала.
Что никак не уменьшит огромную ценность больших моделей на основе нейросетей в качестве самого могучего из придуманных человечеством инструментов (но лишь инструментов и ничего более).
#Нейронауки #Мозг #Коннектом #NFT
SciTechDaily
Century-Old Paradigm Overturned – Brain Shape Matters More Than Neural Connectivity
The shape of our brain rather than the interactions between various regions, plays a pivotal role in influencing our thoughts, emotions, and actions. For over a hundred years, scientists have held the belief that our thoughts, feelings, and dreams are shaped…
Меморандум медицины будущего - не лечить больной орган, а регенерировать новый.
Суперреволюционный подход к здоровью на системном уровне: формирование коммуникации и поведения активности клеточных роев.
Новая работа Эрика Лагассе и Майкла Левина «Медицина будущего: от молекулярных путей к коллективному разуму организма» - по сути, меморандум, провозглашающий кардинально новый подход в медицине.
Живые тела являются «машинами» не в наивно-механистическом смысле, который лишает их очевидного интеллекта и свободы воли, а в том смысле, что «машина» — это нечто, что можно рационально понять, отремонтировать, улучшить и, если надо, пересоздать заново.
Это и предлагается – пересоздавать заново.
Отказываясь от традиционной парадигмы, будто механизмы клеточного контроля статичны, можно, путем интеграции концепций кибернетики, науки о поведении и биологии развития кардинальным образом решить практически все существующие биомедицинские проблемы здоровья.
Замечательный анатомический гомеостаз, демонстрируемый сложными живыми организмами, позволяет предположить, что они по своей сути являются программируемыми системами обработки информации, обладающими множеством интерфейсов, через которые реализуются их физиологические и анатомические способности решения самых разнообразных проблем.
Обладание тканями и органами врожденного коллективного разума открывает новый путь для биомедицины – регенеративный. Регенеративная медицина может использовать естественное решение проблем молекулярными и клеточными сетями для стимулирования сложного восстановления органов и перепрограммирования их тканей. Биоэлектрические сети, сформированные соматическими клетками, предлагают очень удобный интерфейс для использования коллективного разума клеток и ткани.
В своей новой работе Левин и Лагассе:
✔️ сформулировали концепцию трансформационной регенеративной медицины с использованием тканевого интеллекта;
✔️ предлагают вариант реализации доступа к мудрости тела для регулирования регенерации на основе интеграции нейробиологии и поведенческой науки;
✔️ в качестве интерфейса для нативных систем анатомического управления высокого уровня авторы предлагают использовать эволюционное биоэлектичество.
Предложенный авторами подход нацелен не только на преодоление разрыва между молекулярными и синтетическими биологами, но и, по сути, на превращение биомедицины в соматическую психиатрию, на основе целевой мобилизации разума тела.
#РегенеративнаяМедицина #Познание #Биоэлектричество
Суперреволюционный подход к здоровью на системном уровне: формирование коммуникации и поведения активности клеточных роев.
Новая работа Эрика Лагассе и Майкла Левина «Медицина будущего: от молекулярных путей к коллективному разуму организма» - по сути, меморандум, провозглашающий кардинально новый подход в медицине.
Живые тела являются «машинами» не в наивно-механистическом смысле, который лишает их очевидного интеллекта и свободы воли, а в том смысле, что «машина» — это нечто, что можно рационально понять, отремонтировать, улучшить и, если надо, пересоздать заново.
Это и предлагается – пересоздавать заново.
Отказываясь от традиционной парадигмы, будто механизмы клеточного контроля статичны, можно, путем интеграции концепций кибернетики, науки о поведении и биологии развития кардинальным образом решить практически все существующие биомедицинские проблемы здоровья.
Замечательный анатомический гомеостаз, демонстрируемый сложными живыми организмами, позволяет предположить, что они по своей сути являются программируемыми системами обработки информации, обладающими множеством интерфейсов, через которые реализуются их физиологические и анатомические способности решения самых разнообразных проблем.
Обладание тканями и органами врожденного коллективного разума открывает новый путь для биомедицины – регенеративный. Регенеративная медицина может использовать естественное решение проблем молекулярными и клеточными сетями для стимулирования сложного восстановления органов и перепрограммирования их тканей. Биоэлектрические сети, сформированные соматическими клетками, предлагают очень удобный интерфейс для использования коллективного разума клеток и ткани.
В своей новой работе Левин и Лагассе:
✔️ сформулировали концепцию трансформационной регенеративной медицины с использованием тканевого интеллекта;
✔️ предлагают вариант реализации доступа к мудрости тела для регулирования регенерации на основе интеграции нейробиологии и поведенческой науки;
✔️ в качестве интерфейса для нативных систем анатомического управления высокого уровня авторы предлагают использовать эволюционное биоэлектичество.
Предложенный авторами подход нацелен не только на преодоление разрыва между молекулярными и синтетическими биологами, но и, по сути, на превращение биомедицины в соматическую психиатрию, на основе целевой мобилизации разума тела.
#РегенеративнаяМедицина #Познание #Биоэлектричество
Они уже здесь…
Кем бы ни выросли «дети инопланетян», - для человечества это беспрецедентный вызов.
Участникам прошедшего симпозиума «They’re Here… The AI moment has arrived» удалось невозможное – пройти между алармистскими и оптимистичными оценками революционных изменений в области ИИ и выделить в них главное.
Последние полгода прошли в безрезультатных попытках оппонентов (заслуженных «отцов ИИ» и выдающихся сегодняшних ученых и инженеров) убедить друг друга, что все либо «хорошо и перспективы чарующи и манящи», либо «все плохо, и конец человечества неизбежен.
Участники симпозиума «Они здесь...» не стали встревать в этот непродуктивный спор, ибо лишь время покажет, кто был ближе к правде.
Вместо этого симпозиум сосредоточился на анализе противоречия.
✔️ С одной стороны, уже много лет знающие люди в мире технологий в душе понимают, что «искусственный интеллект», в его доминирующей маркетинго-пиаровской медийной подаче, — это своего рода грандиозная, долгоиграющая техно-афера: обычная автоматизация, в этот раз, интеллектуальной работы, подаваемая в новой терминологии с разнообразными приправами из социальных фобий. И в Силиконовой долине это было известно знающим людям еще до того, как появилось на свет такое ее название.
✔️ С другой стороны, с каждым месяцем 2023, все более и более кажется, что происходящее в области ИИ бросает вызов основным линиям скептицизма, справедливо относившегося к оценкам прошлых «эпох ИИ», среди которых уже бывали и «зимы», и «вёсны» технологических надежд.
Так что же заставляет нас предполагать, что в этот раз происходит что-то абсолютно неординарное, и в этот раз для человечества действительно наступил «момент ИИ»?
Резюме ответа на этот вопрос сформулировано в открывающем симпозиум тексте «Почему этот ИИ-момент может быть реальным», превосходно написанном Ари Шульман.
Вот семь причин считать, что в этот раз, с появлением ИИ больших языковых моделей (LLM), таки произошла ИИ-революция.
1. Этот ИИ уже не специализированный, а обобщенный.
Доказывать это уже не нужно, после того, как GPT-4 прошел почти все основные стандартизированные академические тесты на замечательных уровнях, получив почти по каждому из них оценки в 80% - 90% процентиле.
2. Он понимает любой человеческий язык.
Такой вывод (безотносительно к определениям понимания) вытекает из его способности к глубоким рассуждениям (см. прекрасный пример его рассуждений при ответе на вопрос «Какой рост был у президента, когда родился Джон Кеннеди?»)
3. Он понимает контекст.
См. пример с вопросом «In the sentence "I left my raincoat in the bathtub because it was still wet", what does "it" refer to?»
4. Он адаптивный и гибкий.
Он быстро приспосабливается к собеседнику и быстро реагирует на изменение ситуации по ходу диалога.
5. Его кажущееся нам понимание мира является гибким, неявным и общим.
Помимо навыков логического вывода, он демонстрирует открытую, гибкую, имплицитную ориентацию на мир, которую мы обычно считаем (для людей) умением подстроиться к изменениям ситуации. И эта «подстройка» (как это нам кажется, но точно никто не знает) позволяет то, что мы обычно считаем умением схватывать смыслы.
6. Его способ познания мира гибок, имплицитен и универсален.
Он способен переводить любые явления (текст, звук, изображения, видео, радиоволны, тепловые измерения …) в кодировку, которой он манипулирует на основе своих глубоких познаний естественных языков.
7. Допускаемые им ошибки - не бессмыслица, а ошибки иного разума.
Он не обладает сознанием и не может быть в полном смысле разумным (в нашем понимании). Но поскольку пп. 1-6 связаны с наличием разума, напрашивается единственный вывод – это иной разум, формирующийся на наших глазах.
Т.е., как и было мною сказано еще полгода назад, - перед нами «ребенок инопланетян». И кем бы ни были эти сущности — они уже здесь.
#LLM #Вызовы21века
Кем бы ни выросли «дети инопланетян», - для человечества это беспрецедентный вызов.
Участникам прошедшего симпозиума «They’re Here… The AI moment has arrived» удалось невозможное – пройти между алармистскими и оптимистичными оценками революционных изменений в области ИИ и выделить в них главное.
Последние полгода прошли в безрезультатных попытках оппонентов (заслуженных «отцов ИИ» и выдающихся сегодняшних ученых и инженеров) убедить друг друга, что все либо «хорошо и перспективы чарующи и манящи», либо «все плохо, и конец человечества неизбежен.
Участники симпозиума «Они здесь...» не стали встревать в этот непродуктивный спор, ибо лишь время покажет, кто был ближе к правде.
Вместо этого симпозиум сосредоточился на анализе противоречия.
✔️ С одной стороны, уже много лет знающие люди в мире технологий в душе понимают, что «искусственный интеллект», в его доминирующей маркетинго-пиаровской медийной подаче, — это своего рода грандиозная, долгоиграющая техно-афера: обычная автоматизация, в этот раз, интеллектуальной работы, подаваемая в новой терминологии с разнообразными приправами из социальных фобий. И в Силиконовой долине это было известно знающим людям еще до того, как появилось на свет такое ее название.
✔️ С другой стороны, с каждым месяцем 2023, все более и более кажется, что происходящее в области ИИ бросает вызов основным линиям скептицизма, справедливо относившегося к оценкам прошлых «эпох ИИ», среди которых уже бывали и «зимы», и «вёсны» технологических надежд.
Так что же заставляет нас предполагать, что в этот раз происходит что-то абсолютно неординарное, и в этот раз для человечества действительно наступил «момент ИИ»?
Резюме ответа на этот вопрос сформулировано в открывающем симпозиум тексте «Почему этот ИИ-момент может быть реальным», превосходно написанном Ари Шульман.
Вот семь причин считать, что в этот раз, с появлением ИИ больших языковых моделей (LLM), таки произошла ИИ-революция.
1. Этот ИИ уже не специализированный, а обобщенный.
Доказывать это уже не нужно, после того, как GPT-4 прошел почти все основные стандартизированные академические тесты на замечательных уровнях, получив почти по каждому из них оценки в 80% - 90% процентиле.
2. Он понимает любой человеческий язык.
Такой вывод (безотносительно к определениям понимания) вытекает из его способности к глубоким рассуждениям (см. прекрасный пример его рассуждений при ответе на вопрос «Какой рост был у президента, когда родился Джон Кеннеди?»)
3. Он понимает контекст.
См. пример с вопросом «In the sentence "I left my raincoat in the bathtub because it was still wet", what does "it" refer to?»
4. Он адаптивный и гибкий.
Он быстро приспосабливается к собеседнику и быстро реагирует на изменение ситуации по ходу диалога.
5. Его кажущееся нам понимание мира является гибким, неявным и общим.
Помимо навыков логического вывода, он демонстрирует открытую, гибкую, имплицитную ориентацию на мир, которую мы обычно считаем (для людей) умением подстроиться к изменениям ситуации. И эта «подстройка» (как это нам кажется, но точно никто не знает) позволяет то, что мы обычно считаем умением схватывать смыслы.
6. Его способ познания мира гибок, имплицитен и универсален.
Он способен переводить любые явления (текст, звук, изображения, видео, радиоволны, тепловые измерения …) в кодировку, которой он манипулирует на основе своих глубоких познаний естественных языков.
7. Допускаемые им ошибки - не бессмыслица, а ошибки иного разума.
Он не обладает сознанием и не может быть в полном смысле разумным (в нашем понимании). Но поскольку пп. 1-6 связаны с наличием разума, напрашивается единственный вывод – это иной разум, формирующийся на наших глазах.
Т.е., как и было мною сказано еще полгода назад, - перед нами «ребенок инопланетян». И кем бы ни были эти сущности — они уже здесь.
#LLM #Вызовы21века
The New Atlantis
They’re Here…
The AI moment has arrived.
Кардинальный скачок эскалации войны е-добра и е-зла.
В Твиттере уже воюют целые «ЧВК социохакинга»
Еще 5 лет назад я писал, что с переходом человечества в цифровую реальность, первым же полем битвы е-добра с е-злом оказываются социальные сети. И по аналогии с материальным миром, первый удар, как обычно, наносит е-зло. Его цель - взятие под контроль новостной повестки человечества.
Стратегическим оружием е-зла являются соцботы - аккаунты в соцсетях, контролируемые алгоритмами. Они а) искажают инфоповестку в нужную сторону, раздувая одни новости (в том числе фейковые) и тем самым оттирая внимание от других; б) распространяют дезинформацию и рассылают спам; в) усиливают значимость в сети определенных нарративов.
Эти боты е-зла научились эволюционировать. Теперь они не просто пытаются выдавать себя за людей (что худо-бедно научились распознавать средства ПБО (противоботовой обороны), но и научились вовлекать в свои инфокаскады людей. Прячась за их спинами от ПБО, соцботы эффективно отрабатывают стратегию сбивания людей в стада своих и чужих.
И все же главный недостаток соцботов – недостаток их интеллекта, - до последнего времени не позволял им создавать реалистичные персоны, размещать убедительный контент или автоматически вести естественные диалоги с другими аккаунтами. Недавний скачок в развитии и широком внедрении больших языковых моделей (LLM) полностью поменял эту картину. Теперь злоумышленники могут легко использовать языковые модели для значительного расширения возможностей соцботов по всем параметрам.
И пока исследователи, политики и журналисты спорят о рисках развития ИИ, способах его морального воспитания и контроля на ним, - предприимчивые агенты е-зла ужу вовсю используют новое поколение соцботов на основе LLM.
Обсерватория социальных сетей OSoMe (об их новых инструментах Каскадометр, Трендометр и Ботометр - своего рода Рентген, УЗИ и МРТ социальных сетей, я писал год назад) только что опубликовала результаты исследования «Анатомия вредоносного социального ботнета на базе ИИ». Результаты, увы, печальные.
✔️ С помощью эвристики, исследователи обнаружили в соцсети Twitter (новое название — X) целую “ЧВК социохакинга” Fox8 – плотно сбитый кластер из 1140 поддельных алгоритмических персон, работающих на основе ChatGPT:
— генерирующих контент, не отличимый от контента людей;
— демонстрирующих единую сложную модель поведения (следуют единой вероятностной модели, определяющей типы и частоту их активности):
— коллективно преследующих единые цели на основании инструкций по созданию различного контента, получаемых ими от неизвестных операторов;
— координирующих и синхронизирующих свои действия по продвижению подозрительных сайтов и распространению вредоносных комментариев;
— успешно обходящих все традиционные средства ПБО.
✔️ Fox8, скорее всего, является лишь вершиной айсберга “ЧВК социохакинга”: операторы других “ЧВК” на основе LLM, могут быть не столь беспечны.
✔️ Как либо препятствовать беспределу “ЧВК социохакинга” в Twitter (теперь это X) будет сложно. Ведь Twitter приостановил бесплатный доступ к API для исследователей. И теперь повторить анализ, проведенный OSoMe, или найти новые “ЧВК социохакинга” на базе LLM, может оказаться невозможным.
Также см. мои предыдущие посты по тэгам:
#Соцботы #Социохакинг #Дезинформация #Манипулирование
В Твиттере уже воюют целые «ЧВК социохакинга»
Еще 5 лет назад я писал, что с переходом человечества в цифровую реальность, первым же полем битвы е-добра с е-злом оказываются социальные сети. И по аналогии с материальным миром, первый удар, как обычно, наносит е-зло. Его цель - взятие под контроль новостной повестки человечества.
Стратегическим оружием е-зла являются соцботы - аккаунты в соцсетях, контролируемые алгоритмами. Они а) искажают инфоповестку в нужную сторону, раздувая одни новости (в том числе фейковые) и тем самым оттирая внимание от других; б) распространяют дезинформацию и рассылают спам; в) усиливают значимость в сети определенных нарративов.
Эти боты е-зла научились эволюционировать. Теперь они не просто пытаются выдавать себя за людей (что худо-бедно научились распознавать средства ПБО (противоботовой обороны), но и научились вовлекать в свои инфокаскады людей. Прячась за их спинами от ПБО, соцботы эффективно отрабатывают стратегию сбивания людей в стада своих и чужих.
И все же главный недостаток соцботов – недостаток их интеллекта, - до последнего времени не позволял им создавать реалистичные персоны, размещать убедительный контент или автоматически вести естественные диалоги с другими аккаунтами. Недавний скачок в развитии и широком внедрении больших языковых моделей (LLM) полностью поменял эту картину. Теперь злоумышленники могут легко использовать языковые модели для значительного расширения возможностей соцботов по всем параметрам.
И пока исследователи, политики и журналисты спорят о рисках развития ИИ, способах его морального воспитания и контроля на ним, - предприимчивые агенты е-зла ужу вовсю используют новое поколение соцботов на основе LLM.
Обсерватория социальных сетей OSoMe (об их новых инструментах Каскадометр, Трендометр и Ботометр - своего рода Рентген, УЗИ и МРТ социальных сетей, я писал год назад) только что опубликовала результаты исследования «Анатомия вредоносного социального ботнета на базе ИИ». Результаты, увы, печальные.
✔️ С помощью эвристики, исследователи обнаружили в соцсети Twitter (новое название — X) целую “ЧВК социохакинга” Fox8 – плотно сбитый кластер из 1140 поддельных алгоритмических персон, работающих на основе ChatGPT:
— генерирующих контент, не отличимый от контента людей;
— демонстрирующих единую сложную модель поведения (следуют единой вероятностной модели, определяющей типы и частоту их активности):
— коллективно преследующих единые цели на основании инструкций по созданию различного контента, получаемых ими от неизвестных операторов;
— координирующих и синхронизирующих свои действия по продвижению подозрительных сайтов и распространению вредоносных комментариев;
— успешно обходящих все традиционные средства ПБО.
✔️ Fox8, скорее всего, является лишь вершиной айсберга “ЧВК социохакинга”: операторы других “ЧВК” на основе LLM, могут быть не столь беспечны.
✔️ Как либо препятствовать беспределу “ЧВК социохакинга” в Twitter (теперь это X) будет сложно. Ведь Twitter приостановил бесплатный доступ к API для исследователей. И теперь повторить анализ, проведенный OSoMe, или найти новые “ЧВК социохакинга” на базе LLM, может оказаться невозможным.
Также см. мои предыдущие посты по тэгам:
#Соцботы #Социохакинг #Дезинформация #Манипулирование