Попытки понять механизмы разума будто упираются в стену. Десятки интригующих гипотез. Но экспериментально, по гамбургскому счету, не удается проверить ни одной.
И вот вдруг получилось нечто совсем уж крышесрывательное. Причем эксперименты основаны на теории, все чаще называемой «теорией относительности когнитивных наук».
Базовая идея проста – сравнить, «показания» мозга в штатном и нештатном режимах. Известно, - что у пьяного на языке, то у трезвого на уме. И если мы не в состоянии понять «показания» мозга в штатном («трезвом») режиме, попробуем снять с него «показания» в нештатном («пьяном») режиме измененных состояний разума: в процессе психоделических трипов в иные миры и медитативных погружений в бездну подсознания.
Ну а потом, сравнивая эти «показания», выявить ключевые элементы базового механизма конструирования мозгом индивидуальной реальности, единого для обычных и измененных состояний разума.
Два новых исследования, о которых пойдет речь, дают ответы на важнейшие вопросы.
• Почему человек — не компьютер с вычислительным процессором мозга, а творец собственной реальности посредством мыследействий.
• Как, чтобы не захлебнуться в деталях, мозг просеивает шум, выборочно запоминая только самое важное.
• Что за «переломные моменты» позволяют разуму находить компромисс между порядком и хаосом.
• Какова роль фракталов и энтропии в базовом механизме конструирования мозгом реальности.
• Как специфика мозговых процессов в ходе медитативных «погружений» и психоделических «улётов» позволяет объяснить механизм восприятия мира.
• Как выпасть из времени, отключить свободу воли и испытать озарение
Читайте 1-ю часть рассказа обо всем этом (11 мин. чтения)
- на Medium https://bit.ly/2X5BrsF
- на Яндекс Дзен https://clck.ru/WiKTv
#Восприятие #Медитация #Психоделики #ПринципСвободнойЭнергии #ПрогнозирующийМозг
И вот вдруг получилось нечто совсем уж крышесрывательное. Причем эксперименты основаны на теории, все чаще называемой «теорией относительности когнитивных наук».
Базовая идея проста – сравнить, «показания» мозга в штатном и нештатном режимах. Известно, - что у пьяного на языке, то у трезвого на уме. И если мы не в состоянии понять «показания» мозга в штатном («трезвом») режиме, попробуем снять с него «показания» в нештатном («пьяном») режиме измененных состояний разума: в процессе психоделических трипов в иные миры и медитативных погружений в бездну подсознания.
Ну а потом, сравнивая эти «показания», выявить ключевые элементы базового механизма конструирования мозгом индивидуальной реальности, единого для обычных и измененных состояний разума.
Два новых исследования, о которых пойдет речь, дают ответы на важнейшие вопросы.
• Почему человек — не компьютер с вычислительным процессором мозга, а творец собственной реальности посредством мыследействий.
• Как, чтобы не захлебнуться в деталях, мозг просеивает шум, выборочно запоминая только самое важное.
• Что за «переломные моменты» позволяют разуму находить компромисс между порядком и хаосом.
• Какова роль фракталов и энтропии в базовом механизме конструирования мозгом реальности.
• Как специфика мозговых процессов в ходе медитативных «погружений» и психоделических «улётов» позволяет объяснить механизм восприятия мира.
• Как выпасть из времени, отключить свободу воли и испытать озарение
Читайте 1-ю часть рассказа обо всем этом (11 мин. чтения)
- на Medium https://bit.ly/2X5BrsF
- на Яндекс Дзен https://clck.ru/WiKTv
#Восприятие #Медитация #Психоделики #ПринципСвободнойЭнергии #ПрогнозирующийМозг
Medium
Разум — это эволюционный компромисс в упорядочении хаоса
Часть 1: От фракталов и энтропии к медитации и психоделикам
Техноутопия с китайской спецификой на основе «глубоких технологий».
Корректировка генплана КПК – тотальный госконтроль над низкомаржинальным хайтеком.
Компартия Китая будто смеется над западными и российскими экспертами, предрекающими скорую остановку бурного роста китайского хайтека из-за, якобы, несовместимости авторитаризма КПК с развитием инновационной рыночной экономики. Шутя пожертвовав за 9 мес. более $1 трлн капитализации своего хайтека, КПК показала и китайским, и западным техно-баронам, что не остановится ни перед чем, ломая их об колено.
КПК показывает всем, что не собирается останавливаться в начатом. Вице-премьер Лю Хэ объявил новый руководящий принцип –
Китай вступает в новую фазу развития, которая ставит во главу угла социальную справедливость и национальную безопасность, а не менталитет роста любой ценой, как было последние 30 лет.
Это объявление о завершении развития Китая по модели роста и начало «настоящего государственного капитализма» на основе «глубоких технологий»: облачные и квантовые вычисления, искусственный интеллект (ИИ), беспилотные авто, умные дома и города. Только за последний год китайцы основали в ряде областей «глубоких технологий»: 22 000 компаний по производству микросхем, 35 000 компаний, занимающихся облачными вычислениями, и 172 000 стартапов в области ИИ.
Социальная справедливость обновленной версии генплана заключается в стратегии государства обеспечить перераспределение богатства и власти, накопленных крупными технологическими платформами за последнее десятилетие. Политика ограничения их рыночной власти будет перераспределять часть их прибыли между более мелким бизнесом и разработчиками приложений, а также их сотрудниками. Особая ставка делается на передачу ресурсов от «слишком легко обогащающихся интернет-компаний» фирмам, которые могут добиться успеха в «менее легкомысленных технологиях».
Национальная безопасность теперь ставит во главу угла монополию государства на данные, собираемые любым бизнесом (своим или иностранным) на территории Китая. Три кита стратегии нацбезопасности: национализация данных, регулятивный авторитаризм и промышленная политика (подробней см. Pax Americana больше нет, а шансы Pax Sinica растут.
Результатом всего этого должны стать «великие изменения, невиданные за столетие», которые «образуют новый мировой экономический порядок, вращающийся вокруг Китая».
Что из всего этого получится – можно только гадать. На самом деле, никто не знает, каковы в 21 веке могут быть последствия сочетания жесткого авторитаризма с развитием инновационной рыночной экономики. Может, эта гремучая смесь обрушит экономику Китая. А может, не только не обрушит, а даст ключевое конкурентное преимущество перед США.
Детали почитайте, послушайте и посмотрите здесь: 1, 2, 3, 4, 5, 6, 7
#Китай
Корректировка генплана КПК – тотальный госконтроль над низкомаржинальным хайтеком.
Компартия Китая будто смеется над западными и российскими экспертами, предрекающими скорую остановку бурного роста китайского хайтека из-за, якобы, несовместимости авторитаризма КПК с развитием инновационной рыночной экономики. Шутя пожертвовав за 9 мес. более $1 трлн капитализации своего хайтека, КПК показала и китайским, и западным техно-баронам, что не остановится ни перед чем, ломая их об колено.
КПК показывает всем, что не собирается останавливаться в начатом. Вице-премьер Лю Хэ объявил новый руководящий принцип –
Китай вступает в новую фазу развития, которая ставит во главу угла социальную справедливость и национальную безопасность, а не менталитет роста любой ценой, как было последние 30 лет.
Это объявление о завершении развития Китая по модели роста и начало «настоящего государственного капитализма» на основе «глубоких технологий»: облачные и квантовые вычисления, искусственный интеллект (ИИ), беспилотные авто, умные дома и города. Только за последний год китайцы основали в ряде областей «глубоких технологий»: 22 000 компаний по производству микросхем, 35 000 компаний, занимающихся облачными вычислениями, и 172 000 стартапов в области ИИ.
Социальная справедливость обновленной версии генплана заключается в стратегии государства обеспечить перераспределение богатства и власти, накопленных крупными технологическими платформами за последнее десятилетие. Политика ограничения их рыночной власти будет перераспределять часть их прибыли между более мелким бизнесом и разработчиками приложений, а также их сотрудниками. Особая ставка делается на передачу ресурсов от «слишком легко обогащающихся интернет-компаний» фирмам, которые могут добиться успеха в «менее легкомысленных технологиях».
Национальная безопасность теперь ставит во главу угла монополию государства на данные, собираемые любым бизнесом (своим или иностранным) на территории Китая. Три кита стратегии нацбезопасности: национализация данных, регулятивный авторитаризм и промышленная политика (подробней см. Pax Americana больше нет, а шансы Pax Sinica растут.
Результатом всего этого должны стать «великие изменения, невиданные за столетие», которые «образуют новый мировой экономический порядок, вращающийся вокруг Китая».
Что из всего этого получится – можно только гадать. На самом деле, никто не знает, каковы в 21 веке могут быть последствия сочетания жесткого авторитаризма с развитием инновационной рыночной экономики. Может, эта гремучая смесь обрушит экономику Китая. А может, не только не обрушит, а даст ключевое конкурентное преимущество перед США.
Детали почитайте, послушайте и посмотрите здесь: 1, 2, 3, 4, 5, 6, 7
#Китай
USA China GDP and PPP.jpg
263.5 KB
Через пару недель вступит в силу серия китайских законов, знаменующих начало нового этапа «Великой стратегии Китая по смене американского миропорядка на Земле». По замыслу Компартии Китая, этот этап должен стать переломным.
• В чем суть «великой стратегии» столетнего мирового противостояния Китая и США, и на каких трёх китах она стоит.
• За счет чего Китай планирует выиграть мировую конкуренцию и превратиться в единственную сверхдержаву к 2050 году.
• Каковы наиболее вероятные ответные действия на эту стратегию со стороны США и России.
Я попытался уложиться в ответах на эти весьма непростые вопросы в 9 мин., сказав о самом важном по возможности понятно и просто, в блиц-интервью Ютуб-программе «Время – вперёд!».
https://www.youtube.com/watch?v=6pFX52mKZUk
Информация к размышлению (см. приложенную графику)
- Как с 1961 по 2019 Китай догонял и перегонял США (факт)
- И как с 2019 по 2040 Китай планирует получить явное преимущество в этой гонке (прогноз)
#Китай
• В чем суть «великой стратегии» столетнего мирового противостояния Китая и США, и на каких трёх китах она стоит.
• За счет чего Китай планирует выиграть мировую конкуренцию и превратиться в единственную сверхдержаву к 2050 году.
• Каковы наиболее вероятные ответные действия на эту стратегию со стороны США и России.
Я попытался уложиться в ответах на эти весьма непростые вопросы в 9 мин., сказав о самом важном по возможности понятно и просто, в блиц-интервью Ютуб-программе «Время – вперёд!».
https://www.youtube.com/watch?v=6pFX52mKZUk
Информация к размышлению (см. приложенную графику)
- Как с 1961 по 2019 Китай догонял и перегонял США (факт)
- И как с 2019 по 2040 Китай планирует получить явное преимущество в этой гонке (прогноз)
#Китай
Байден лопух? В ЦРУ идиоты?
Возможно. Но причина сегодняшней суперновости в ином.
Сегодня, когда «Талибан» взял под контроль весь Афганистан, мир недоумевает: как мог президент Байден так лопухнуться, заявив 8-го июля: «вероятность того, что «Талибан» захватит всю страну, крайне невелика»?
Как такое могло быть сказано президентом сверхдержавы, обладающим доступом к, казалось бы, самой секретной информации от самых продвинутых аналитиков одной из самых крутых разведок мира?
Может дело в том, что Байден просто лопух? Или в ЦРУ сидят одни идиоты?
Увы, но ситуация куда хуже. И об этом уже полвека известно и в ЦРУ, и во всех других разведках мира.
Дело в том, что при оценке рисков принимаемых решений, политики (а) полагаются на прогнозы аналитиков разведки, но при этом (б) не понимают, что стоит за конкретными значениями вероятностей, указанных в этих прогнозах.
Ведь что имел в виду Байден, говоря “highly unlikely” во фразе “But the likelihood there’s going to be the Taliban overrunning everything and owning the whole country is highly unlikely.”?
И если вы думаете, что Байден имел в виду что-то типа 5%, то вы сильно ошибаетесь.
Еще полвека назад разведка НАТО задалась сакраментальным вопросом – а что это мы так часто лажаем в своих прогнозах?
Проведенное ими исследование показало.
✔️ Аналитики и офицеры разведки – тоже люди. А у людей весьма расплывчатые и путанные представления о вероятности. Из-за этого кто-то воспринимает оценку вероятности “highly unlikely”, как 5%. Другой же – как 20%, а третий – как менее 40%.
✔️ Политики и генералы – тоже люди. И у них представления о вероятности еще хуже. Поэтому, прочтя в заключении разведки оценку “highly unlikely” (написанную аналитиком, оценивающим эту вероятность менее 40%), политик запросто может интерпретировать это, как вероятность, менее 5%).
Информация для размышления
На приложенном рисунке показан разброс представлений людей о соотношении числовых и словесных оценок вероятности:
• слева – внутреннее руководство для аналитиков разведки (1);
• в середине – результаты опроса Reddit, как люди оценивают словесные оценки вероятности (2)
• справа – итоги исследования разведки НАТО (2)
Авторы исследования разведки НАТО пришли к такому выводу:
1) подобная расплывчатость и неоднозначность оценок вероятности делает решения, принимаемые связкой аналитиков разведки и политиков, непредсказуемо неточными.
2) поскольку почти все решения национального уровня принимаются такой связкой, необходимо в принципе отказаться от словесных формулировок при оценке вероятности (т.е. писать четко – напр. с вероятностью 80%)
После этого исследования прошло полвека. Думаете, что-то изменилось? Увы, нет.
Почему? Да просто ни разведчики, ни политики не хотят отвечать за базар. Ведь за вероятность в 5% многим пришлось бы отвечать. А какой спрос с “highly unlikely”? В конце концов, каждый понимает это по-своему.
N.B. Ну а если принять в расчет, что используемая уже 300 лет во всем мире модель рациональности при оценке рисков в корне ошибочна (см. «300 лет в искаженной реальности»), то спрашивать с разведки и политиков вообще не за что: ни за профуканный развал СССР, ни за сегодняшнее торжество «Талибан», ни за … Что там за сюрприз ждет нас в сентябре?
#Вероятность #ПринятиеРешений
Возможно. Но причина сегодняшней суперновости в ином.
Сегодня, когда «Талибан» взял под контроль весь Афганистан, мир недоумевает: как мог президент Байден так лопухнуться, заявив 8-го июля: «вероятность того, что «Талибан» захватит всю страну, крайне невелика»?
Как такое могло быть сказано президентом сверхдержавы, обладающим доступом к, казалось бы, самой секретной информации от самых продвинутых аналитиков одной из самых крутых разведок мира?
Может дело в том, что Байден просто лопух? Или в ЦРУ сидят одни идиоты?
Увы, но ситуация куда хуже. И об этом уже полвека известно и в ЦРУ, и во всех других разведках мира.
Дело в том, что при оценке рисков принимаемых решений, политики (а) полагаются на прогнозы аналитиков разведки, но при этом (б) не понимают, что стоит за конкретными значениями вероятностей, указанных в этих прогнозах.
Ведь что имел в виду Байден, говоря “highly unlikely” во фразе “But the likelihood there’s going to be the Taliban overrunning everything and owning the whole country is highly unlikely.”?
И если вы думаете, что Байден имел в виду что-то типа 5%, то вы сильно ошибаетесь.
Еще полвека назад разведка НАТО задалась сакраментальным вопросом – а что это мы так часто лажаем в своих прогнозах?
Проведенное ими исследование показало.
✔️ Аналитики и офицеры разведки – тоже люди. А у людей весьма расплывчатые и путанные представления о вероятности. Из-за этого кто-то воспринимает оценку вероятности “highly unlikely”, как 5%. Другой же – как 20%, а третий – как менее 40%.
✔️ Политики и генералы – тоже люди. И у них представления о вероятности еще хуже. Поэтому, прочтя в заключении разведки оценку “highly unlikely” (написанную аналитиком, оценивающим эту вероятность менее 40%), политик запросто может интерпретировать это, как вероятность, менее 5%).
Информация для размышления
На приложенном рисунке показан разброс представлений людей о соотношении числовых и словесных оценок вероятности:
• слева – внутреннее руководство для аналитиков разведки (1);
• в середине – результаты опроса Reddit, как люди оценивают словесные оценки вероятности (2)
• справа – итоги исследования разведки НАТО (2)
Авторы исследования разведки НАТО пришли к такому выводу:
1) подобная расплывчатость и неоднозначность оценок вероятности делает решения, принимаемые связкой аналитиков разведки и политиков, непредсказуемо неточными.
2) поскольку почти все решения национального уровня принимаются такой связкой, необходимо в принципе отказаться от словесных формулировок при оценке вероятности (т.е. писать четко – напр. с вероятностью 80%)
После этого исследования прошло полвека. Думаете, что-то изменилось? Увы, нет.
Почему? Да просто ни разведчики, ни политики не хотят отвечать за базар. Ведь за вероятность в 5% многим пришлось бы отвечать. А какой спрос с “highly unlikely”? В конце концов, каждый понимает это по-своему.
N.B. Ну а если принять в расчет, что используемая уже 300 лет во всем мире модель рациональности при оценке рисков в корне ошибочна (см. «300 лет в искаженной реальности»), то спрашивать с разведки и политиков вообще не за что: ни за профуканный развал СССР, ни за сегодняшнее торжество «Талибан», ни за … Что там за сюрприз ждет нас в сентябре?
#Вероятность #ПринятиеРешений
Технологизация медитации - путь к Transhumanism Inc
Через 8 дней читатели Пелевина узнают, каким он видит путь к трансгуманизму. Но уже из названия романа понятно, что речь не просто о переносе мозга в особое “баночное” измерение, а о технологическом улучшении умственных и физических способностей людей. Остается понять – как этого можно достичь. Судя по творчеству Пелевина, один из самых перспективных путей – ретриты для медитации. И самое поразительное, что новые исследования это подтверждают.
Практические прорывы в исследованиях нейрокоррелятов мозга при медитации, допускают скорую практическую технологизацию медитации в целях когнитивного совершенствования людей и даже обретения ими сверхспособностей.
Технологии погружения человека в измененные состояния сознания уже существуют. Например, транскраниально сфокусированный ультразвук (tFUS) или включение нейронной обратной связи, поощряющей желаемое измененное восприятие реальности. Но есть проблема.
До последнего времени было непонятно, к чему стремиться, воздействуя на мозг: при каких изменениях в работе мозга появляются те или иные когнитивные и физиологические усовершенствования наших способностей.
Первые научные подтверждения реального влияния духовных процессов при медитации на физиологические характеристики тела были получены Гербертом Бенсоном еще в 80-е. Кто не в курсе, почитайте «Как научная попытка демистифицировать буддийскую медитацию дала поразительные результаты», и там же посмотрите расширенный трейлер фильма про это (1).
Исследование Бенсоном интенсивной техники «медитации внутреннего огня» подтвердило реальность следующих физиологических эффектов в ходе медитации:
• повышение температуры пальцев на 8+ градусов;
• снижение частоты дыхания до 6-7 вздохов в мин;
• снижение уровня метаболизма в состоянии покоя на 64%;
• возникновение асимметрии в активности альфа- и бета-волн между полушариями.
Эти эффекты впоследствии были дважды независимо подтверждены в 2000 и 2013.
Следовательно, дух может влиять на тело. Оставалось понять – как.
Прорыв в понимании, как это делает мозг, стал формироваться с появлением новых средств нейровизуализации: функциональной и структурной МРТ. А в течение последних пяти лет будто нарыв прорвался – исследования, обнаруживающие корреляцию активности нейронов с разнообразными физиологическими, когнитивными и поведенческими эффектами медитации, пошли косяком.
Главным выводом всех этих исследований стало понимание того, что нужно искать, и на что нужно смотреть - что именно меняется в мозге в результате разных типов медитации.
Оказалось, надо смотреть не на активность конкретных областей мозга и не на статическую «прошивку» нейронов. Надо смотреть через призму сетевой науки на динамику функциональной связанности нейронов.
В процессе медитации происходит изменение функциональной связанности двух сетей:
• сеть пассивного режима работы мозга (активная во время несфокусированного расслабленного блуждании ума)
• и дорсальная сеть внимания (активная при поддержании внимания и сосредоточенности на чем-либо).
В результате облегчаются переключения между двумя названными сетями.
Тибетские монахи называют такой процесс повышением умственной гибкости - способность, позволяющая перестраивать структуру сознания, изменяя концентрацию - один из основополагающих факторов саморазвития.
Вот примеры интереснейших научных работ про это: (2, 3, 4, 5).
Подобные работы открывают фантастические перспективы создания технологий для обретения сверхспособностей, доступных сейчас лишь тибетским монахам после многолетней практики.
P.S. Почему и как меняется динамика функциональной связанности, объясняет новая теория «Универсальный фреймворк медитации», о которой будет рассказано в продолжении моего поста (6).
Источники: 1, 2, 3, 4, 5, 6
#Медитация
Через 8 дней читатели Пелевина узнают, каким он видит путь к трансгуманизму. Но уже из названия романа понятно, что речь не просто о переносе мозга в особое “баночное” измерение, а о технологическом улучшении умственных и физических способностей людей. Остается понять – как этого можно достичь. Судя по творчеству Пелевина, один из самых перспективных путей – ретриты для медитации. И самое поразительное, что новые исследования это подтверждают.
Практические прорывы в исследованиях нейрокоррелятов мозга при медитации, допускают скорую практическую технологизацию медитации в целях когнитивного совершенствования людей и даже обретения ими сверхспособностей.
Технологии погружения человека в измененные состояния сознания уже существуют. Например, транскраниально сфокусированный ультразвук (tFUS) или включение нейронной обратной связи, поощряющей желаемое измененное восприятие реальности. Но есть проблема.
До последнего времени было непонятно, к чему стремиться, воздействуя на мозг: при каких изменениях в работе мозга появляются те или иные когнитивные и физиологические усовершенствования наших способностей.
Первые научные подтверждения реального влияния духовных процессов при медитации на физиологические характеристики тела были получены Гербертом Бенсоном еще в 80-е. Кто не в курсе, почитайте «Как научная попытка демистифицировать буддийскую медитацию дала поразительные результаты», и там же посмотрите расширенный трейлер фильма про это (1).
Исследование Бенсоном интенсивной техники «медитации внутреннего огня» подтвердило реальность следующих физиологических эффектов в ходе медитации:
• повышение температуры пальцев на 8+ градусов;
• снижение частоты дыхания до 6-7 вздохов в мин;
• снижение уровня метаболизма в состоянии покоя на 64%;
• возникновение асимметрии в активности альфа- и бета-волн между полушариями.
Эти эффекты впоследствии были дважды независимо подтверждены в 2000 и 2013.
Следовательно, дух может влиять на тело. Оставалось понять – как.
Прорыв в понимании, как это делает мозг, стал формироваться с появлением новых средств нейровизуализации: функциональной и структурной МРТ. А в течение последних пяти лет будто нарыв прорвался – исследования, обнаруживающие корреляцию активности нейронов с разнообразными физиологическими, когнитивными и поведенческими эффектами медитации, пошли косяком.
Главным выводом всех этих исследований стало понимание того, что нужно искать, и на что нужно смотреть - что именно меняется в мозге в результате разных типов медитации.
Оказалось, надо смотреть не на активность конкретных областей мозга и не на статическую «прошивку» нейронов. Надо смотреть через призму сетевой науки на динамику функциональной связанности нейронов.
В процессе медитации происходит изменение функциональной связанности двух сетей:
• сеть пассивного режима работы мозга (активная во время несфокусированного расслабленного блуждании ума)
• и дорсальная сеть внимания (активная при поддержании внимания и сосредоточенности на чем-либо).
В результате облегчаются переключения между двумя названными сетями.
Тибетские монахи называют такой процесс повышением умственной гибкости - способность, позволяющая перестраивать структуру сознания, изменяя концентрацию - один из основополагающих факторов саморазвития.
Вот примеры интереснейших научных работ про это: (2, 3, 4, 5).
Подобные работы открывают фантастические перспективы создания технологий для обретения сверхспособностей, доступных сейчас лишь тибетским монахам после многолетней практики.
P.S. Почему и как меняется динамика функциональной связанности, объясняет новая теория «Универсальный фреймворк медитации», о которой будет рассказано в продолжении моего поста (6).
Источники: 1, 2, 3, 4, 5, 6
#Медитация
Aeon
The Tibetan research of Herbert Benson
How a scientific attempt to demystify Buddhist meditation yielded astounding results
«Человечество снова на перекрестке истории».
Какими будут законы «цивилизации нового типа».
Вчера DigiChina опубликовал перевод новых «Правил защиты критически важной информационной инфраструктуры Китая, вступающих в силу с 1 сентября (1). Теперь каждый может прочесть полсотни статей этого документа и попытаться выделить главное.
По мне же, главное в 2-х следующих законодательно закрепленных принципах.
1) В дополнение к монополии на кибероружие (об этом я уже писал - см. (2)) государство вводит монополию на кибербезопасность.
«Статья 31: Без одобрения национального департамента киберпространства и информатизации или департамента общественной безопасности Государственного совета или разрешения от отдела или оператора защиты ни одно лицо или организация не могут проводить мониторинг уязвимостей, тестирование на проникновение или другие подобные действия с критически важной информацией.»
2) В вопросах кибербезопасности бизнес обязан следовать в кильваторе целей военных и органов безопасности.
«Статья 38: Государство должно укреплять военно-гражданское слияние в кибербезопасности, а военные и регионы должны сотрудничать для защиты критически важной информационной инфраструктуры.»
Новый закон касается далеко не только Китая.
Как я уже писал, ключевая цель Китая, претендующего стать сверхдержавой №1 – не только технологическое и экономическое лидерство, но и создание для мира системы цивилизационных образцов для подражания. Будучи перенятыми, эти цивилизационные образцы формируют новые отношения государств, обществ и индивидов. Системность таких образцов характеризует их согласованность и, в идеале, синергию. А универсальность образцов делает их привлекательными, как для демократических (во всем диапазоне демократий), так и для авторитарных и даже тоталитарных стран (также во всем диапазоне).
Три цивилизационных образца для подражания «цивилизации нового типа» (а именно так назвал Китай Си Цзиньпин в ходе торжеств по поводу 100-летия Компартии Китая) уже известны (3):
• Национализация данных.
• Регулятивный авторитаризм.
• Промышленная политика.
Теперь к ним прибавился еще один образец:
• монополия на кибероружие и кибербезопасность.
Системность и синергия цивилизационных образцов, предъявляемых Китаем миру, - это, по сути, базовые элементы идеологии «цивилизации нового типа».
«Подлинная опасность, исходящая из Китая, вовсе не военная и не геополитическая, а скорее идеологическая. Ее продолжающийся успех представляет собой крупнейшую угрозу политическому истеблишменту Америки», - считает Ричард Ханания (научный сотрудник Института исследований войны и мира Арнольда А. Зальцмана).
Полагаю, что это угроза не только для Америки. Уж больно заманчивы новые китайские образцы для подражания и для демократов, и для автократов, и для тоталитарных диктаторов.
Полагаю, именно это имел в виду Председатель Си, говоря, что «человечество снова оказалось на перекрестке истории».
#Китай #Сверхдержавы
Источники: 1, 2, 3
Какими будут законы «цивилизации нового типа».
Вчера DigiChina опубликовал перевод новых «Правил защиты критически важной информационной инфраструктуры Китая, вступающих в силу с 1 сентября (1). Теперь каждый может прочесть полсотни статей этого документа и попытаться выделить главное.
По мне же, главное в 2-х следующих законодательно закрепленных принципах.
1) В дополнение к монополии на кибероружие (об этом я уже писал - см. (2)) государство вводит монополию на кибербезопасность.
«Статья 31: Без одобрения национального департамента киберпространства и информатизации или департамента общественной безопасности Государственного совета или разрешения от отдела или оператора защиты ни одно лицо или организация не могут проводить мониторинг уязвимостей, тестирование на проникновение или другие подобные действия с критически важной информацией.»
2) В вопросах кибербезопасности бизнес обязан следовать в кильваторе целей военных и органов безопасности.
«Статья 38: Государство должно укреплять военно-гражданское слияние в кибербезопасности, а военные и регионы должны сотрудничать для защиты критически важной информационной инфраструктуры.»
Новый закон касается далеко не только Китая.
Как я уже писал, ключевая цель Китая, претендующего стать сверхдержавой №1 – не только технологическое и экономическое лидерство, но и создание для мира системы цивилизационных образцов для подражания. Будучи перенятыми, эти цивилизационные образцы формируют новые отношения государств, обществ и индивидов. Системность таких образцов характеризует их согласованность и, в идеале, синергию. А универсальность образцов делает их привлекательными, как для демократических (во всем диапазоне демократий), так и для авторитарных и даже тоталитарных стран (также во всем диапазоне).
Три цивилизационных образца для подражания «цивилизации нового типа» (а именно так назвал Китай Си Цзиньпин в ходе торжеств по поводу 100-летия Компартии Китая) уже известны (3):
• Национализация данных.
• Регулятивный авторитаризм.
• Промышленная политика.
Теперь к ним прибавился еще один образец:
• монополия на кибероружие и кибербезопасность.
Системность и синергия цивилизационных образцов, предъявляемых Китаем миру, - это, по сути, базовые элементы идеологии «цивилизации нового типа».
«Подлинная опасность, исходящая из Китая, вовсе не военная и не геополитическая, а скорее идеологическая. Ее продолжающийся успех представляет собой крупнейшую угрозу политическому истеблишменту Америки», - считает Ричард Ханания (научный сотрудник Института исследований войны и мира Арнольда А. Зальцмана).
Полагаю, что это угроза не только для Америки. Уж больно заманчивы новые китайские образцы для подражания и для демократов, и для автократов, и для тоталитарных диктаторов.
Полагаю, именно это имел в виду Председатель Си, говоря, что «человечество снова оказалось на перекрестке истории».
#Китай #Сверхдержавы
Источники: 1, 2, 3
DigiChina
Translation: Critical Information Infrastructure Security Protection Regulations (Effective Sept. 1, 2021) - DigiChina
The Chinese government on Aug. 17 released the text of final regulations on critical information infrastructure security protection that are to take effect Sept. 1. The “Critical Information Infrastructure Security Protection Regulations” replace a draft…
2-я часть поста «Разум — это эволюционный компромисс в упорядочении хаоса» посвящена единой модели для объяснения эффектов психоделических препаратов REBUS.
В этой части будет рассказано:
• о долгой истории психоделиков - от шаманов до психонавтов;
• о модели психоделических эффектов на основе гипотезы энтропийного мозга;
• как расслабить убеждения и погрузить мозг в анархию;
• чем отличаются магическое мышление и вторичное сознание;
• что общего у вариационной свободной энергии и ландшафта убеждений;
• как «разогреть» мозг, чтобы достичь когнитивной гибкости;
• как образуется «текучесть пространства и времени»;
• что нам сулит «психоделический ренессанс».
Текст на 12 мин чтения можно прочесть:
- на Medium https://bit.ly/3gqsOQm
- на Яндекс Дзен https://clck.ru/WzWDT
#Восприятие #Медитация #Психоделики #ПринципСвободнойЭнергии #ПрогнозирующийМозг
В этой части будет рассказано:
• о долгой истории психоделиков - от шаманов до психонавтов;
• о модели психоделических эффектов на основе гипотезы энтропийного мозга;
• как расслабить убеждения и погрузить мозг в анархию;
• чем отличаются магическое мышление и вторичное сознание;
• что общего у вариационной свободной энергии и ландшафта убеждений;
• как «разогреть» мозг, чтобы достичь когнитивной гибкости;
• как образуется «текучесть пространства и времени»;
• что нам сулит «психоделический ренессанс».
Текст на 12 мин чтения можно прочесть:
- на Medium https://bit.ly/3gqsOQm
- на Яндекс Дзен https://clck.ru/WzWDT
#Восприятие #Медитация #Психоделики #ПринципСвободнойЭнергии #ПрогнозирующийМозг
Medium
REBUS психоделических улетов
Продолжение поста «Разум — это эволюционный компромисс в упорядочении хаоса»
Чрезмерный и необоснованный доход тех, кто ошибочно принимает свое богатство за власть, будет перераспределяться в пользу большинства населения.
Китай определился, кто следующий и что дальше: расправа с олигархами и раскулачивание Бигтеха.
Расправа над Джеком Ма, вынужденным уйти из бизнеса, чтобы заняться гольфом, рисованием и философией, - это не просто предупреждение слишком возомнившим о себе олигархам (1).
Это смена стратегии КПК
• с дэнсяопиновской формулы «сначала дайте некоторым разбогатеть»
• на сицзиньпиновскую интерпретацию стратегии Мао – «упор на перераспределение между всеми, а не на обогащение некоторых».
Слишком уж много стало, по мнению КПК, этих «некоторых» - в Китае уже на треть больше миллиардеров (более 1 тыс.), чем в США. И слишком уж они разбогатели – частный бизнес только предприятий Бигтеха уже почти 40% ВВП.
«Чтобы понять происходящее в Китае, вам нужно понять, что в Китае госкапитализм. Это значит, что государство управляет развитием капитализма в стране в интересах большинства людей. И что политики не позволят богатым капиталистам мешать им делать то, что, по их мнению, лучше для большинства людей в стране. Точнее, капиталисты и работающие на рынках капитала должны понимать свое подчиненное место в системе, иначе они пострадают от последствий своих ошибок. Например, им не нужно ошибочно принимать свое богатство за власть, позволяющую определять, как вести дела» - пишет мудрый и проницательный Рэй Далио, которого не зря прозвали «Стивом Джобсом от инвестирования» (2).
Новая стратегия Китая объявлена - «чрезмерный» и «необоснованный» доход тех, кто «ошибочно принимает свое богатство за власть», будет перераспределяться в пользу большинства населения с помощью налогов на прирост капитала, богатство, имущество и наследование.
Для тех же, кто не поддержит новую стратегию, у государства есть не только фискальные меры. Понимая это, китайские миллиардеры бьют рекорды пожертвований на «улучшение общества и сокращение бедности»: $2,2 млрд от Xiaomi, $2,3 млрд от Meituan, а Пони Ма (Tencent) на прошлой неделе удвоил первоначально объявленную им сумму пожертвования в $7,7 млрд.
Но просто пожертвований и налогов мало.
Чтобы в принципе лишить компании Бигтеха сверхдоходов от заработка на персональных данных, задумано их раскулачить. Китайские регуляторы рассматривают возможность оказания давления на компании Бигтеха, с тем чтобы они передали управление и контроль за персональными данными своих пользователей сторонним фирмам, так или иначе находящихся под контролем государства.
Т.е. либо компании Бигтеха сами отдают свои данные, либо у них возникнут непреодолимые проблемы с размещением акций за рубежом (3).
Подробней, о том «кто следующий, и что дальше», можно прочесть в руководстве «China’s ‘Big Tech crackdown’: A guide» (4), обзоре «What’s behind china’s crackdown on big tech?» (5) и сегодняшней колонке Стефана Бартоломеуза «Billionaire crackdown: China’s risky new pathway to Mao’s ‘common prosperity’» (6).
P.S. Бартоломеуз прав – Китай выбрал крайне рисковый путь к всеобщему процветанию. Но кто не рискует, тот не выигрывает.
Источники: 1, 2, 3, 4, 5, 6
#Китай #РазгромБигтеха
Китай определился, кто следующий и что дальше: расправа с олигархами и раскулачивание Бигтеха.
Расправа над Джеком Ма, вынужденным уйти из бизнеса, чтобы заняться гольфом, рисованием и философией, - это не просто предупреждение слишком возомнившим о себе олигархам (1).
Это смена стратегии КПК
• с дэнсяопиновской формулы «сначала дайте некоторым разбогатеть»
• на сицзиньпиновскую интерпретацию стратегии Мао – «упор на перераспределение между всеми, а не на обогащение некоторых».
Слишком уж много стало, по мнению КПК, этих «некоторых» - в Китае уже на треть больше миллиардеров (более 1 тыс.), чем в США. И слишком уж они разбогатели – частный бизнес только предприятий Бигтеха уже почти 40% ВВП.
«Чтобы понять происходящее в Китае, вам нужно понять, что в Китае госкапитализм. Это значит, что государство управляет развитием капитализма в стране в интересах большинства людей. И что политики не позволят богатым капиталистам мешать им делать то, что, по их мнению, лучше для большинства людей в стране. Точнее, капиталисты и работающие на рынках капитала должны понимать свое подчиненное место в системе, иначе они пострадают от последствий своих ошибок. Например, им не нужно ошибочно принимать свое богатство за власть, позволяющую определять, как вести дела» - пишет мудрый и проницательный Рэй Далио, которого не зря прозвали «Стивом Джобсом от инвестирования» (2).
Новая стратегия Китая объявлена - «чрезмерный» и «необоснованный» доход тех, кто «ошибочно принимает свое богатство за власть», будет перераспределяться в пользу большинства населения с помощью налогов на прирост капитала, богатство, имущество и наследование.
Для тех же, кто не поддержит новую стратегию, у государства есть не только фискальные меры. Понимая это, китайские миллиардеры бьют рекорды пожертвований на «улучшение общества и сокращение бедности»: $2,2 млрд от Xiaomi, $2,3 млрд от Meituan, а Пони Ма (Tencent) на прошлой неделе удвоил первоначально объявленную им сумму пожертвования в $7,7 млрд.
Но просто пожертвований и налогов мало.
Чтобы в принципе лишить компании Бигтеха сверхдоходов от заработка на персональных данных, задумано их раскулачить. Китайские регуляторы рассматривают возможность оказания давления на компании Бигтеха, с тем чтобы они передали управление и контроль за персональными данными своих пользователей сторонним фирмам, так или иначе находящихся под контролем государства.
Т.е. либо компании Бигтеха сами отдают свои данные, либо у них возникнут непреодолимые проблемы с размещением акций за рубежом (3).
Подробней, о том «кто следующий, и что дальше», можно прочесть в руководстве «China’s ‘Big Tech crackdown’: A guide» (4), обзоре «What’s behind china’s crackdown on big tech?» (5) и сегодняшней колонке Стефана Бартоломеуза «Billionaire crackdown: China’s risky new pathway to Mao’s ‘common prosperity’» (6).
P.S. Бартоломеуз прав – Китай выбрал крайне рисковый путь к всеобщему процветанию. Но кто не рискует, тот не выигрывает.
Источники: 1, 2, 3, 4, 5, 6
#Китай #РазгромБигтеха
Интеллектуальная слепота лечится.
Бассейн аттракторов заблуждений можно осушить.
Если человечеству суждено погибнуть, то причиной тому будет не вирус, война или изменение климата. Все это – лишь следствия главной причины самых страшных человеческих бед (как прошлых, так и будущих). Эта причина - упёртость людей в их заблуждениях. Именно она, а не сверхжестокость Homo, лежит в основе расколов и войн, притеснений и резни, ненависти и социальных, религиозных и прочих конфликтов.
Упёртость заблуждений - эдакая железобетонная твердость ошибочных суждений и представлений, - не позволяет нам изменять их, не смотря на любые рациональные аргументы и факты реальности. В результате человек как бы интеллектуально слепнет, о чем я подробно писал в лонгриде «Интеллектуальная слепота»).
Со времен Цицерона люди различают обычные и упертые заблуждения. Считается, что «каждый человек может заблуждаться, но упорствовать в заблуждении может лишь глупец». Увы, но и это тоже заблуждение. Ибо, как писал И. Кант – «Заблуждение - незаметное влияние чувственности на рассудок». А поскольку чувственность свойственна всем, её влияние на рассудок неизбежно для каждого.
Но даже если такое влияние неизбежно, уменьшить упёртость заблуждений возможно. Т.е. интеллектуальная слепота лечится. Таков прорывной вывод нового исследования по вычислительной психиатрии. Среди авторов Карл Фристон, и неудивительно, что исследование основано на активном выводе - той же теоретической базе, что и исследование о влиянии психоделиков, о котором я недавно писал.
Целью новой работы было решение принципиальной загадки.
Если мозг аппроксимирует байесовский вывод, подбирая оптимальные веса для предыдущих ожиданий (априоров) и новых сенсорных данных, как тогда он может кардинально ошибаться, да еще и упорствовать в предсказаниях?
Иными словами.
Если мозг - «оптимальная машина предсказаний», что в ней ломается, когда эта «машина» генерирует ошибочные убеждения и держится потом за них наперекор любым свидетельствам противного?
Новое исследование отвечает на этот вопрос.
1) У мозга не одна, а две модели: для мира (что «снаружи») и для себя (что мы чувствуем и делаем). Наши действия включают: движения (меняющее наше окружение) и ментальные / скрытые действия (например, переключение внимания или выбор одной гипотезы из альтернатив).
2) При таких двух моделях у агентов появляются аттракторы состояний, формирующих умственные привычки (тенденции повторять действия, которые были выбраны ранее).
3) Заблуждения - это результат умственных привычек. Т.к. выводы о мире могут быть обусловлены (т. е. зависеть от выбранных агентом действий), привычки приводят к уверенным выводам, нечувствительным к сенсорным данным (подобно тому, как формируются сами привычки).
4) Механизм описанного явления проявляется в том, что даже умеренные изменения некоторых параметров внутренней генеративной модели – снижение уверенности в сенсорном вводе и повышение уверенности в состояниях, подразумеваемых ее собственными (особенно привычными) действиями, – могут приводить к заблуждениям. А включение в модель аффектов (помните цитату Канта выше?) значительно усиливает заблуждения, особенно в социальной сфере.
5) Ключевые выводы работы такие:
a. никакое изменение одного параметра модели не является необходимым и достаточным для образования заблуждений;
b. заблуждения возникают из-за условных зависимостей, которые создают "бассейны аттракторов", как бы запирающих байесовские убеждения в ловушку (энергетическую яму);
c. как показало моделирование, уменьшить глубину «бассейна аттракторов» (и даже его «осушить») можно фармакологическим путем – с помощью нейролептиков – за счет снижения уверенности модели в своих действиях.
Т.е. заблуждения, в принципе, можно лечить так же, как бред и галлюцинации – с помощью нейролептиков.
Что из этого следует и в чем проблема, - в окончании этого поста:
- на Medium https://bit.ly/3zjKyEr
- на Яндекс Дзен https://clck.ru/X5ZvC
#Заблуждения #АктивныйВывод #ВычислительнаяПсихиатрия
Бассейн аттракторов заблуждений можно осушить.
Если человечеству суждено погибнуть, то причиной тому будет не вирус, война или изменение климата. Все это – лишь следствия главной причины самых страшных человеческих бед (как прошлых, так и будущих). Эта причина - упёртость людей в их заблуждениях. Именно она, а не сверхжестокость Homo, лежит в основе расколов и войн, притеснений и резни, ненависти и социальных, религиозных и прочих конфликтов.
Упёртость заблуждений - эдакая железобетонная твердость ошибочных суждений и представлений, - не позволяет нам изменять их, не смотря на любые рациональные аргументы и факты реальности. В результате человек как бы интеллектуально слепнет, о чем я подробно писал в лонгриде «Интеллектуальная слепота»).
Со времен Цицерона люди различают обычные и упертые заблуждения. Считается, что «каждый человек может заблуждаться, но упорствовать в заблуждении может лишь глупец». Увы, но и это тоже заблуждение. Ибо, как писал И. Кант – «Заблуждение - незаметное влияние чувственности на рассудок». А поскольку чувственность свойственна всем, её влияние на рассудок неизбежно для каждого.
Но даже если такое влияние неизбежно, уменьшить упёртость заблуждений возможно. Т.е. интеллектуальная слепота лечится. Таков прорывной вывод нового исследования по вычислительной психиатрии. Среди авторов Карл Фристон, и неудивительно, что исследование основано на активном выводе - той же теоретической базе, что и исследование о влиянии психоделиков, о котором я недавно писал.
Целью новой работы было решение принципиальной загадки.
Если мозг аппроксимирует байесовский вывод, подбирая оптимальные веса для предыдущих ожиданий (априоров) и новых сенсорных данных, как тогда он может кардинально ошибаться, да еще и упорствовать в предсказаниях?
Иными словами.
Если мозг - «оптимальная машина предсказаний», что в ней ломается, когда эта «машина» генерирует ошибочные убеждения и держится потом за них наперекор любым свидетельствам противного?
Новое исследование отвечает на этот вопрос.
1) У мозга не одна, а две модели: для мира (что «снаружи») и для себя (что мы чувствуем и делаем). Наши действия включают: движения (меняющее наше окружение) и ментальные / скрытые действия (например, переключение внимания или выбор одной гипотезы из альтернатив).
2) При таких двух моделях у агентов появляются аттракторы состояний, формирующих умственные привычки (тенденции повторять действия, которые были выбраны ранее).
3) Заблуждения - это результат умственных привычек. Т.к. выводы о мире могут быть обусловлены (т. е. зависеть от выбранных агентом действий), привычки приводят к уверенным выводам, нечувствительным к сенсорным данным (подобно тому, как формируются сами привычки).
4) Механизм описанного явления проявляется в том, что даже умеренные изменения некоторых параметров внутренней генеративной модели – снижение уверенности в сенсорном вводе и повышение уверенности в состояниях, подразумеваемых ее собственными (особенно привычными) действиями, – могут приводить к заблуждениям. А включение в модель аффектов (помните цитату Канта выше?) значительно усиливает заблуждения, особенно в социальной сфере.
5) Ключевые выводы работы такие:
a. никакое изменение одного параметра модели не является необходимым и достаточным для образования заблуждений;
b. заблуждения возникают из-за условных зависимостей, которые создают "бассейны аттракторов", как бы запирающих байесовские убеждения в ловушку (энергетическую яму);
c. как показало моделирование, уменьшить глубину «бассейна аттракторов» (и даже его «осушить») можно фармакологическим путем – с помощью нейролептиков – за счет снижения уверенности модели в своих действиях.
Т.е. заблуждения, в принципе, можно лечить так же, как бред и галлюцинации – с помощью нейролептиков.
Что из этого следует и в чем проблема, - в окончании этого поста:
- на Medium https://bit.ly/3zjKyEr
- на Яндекс Дзен https://clck.ru/X5ZvC
#Заблуждения #АктивныйВывод #ВычислительнаяПсихиатрия
Medium
Интеллектуальная слепота лечится
Бассейн аттракторов заблуждений можно осушить
Призрак бродит по планете, призрак трансгуманизма.
Манифест Джека Кларка на Stanford HAI.
Два весьма знаменательных события этой недели – (1) в литературе и (2) в разработке ИИ, - удивительным образом сошлись в своем базовом тезисе.
• Первое событие – роман Виктора Пелевина TRANSHUMANISM INC., опубликованный вчера в России.
• Второе – «Манифест» Джека Кларка «Big models: What has happened, where are we going, and who gets to build them», с которым он выступил 23-го августа в Стэнфордском институте человеко-ориентированного ИИ (HAI).
Базовый тезис обоих текстов один и тот же:
мейнстримный тренд развития ИИ, ведет к тому, что невиданные в истории человечества материальные и нематериальные блага
• получат лишь самые богатые бизнесмены, высокие правительственные чиновники и ведущие разработчики ИИ,
• а подавляющему большинству людей эти сверхценные блага просто не достанутся.
В романе Пелевина:
«В будущем богатые люди смогут отделить свой мозг от старящегося тела - и станут жить почти вечно в особом “баночном” измерении. Туда уйдут вожди, мировые олигархи и архитекторы миропорядка. Там будет возможно все. Но в банку пустят не каждого. На земле останется зеленая посткарбоновая цивилизация, уменьшенная до размеров обслуживающего персонала, и слуг-биороботов».
Мало знакомым с положением дел в разработке ИИ такой прогноз кажется антиутопической пугалкой. Они полагаются на коммодизацию ИИ-приложений, что, по их мнению, приведет со временем к радикальному удешевлению приложений и сделает их доступными для большинства (типа современных бесплатных приложений для перевода, генерации текстов и всевозможных игр с фотографиями себя и других). Вот типичный пример такого рассуждения (4).
В отличие от таких критиков, Джек Кларк, 100%-но согласен с Пелевиным, что никакая коммодизация не спасет.
При этом Кларк – один из самых осведомленных экспертов по ИИ в мире, известностью в кругах ИИ разработчиков не уступающий Пелевину в современном российской литбомонде (погуглите, если кто не знает).
Логика «манифеста» Кларка, представленного им на Stanford HAI, не сложнее логики «Манифеста Коммунистической партии» Маркса и Энгельса.
Зачем большому бизнесу делиться сверхприбылью? Ведь до сих пор монополисты БигТеха этого не делали, лишь увеличивая свою капитализацию на десятки и сотни ярдов в год (см. 3).
Что же предлагает Кларк?
Вот логика его предложения.
А) Дальнейшее развитие ИИ решающим образом зависит от совершенствования «Больших моделей» (так Кларк именует базовые модели, которые учат на масштабируемых «больших данных», и они могут быть адаптированы для широкого круга задач нижестоящего уровня – напр. BERT, GPT-3, CLIP).
Б) Доводка и обучение Больших моделей – весьма дорогое дело. И потому это делается сейчас лишь китами БигТеха. Они забирают себе академические разработки таких моделей и совершенствуют их уже без «академиков».
В) «Академики» далее оказываются вне игры. А киты БигТеха, хоть со скрипом, но все же вынуждены делиться достижениями Больших моделей с правительством.
Г) Если все оставить как есть, основными выгодопреобретателями развития ИИ останутся киты БигТеха и высокие чиновники. А большинство людей будут лишь хлебать негативные последствия внедрения все более мощных приложений (типа тотального контроля и т.п.)
Д) Изменить положение вещей может лишь одно - Большие модели должны обучаться и совершенствоваться не БигТехом, а в академической среде (и Кларк пишет, как к этому идти)
Скорее всего, на «манифест» Кларка киты БигТеха отреагируют так же, как на роман Пелевина – не заметят или свысока покуражатся (как было с фильмом «Социальная дилемма»).
Что ж. Над манифестом компартии тоже куражились. Но для 1/7 части мира вышло только хуже. Сейчас же речь о всем мире.
Ссылки:
1 (видео)
2 (слайды)
3 (скорость обогащения)
4 (критика тезиса)
#ИИ
Манифест Джека Кларка на Stanford HAI.
Два весьма знаменательных события этой недели – (1) в литературе и (2) в разработке ИИ, - удивительным образом сошлись в своем базовом тезисе.
• Первое событие – роман Виктора Пелевина TRANSHUMANISM INC., опубликованный вчера в России.
• Второе – «Манифест» Джека Кларка «Big models: What has happened, where are we going, and who gets to build them», с которым он выступил 23-го августа в Стэнфордском институте человеко-ориентированного ИИ (HAI).
Базовый тезис обоих текстов один и тот же:
мейнстримный тренд развития ИИ, ведет к тому, что невиданные в истории человечества материальные и нематериальные блага
• получат лишь самые богатые бизнесмены, высокие правительственные чиновники и ведущие разработчики ИИ,
• а подавляющему большинству людей эти сверхценные блага просто не достанутся.
В романе Пелевина:
«В будущем богатые люди смогут отделить свой мозг от старящегося тела - и станут жить почти вечно в особом “баночном” измерении. Туда уйдут вожди, мировые олигархи и архитекторы миропорядка. Там будет возможно все. Но в банку пустят не каждого. На земле останется зеленая посткарбоновая цивилизация, уменьшенная до размеров обслуживающего персонала, и слуг-биороботов».
Мало знакомым с положением дел в разработке ИИ такой прогноз кажется антиутопической пугалкой. Они полагаются на коммодизацию ИИ-приложений, что, по их мнению, приведет со временем к радикальному удешевлению приложений и сделает их доступными для большинства (типа современных бесплатных приложений для перевода, генерации текстов и всевозможных игр с фотографиями себя и других). Вот типичный пример такого рассуждения (4).
В отличие от таких критиков, Джек Кларк, 100%-но согласен с Пелевиным, что никакая коммодизация не спасет.
При этом Кларк – один из самых осведомленных экспертов по ИИ в мире, известностью в кругах ИИ разработчиков не уступающий Пелевину в современном российской литбомонде (погуглите, если кто не знает).
Логика «манифеста» Кларка, представленного им на Stanford HAI, не сложнее логики «Манифеста Коммунистической партии» Маркса и Энгельса.
Зачем большому бизнесу делиться сверхприбылью? Ведь до сих пор монополисты БигТеха этого не делали, лишь увеличивая свою капитализацию на десятки и сотни ярдов в год (см. 3).
Что же предлагает Кларк?
Вот логика его предложения.
А) Дальнейшее развитие ИИ решающим образом зависит от совершенствования «Больших моделей» (так Кларк именует базовые модели, которые учат на масштабируемых «больших данных», и они могут быть адаптированы для широкого круга задач нижестоящего уровня – напр. BERT, GPT-3, CLIP).
Б) Доводка и обучение Больших моделей – весьма дорогое дело. И потому это делается сейчас лишь китами БигТеха. Они забирают себе академические разработки таких моделей и совершенствуют их уже без «академиков».
В) «Академики» далее оказываются вне игры. А киты БигТеха, хоть со скрипом, но все же вынуждены делиться достижениями Больших моделей с правительством.
Г) Если все оставить как есть, основными выгодопреобретателями развития ИИ останутся киты БигТеха и высокие чиновники. А большинство людей будут лишь хлебать негативные последствия внедрения все более мощных приложений (типа тотального контроля и т.п.)
Д) Изменить положение вещей может лишь одно - Большие модели должны обучаться и совершенствоваться не БигТехом, а в академической среде (и Кларк пишет, как к этому идти)
Скорее всего, на «манифест» Кларка киты БигТеха отреагируют так же, как на роман Пелевина – не заметят или свысока покуражатся (как было с фильмом «Социальная дилемма»).
Что ж. Над манифестом компартии тоже куражились. Но для 1/7 части мира вышло только хуже. Сейчас же речь о всем мире.
Ссылки:
1 (видео)
2 (слайды)
3 (скорость обогащения)
4 (критика тезиса)
#ИИ
Мы живем в сбывшемся пророчестве Стругацких.
И это не Мир Полудня.
Ко «Дню Стругацких» (28 августа родился старший из братьев – Аркадий Стругацкий) Александр Генис написал блестящее мини-эссе, в котором, как всегда изысканно, сформулировал смысловой концентрат двух главных тем многих произведений Стругацких:
• возвращение смысла марксистской утопии через миф о труде — «беззаветном и бескорыстном субботнике, превращающем будни в рай, обывателя — в коммунара, полуживотное — в полубога;
• грядущее разделение человечества на два вида из-за появления «Люденов» — нового вида Homo sapiens, «у которого не осталось ничего общего не только с нами, но и с жителями светлого будущего».
Но у Стругацких была еще и третья главная тема, на мой взгляд, наиболее актуальная для человечества в 2020-х.
К чему стремиться людям, если социализм, коммунизм и капитализм больше не способны стать ориентиром в 21 веке? (вопрос, поставленный Стругацкими на полвека раньше Харари).
Размышляя на эту тему в своих последних самых сложных и потому далеко не всеми понятых романах, братья Стругацкие совершили визионерский прорыв через десятилетия посредством двуединого пророчества:
- о грядущем «эксперименте» поворота советского общества на довольно страшный путь к непонятным целям (роман «Град обреченный»);
- и о том, что этот путь через 40 лет приведет к тому же, хотя и несколько демократизированному совку (роман «Отягощённые злом, или Сорок лет спустя»).
Об этом материализовавшемся пророчества, в мире которого мы сейчас живем, мой пост (еще на 5 мин чтения).
- на Medium https://bit.ly/3mOro66
- на Яндекс Дзен https://clck.ru/XAoCP
#Стругацкие
И это не Мир Полудня.
Ко «Дню Стругацких» (28 августа родился старший из братьев – Аркадий Стругацкий) Александр Генис написал блестящее мини-эссе, в котором, как всегда изысканно, сформулировал смысловой концентрат двух главных тем многих произведений Стругацких:
• возвращение смысла марксистской утопии через миф о труде — «беззаветном и бескорыстном субботнике, превращающем будни в рай, обывателя — в коммунара, полуживотное — в полубога;
• грядущее разделение человечества на два вида из-за появления «Люденов» — нового вида Homo sapiens, «у которого не осталось ничего общего не только с нами, но и с жителями светлого будущего».
Но у Стругацких была еще и третья главная тема, на мой взгляд, наиболее актуальная для человечества в 2020-х.
К чему стремиться людям, если социализм, коммунизм и капитализм больше не способны стать ориентиром в 21 веке? (вопрос, поставленный Стругацкими на полвека раньше Харари).
Размышляя на эту тему в своих последних самых сложных и потому далеко не всеми понятых романах, братья Стругацкие совершили визионерский прорыв через десятилетия посредством двуединого пророчества:
- о грядущем «эксперименте» поворота советского общества на довольно страшный путь к непонятным целям (роман «Град обреченный»);
- и о том, что этот путь через 40 лет приведет к тому же, хотя и несколько демократизированному совку (роман «Отягощённые злом, или Сорок лет спустя»).
Об этом материализовавшемся пророчества, в мире которого мы сейчас живем, мой пост (еще на 5 мин чтения).
- на Medium https://bit.ly/3mOro66
- на Яндекс Дзен https://clck.ru/XAoCP
#Стругацкие
Medium
Мы живем в сбывшемся пророчестве Стругацких
И это не Мир Полудня
Гибель или взлет, что он нам несет – поворот к базисным моделям.
Это революция в обучении машин, последствия которой пока непредставимы.
Для подавляющего числа читателей, термин «базисные модели (foundation models - адаптируемые к приложениям модели машинного обучения, которые обучаются независимым от задач способом на необработанных данных) неизвестен. А ведь это самый важный технологический термин ближайших десятилетий.
Обучение машин на базисных моделях имеет две принципиальные особенности, позволяющие говорить о смене парадигмы машинного обучения и о революционном прорыве в развитии ИИ технологий:
1) Переход количества в качество обучения при колоссальном масштабировании моделей.
2) Эмерджентность (возникновение у системы свойств, отсутствующих у ее элементов) умений прикладных систем, полученных путем машинного обучения на «базисных моделях».
Поэтому не будет преувеличением сказать, что переход на базисные модели обучения машин повлечет:
• гигантские практические последствия для многих областей деятельности людей, несопоставимые даже с революциями пара, электричества и атома.
• сопутствующие этому риски столь же титанические, как в части социальных последствий, так и в плане создания непреодолимых препятствий для дальнейших научно-технологических разработок.
Только представьте.
- Поисковик Google (созданный на базисной модели BERT) для 4 млрд землян осуществляет 6 млрд поисковых запросов в день.
- Система обработки естественного языка GPT-3 от OpenAI, используемая десятками тысяч разработчиков более чем 300 приложений, генерирует 4,5 млрд слов в лень, что позволит ей к концу следующего года произвести больше текстов, чем было накоплено человечеством за всю докомпьютерную эпоху.
И это лишь только начало. Переход на базисные модели через 10-20 лет может привести не только к технологиям уровня возможностей человеческого интеллекта (AGI), но и вообще к слабо представимым последствиям, типа материализации «призрака трансгуманизма», о котором я писал недавно в посте про «Манифест Кларка» .
Ведь базисные модели - это те модели из «Манифеста Кларка», что он назвал для массового читателя более привычным для них термином «Большие модели».
Это новое поколение моделей, что может открыть для людей невиданные ранее материальные и нематериальные блага, которые:
✔️ получат лишь самые богатые бизнесмены, высокие правительственные чиновники и ведущие разработчики ИИ,
✔️ а подавляющему большинству людей эти сверхценные блага просто не достанутся.
Помимо обострения неравенства и централизации власти, распространение приложений на основе базисных моделей, способно провоцировать
✔️ появление на Земле новых классов предубеждений, деформирующих коллективный интеллект человечества;
✔️ полной отказ от понятия «истина».
Наконец, мы даже не можем представить к каким новым классам катастроф могут вести такие приложения в стратегических инфраструктурах.
Подробней о перспективах и рисках базисных моделей читайте отчет CRFM - Стэнфордского центра человеко-ориентированного ИИ (HAI) по изучению базисных моделей (именно здесь выступал со своим «манифестом» Джек Кларк).
Под отчетом, соавтор которого содиректор HAI и бывший руководитель Google Cloud AI Фэй Фэй Ли, более 60 подписей.
Авторы пишут:
• нужно торопиться уводить базисные модели из под полного контроля китов БигТеха, движимых лишь бизнес-мотивацией;
• необходимо срочное создание инфраструктуры для общественных проектов ИИ, подобных космическому телескопу Хаббла и Большому адронному коллайдеру.
Подробней https://arxiv.org/abs/2108.07258 (213 стр.)
#БазисныеМодели #ИИ
Это революция в обучении машин, последствия которой пока непредставимы.
Для подавляющего числа читателей, термин «базисные модели (foundation models - адаптируемые к приложениям модели машинного обучения, которые обучаются независимым от задач способом на необработанных данных) неизвестен. А ведь это самый важный технологический термин ближайших десятилетий.
Обучение машин на базисных моделях имеет две принципиальные особенности, позволяющие говорить о смене парадигмы машинного обучения и о революционном прорыве в развитии ИИ технологий:
1) Переход количества в качество обучения при колоссальном масштабировании моделей.
2) Эмерджентность (возникновение у системы свойств, отсутствующих у ее элементов) умений прикладных систем, полученных путем машинного обучения на «базисных моделях».
Поэтому не будет преувеличением сказать, что переход на базисные модели обучения машин повлечет:
• гигантские практические последствия для многих областей деятельности людей, несопоставимые даже с революциями пара, электричества и атома.
• сопутствующие этому риски столь же титанические, как в части социальных последствий, так и в плане создания непреодолимых препятствий для дальнейших научно-технологических разработок.
Только представьте.
- Поисковик Google (созданный на базисной модели BERT) для 4 млрд землян осуществляет 6 млрд поисковых запросов в день.
- Система обработки естественного языка GPT-3 от OpenAI, используемая десятками тысяч разработчиков более чем 300 приложений, генерирует 4,5 млрд слов в лень, что позволит ей к концу следующего года произвести больше текстов, чем было накоплено человечеством за всю докомпьютерную эпоху.
И это лишь только начало. Переход на базисные модели через 10-20 лет может привести не только к технологиям уровня возможностей человеческого интеллекта (AGI), но и вообще к слабо представимым последствиям, типа материализации «призрака трансгуманизма», о котором я писал недавно в посте про «Манифест Кларка» .
Ведь базисные модели - это те модели из «Манифеста Кларка», что он назвал для массового читателя более привычным для них термином «Большие модели».
Это новое поколение моделей, что может открыть для людей невиданные ранее материальные и нематериальные блага, которые:
✔️ получат лишь самые богатые бизнесмены, высокие правительственные чиновники и ведущие разработчики ИИ,
✔️ а подавляющему большинству людей эти сверхценные блага просто не достанутся.
Помимо обострения неравенства и централизации власти, распространение приложений на основе базисных моделей, способно провоцировать
✔️ появление на Земле новых классов предубеждений, деформирующих коллективный интеллект человечества;
✔️ полной отказ от понятия «истина».
Наконец, мы даже не можем представить к каким новым классам катастроф могут вести такие приложения в стратегических инфраструктурах.
Подробней о перспективах и рисках базисных моделей читайте отчет CRFM - Стэнфордского центра человеко-ориентированного ИИ (HAI) по изучению базисных моделей (именно здесь выступал со своим «манифестом» Джек Кларк).
Под отчетом, соавтор которого содиректор HAI и бывший руководитель Google Cloud AI Фэй Фэй Ли, более 60 подписей.
Авторы пишут:
• нужно торопиться уводить базисные модели из под полного контроля китов БигТеха, движимых лишь бизнес-мотивацией;
• необходимо срочное создание инфраструктуры для общественных проектов ИИ, подобных космическому телескопу Хаббла и Большому адронному коллайдеру.
Подробней https://arxiv.org/abs/2108.07258 (213 стр.)
#БазисныеМодели #ИИ
Китайская техноантиутопия крепчает.
Китай ставит заслон засилью не только олигархов, но и алгоритмов.
Со временем 2021 год будут называть «годом великого перелома» столетней стратегии Китая по смене американского миропорядка на Земле. По заявлениям Председателя Си, техноутопия с китайской спецификой на основе «глубоких технологий» позволит Китаю построить «цивилизацию нового типа» (см. 1, 2, 3, 4).
«Великий перелом» уже включает в себя:
1) Разгром Бигтеха и раскулачивание олигархов (5). Как пишет FT, их миссия теперь предельно ясна - раздать свои миллиарды под чутким руководством КПК (6).
2) Принятие законов (они сегодня вступили в силу), по сути, запускающих национализацию данных и укрепление регулятивного авторитаризма, подкрепляемого промышленной политикой (1).
Однако мудрость и дальновидность КПК простираются и в цифровое будущее мира. А там все большую власть будут забирать себе алгоритмы.
Поэтому КПК наносит упреждающий удар по формирующемуся всевластию алгоритмов.
В современном мире деньги и власть становятся производными от цифровой суперсилы, от которой зависит сколько внимания людей ты можешь привлечь и насколько эффективно ты можешь влиять на поведение тех, чье внимание ты привлек.
Главный инструмент этой суперсилы – рекомендательные алгоритмы. Они позволяют прогнозировать предпочтения людей и делать на этой основе рекомендации, влияющие на все аспекты поведения (что люди будут читать, смотреть и покупать, к чему они будут стремиться и за кого проголосуют …)
Проект «дорожной карты» ограничения власти алгоритмов (8) подразумевает возможность частично или даже полностью вырубить такие алгоритмы. Также ставятся вне закона всякие модные трюки, типа распространение информации фейковыми экаунтами и злоупотребление использованием персональных данных для «втягивания» людей в ненужные покупки, участие в промоакциях, ну и, вероятно, в ненужные политические акции.
Все это делается, чтобы поставить заслон перед алгоритмами, которые поощряют 1) зависимость или высокое потребление, 2) ставят под угрозу национальную безопасность или общественный порядок.
Полагаю, что главным мотиватором КПК здесь является не 1-е из названного, а 2-е.
Так что КПК не намерено делиться властью и влиянием ни с кем: ни с олигархами, ни с алгоритмами.
Источники:
1
2
3
4
5
6
7
8
#Китай #РазгромБигтеха
Китай ставит заслон засилью не только олигархов, но и алгоритмов.
Со временем 2021 год будут называть «годом великого перелома» столетней стратегии Китая по смене американского миропорядка на Земле. По заявлениям Председателя Си, техноутопия с китайской спецификой на основе «глубоких технологий» позволит Китаю построить «цивилизацию нового типа» (см. 1, 2, 3, 4).
«Великий перелом» уже включает в себя:
1) Разгром Бигтеха и раскулачивание олигархов (5). Как пишет FT, их миссия теперь предельно ясна - раздать свои миллиарды под чутким руководством КПК (6).
2) Принятие законов (они сегодня вступили в силу), по сути, запускающих национализацию данных и укрепление регулятивного авторитаризма, подкрепляемого промышленной политикой (1).
Однако мудрость и дальновидность КПК простираются и в цифровое будущее мира. А там все большую власть будут забирать себе алгоритмы.
Поэтому КПК наносит упреждающий удар по формирующемуся всевластию алгоритмов.
В современном мире деньги и власть становятся производными от цифровой суперсилы, от которой зависит сколько внимания людей ты можешь привлечь и насколько эффективно ты можешь влиять на поведение тех, чье внимание ты привлек.
Главный инструмент этой суперсилы – рекомендательные алгоритмы. Они позволяют прогнозировать предпочтения людей и делать на этой основе рекомендации, влияющие на все аспекты поведения (что люди будут читать, смотреть и покупать, к чему они будут стремиться и за кого проголосуют …)
Проект «дорожной карты» ограничения власти алгоритмов (8) подразумевает возможность частично или даже полностью вырубить такие алгоритмы. Также ставятся вне закона всякие модные трюки, типа распространение информации фейковыми экаунтами и злоупотребление использованием персональных данных для «втягивания» людей в ненужные покупки, участие в промоакциях, ну и, вероятно, в ненужные политические акции.
Все это делается, чтобы поставить заслон перед алгоритмами, которые поощряют 1) зависимость или высокое потребление, 2) ставят под угрозу национальную безопасность или общественный порядок.
Полагаю, что главным мотиватором КПК здесь является не 1-е из названного, а 2-е.
Так что КПК не намерено делиться властью и влиянием ни с кем: ни с олигархами, ни с алгоритмами.
Источники:
1
2
3
4
5
6
7
8
#Китай #РазгромБигтеха
Риск того - не знаю чего, сделать то – не знаю что.
Главный риск ИИ в непонимании людей, в чем он, и где он может стать критичным.
Не пропустите на выходных 1-й в мире материал, ставящий обсуждение важнейшей для человечества темы с головы на ноги. Я давно собирался про это написать, но в итоге, написал Хари Джонсон. И это даже лучше, поскольку риски ИИ - это его профильная тема.
Великий королевский астроном, мульти-академик, рыцарь-бакалавр и член Палаты лордов Мартин Рис предположил, что мы – единственная высокоразвитая цивилизация во Вселенной, т.к. все другие уже самоистребились. И то же самое ждет земную цивилизацию (и все цивилизации будущего). Ибо при достижении высокого технологического уровня, цивилизация подходит к порогу, после которого она не в состоянии справиться с экзистенциальными рисками, опережающими прогресс.
Скорее всего, главным источником таких рисков является ИИ. Люди уже догадались об этом и пытаются что-то предпринять. Разные государства идут разными путями.
• Китай решил поджать бизнес и университеты под КПК и тем самым сосредоточить контроль за развитием самых рисковых технологий в руках «самой мудрой и дальновидной силы».
• Забюрократизированная Европа решила идти по законодательному пути, пытаясь оградить развитие в области ИИ законодательными заборами и экономическими веригами для бизнеса (чтоб не сильно разбегался, куда не надо).
• США мечутся, пытаясь пройти между Сциллой и Харибдой двух названных подходов. Для 1-го у них нет своей КПК. Для 2-го – пока нет критической массы бюрократов (но это вовсю исправляется).
• Про Россию думайте сами, решайте сами. Но похоже, возможны оба варианта сразу.
Ну а теперь о главном - о чем написал Хари Джонсон.
Вот сухой остаток.
1. Чума на оба вышеназванных пути (взятие под госконтроль и регулирование).
Оба пути наденут смирительные рубашки на инновации, после чего вперед уйдут страны, не надевшие на себя такую спецодежду. Столкнувшись с этим, надевшие смирительные рубашки государства, их снимут. После чего мир дружно ускорит бег к обрыву пропасти имени Мартина Риса.
2. Невозможно запретить или даже просто ограничить ни цели использования ИИ, ни области его применения, ни перечень решаемых им задач. Чтобы долго не объяснять, возьмите пример с электричеством. И попробуйте подумать, как можно законодательно обложить его использование там, где это ведет к критическим рискам. Быстро поймете – никак.
3. Что такое критический риск, в контексте ИИ, совершенно не понятно. Ибо это зависит от того, на что ИИ будет способен:
- если он способен лишь переводить тексты, рисовать котиков и быть умной колонкой – то и говорить не о чем;
- а когда, например, «наш ИИ» планирования боевых операций превзойдет «их ИИ», - колоссальный риск появится, но предотвратить его можно, лишь не дав «своему ИИ» превзойти «их ИИ» (что исключено);
- ну и совсем плохая ситуация: представьте в метафоре электричества, что самым большим потенциальным риском его применения считается удар током (так вот с ИИ мы ровно в такой ситуации);
4. Разработчики новых ИИ на основе базисных моделей (киты БигТеха), провайдеры приложений / сервисов на их базе и «внедренцы» не смогут договориться. Они уже начали активно переваливать ответственность друг на друга. И ситуацию в целом по решению проблемы ответственности (кто виноват, когда случится плохое) будет куда труднее разрулить, чем, например, в локальной области самоуправляемых авто (где эта проблема пока не имеет универсального решения).
5. В силу перечисленного, видна лишь одна альтернатива:
- не придавливать госвластью разработчиков;
- не городить заборы законов и навешивать вериги на бизнес;
- а радикально решить вопрос всего одним решением на уровне ООН - срочное создание международной инфраструктуры общественных проектов базисных моделей ИИ, подобных космическому телескопу Хаббла и Большому адронному коллайдеру.
СкАжите, - кто про что, а вшивый про баню? И будете правы, - я опять о том же.
Ибо эта «баня» крайне важна для выживания наших внуков.
#ИИ
Главный риск ИИ в непонимании людей, в чем он, и где он может стать критичным.
Не пропустите на выходных 1-й в мире материал, ставящий обсуждение важнейшей для человечества темы с головы на ноги. Я давно собирался про это написать, но в итоге, написал Хари Джонсон. И это даже лучше, поскольку риски ИИ - это его профильная тема.
Великий королевский астроном, мульти-академик, рыцарь-бакалавр и член Палаты лордов Мартин Рис предположил, что мы – единственная высокоразвитая цивилизация во Вселенной, т.к. все другие уже самоистребились. И то же самое ждет земную цивилизацию (и все цивилизации будущего). Ибо при достижении высокого технологического уровня, цивилизация подходит к порогу, после которого она не в состоянии справиться с экзистенциальными рисками, опережающими прогресс.
Скорее всего, главным источником таких рисков является ИИ. Люди уже догадались об этом и пытаются что-то предпринять. Разные государства идут разными путями.
• Китай решил поджать бизнес и университеты под КПК и тем самым сосредоточить контроль за развитием самых рисковых технологий в руках «самой мудрой и дальновидной силы».
• Забюрократизированная Европа решила идти по законодательному пути, пытаясь оградить развитие в области ИИ законодательными заборами и экономическими веригами для бизнеса (чтоб не сильно разбегался, куда не надо).
• США мечутся, пытаясь пройти между Сциллой и Харибдой двух названных подходов. Для 1-го у них нет своей КПК. Для 2-го – пока нет критической массы бюрократов (но это вовсю исправляется).
• Про Россию думайте сами, решайте сами. Но похоже, возможны оба варианта сразу.
Ну а теперь о главном - о чем написал Хари Джонсон.
Вот сухой остаток.
1. Чума на оба вышеназванных пути (взятие под госконтроль и регулирование).
Оба пути наденут смирительные рубашки на инновации, после чего вперед уйдут страны, не надевшие на себя такую спецодежду. Столкнувшись с этим, надевшие смирительные рубашки государства, их снимут. После чего мир дружно ускорит бег к обрыву пропасти имени Мартина Риса.
2. Невозможно запретить или даже просто ограничить ни цели использования ИИ, ни области его применения, ни перечень решаемых им задач. Чтобы долго не объяснять, возьмите пример с электричеством. И попробуйте подумать, как можно законодательно обложить его использование там, где это ведет к критическим рискам. Быстро поймете – никак.
3. Что такое критический риск, в контексте ИИ, совершенно не понятно. Ибо это зависит от того, на что ИИ будет способен:
- если он способен лишь переводить тексты, рисовать котиков и быть умной колонкой – то и говорить не о чем;
- а когда, например, «наш ИИ» планирования боевых операций превзойдет «их ИИ», - колоссальный риск появится, но предотвратить его можно, лишь не дав «своему ИИ» превзойти «их ИИ» (что исключено);
- ну и совсем плохая ситуация: представьте в метафоре электричества, что самым большим потенциальным риском его применения считается удар током (так вот с ИИ мы ровно в такой ситуации);
4. Разработчики новых ИИ на основе базисных моделей (киты БигТеха), провайдеры приложений / сервисов на их базе и «внедренцы» не смогут договориться. Они уже начали активно переваливать ответственность друг на друга. И ситуацию в целом по решению проблемы ответственности (кто виноват, когда случится плохое) будет куда труднее разрулить, чем, например, в локальной области самоуправляемых авто (где эта проблема пока не имеет универсального решения).
5. В силу перечисленного, видна лишь одна альтернатива:
- не придавливать госвластью разработчиков;
- не городить заборы законов и навешивать вериги на бизнес;
- а радикально решить вопрос всего одним решением на уровне ООН - срочное создание международной инфраструктуры общественных проектов базисных моделей ИИ, подобных космическому телескопу Хаббла и Большому адронному коллайдеру.
СкАжите, - кто про что, а вшивый про баню? И будете правы, - я опять о том же.
Ибо эта «баня» крайне важна для выживания наших внуков.
#ИИ
WIRED
The Fight to Define When AI Is ‘High Risk’
Everyone from tech companies to churches wants a say in how the EU regulates AI that could harm people.
Возможно, базисные модели машинного обучения превзойдут по своей отдаче для человечества пар, электричество и атом вместе взятые.
Возможно, они даже позволят людям такое, что нам сегодня трудно представить (например, обретение новых чувств – типа, музыковидения или эйфорияпередачи).
Но что они, скорее всего, не позволят – так создать сильный или универсальный ИИ (AGI), т.е. искусственный аналог человеческого, осознающего себя, сложного абстрактного разума с нетривиальной внутренней мотивацией и всеми присущими человеческому сознанию проявлениями.
О причинах, препятствующих этому, писали многие от Дрейфуса до Фьелланда. Однако, справедливости ради, надо признать, что все они анализировали возможности создания AGI лишь в рамках современной мейнстримной парадигмы («компьютерной метафоры мозга»):
• мозг – это биологический механизм, обладающий специфическими способностями разума и сознания;
• нужно на основе машинного обучения построить искусственный механизм с аналогичными способностями;
• как он будет устроен (конкретная архитектура и алгоритмы), и каким образом он будет обеспечивать аналогичные способности (подобно людям или иначе) – неважно (типа, самолет не машет крыльями, но летает).
✔️ Вот только, что если эта парадигма в корне ошибочна?
✔️ И что если, сменив парадигму, путь к AGI откроется?
Об этом мой новый пост (11 мин чтения):
- на Medium https://bit.ly/3jMfuYs
- на Яндекс Дзен https://clck.ru/XK3QU
#Мозг #Сознание #Трансдукция
Возможно, они даже позволят людям такое, что нам сегодня трудно представить (например, обретение новых чувств – типа, музыковидения или эйфорияпередачи).
Но что они, скорее всего, не позволят – так создать сильный или универсальный ИИ (AGI), т.е. искусственный аналог человеческого, осознающего себя, сложного абстрактного разума с нетривиальной внутренней мотивацией и всеми присущими человеческому сознанию проявлениями.
О причинах, препятствующих этому, писали многие от Дрейфуса до Фьелланда. Однако, справедливости ради, надо признать, что все они анализировали возможности создания AGI лишь в рамках современной мейнстримной парадигмы («компьютерной метафоры мозга»):
• мозг – это биологический механизм, обладающий специфическими способностями разума и сознания;
• нужно на основе машинного обучения построить искусственный механизм с аналогичными способностями;
• как он будет устроен (конкретная архитектура и алгоритмы), и каким образом он будет обеспечивать аналогичные способности (подобно людям или иначе) – неважно (типа, самолет не машет крыльями, но летает).
✔️ Вот только, что если эта парадигма в корне ошибочна?
✔️ И что если, сменив парадигму, путь к AGI откроется?
Об этом мой новый пост (11 мин чтения):
- на Medium https://bit.ly/3jMfuYs
- на Яндекс Дзен https://clck.ru/XK3QU
#Мозг #Сознание #Трансдукция
Medium
Альтернативная парадигма сознания
Мозг — как “смартфон” для связи с иными мирами
Результаты голосования и вакцинации зависят от «обезьян» и «упертых».
Учет сложного взаимодействия когнитивных и социальных факторов при принятии коллективных решений.
Три прорывных открытия могут сильно повысить шансы человечества на благополучное прохождение новых кризисов в результате прилетов очередных «черных лебедей». Все они касаются способов принятия важных коллективных решений.
1-е открытие раскрывает секрет возникновения многих черных лебедей.
Они появляются в результате массового поведения людей в предкритических глобальных ситуациях: от обвалов финансовых рынков и экономических кризисов до схлопывания политических режимов (типа «Арабской весны») и инфо-вирусных пандемий (типа COVID-19).
Ключевых факторов того, взлетит ли новый черный лебедь или все как-то утрясется без катастроф, два:
1) насколько близко подошла система к критической (переломной) точке - фазовому переходу;
2) в какую сторону: к критической точке или от нее подталкивает систему коллективное поведение (как следствие коллективных решений).
Подробней см. (1)
2-е и 3-е открытия раскрывают секрет механизма принятия коллективных решений в предкризисных ситуациях.
Ведь в большинстве из них коллективное поведение общества играет не меньшую роль, чем стратегия, избираемая властью. А эта стратегия, в значительной степени, также зависит от предпочтений большинства в обществе (COVID-19 тому яркий пример).
2-е открытие в том, что наличие «упертых несогласных» в обществе кардинально повышает качество коллективных решений.
Упертые несогласные – это люди, имеющих собственное мнение, не вписывающееся в агрегированный итог иерархического сбора мнений, и не готовые от него отказаться даже под угрозой притеснений или даже репрессий.
Похоже, это новый закон природы - чем больше упертых несогласных, тем выше качество коллективных решений общества.
Подробней см. (2)
3-е открытие определяет критический порог «обезьян» в обществе, после которого катастрофически падает качество коллективных решений.
Исследование, опубликованное неделю назад в PNAS (3), уточняет и дополняет 2 предыдущих.
Подобно двум архетипам людей по их видению мира (ежи, которые смотрят на мир через призму одной определяющей идеи, и лисы, которые опираются на широкий спектр опыта и для которых мир не может быть сведён к одной идее), существуют два архетипа по принятию коллективных решений: кошки и обезьяны.
Люди – кошки предпочитают во всех вариантах выбора разбираться самим и принимать решение, опираясь на собственное понимание вопроса.
Тогда как люди – обезьяны не исследуют достоинства имеющихся вариантов самостоятельно, а принимают мнения и поведение других людей в качестве основы собственных решений.
Авторы исследования построили 1-ю в мире многопараметрическую модель, учитывающую сложное взаимодействие когнитивных и социальных факторов при принятии коллективных решений. Цель была – численно определить, где прячутся причины катастрофических коллективных решений.
Ответ найден.
В любом классе коллективных решений (от голосования на выборах до решения о вакцинации) существует критический порог доли числа «обезьян» в обществе, после которого возникает бистабильное состояние, позволяющее обществу отдать предпочтение худшему варианту. Если же критический порог не достигнут, общество тяготеет к лучшему из вариантов.
Дополнительный вывод исследования касается важной роли влияния «упертых несогласных» на «обезьян».
Рост их доли в обществе и степень их упертости может быть решающим фактором влияния на решения, принимаемые «обезьянами»
Этот вывод, подтверждаемый примерами многих революций, заставляет вспомнить мой пост 2011 года «Суперкомпьютер рассчитал, при каких условиях сменится власть в России» (кто не читал, погуглите).
ИТОГО: нужно снижать долю обезьян и повышать долю упертых.
Источники: 1, 2, 3,
#ПринятиеРешений
Учет сложного взаимодействия когнитивных и социальных факторов при принятии коллективных решений.
Три прорывных открытия могут сильно повысить шансы человечества на благополучное прохождение новых кризисов в результате прилетов очередных «черных лебедей». Все они касаются способов принятия важных коллективных решений.
1-е открытие раскрывает секрет возникновения многих черных лебедей.
Они появляются в результате массового поведения людей в предкритических глобальных ситуациях: от обвалов финансовых рынков и экономических кризисов до схлопывания политических режимов (типа «Арабской весны») и инфо-вирусных пандемий (типа COVID-19).
Ключевых факторов того, взлетит ли новый черный лебедь или все как-то утрясется без катастроф, два:
1) насколько близко подошла система к критической (переломной) точке - фазовому переходу;
2) в какую сторону: к критической точке или от нее подталкивает систему коллективное поведение (как следствие коллективных решений).
Подробней см. (1)
2-е и 3-е открытия раскрывают секрет механизма принятия коллективных решений в предкризисных ситуациях.
Ведь в большинстве из них коллективное поведение общества играет не меньшую роль, чем стратегия, избираемая властью. А эта стратегия, в значительной степени, также зависит от предпочтений большинства в обществе (COVID-19 тому яркий пример).
2-е открытие в том, что наличие «упертых несогласных» в обществе кардинально повышает качество коллективных решений.
Упертые несогласные – это люди, имеющих собственное мнение, не вписывающееся в агрегированный итог иерархического сбора мнений, и не готовые от него отказаться даже под угрозой притеснений или даже репрессий.
Похоже, это новый закон природы - чем больше упертых несогласных, тем выше качество коллективных решений общества.
Подробней см. (2)
3-е открытие определяет критический порог «обезьян» в обществе, после которого катастрофически падает качество коллективных решений.
Исследование, опубликованное неделю назад в PNAS (3), уточняет и дополняет 2 предыдущих.
Подобно двум архетипам людей по их видению мира (ежи, которые смотрят на мир через призму одной определяющей идеи, и лисы, которые опираются на широкий спектр опыта и для которых мир не может быть сведён к одной идее), существуют два архетипа по принятию коллективных решений: кошки и обезьяны.
Люди – кошки предпочитают во всех вариантах выбора разбираться самим и принимать решение, опираясь на собственное понимание вопроса.
Тогда как люди – обезьяны не исследуют достоинства имеющихся вариантов самостоятельно, а принимают мнения и поведение других людей в качестве основы собственных решений.
Авторы исследования построили 1-ю в мире многопараметрическую модель, учитывающую сложное взаимодействие когнитивных и социальных факторов при принятии коллективных решений. Цель была – численно определить, где прячутся причины катастрофических коллективных решений.
Ответ найден.
В любом классе коллективных решений (от голосования на выборах до решения о вакцинации) существует критический порог доли числа «обезьян» в обществе, после которого возникает бистабильное состояние, позволяющее обществу отдать предпочтение худшему варианту. Если же критический порог не достигнут, общество тяготеет к лучшему из вариантов.
Дополнительный вывод исследования касается важной роли влияния «упертых несогласных» на «обезьян».
Рост их доли в обществе и степень их упертости может быть решающим фактором влияния на решения, принимаемые «обезьянами»
Этот вывод, подтверждаемый примерами многих революций, заставляет вспомнить мой пост 2011 года «Суперкомпьютер рассчитал, при каких условиях сменится власть в России» (кто не читал, погуглите).
ИТОГО: нужно снижать долю обезьян и повышать долю упертых.
Источники: 1, 2, 3,
#ПринятиеРешений
Каким будет мир победившего ИИ.
Наиболее точное из предвидений 2041года от Кай-Фу Ли.
Став электричеством 21 века, ИИ через 20 лет будет основой новой цивилизационной парадигмы – т.е. будет использоваться повсюду, и жизнь без него будет считаться «пещерным веком». Однако, будет ли это утопия или антиутопия, - человечеству еще предстоит решить. Возможны оба варианта.
Существующие предвидения мира победившего ИИ:
• либо чаруют и пленяют сюжетом и языком, но при этом, к сожалению, поверхностны (подобно романам Пелевина);
• либо содержательны и точны, но не в состоянии привлечь внимание широкой аудитории читателей (что относится даже к лучшим образцам научпопа: AI Superpowers Кай-Фу Ли, Human Compatible Стюарта Рассела и Life 3.0 Макса Тегмарка)
При этом оба класса предвидений страдают общим недугом – необходимостью быть оптимистичными. Ведь плохие прогнозы мало кто любит, кроме профессиональных алармистов.
Легендарный визионер, техно-инвестор и стратег Кай-Фу Ли замахнулся на невозможное. Он решил написать точный содержательный прогноз мира победившего ИИ через 20 лет с захватывающим сюжетом и легко читаемым языком. И написал, объединив талант и усилия со знаменитым китайским писателем-фантастом Чэнь Цюфанем.
Получилась интересная 3-х частная схема.
• Кай-Фу Ли рассказывал Чэнь Цюфаню о вызовах и рисках ИИ в 10 разных областях жизни;
• Чэнь Цюфань написал про это 10 увлекательных новелл из жизни людей в разных странах в 2041;
• Кай-Фу Ли сопроводил каждую из новелл профессиональным пояснением сути ИИ технологий, ведущих к их детективным или триллерным историям.
Каково будет жить в мире победившего ИИ:
• когда Большой Брат через страховые компании будет контролировать все аспекты жизни людей, путем динамического перерасчета их рисков (что люди делают, как себя ведут и т.д., в духе сегодняшнего социального рейтинга в Китае);
• когда главным инструментом власти и криминала станет не насилие, а ИИ технология DeepMask - преемник сегодняшних DeepFake, - выявить подделки которой станет невозможно;
• когда поехавший крышей физик решит с помощью ИИ технологий отомстить миру за его жестокость, в одиночку уничтожив человечество;
• когда ИИ технологии бесконтактных коммуникаций, бурно развившиеся после начавшейся в 2019 серии пандемий, приведут людей к переходу на «бесконтактную любовь»;
• и еще 6 новелл о совсем иной, чем сейчас, жизни в мире победившего ИИ.
«Мы – хозяева своей судьбы» - считал Уинстон Черчилль.
«И никакие технологические инновации этого никогда не изменят» - продолжил фразу Черчилля Кай-Фу Ли, сопроводив ею AI 2041: Ten Visions for Our Future.
В контексте новой книги Кай-Фу Ли, этот лозунг можно трактовать двояко:
• люди в силах изменить свое будущее, какие бы потенциальные риски ни несли им новые технологии (но захотят ли люди что-либо менять в направлении развитии ИИ?)
• риски новых технологий не являются их непреложным последствием, а лишь следствие выбора использующих их людей (насколько мудры, нечестолюбивы и нестяжательны те, от кого зависит развитие ИИ?)
Трейлер выходящей на следующей неделе книги https://www.youtube.com/watch?v=cyT8JD1HvHk
Разговор о книге с Чэнь Цюфань https://www.youtube.com/watch?v=S43MeqjFfHM
#ИИ #БББ
Наиболее точное из предвидений 2041года от Кай-Фу Ли.
Став электричеством 21 века, ИИ через 20 лет будет основой новой цивилизационной парадигмы – т.е. будет использоваться повсюду, и жизнь без него будет считаться «пещерным веком». Однако, будет ли это утопия или антиутопия, - человечеству еще предстоит решить. Возможны оба варианта.
Существующие предвидения мира победившего ИИ:
• либо чаруют и пленяют сюжетом и языком, но при этом, к сожалению, поверхностны (подобно романам Пелевина);
• либо содержательны и точны, но не в состоянии привлечь внимание широкой аудитории читателей (что относится даже к лучшим образцам научпопа: AI Superpowers Кай-Фу Ли, Human Compatible Стюарта Рассела и Life 3.0 Макса Тегмарка)
При этом оба класса предвидений страдают общим недугом – необходимостью быть оптимистичными. Ведь плохие прогнозы мало кто любит, кроме профессиональных алармистов.
Легендарный визионер, техно-инвестор и стратег Кай-Фу Ли замахнулся на невозможное. Он решил написать точный содержательный прогноз мира победившего ИИ через 20 лет с захватывающим сюжетом и легко читаемым языком. И написал, объединив талант и усилия со знаменитым китайским писателем-фантастом Чэнь Цюфанем.
Получилась интересная 3-х частная схема.
• Кай-Фу Ли рассказывал Чэнь Цюфаню о вызовах и рисках ИИ в 10 разных областях жизни;
• Чэнь Цюфань написал про это 10 увлекательных новелл из жизни людей в разных странах в 2041;
• Кай-Фу Ли сопроводил каждую из новелл профессиональным пояснением сути ИИ технологий, ведущих к их детективным или триллерным историям.
Каково будет жить в мире победившего ИИ:
• когда Большой Брат через страховые компании будет контролировать все аспекты жизни людей, путем динамического перерасчета их рисков (что люди делают, как себя ведут и т.д., в духе сегодняшнего социального рейтинга в Китае);
• когда главным инструментом власти и криминала станет не насилие, а ИИ технология DeepMask - преемник сегодняшних DeepFake, - выявить подделки которой станет невозможно;
• когда поехавший крышей физик решит с помощью ИИ технологий отомстить миру за его жестокость, в одиночку уничтожив человечество;
• когда ИИ технологии бесконтактных коммуникаций, бурно развившиеся после начавшейся в 2019 серии пандемий, приведут людей к переходу на «бесконтактную любовь»;
• и еще 6 новелл о совсем иной, чем сейчас, жизни в мире победившего ИИ.
«Мы – хозяева своей судьбы» - считал Уинстон Черчилль.
«И никакие технологические инновации этого никогда не изменят» - продолжил фразу Черчилля Кай-Фу Ли, сопроводив ею AI 2041: Ten Visions for Our Future.
В контексте новой книги Кай-Фу Ли, этот лозунг можно трактовать двояко:
• люди в силах изменить свое будущее, какие бы потенциальные риски ни несли им новые технологии (но захотят ли люди что-либо менять в направлении развитии ИИ?)
• риски новых технологий не являются их непреложным последствием, а лишь следствие выбора использующих их людей (насколько мудры, нечестолюбивы и нестяжательны те, от кого зависит развитие ИИ?)
Трейлер выходящей на следующей неделе книги https://www.youtube.com/watch?v=cyT8JD1HvHk
Разговор о книге с Чэнь Цюфань https://www.youtube.com/watch?v=S43MeqjFfHM
#ИИ #БББ
YouTube
AI 2041 Book Trailer
In this provocative, utterly original work, Kai-Fu Lee, the former president of Google China, teams up with celebrated novelist Chen Qiufan to imagine our world in 2041 and how it will be shaped by AI. Learn more at https://www.ai2041.com/
Через 20 лет мир будет не узнать.
3 лидера, 6 трендов и 4 риска эпохи ИИ.
За 5 лет произошел технологический перелом - наступила эпоха ИИ, способная к 2041 привести к эре изобилия. Но это «прекрасное послезавтра» может и не настать из-за рисков, с которыми мир столкнется уже «завтра».
Новая книга Кай-Фу Ли AI 2041: Ten Visions for Our Future – лишь вершина айсберга. Под нею глыба аналитики, экспертизы, сценариев, форсайтов и инсайтов возглавляемого Кайфу Sinovation Ventures AI Institute.
Кое о чем из этого Кайфу уже поведал на презентации книги в Китае и последовавших затем трех блокбастер-интервью и мастер-лекции о книге. Эта ценная для конкретизации и структурирования авторских прогнозов информация позволяет их лучше и точнее понять.
Резюме подводной части айсберга AI2041.
1. 3 лидера эпохи ИИ: в алгоритмах, больших данных и вычислениях.
В 1-м и 2-м лидеры уже определились и не изменятся. США уже никому не догнать в алгоритмах ИИ. А у Китая уже никому не отнять превосходство в объемах данных. Лидер в вычислениях еще не определился. Хорошие шансы у Тайваня (если – добавлю я от себя, - Китай не приберет к себе это лидерство вместе с Тайванем).
2. 6 ключевых трендов - векторов изменений в 2021-2041.
• Переход от людей к ИИ интеллектуально-технических (не креативных) видов деятельности в бизнесе.
Прогноз на 2041: вся аналитика и маркетинг перейдут к ИИ.
• Трехэтапное внедрение автономных авто:
1) закрытые территории 2) реконструированные шоссе - датчики, камеры, выделенки 3) умный город.
Прогноз на 2041: порулить самому можно будет лишь за городом, как сейчас покататься на лошади.
• Ежедневные рекомендации ИИ на основе анализа крови, МРТ всего тела и генетического мониторинга, а также изобретение с помощью ИИ новых вакцин и лекарств для точной/персональной медицины.
Прогноз на 2041: решения в развитие того, что уже предлагает компания MegaRobo, позволят увеличить продолжительность жизни на 20 лет.
• 4-я промышленная революция (ИИ + роботы), лидером которой станет Китай.
Прогноз на 2041: решения в развитие того, что уже предлагает компания EP Equipment, позволят роботизировать до 95% самых сложных производств и логистики.
• Энергетическая (зеленая энергия и литиевые батареи) и сельскохозяйственная (беспилотное сельское хозяйство, вертикальные фермы и продукты питания, напечатанные на 3D-принтере) революции, лидером которых также станет Китай.
Прогноз на 2041: решения в развитие того, что уже предлагает компания XAG, позволят окончательно решить продовольственную проблему.
• Наступление «эры изобилия»: еда, одежда, жилье и защита здоровья станут общедоступны, а полная роботизация обеспечит переход на безусловный базовый доход.
3. Однако, прогнозируемое в п. 2 «прекрасное послезавтра» может и не настать из-за рисков, с которыми человечество столкнется уже «завтра»:
• Не запрещенное автономное ядерное оружие может нарушить сдерживающий паритет угрозы взаимного уничтожения, который до сих пор спасает мир от ядерной войны.
• Не сдерживаемая законодательством коммодизация «автономных ИИ киллеров» стоимостью меньше $1 тыс. может повергнуть мир в террористический хаос.
• Когда заглохнет механизм саморегулирования свободного рынка, люди лишаться 80% рабочих мест, а неравенство окончательно зашкалит, - это может привести к невыносимым последствиям для людей с непредсказуемым развитием событий.
• Если сформируется новая классовая система (высший класс – элита в области ИИ, средний - относительно небольшая группа профессионалов в сложной деятельности, и низший – массы, не способные что-либо изменить), - последствия этого также непредсказуемы.
Презентация Кайфу на китайском
https://www.youtube.com/watch?v=sPtpdXXKcpo
(на английском будет представлена Кайфу в ходе мировой премьеры книги 14 сентября)
#ИИ
3 лидера, 6 трендов и 4 риска эпохи ИИ.
За 5 лет произошел технологический перелом - наступила эпоха ИИ, способная к 2041 привести к эре изобилия. Но это «прекрасное послезавтра» может и не настать из-за рисков, с которыми мир столкнется уже «завтра».
Новая книга Кай-Фу Ли AI 2041: Ten Visions for Our Future – лишь вершина айсберга. Под нею глыба аналитики, экспертизы, сценариев, форсайтов и инсайтов возглавляемого Кайфу Sinovation Ventures AI Institute.
Кое о чем из этого Кайфу уже поведал на презентации книги в Китае и последовавших затем трех блокбастер-интервью и мастер-лекции о книге. Эта ценная для конкретизации и структурирования авторских прогнозов информация позволяет их лучше и точнее понять.
Резюме подводной части айсберга AI2041.
1. 3 лидера эпохи ИИ: в алгоритмах, больших данных и вычислениях.
В 1-м и 2-м лидеры уже определились и не изменятся. США уже никому не догнать в алгоритмах ИИ. А у Китая уже никому не отнять превосходство в объемах данных. Лидер в вычислениях еще не определился. Хорошие шансы у Тайваня (если – добавлю я от себя, - Китай не приберет к себе это лидерство вместе с Тайванем).
2. 6 ключевых трендов - векторов изменений в 2021-2041.
• Переход от людей к ИИ интеллектуально-технических (не креативных) видов деятельности в бизнесе.
Прогноз на 2041: вся аналитика и маркетинг перейдут к ИИ.
• Трехэтапное внедрение автономных авто:
1) закрытые территории 2) реконструированные шоссе - датчики, камеры, выделенки 3) умный город.
Прогноз на 2041: порулить самому можно будет лишь за городом, как сейчас покататься на лошади.
• Ежедневные рекомендации ИИ на основе анализа крови, МРТ всего тела и генетического мониторинга, а также изобретение с помощью ИИ новых вакцин и лекарств для точной/персональной медицины.
Прогноз на 2041: решения в развитие того, что уже предлагает компания MegaRobo, позволят увеличить продолжительность жизни на 20 лет.
• 4-я промышленная революция (ИИ + роботы), лидером которой станет Китай.
Прогноз на 2041: решения в развитие того, что уже предлагает компания EP Equipment, позволят роботизировать до 95% самых сложных производств и логистики.
• Энергетическая (зеленая энергия и литиевые батареи) и сельскохозяйственная (беспилотное сельское хозяйство, вертикальные фермы и продукты питания, напечатанные на 3D-принтере) революции, лидером которых также станет Китай.
Прогноз на 2041: решения в развитие того, что уже предлагает компания XAG, позволят окончательно решить продовольственную проблему.
• Наступление «эры изобилия»: еда, одежда, жилье и защита здоровья станут общедоступны, а полная роботизация обеспечит переход на безусловный базовый доход.
3. Однако, прогнозируемое в п. 2 «прекрасное послезавтра» может и не настать из-за рисков, с которыми человечество столкнется уже «завтра»:
• Не запрещенное автономное ядерное оружие может нарушить сдерживающий паритет угрозы взаимного уничтожения, который до сих пор спасает мир от ядерной войны.
• Не сдерживаемая законодательством коммодизация «автономных ИИ киллеров» стоимостью меньше $1 тыс. может повергнуть мир в террористический хаос.
• Когда заглохнет механизм саморегулирования свободного рынка, люди лишаться 80% рабочих мест, а неравенство окончательно зашкалит, - это может привести к невыносимым последствиям для людей с непредсказуемым развитием событий.
• Если сформируется новая классовая система (высший класс – элита в области ИИ, средний - относительно небольшая группа профессионалов в сложной деятельности, и низший – массы, не способные что-либо изменить), - последствия этого также непредсказуемы.
Презентация Кайфу на китайском
https://www.youtube.com/watch?v=sPtpdXXKcpo
(на английском будет представлена Кайфу в ходе мировой премьеры книги 14 сентября)
#ИИ
YouTube
【📽精彩直播中|李開復《AI 2041》全球首場新書發表暨大師講堂 】
AI時代已開啟,人工智慧將如何影響我們的生活?
醫療、工作、教育又會有怎樣突破性的改革?
天下文化總經理林芳燕特別與北京連線,
邀請李開復博士暢談AI未來20年的飛奔進程。
結合科學 李開復 x 科幻 陳楸帆 的最新力作《AI2041》,
已在各大通路上市。
誠品線上購書享有獨家優惠,
https://eslite.me/3lamdt
請輸入通關密語「2041」
醫療、工作、教育又會有怎樣突破性的改革?
天下文化總經理林芳燕特別與北京連線,
邀請李開復博士暢談AI未來20年的飛奔進程。
結合科學 李開復 x 科幻 陳楸帆 的最新力作《AI2041》,
已在各大通路上市。
誠品線上購書享有獨家優惠,
https://eslite.me/3lamdt
請輸入通關密語「2041」
Великая цифровая культурная революция в Китае
Позавчера 14 китайских контент-платформ (вкл. Douyin, китайский оригинал TikTok, новостной агрегатор Jinri Toutiao, мессенджер Weibo, видео-хостинг Tencent Video и прочие сервисы, принадлежащие Tencet, ByteDance и др.) объявили, что они вводят у себя специальные меры активной самодисциплины, цель которых «обеспечить чистоту киберпространства, продвигать только «здоровый» контент с позитивными ценностями, воздерживаться от использования данных и трафика в качестве основного ориентира и прекратить поощрять «ложный хайп»“. Как это резюмировал Tencent в своем официальном аккаунте Weibo – компания будет работать над созданием чистой и честной онлайн-культуры (1)
Это означает, что на пути построения «цивилизации нового типа» в год «великого перелома» (2) КПК начинает «великую цифровую культурную революцию» - борьбу за умы, путем формирования системы ценностей и образа мышления.
Способы построения экономического базиса китайской «цивилизации нового типа» уже известны:
• разгром Бигтеха с раскулачиванием олигархов, дабы направить их миллиарды, куда скажет КПК(3)
• принятие законов, по сути, запускающих национализацию данных и укрепление регулятивного авторитаризма (4), подкрепляемого промышленной политикой (5)
Теперь КПК взялась за надстройку – начав новую культурную революцию.
Как и в 1-ю культурную революцию 1966—1976 гг, это будет серия идейно-политических кампаний, но с учетом специфики нашего времени сфокусированных на цифровой культуре.
Направления трансформации цифровой культуры избраны КПК со знанием дела.
1. Контент-платформы, формирующие наполнение “чистой и честной онлайн-культуры”
– см. выше.
2. Инфлюенсеры (кумиры и знаменитости - проводники инфокаскадов и трендсетеры)
- ограничение контента, программ и реалити-шоу, выращивающих молодежных кумиров;
- установление правильных стандартов красоты и изгнания из медиа "женоподобных мужчин";
- "отказ от пошлости и безвкусицы, а также отпор декадентским идеям поклонения деньгам, гедонизму и индивидуализму";
- очистка медиа от внимания к знаменитостям, нарушившим закон, допустивших аморальное поведение или поощряющих «ложный хайп».
3. Дети (за ними будущее) - им оставили 3 часа в неделю на онлайн-игры;
4. Алгоритмы всех рекомендательных систем (2) – ибо от них все более зависит выбор людей.
Как это прокомментировал Ли Гуанмань в своем посте «Каждый может почувствовать, что происходит глубокая трансформация» (перепечатанном государственными СМИ) (6)
«Если нам по-прежнему придется полагаться на крупных капиталистов как на главную силу в борьбе против империализма и гегемонизма или мы всё еще будем сотрудничать с американской отраслью „массовых развлечений“, наша молодежь утратит свою сильную и мужественную энергию, и мы потерпим такой же крах, как Советский Союз, даже еще до того, как подвергнемся настоящей атаке»
Как пишет Гуанмань, цель Си Цзиньпина - контролировать весь создавшийся культурный хаос и построить яркую, здоровую, мужественную, сильную и ориентированную на людей культуру.
Полагаю, что насчет яркой, здоровой … культуры, - это дело десятой. А вот начет контролировать – это сущая правда.
Ряд экспертов полагают, что 2я культурная революция будет иметь столь же плачевные последствия для экономики Китая, как и 1я. Эти опасения мне видятся преувеличенными. Уж слишком большую силу обрел Китай. Посмотрите сами (7).
Источники: 1, 2, 3, 4, 5, 6, 7
#Китай
Позавчера 14 китайских контент-платформ (вкл. Douyin, китайский оригинал TikTok, новостной агрегатор Jinri Toutiao, мессенджер Weibo, видео-хостинг Tencent Video и прочие сервисы, принадлежащие Tencet, ByteDance и др.) объявили, что они вводят у себя специальные меры активной самодисциплины, цель которых «обеспечить чистоту киберпространства, продвигать только «здоровый» контент с позитивными ценностями, воздерживаться от использования данных и трафика в качестве основного ориентира и прекратить поощрять «ложный хайп»“. Как это резюмировал Tencent в своем официальном аккаунте Weibo – компания будет работать над созданием чистой и честной онлайн-культуры (1)
Это означает, что на пути построения «цивилизации нового типа» в год «великого перелома» (2) КПК начинает «великую цифровую культурную революцию» - борьбу за умы, путем формирования системы ценностей и образа мышления.
Способы построения экономического базиса китайской «цивилизации нового типа» уже известны:
• разгром Бигтеха с раскулачиванием олигархов, дабы направить их миллиарды, куда скажет КПК(3)
• принятие законов, по сути, запускающих национализацию данных и укрепление регулятивного авторитаризма (4), подкрепляемого промышленной политикой (5)
Теперь КПК взялась за надстройку – начав новую культурную революцию.
Как и в 1-ю культурную революцию 1966—1976 гг, это будет серия идейно-политических кампаний, но с учетом специфики нашего времени сфокусированных на цифровой культуре.
Направления трансформации цифровой культуры избраны КПК со знанием дела.
1. Контент-платформы, формирующие наполнение “чистой и честной онлайн-культуры”
– см. выше.
2. Инфлюенсеры (кумиры и знаменитости - проводники инфокаскадов и трендсетеры)
- ограничение контента, программ и реалити-шоу, выращивающих молодежных кумиров;
- установление правильных стандартов красоты и изгнания из медиа "женоподобных мужчин";
- "отказ от пошлости и безвкусицы, а также отпор декадентским идеям поклонения деньгам, гедонизму и индивидуализму";
- очистка медиа от внимания к знаменитостям, нарушившим закон, допустивших аморальное поведение или поощряющих «ложный хайп».
3. Дети (за ними будущее) - им оставили 3 часа в неделю на онлайн-игры;
4. Алгоритмы всех рекомендательных систем (2) – ибо от них все более зависит выбор людей.
Как это прокомментировал Ли Гуанмань в своем посте «Каждый может почувствовать, что происходит глубокая трансформация» (перепечатанном государственными СМИ) (6)
«Если нам по-прежнему придется полагаться на крупных капиталистов как на главную силу в борьбе против империализма и гегемонизма или мы всё еще будем сотрудничать с американской отраслью „массовых развлечений“, наша молодежь утратит свою сильную и мужественную энергию, и мы потерпим такой же крах, как Советский Союз, даже еще до того, как подвергнемся настоящей атаке»
Как пишет Гуанмань, цель Си Цзиньпина - контролировать весь создавшийся культурный хаос и построить яркую, здоровую, мужественную, сильную и ориентированную на людей культуру.
Полагаю, что насчет яркой, здоровой … культуры, - это дело десятой. А вот начет контролировать – это сущая правда.
Ряд экспертов полагают, что 2я культурная революция будет иметь столь же плачевные последствия для экономики Китая, как и 1я. Эти опасения мне видятся преувеличенными. Уж слишком большую силу обрел Китай. Посмотрите сами (7).
Источники: 1, 2, 3, 4, 5, 6, 7
#Китай
Reuters
Chinese content platforms pledge self-discipline - industry group
Chinese content platforms including Weibo and Tencent Video (0700.HK) have agreed to enforce more self-discipline to help maintain a "clear" cyberspace environment, a government-affiliated industry association said on Saturday.
Сцилла и Харибда развития ИИ.
Демис Хассабис и Джек Кларк о развилке главных рисков.
Лучший индикатор уровня зрелости ИИ технологий – в чем общество видит их главные риски.
• Во времена младенчества этих технологий общество содрогалось (подобно малышу при громких звуках) от страхов перед злобным Терминатором и хитроумным HAL 9000
• С наступлением детства главной пугалкой (одновременно страшащей и манящей, как нечто за окном для шестилетки) стала техносингулярность.
• Отрочество (в котором область ИИ сейчас находится) ознаменовалось осознанием истинных корней рисков: они не в технологиях, а в людях.
- Кто будет определять вектор развития ИИ?
- Кто станет выгодоприобретателем революционных открытий, сделанных ИИ, что способны кардинально изменить мир?
Ответы на эти 2 вопроса и составляют суть текущего момента в понимании главных рисков развития ИИ. Ибо сегодня существует лишь два варианта ответа на оба вопроса:
A. Киты Бигтеха (одна или несколько мега-корпораций )
B. Правительства (одной или нескольких супердержав)
Такой выбор подобен Сцилле и Харибде. А как пройти между ними – большой вопрос.
Два человека, входящие в число самых информированных экспертов в данном вопросе, - Демис Хассабис и Джек Кларк – бьются как рыба об лед, пытаясь донести свои мысли до человечества.
✔️ Нельзя отдавать сверх-потенциал ИИ в одни руки: и киты Бигтеха, и правительства – одинаково плохи для человечества.
✔️ Сейчас это, к огромному сожалению, именно так: в США ИИ монопольно в руках китов Бигтеха, а в Китае – в руках КПК.
Демис Хассабис хорошо понимает, к каким революционным прорывам подошел DeepMind в кардинально новых направлениях «глубокой науки» (1):
✔️ уже продемонстрированные AlphaFold 2 возможности определения трехмерной структуры белков сулят экономию сотен миллиардов долларов при разработке новых лекарств и революцию в борьбе с пандемиями;
✔️ находящийся в разработке алгоритм удержания плазмы в термоядерных реакторах промышленного масштаба сулит революцию в энергетике, решив задачу управляемого термоядерного синтеза, над которой мир бьется уже 70 лет.
Однако, Хассабис также понимает, что выгодоприобретателем достижений такого уровня не должна стать одна мега-корпорация. И поэтому Хассабис:
• потратил 4 года на секретный проект «Арбуз» - попытка выйти из-под щедрого, но жесткого крыла материнской компании Google/Alphabet, финансирующей и контролирующей DeepMind (увы, но в апреле эти попытки были окончательно придушены «мамой») (2)
• добился предоставления открытого доступа к алгоритму AlphaFold 2 (хотя все не так просто, и алгоритм пока не может быть сильно полезным исследователям без технических знаний, которыми обладает лишь DeepMind);
• поняв, что из-под «мамы» не вывернуться, в июне призвал на форуме Responsible AI Forum к созданию «всемирного института ИИ» под юрисдикцией ООН, чтобы собрать в нем лучших исследователей в этой области (3)
Джек Кларк (совместно с Институтом изучения экзистенциальных рисков ИИ в Кембридже) 31 августа опубликовал свое видение того же вопроса. Препринт WHY AND HOW GOVERNMENTS SHOULD MONITOR AI DEVELOPMENT (4) сфокусирован на ключевой проблеме прохождения между Сциллой и Харибдой:
✔️ Как преодолеть разрыв между ведущей ролью мировых правительств в определении путей развития ИИ и хроническим непониманием правительств текущего состояния и трендов ИИ
Они подобны инженерам, пытающимся с Земли управлять марсоходом в реальном времени при том, что сигнал с камер марсохода идет до Земли 7 мин, и столько же обратно идет управляющий сигнал с Земли.
Итог – «поспешное, неточное и неосведомленное законотворчество».
Как это можно исправить описано на 13 стр.
Источники: 1 2 3 4
#ИИ
Демис Хассабис и Джек Кларк о развилке главных рисков.
Лучший индикатор уровня зрелости ИИ технологий – в чем общество видит их главные риски.
• Во времена младенчества этих технологий общество содрогалось (подобно малышу при громких звуках) от страхов перед злобным Терминатором и хитроумным HAL 9000
• С наступлением детства главной пугалкой (одновременно страшащей и манящей, как нечто за окном для шестилетки) стала техносингулярность.
• Отрочество (в котором область ИИ сейчас находится) ознаменовалось осознанием истинных корней рисков: они не в технологиях, а в людях.
- Кто будет определять вектор развития ИИ?
- Кто станет выгодоприобретателем революционных открытий, сделанных ИИ, что способны кардинально изменить мир?
Ответы на эти 2 вопроса и составляют суть текущего момента в понимании главных рисков развития ИИ. Ибо сегодня существует лишь два варианта ответа на оба вопроса:
A. Киты Бигтеха (одна или несколько мега-корпораций )
B. Правительства (одной или нескольких супердержав)
Такой выбор подобен Сцилле и Харибде. А как пройти между ними – большой вопрос.
Два человека, входящие в число самых информированных экспертов в данном вопросе, - Демис Хассабис и Джек Кларк – бьются как рыба об лед, пытаясь донести свои мысли до человечества.
✔️ Нельзя отдавать сверх-потенциал ИИ в одни руки: и киты Бигтеха, и правительства – одинаково плохи для человечества.
✔️ Сейчас это, к огромному сожалению, именно так: в США ИИ монопольно в руках китов Бигтеха, а в Китае – в руках КПК.
Демис Хассабис хорошо понимает, к каким революционным прорывам подошел DeepMind в кардинально новых направлениях «глубокой науки» (1):
✔️ уже продемонстрированные AlphaFold 2 возможности определения трехмерной структуры белков сулят экономию сотен миллиардов долларов при разработке новых лекарств и революцию в борьбе с пандемиями;
✔️ находящийся в разработке алгоритм удержания плазмы в термоядерных реакторах промышленного масштаба сулит революцию в энергетике, решив задачу управляемого термоядерного синтеза, над которой мир бьется уже 70 лет.
Однако, Хассабис также понимает, что выгодоприобретателем достижений такого уровня не должна стать одна мега-корпорация. И поэтому Хассабис:
• потратил 4 года на секретный проект «Арбуз» - попытка выйти из-под щедрого, но жесткого крыла материнской компании Google/Alphabet, финансирующей и контролирующей DeepMind (увы, но в апреле эти попытки были окончательно придушены «мамой») (2)
• добился предоставления открытого доступа к алгоритму AlphaFold 2 (хотя все не так просто, и алгоритм пока не может быть сильно полезным исследователям без технических знаний, которыми обладает лишь DeepMind);
• поняв, что из-под «мамы» не вывернуться, в июне призвал на форуме Responsible AI Forum к созданию «всемирного института ИИ» под юрисдикцией ООН, чтобы собрать в нем лучших исследователей в этой области (3)
Джек Кларк (совместно с Институтом изучения экзистенциальных рисков ИИ в Кембридже) 31 августа опубликовал свое видение того же вопроса. Препринт WHY AND HOW GOVERNMENTS SHOULD MONITOR AI DEVELOPMENT (4) сфокусирован на ключевой проблеме прохождения между Сциллой и Харибдой:
✔️ Как преодолеть разрыв между ведущей ролью мировых правительств в определении путей развития ИИ и хроническим непониманием правительств текущего состояния и трендов ИИ
Они подобны инженерам, пытающимся с Земли управлять марсоходом в реальном времени при том, что сигнал с камер марсохода идет до Земли 7 мин, и столько же обратно идет управляющий сигнал с Земли.
Итог – «поспешное, неточное и неосведомленное законотворчество».
Как это можно исправить описано на 13 стр.
Источники: 1 2 3 4
#ИИ
Intel
How Google DeepMind Turns AI Research into Application
Founded just over a decade ago (making it one of the oldest artificial intelligence firms) DeepMind cut its teeth teaching machines to master early video games—not so machines could displace humans in the arcades, but because they offered ready-made testbeds…