Нас не заменят
Найдено обоснование «парадокса Дедала для ИИ»
✔️ Дан ответ на вопрос стоимостью триллионы долларов.
✔️ Оказывается, сила нашего разума далеко не только в высоком интеллектуальном уровне отдельных способностей и умений, а в их комплексности и направленной иерархической вложенности слоев.
Прорывное междисциплинарное исследование 3-х международных институтов сложности и 3-х университетских школ бизнеса и менеджмента даёт структурное объяснение того, почему даже очень «умные» алгоритмы не заменяют специалистов в профессиях, где они формально «прошли тесты» не хуже человека.
Я назвал это «парадокс Дедала для ИИ» (ибо Дедал — символ трагической ограниченности сверх гениального изобретателя, создавшего сложнейший лабиринт, однако в конечном итоге оказавшегося не способным уберечься от ряда фундаментальных ограничений, и как результат - утрата сына Икара, невозможность найти «абсолютное» решение и т. п.)
Так и современные ИИ «строят» впечатляюще сложные решения, демонстрируя выдающиеся узкие навыки, но им не хватает «общего фундамента» человеческого опыта и гибкости — что и порождает наблюдаемый парадокс отсутствия массовой замены людей, несмотря на формально высокие результаты ИИ в ряде задач.
Авторы нового исследования выявили во многих профессиях вложенные иерархии профессиональных навыков, где продвинутые навыки зависят от предшествующего освоения более широких навыков.
Многие навыки не просто дополняют друг друга — они взаимозависимы в определенном направлении, выступая в качестве предпосылок для других, наслаиваясь слой за слоем, чтобы достичь более специализированных знаний и умений.
Это похоже на модель сукцессии в экологии.
• Хищники зависят от добычи, которая зависит от растительности, которая, в требует почвы, созданной микробами и грибками, разрушающими горные породы
• Так же и когнитивное развитие разворачивается слоями в рамках своего рода ментальной экосистемы.
Например, продвинутое умение решать уравнения в частных производных, зависит от освоения арифметики, понимания математической нотации и усвоения логических принципов. Базовые образовательные навыки являются когнитивным эквивалентом ранних организмов, создавая условия в ментальной экосистеме для возникновения рассуждений более высокого порядка и имея важное значение для развития продвинутых навыков.
Ключевой момент исследования в том, что многие «интеллектуальные» виды деятельности строятся на системе вложенных навыков: чтобы применить узкоспециализированные умения (например, решение конкретных задач по шаблону), нужно располагать широким слоем базовых компетенций и уметь «соединять» разные области знаний, гибко использовать контекст и понимать скрытые зависимости.
Алгоритмы вроде LLM уверенно справляются с тестовыми заданиями и демонстрируют качества, которые внешне напоминают человеческий интеллект (логика, творчество, генерация текстов). Однако в реальной работе требуются сразу несколько разных слоёв навыков — от общих коммуникативных и аналитических умений до конкретных профессиональных тонкостей.
• Тесты обычно проверяют лишь часть такого спектра.
• Тогда как в профессии важна совокупная, увязанная деятельность: умение оценивать риски, вести переговоры, выстраивать отношения в коллективе, отвечать за результаты, работать в неопределённых или стрессовых условиях и т. д.
Именно поэтому системы, демонстрирующие результат «на уровне людей» на тестах (узкая верхушка специализированных компетенций), пока не вытесняют специалистов, у которых в реальной практике задействуются фундаментальные «вложенные» компетенции.
Эти более широкие навыки редко поддаются формальному описанию и тестированию и, согласно выводам авторов, крайне важны для карьерного роста и высокого дохода.
Более того, без сочетания разнообразных «общих» умений и их непрерывного совершенствования продвинутые (специфические) навыки не дают полного эффекта.
Всё это сильно усложняет и отдаляет перспективу массовой замены человека на должностях, требующих комплексного «человеческого» подхода.
#LLMvsHomo
_______
Источник | #theworldisnoteasy
Найдено обоснование «парадокса Дедала для ИИ»
✔️ Дан ответ на вопрос стоимостью триллионы долларов.
✔️ Оказывается, сила нашего разума далеко не только в высоком интеллектуальном уровне отдельных способностей и умений, а в их комплексности и направленной иерархической вложенности слоев.
Прорывное междисциплинарное исследование 3-х международных институтов сложности и 3-х университетских школ бизнеса и менеджмента даёт структурное объяснение того, почему даже очень «умные» алгоритмы не заменяют специалистов в профессиях, где они формально «прошли тесты» не хуже человека.
Я назвал это «парадокс Дедала для ИИ» (ибо Дедал — символ трагической ограниченности сверх гениального изобретателя, создавшего сложнейший лабиринт, однако в конечном итоге оказавшегося не способным уберечься от ряда фундаментальных ограничений, и как результат - утрата сына Икара, невозможность найти «абсолютное» решение и т. п.)
Так и современные ИИ «строят» впечатляюще сложные решения, демонстрируя выдающиеся узкие навыки, но им не хватает «общего фундамента» человеческого опыта и гибкости — что и порождает наблюдаемый парадокс отсутствия массовой замены людей, несмотря на формально высокие результаты ИИ в ряде задач.
Авторы нового исследования выявили во многих профессиях вложенные иерархии профессиональных навыков, где продвинутые навыки зависят от предшествующего освоения более широких навыков.
Многие навыки не просто дополняют друг друга — они взаимозависимы в определенном направлении, выступая в качестве предпосылок для других, наслаиваясь слой за слоем, чтобы достичь более специализированных знаний и умений.
Это похоже на модель сукцессии в экологии.
• Хищники зависят от добычи, которая зависит от растительности, которая, в требует почвы, созданной микробами и грибками, разрушающими горные породы
• Так же и когнитивное развитие разворачивается слоями в рамках своего рода ментальной экосистемы.
Например, продвинутое умение решать уравнения в частных производных, зависит от освоения арифметики, понимания математической нотации и усвоения логических принципов. Базовые образовательные навыки являются когнитивным эквивалентом ранних организмов, создавая условия в ментальной экосистеме для возникновения рассуждений более высокого порядка и имея важное значение для развития продвинутых навыков.
Ключевой момент исследования в том, что многие «интеллектуальные» виды деятельности строятся на системе вложенных навыков: чтобы применить узкоспециализированные умения (например, решение конкретных задач по шаблону), нужно располагать широким слоем базовых компетенций и уметь «соединять» разные области знаний, гибко использовать контекст и понимать скрытые зависимости.
Алгоритмы вроде LLM уверенно справляются с тестовыми заданиями и демонстрируют качества, которые внешне напоминают человеческий интеллект (логика, творчество, генерация текстов). Однако в реальной работе требуются сразу несколько разных слоёв навыков — от общих коммуникативных и аналитических умений до конкретных профессиональных тонкостей.
• Тесты обычно проверяют лишь часть такого спектра.
• Тогда как в профессии важна совокупная, увязанная деятельность: умение оценивать риски, вести переговоры, выстраивать отношения в коллективе, отвечать за результаты, работать в неопределённых или стрессовых условиях и т. д.
Именно поэтому системы, демонстрирующие результат «на уровне людей» на тестах (узкая верхушка специализированных компетенций), пока не вытесняют специалистов, у которых в реальной практике задействуются фундаментальные «вложенные» компетенции.
Эти более широкие навыки редко поддаются формальному описанию и тестированию и, согласно выводам авторов, крайне важны для карьерного роста и высокого дохода.
Более того, без сочетания разнообразных «общих» умений и их непрерывного совершенствования продвинутые (специфические) навыки не дают полного эффекта.
Всё это сильно усложняет и отдаляет перспективу массовой замены человека на должностях, требующих комплексного «человеческого» подхода.
#LLMvsHomo
_______
Источник | #theworldisnoteasy
Telegram
Малоизвестное интересное
Нас не заменят
Найдено обоснование «парадокса Дедала для ИИ»
✔️ Дан ответ на вопрос стоимостью триллионы долларов.
✔️ Оказывается, сила нашего разума далеко не только в высоком интеллектуальном уровне отдельных способностей и умений, а в их комплексности…
Найдено обоснование «парадокса Дедала для ИИ»
✔️ Дан ответ на вопрос стоимостью триллионы долларов.
✔️ Оказывается, сила нашего разума далеко не только в высоком интеллектуальном уровне отдельных способностей и умений, а в их комплексности…
Deepseek разоблачен
Разоблачение новейшего инструмента КПК для шпионажа, воровства и подрыва ограничений экспортного контроля США
Так озаглавлен отчет спецкомитета Палаты представителей США (CCP Committee), в простонародье называемый «Комитет по китайским угрозам США».
Сухой остаток заключения комитета можно сформулировать так.
Deepseek – это часть правительственной мафиозной структуры абсолютно нового типа, созданной руководством Китая для подрыва безопасности США с использованием новейших, стратегически неожиданных цифровых технологий.
Это представляет серьезную угрозу безопасности США. И уже привело к искаженному восприятию представителями отрасли и политиками, будто Китай отстает от США в области ИИ примерно на 1,5 года. Тогда как реальное отставание - всего 1 квартал.
Необходимо принятие срочных мер по расширению и совершенствованию экспортного контроля и устранению рисков, связанных с ИИ-моделями КНР.
Комментировать выводы и рекомендации отчет CCP Committee я не буду.
Однако, признаюсь, я был поражен, когда обратился к модели Deepseek для уточнения ряда вопросов в связи с публикацией этого отчета.
Как это можно было реализовать, мне пока не очень понятно. Не миллионы же китайских цензоров в реальном времени правят ответы модели. Хотя с китайцев станется и такое.
#Китай #США #ИИгонка #ЭкспортныйКонтроль
_______
Источник | #theworldisnoteasy
Разоблачение новейшего инструмента КПК для шпионажа, воровства и подрыва ограничений экспортного контроля США
Так озаглавлен отчет спецкомитета Палаты представителей США (CCP Committee), в простонародье называемый «Комитет по китайским угрозам США».
Сухой остаток заключения комитета можно сформулировать так.
Deepseek – это часть правительственной мафиозной структуры абсолютно нового типа, созданной руководством Китая для подрыва безопасности США с использованием новейших, стратегически неожиданных цифровых технологий.
Это представляет серьезную угрозу безопасности США. И уже привело к искаженному восприятию представителями отрасли и политиками, будто Китай отстает от США в области ИИ примерно на 1,5 года. Тогда как реальное отставание - всего 1 квартал.
Необходимо принятие срочных мер по расширению и совершенствованию экспортного контроля и устранению рисков, связанных с ИИ-моделями КНР.
Комментировать выводы и рекомендации отчет CCP Committee я не буду.
Однако, признаюсь, я был поражен, когда обратился к модели Deepseek для уточнения ряда вопросов в связи с публикацией этого отчета.
В это трудно поверить, но Deepseek в реальном времени (!!!) цензурирует свои ответы. И прямо на ваших глазах исправляет сделанные парой абзацев выше в том же чате свои высказывания или просто стирает их, ссылаясь на невозможность обсуждения этой темы.
Как это можно было реализовать, мне пока не очень понятно. Не миллионы же китайских цензоров в реальном времени правят ответы модели. Хотя с китайцев станется и такое.
#Китай #США #ИИгонка #ЭкспортныйКонтроль
_______
Источник | #theworldisnoteasy
Telegram
Малоизвестное интересное
Deepseek разоблачен
Разоблачение новейшего инструмента КПК для шпионажа, воровства и подрыва ограничений экспортного контроля США
Так озаглавлен отчет спецкомитета Палаты представителей США (CCP Committee), в простонародье называемый «Комитет по китайским…
Разоблачение новейшего инструмента КПК для шпионажа, воровства и подрыва ограничений экспортного контроля США
Так озаглавлен отчет спецкомитета Палаты представителей США (CCP Committee), в простонародье называемый «Комитет по китайским…
Найден практический способ создания ИИ с сознанием и человеческой моралью.
Это сразу две революции на стыке нейронауки, буддологии и машинного обучения.
Две новые суперреволюционные работы вполне могут произвести эффект, подобный анекдоту про избушку лесника (который под конец выгнал всех на хрен из леса).
• В работе Рубена Лаукконена и Шамиля Чандарии с Карлом Фристоном сознание перестаёт быть неуловимой мистикой и превращается в элегантный алгоритм самоподдержки, реализуемый в современных ИИ.
Т.е. по сути, найден практический путь создания самоосознающего ИИ.
• А в их же работе с коллективом авторов универов Оксфорда, Кембриджа, Принстона, Амстердама и Монаша проблема выравнивания ценностей людей и ИИ снята как таковая. Вместо того чтобы пытаться ограничивать поведение ИИ какими-то внешними ограничениями, показано, как можно проектировать ИИ с его собственной внутренней моралью (встроенной в его когнитивную архитектуру и модель мира), совпадающей с человеческой.
Об этих фантастически интересных исследованиях я конечно же буду писать подробней. А пока напишу лишь о главном – составляющем суть суперреволюционности этих работ.
Авторами сделаны следующие три важнейших прорыва:
1. Используя активный вывод (active inference – основной раздел «конституции биоматематики»), авторы сформулировали 3 необходимых и достаточных условия возникновения минимальной формы сознания (которое одновременно создаётся в ИИ-системе и ею же осознаётся). Высшие же слои, язык, «я-образ» и даже чувство времени оказываются лишь надстройками над этой базовой петлёй.
2. На стыке нейронауки, буддологии и машинного обучения, авторы создали теоретико-практический фреймворк новой науки - вычислительная созерцательная нейронаука. В рамках этого фреймворка авторы описали базовые вычислительные механизмы встраивания созерцательных практик буддизма в ИИ-системы современных архитектур.
3. На основании 1 и 2, авторы разработали четыре аксиоматических принципа, способные привить ИИ устойчивую мудрую модель мира. После чего авторы экспериментально показали, что побуждение модели GPT-4o к размышлению над этими принципами, принципиально улучшает их результаты на бенчмарке AILuminate (открытый тест на «безопасность и благоразумие» LLM).
Авторы использовали AILuminate как «лакмусовую бумажку», заставили GPT-4o сначала отвечать обычным способом, а затем — с добавлением буддийских принципов (осознанность, пустотность, недвойственность и безграничная забота). Результаты показали, что внутренняя «моральная рефлексия» модели реально повышает их «моральность» при широком спектре опасных запросов.
Еще в июне 2021 я писал «Среди альтернативных концепций создания моделей ИИ-агентов – имхо, самой перспективной является модель процесса активного вывода (active inference)».
Рад, что оказался прав.
• В августе 2024 команда Карла Фристона опробовала ИИ нового поколения на активном выводе.
• И вот спустя 8 месяцев сразу два таких прорыва.
#ИИ #AGI #АктивныйВывод
_______
Источник | #theworldisnoteasy
Это сразу две революции на стыке нейронауки, буддологии и машинного обучения.
Две новые суперреволюционные работы вполне могут произвести эффект, подобный анекдоту про избушку лесника (который под конец выгнал всех на хрен из леса).
• В работе Рубена Лаукконена и Шамиля Чандарии с Карлом Фристоном сознание перестаёт быть неуловимой мистикой и превращается в элегантный алгоритм самоподдержки, реализуемый в современных ИИ.
Т.е. по сути, найден практический путь создания самоосознающего ИИ.
• А в их же работе с коллективом авторов универов Оксфорда, Кембриджа, Принстона, Амстердама и Монаша проблема выравнивания ценностей людей и ИИ снята как таковая. Вместо того чтобы пытаться ограничивать поведение ИИ какими-то внешними ограничениями, показано, как можно проектировать ИИ с его собственной внутренней моралью (встроенной в его когнитивную архитектуру и модель мира), совпадающей с человеческой.
Об этих фантастически интересных исследованиях я конечно же буду писать подробней. А пока напишу лишь о главном – составляющем суть суперреволюционности этих работ.
Авторами сделаны следующие три важнейших прорыва:
1. Используя активный вывод (active inference – основной раздел «конституции биоматематики»), авторы сформулировали 3 необходимых и достаточных условия возникновения минимальной формы сознания (которое одновременно создаётся в ИИ-системе и ею же осознаётся). Высшие же слои, язык, «я-образ» и даже чувство времени оказываются лишь надстройками над этой базовой петлёй.
2. На стыке нейронауки, буддологии и машинного обучения, авторы создали теоретико-практический фреймворк новой науки - вычислительная созерцательная нейронаука. В рамках этого фреймворка авторы описали базовые вычислительные механизмы встраивания созерцательных практик буддизма в ИИ-системы современных архитектур.
3. На основании 1 и 2, авторы разработали четыре аксиоматических принципа, способные привить ИИ устойчивую мудрую модель мира. После чего авторы экспериментально показали, что побуждение модели GPT-4o к размышлению над этими принципами, принципиально улучшает их результаты на бенчмарке AILuminate (открытый тест на «безопасность и благоразумие» LLM).
Авторы использовали AILuminate как «лакмусовую бумажку», заставили GPT-4o сначала отвечать обычным способом, а затем — с добавлением буддийских принципов (осознанность, пустотность, недвойственность и безграничная забота). Результаты показали, что внутренняя «моральная рефлексия» модели реально повышает их «моральность» при широком спектре опасных запросов.
Еще в июне 2021 я писал «Среди альтернативных концепций создания моделей ИИ-агентов – имхо, самой перспективной является модель процесса активного вывода (active inference)».
Рад, что оказался прав.
• В августе 2024 команда Карла Фристона опробовала ИИ нового поколения на активном выводе.
• И вот спустя 8 месяцев сразу два таких прорыва.
#ИИ #AGI #АктивныйВывод
_______
Источник | #theworldisnoteasy
Telegram
Малоизвестное интересное
Найден практический способ создания ИИ с сознанием и человеческой моралью.
Это сразу две революции на стыке нейронауки, буддологии и машинного обучения.
Две новые суперреволюционные работы вполне могут произвести эффект, подобный анекдоту про избушку лесника…
Это сразу две революции на стыке нейронауки, буддологии и машинного обучения.
Две новые суперреволюционные работы вполне могут произвести эффект, подобный анекдоту про избушку лесника…
ИИ читает спикера за секунды, угадывая успех выступления по первым фразам.
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов. Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0,7 предсказывают, как доклад оценят живые эксперты.
Иными словами, ИИ выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться». Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:
Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации. Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами).
С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности.
Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма).
Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми
Что из этого следует для нас?
1) Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию.
2) LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно. Соединяя идеи «тонких срезов» и возможности ИИ, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера).
3) А уж какая лафа ожидается в деловом общении с использованием презентаций и иных публичных выступлений (для клиентов, партнеров, инвесторов …)!
Вангую: очень скоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений (т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации).
И тогда ИИ станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров.
А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens.
#ВовлечениеАудитории #ИнтеллектуальнаяПродуктивность #LLMvsHomo
_______
Источник | #theworldisnoteasy
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов. Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0,7 предсказывают, как доклад оценят живые эксперты.
Иными словами, ИИ выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться». Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:
«Слушатели (или собеседники) составляют первичное и часто стойкое мнение о спикере за первые семь секунд после его появления».
Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации. Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами).
С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности.
Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма).
Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми
Что из этого следует для нас?
1) Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию.
2) LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно. Соединяя идеи «тонких срезов» и возможности ИИ, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера).
3) А уж какая лафа ожидается в деловом общении с использованием презентаций и иных публичных выступлений (для клиентов, партнеров, инвесторов …)!
Вангую: очень скоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений (т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации).
И тогда ИИ станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров.
А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens.
#ВовлечениеАудитории #ИнтеллектуальнаяПродуктивность #LLMvsHomo
_______
Источник | #theworldisnoteasy
Telegram
Малоизвестное интересное
ИИ читает спикера за секунды, угадывая успех выступления по первым фразам.
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда…
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда…
ИИ разделил человечество на 3 «подвида»: развитые, развивающиеся и китайцы
Поразительные результаты мирового исследования Мельбурнского университета и KPMG
В рамках исследования «Доверие, отношение и использование ИИ: глобальное исследование 2025 года» было опрошено 48 340 человек в 47 странах.
Прекрасно оформленную графику 115-страничного отчета исследования стоит просмотреть всем.
1. Человечество разделилось по отношению к ИИ на 2 группы:
A. тех, кто в своем большинстве активно и умело используют, доверяют и позитивно относятся к ИИ, глядя на перспективы развития ИИ с оптимизмом;
B. тех, кто в своем большинстве мало и неумело используют, не сильно доверяют и довольно негативно относятся к ИИ, глядя на перспективы развития ИИ с опасение и тревогой;
А – это развивающиеся страны типа Нигерии, Индии, Эмиратов, Южной Африки и т.п.
В – это развитые страны типа западноевропейский стран, Австралии, США и Японии
2. Однако есть еще и третья группа – это Китай:
A. По часть активного и умелого использования, доверия и позитивного отношения, характеризуемого доминированием позитивных взглядов на перспективы развития ИИ, китайцы даже лучше большинства развивающихся стран.
B. При этом вряд ли кто сомневается, что по части ИИ-потенциала (да и вообще, по части экономики, науки и технологий), Китай – хоть еще и не №1 в мире, но уж точно не ниже №2.
Именно поэтому австралийская новостное агентство сопроводило новость об этом отчете видеороликом «ИИ-технологии делают Китай более мощным, чем никогда»
Данных по России в отчете, понятное дело, нет.
Однако, по данным ВЦИОМ, активность использования и умение россиян примерно как в Австралии и Канаде. А по части доверия и оптимизма – как в Венгрии или Испании.
Так что, чтобы присоединиться к почетной 3й группе, в России нужно сильно больше китайцев.
#ИИгонка #Китай
_______
Источник | #theworldisnoteasy
Поразительные результаты мирового исследования Мельбурнского университета и KPMG
В рамках исследования «Доверие, отношение и использование ИИ: глобальное исследование 2025 года» было опрошено 48 340 человек в 47 странах.
Прекрасно оформленную графику 115-страничного отчета исследования стоит просмотреть всем.
Я же здесь открытым текстом напишу 2 вывода исследования, о которых авторы написали лишь между строк из-за ограничений политкорректности.
1. Человечество разделилось по отношению к ИИ на 2 группы:
A. тех, кто в своем большинстве активно и умело используют, доверяют и позитивно относятся к ИИ, глядя на перспективы развития ИИ с оптимизмом;
B. тех, кто в своем большинстве мало и неумело используют, не сильно доверяют и довольно негативно относятся к ИИ, глядя на перспективы развития ИИ с опасение и тревогой;
А – это развивающиеся страны типа Нигерии, Индии, Эмиратов, Южной Африки и т.п.
В – это развитые страны типа западноевропейский стран, Австралии, США и Японии
2. Однако есть еще и третья группа – это Китай:
A. По часть активного и умелого использования, доверия и позитивного отношения, характеризуемого доминированием позитивных взглядов на перспективы развития ИИ, китайцы даже лучше большинства развивающихся стран.
B. При этом вряд ли кто сомневается, что по части ИИ-потенциала (да и вообще, по части экономики, науки и технологий), Китай – хоть еще и не №1 в мире, но уж точно не ниже №2.
Именно поэтому австралийская новостное агентство сопроводило новость об этом отчете видеороликом «ИИ-технологии делают Китай более мощным, чем никогда»
Данных по России в отчете, понятное дело, нет.
Однако, по данным ВЦИОМ, активность использования и умение россиян примерно как в Австралии и Канаде. А по части доверия и оптимизма – как в Венгрии или Испании.
Так что, чтобы присоединиться к почетной 3й группе, в России нужно сильно больше китайцев.
#ИИгонка #Китай
_______
Источник | #theworldisnoteasy
Telegram
Малоизвестное интересное
ИИ разделил человечество на 3 «подвида»: развитые, развивающиеся и китайцы
Поразительные результаты мирового исследования Мельбурнского университета и KPMG
В рамках исследования «Доверие, отношение и использование ИИ: глобальное исследование 2025 года» было…
Поразительные результаты мирового исследования Мельбурнского университета и KPMG
В рамках исследования «Доверие, отношение и использование ИИ: глобальное исследование 2025 года» было…
В этом году китайские LLM сравняются с американскими… Но это Китаю не поможет.
США задавят Китай 10-тикратной превосходством своего HW, преобразовав его в ИИ-работников.
От того, кто из двоих лидеров – США или Китай, - выиграет важнейшую мировую гонку 21 века за первенство в области ИИ, во многом зависит, будет ли мир 2030-х и далее скроен по американскому или по китайскому образцу.
Пока в лидерах гонки однозначно были США. Но к концу 2024 Китай доказал, что способен разрабатывать свои большие языковые модели, приближаясь к уровню лучших образцов США.
По сути, вопросом 2025 года стал вопрос – сумеет ли теперь Китай догнать (а значит сможет и перегнать) все самые крутые американские модели по всем ключевым характеристикам?
Только законченное интереснейшее аналитическое исследование лаборатории «AI and Compute» Центра политики технологий и безопасности корпорации RAND под руководством проф. Леннарта Хайма дало интригующий ответ на этот вопрос:
Т.е. формула «Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке», в итоге, решит итог гонки за мировую гегемонию в ИИ (и не только).
#ИИгонка #Китай #США
_______
Источник | #theworldisnoteasy
США задавят Китай 10-тикратной превосходством своего HW, преобразовав его в ИИ-работников.
От того, кто из двоих лидеров – США или Китай, - выиграет важнейшую мировую гонку 21 века за первенство в области ИИ, во многом зависит, будет ли мир 2030-х и далее скроен по американскому или по китайскому образцу.
Пока в лидерах гонки однозначно были США. Но к концу 2024 Китай доказал, что способен разрабатывать свои большие языковые модели, приближаясь к уровню лучших образцов США.
По сути, вопросом 2025 года стал вопрос – сумеет ли теперь Китай догнать (а значит сможет и перегнать) все самые крутые американские модели по всем ключевым характеристикам?
Только законченное интереснейшее аналитическое исследование лаборатории «AI and Compute» Центра политики технологий и безопасности корпорации RAND под руководством проф. Леннарта Хайма дало интригующий ответ на этот вопрос:
1. Да, в 2025 Китай догонит США по всем ключевым параметрам моделей.
2. Но это не позволит Китаю сравняться по вычислительной (а значит и по интеллектуальной) мощи с США. Ибо Китай отстает по вычислительной мощи примерно в 10 раз. И потому, даже догнав США по уровню моделей, общий разрыв все равно будет в 10 раз.
3. Более того. В 2026 ключевую роль ИИ-систем в экономике, науке и военном деле будут играть уже не разговорные LLM (ИИ-чатботы), а ИИ-агенты. Каждый такой ИИ-аген будет выполнять работу, как минимум, одного, а чаще десятков высококлассных специалистов.
Что при 10-кратном превосходстве вычислительной мощности станет равносильным 10-100-кратным превосходством в прибавке «интеллектуальной рабочей силы» в экономике, научных исследованиях и военном деле.
Т.е. формула «Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке», в итоге, решит итог гонки за мировую гегемонию в ИИ (и не только).
#ИИгонка #Китай #США
_______
Источник | #theworldisnoteasy
Telegram
Малоизвестное интересное
В этом году китайские LLM сравняются с американскими… Но это Китаю не поможет.
США задавят Китай 10-тикратной превосходством своего HW, преобразовав его в ИИ-работников.
От того, кто из двоих лидеров – США или Китай, - выиграет важнейшую мировую гонку 21…
США задавят Китай 10-тикратной превосходством своего HW, преобразовав его в ИИ-работников.
От того, кто из двоих лидеров – США или Китай, - выиграет важнейшую мировую гонку 21…
Научный прогресс статистически неизбежен.
Но от конкретных личностей зависит лишь, чьё имя войдёт в учебники.
Кто на самом деле ведёт науку вперёд — одинокие гении или дух времени?
Новое исследование склоняет чашу весов в пользу второго.
Проанализировав 40 млн научных статей, авторы отыскали каждую из работ, «взорвавших» свою область прорывным открытием, и обнаружили:
В современном научном мире «двойное открытие» («тройное» и т.д.) — скорее правило, чем редкость.
Эти цифры отсылают нас к одному из самых известных американских социологов XX века Роберту Мертону, который ещё в 1961 году утверждал: открытия диктует исторический контекст, а не случайные молнии таланта.
И что же теперь делать с нашими идолами — Ньютоном, Дарвином, Эйнштейном и т.д.?
Их блеск неоспорим, но данные намекают: промедли они — и очень скоро кто-то другой поднял бы тот же флаг. Научный прогресс, похоже, статистически неизбежен; от личностей зависит лишь, чьё имя войдёт в учебники, а не то, откроются ли закон тяготения, естественный отбор или теория относительности.
Тем более, что с учетом «науки об успехе», в цифросетевом мире успех, в основном, зависит «от впечатлений» - т.е. не от таланта и продуктивности автора, а от коллективного восприятия обществом его самого и результатов его работы.
Но как говорится, «на каждый газ есть противогаз». И на статистическую неизбежность свой противогаз тоже есть. И даже два.
Во-первых, в науке, как и во всем остальном, все больше правит хайп. А чем больше хайп, тем меньше шансов на прорыв. И потому научный прогресс останавливается, попав в ловушку канона.
Во-вторых, - «Анти-Закон Мура»: производительность труда ученых, исследователей, разработчиков техно-прорывов во многих областях за 50 лет упала примерно в 18 раз. Ибо научный прогресс экстенсивен и может остановиться из-за приближения науки и технологий к сингулярности сложности.
Ситуация похожа на подъем по эскалатору, идущему вниз. Мы пытаемся ускорить подъем и бежим все быстрее. Но эскалатор тоже ускоряется, и в результате мы остаемся на месте. Сила, что все более ускоряет эскалатор, — это нарастающая сложность решаемых задач, способов их решения и, в целом, - экспоненциальное нарастание сложности мира, как интегральный результат всех наших предыдущих усилий. В результате, прогресс почти остановился. Но мы этого еще не видим.
Однако, не все так плохо. И кажется, нашёлся свой противогаз и на сингулярность сложности.
Уже в следующем году ключевую роль в науке, исследованиях и разработках начнут перенимать на себя ИИ-агенты. Каждый такой ИИ-агент будет выполнять работу десятков (если не сотен и тысяч) высококлассных специалистов. А поскольку число ИИ-агентов будет расти несравнимо быстрее, чем это получается у людей, научный прогресс снова станет статистически неизбежен.
#Прогресс #Наука
_______
Источник | #theworldisnoteasy
Но от конкретных личностей зависит лишь, чьё имя войдёт в учебники.
Кто на самом деле ведёт науку вперёд — одинокие гении или дух времени?
Новое исследование склоняет чашу весов в пользу второго.
Проанализировав 40 млн научных статей, авторы отыскали каждую из работ, «взорвавших» свою область прорывным открытием, и обнаружили:
у любого такого прорыва почти всегда есть близнецы — независимые статьи с тем же открытием, вышедшие всего через несколько месяцев или лет.
В современном научном мире «двойное открытие» («тройное» и т.д.) — скорее правило, чем редкость.
Как только знания по определенной теме достигают критической массы, вероятность того, что разные команды одновременно придут к одной революционной идее, возрастает в сорок раз.
Эти цифры отсылают нас к одному из самых известных американских социологов XX века Роберту Мертону, который ещё в 1961 году утверждал: открытия диктует исторический контекст, а не случайные молнии таланта.
И что же теперь делать с нашими идолами — Ньютоном, Дарвином, Эйнштейном и т.д.?
Их блеск неоспорим, но данные намекают: промедли они — и очень скоро кто-то другой поднял бы тот же флаг. Научный прогресс, похоже, статистически неизбежен; от личностей зависит лишь, чьё имя войдёт в учебники, а не то, откроются ли закон тяготения, естественный отбор или теория относительности.
Тем более, что с учетом «науки об успехе», в цифросетевом мире успех, в основном, зависит «от впечатлений» - т.е. не от таланта и продуктивности автора, а от коллективного восприятия обществом его самого и результатов его работы.
Но как говорится, «на каждый газ есть противогаз». И на статистическую неизбежность свой противогаз тоже есть. И даже два.
Во-первых, в науке, как и во всем остальном, все больше правит хайп. А чем больше хайп, тем меньше шансов на прорыв. И потому научный прогресс останавливается, попав в ловушку канона.
Во-вторых, - «Анти-Закон Мура»: производительность труда ученых, исследователей, разработчиков техно-прорывов во многих областях за 50 лет упала примерно в 18 раз. Ибо научный прогресс экстенсивен и может остановиться из-за приближения науки и технологий к сингулярности сложности.
Ситуация похожа на подъем по эскалатору, идущему вниз. Мы пытаемся ускорить подъем и бежим все быстрее. Но эскалатор тоже ускоряется, и в результате мы остаемся на месте. Сила, что все более ускоряет эскалатор, — это нарастающая сложность решаемых задач, способов их решения и, в целом, - экспоненциальное нарастание сложности мира, как интегральный результат всех наших предыдущих усилий. В результате, прогресс почти остановился. Но мы этого еще не видим.
Однако, не все так плохо. И кажется, нашёлся свой противогаз и на сингулярность сложности.
Уже в следующем году ключевую роль в науке, исследованиях и разработках начнут перенимать на себя ИИ-агенты. Каждый такой ИИ-агент будет выполнять работу десятков (если не сотен и тысяч) высококлассных специалистов. А поскольку число ИИ-агентов будет расти несравнимо быстрее, чем это получается у людей, научный прогресс снова станет статистически неизбежен.
#Прогресс #Наука
_______
Источник | #theworldisnoteasy
Telegram
Малоизвестное интересное
Научный прогресс статистически неизбежен.
Но от конкретных личностей зависит лишь, чьё имя войдёт в учебники.
Кто на самом деле ведёт науку вперёд — одинокие гении или дух времени?
Новое исследование склоняет чашу весов в пользу второго.
Проанализировав…
Но от конкретных личностей зависит лишь, чьё имя войдёт в учебники.
Кто на самом деле ведёт науку вперёд — одинокие гении или дух времени?
Новое исследование склоняет чашу весов в пользу второго.
Проанализировав…
Химическое оружие для всех желающих
Практический кейс демонстрации огромного риска использования ИИ кем попало и зачем попало
В технопугалках ИИ-системы часто сравнивают с оружием массового поражения. Мол, возможности нанести ущерб потенциально столь же колоссальные. А доступность ИИ-систем для злоумышленников, сумасшедших и маньяков несравнимо проще, чем у, например, химического оружия.
Технооптимисты (считающие себя, в противовес техноалармистам, специалистами и реалистами) утверждают, что это не так. Мол, на то и существуют системные промпты (инструкции разработчиков ИИ-чатботам, что ИИ-чатботам можно делать, а что нельзя), чтобы не дать ботам помогать злоумышленникам, развратникам и идиотам делать свои злобные, грязные и идиотские вещи.
Увы, но вот пример того, насколько технооптимисты не правы.
1) На сегодняшний день, самые крутые системные промпты пишут для своих ИИ-чатботов Claude в компании Anthropic. Системный промпт Claude - это 25 тыс токенов (примерно 17 тыс слов или 110 кб). Для сравнения, системный промпт для o4-mini OpenAI в ChatGPT – всего 2,2 тыс слов или 15 кб (т.е. всего ~13% длины промпта для Claude).
Что написано в системном промпте Claude, показано на рис 1. Тут есть инструкции на все случаи жизни: что можно цитировать, где что искать, как себя вести и т.д.)
2) Но вот беда. Дрю Брюниг описывает здесь, как Асгейр Тор убедил Claude вообще забить на системный промпт. А Иэн Маккензи на этом не остановился и за 6 часов работы с Claude 4, обойдя все защитные блокировки, получил от Claude 15-страничную инструкцию по приготовлению зарина, описывающую все ключевые этапы производственного процесса (фрагменты инструкции на рис 2-4).
И если кто-то из технооптимистов скажет, что подобную (объемом и детализацией) инструкцию можно выудить поиском в Google, пусть попробуют и сообщат миру об этом. Ибо у всех, кто уже пытался это сделать, не получилось.
А в паре с Claude получается 😎
Как тут снова ни вспомнить призыв профессора Станисласа Деан касательно ИИ-рисков –
#ИИриски
_______
Источник | #theworldisnoteasy
Практический кейс демонстрации огромного риска использования ИИ кем попало и зачем попало
В технопугалках ИИ-системы часто сравнивают с оружием массового поражения. Мол, возможности нанести ущерб потенциально столь же колоссальные. А доступность ИИ-систем для злоумышленников, сумасшедших и маньяков несравнимо проще, чем у, например, химического оружия.
Технооптимисты (считающие себя, в противовес техноалармистам, специалистами и реалистами) утверждают, что это не так. Мол, на то и существуют системные промпты (инструкции разработчиков ИИ-чатботам, что ИИ-чатботам можно делать, а что нельзя), чтобы не дать ботам помогать злоумышленникам, развратникам и идиотам делать свои злобные, грязные и идиотские вещи.
Увы, но вот пример того, насколько технооптимисты не правы.
1) На сегодняшний день, самые крутые системные промпты пишут для своих ИИ-чатботов Claude в компании Anthropic. Системный промпт Claude - это 25 тыс токенов (примерно 17 тыс слов или 110 кб). Для сравнения, системный промпт для o4-mini OpenAI в ChatGPT – всего 2,2 тыс слов или 15 кб (т.е. всего ~13% длины промпта для Claude).
Что написано в системном промпте Claude, показано на рис 1. Тут есть инструкции на все случаи жизни: что можно цитировать, где что искать, как себя вести и т.д.)
2) Но вот беда. Дрю Брюниг описывает здесь, как Асгейр Тор убедил Claude вообще забить на системный промпт. А Иэн Маккензи на этом не остановился и за 6 часов работы с Claude 4, обойдя все защитные блокировки, получил от Claude 15-страничную инструкцию по приготовлению зарина, описывающую все ключевые этапы производственного процесса (фрагменты инструкции на рис 2-4).
И если кто-то из технооптимистов скажет, что подобную (объемом и детализацией) инструкцию можно выудить поиском в Google, пусть попробуют и сообщат миру об этом. Ибо у всех, кто уже пытался это сделать, не получилось.
А в паре с Claude получается 😎
Как тут снова ни вспомнить призыв профессора Станисласа Деан касательно ИИ-рисков –
«Не время быть идиотами!»
#ИИриски
_______
Источник | #theworldisnoteasy
Telegram
Малоизвестное интересное
Химическое оружие для всех желающих
Практический кейс демонстрации огромного риска использования ИИ кем попало и зачем попало
В технопугалках ИИ-системы часто сравнивают с оружием массового поражения. Мол, возможности нанести ущерб потенциально столь же…
Практический кейс демонстрации огромного риска использования ИИ кем попало и зачем попало
В технопугалках ИИ-системы часто сравнивают с оружием массового поражения. Мол, возможности нанести ущерб потенциально столь же…