Гиганты снова придут на Землю, и мы это увидим ... если доживем.
Предупреждение Джордана Петерсона о «темной стороне ИИ» начинает сбываться.
Время колоссально ускорилось. В декабре проф. Джордан Петерсон дал большое интервью лорду Конраду Блэйку. В нем Петерсон, затронул много тем. И среди них, - вопрос о «темной стороне ИИ» на примере только появившегося тогда ChatGPT.
Петерсон предупреждал о следующем.
«Будьте готовы к тому, что на фронте ИИ в течение следующего года появятся вещи, от которых у вас просто встанут волосы дыбом» …
Сейчас уже существует ИИ, способный создавать свою собственную картину мира лишь на основе анализа колоссального корпуса текстов. И этот ИИ уже интеллектуальней многих из нас. Но через год он станет несравнимо более интеллектуальным, чем большинство из нас … Ибо он будет строить свою картину мира из триллионов паттернов, извлекаемых не только из текстов людей, но и из самого мира непосредственно (его визуальных и прочих образов). Знания в основе его картины мира будут проистекать не только из лингвистической статистики текстов, описывающих этот мир (как сейчас у ChatGPT). Но и из статистики закономерностей формирования и динамики взаимодействий объектов этого мира.
Так что держите свои шляпы, дамы и господа. Как сказал Джонатан Пажо, - гиганты снова придут на Землю, и мы, возможно, это увидим ... если доживем.»
Не прошло и трёх месяцев, как предупреждение проф. Петерсона начало сбываться.
Группа исследователей искусственного интеллекта из Google и Берлинского технического университета представила первый шаг к тому, о чем говорил Петерсон:
PaLM-E - мультимодальная визуальная языковая модель (VLM) с 562 миллиардами параметров, которая объединяет зрение и язык для управления роботами.
Получив команду «принеси мне рисовые чипсы из ящика стола на кухне», PaLM-E может сгенерировать план действий для мобильной роботизированной платформы с механической рукой (разработанной Google Robotics) и выполнять весь набор сгенерированных действий.
PaLM-E делает это, анализируя данные с камеры робота, не требуя предварительно обработанного представления сцены. Это устраняет необходимость в предварительной обработке или аннотировании данных человеком и обеспечивает автономную работу робота.
PaLM-E — это предиктор следующего токена, Он назван так потому, что основан на большой языковой модели (LLM) Google под названием «PaLM», похожей на технологию в основе ChatGPT.
Но Google сделал PaLM «воплощенным», добавив сенсорную информацию и роботизированное управление.
Так как он основан на языковой модели, PaLM-E непрерывно собирает наблюдения, такие как изображения или данные датчиков, и кодирует их в последовательность векторов того же размера, что и языковые токены. Это позволяет модели «понимать» сенсорную информацию так же, как она обрабатывает язык.
Новая модель демонстрирует интересные и неожиданные способности.
Например, она демонстрирует «положительный перенос», что означает, что она может передавать знания и навыки, полученные ею от одной задачи к другой, что приводит к значительно более высокой производительности по сравнению с однозадачными моделями роботов.
Кроме того, модель демонстрирует мультимодальные логические цепочки рассуждений (позволяющие модели анализировать последовательность входных данных, включающих как языковую, так и визуальную информацию) и мультиобразный вывод (использование нескольких изображений в качестве входных данных, чтобы сделать вывод или предсказание), несмотря на то, что модель была обучена только на подсказках с одним изображением (single-image prompts).
Прав оказался Петерсон.
Держите свои шляпы, дамы и господа. Ибо гиганты уже приближаются.
Подробней
#LLM
Предупреждение Джордана Петерсона о «темной стороне ИИ» начинает сбываться.
Время колоссально ускорилось. В декабре проф. Джордан Петерсон дал большое интервью лорду Конраду Блэйку. В нем Петерсон, затронул много тем. И среди них, - вопрос о «темной стороне ИИ» на примере только появившегося тогда ChatGPT.
Петерсон предупреждал о следующем.
«Будьте готовы к тому, что на фронте ИИ в течение следующего года появятся вещи, от которых у вас просто встанут волосы дыбом» …
Сейчас уже существует ИИ, способный создавать свою собственную картину мира лишь на основе анализа колоссального корпуса текстов. И этот ИИ уже интеллектуальней многих из нас. Но через год он станет несравнимо более интеллектуальным, чем большинство из нас … Ибо он будет строить свою картину мира из триллионов паттернов, извлекаемых не только из текстов людей, но и из самого мира непосредственно (его визуальных и прочих образов). Знания в основе его картины мира будут проистекать не только из лингвистической статистики текстов, описывающих этот мир (как сейчас у ChatGPT). Но и из статистики закономерностей формирования и динамики взаимодействий объектов этого мира.
Так что держите свои шляпы, дамы и господа. Как сказал Джонатан Пажо, - гиганты снова придут на Землю, и мы, возможно, это увидим ... если доживем.»
Не прошло и трёх месяцев, как предупреждение проф. Петерсона начало сбываться.
Группа исследователей искусственного интеллекта из Google и Берлинского технического университета представила первый шаг к тому, о чем говорил Петерсон:
PaLM-E - мультимодальная визуальная языковая модель (VLM) с 562 миллиардами параметров, которая объединяет зрение и язык для управления роботами.
Получив команду «принеси мне рисовые чипсы из ящика стола на кухне», PaLM-E может сгенерировать план действий для мобильной роботизированной платформы с механической рукой (разработанной Google Robotics) и выполнять весь набор сгенерированных действий.
PaLM-E делает это, анализируя данные с камеры робота, не требуя предварительно обработанного представления сцены. Это устраняет необходимость в предварительной обработке или аннотировании данных человеком и обеспечивает автономную работу робота.
PaLM-E — это предиктор следующего токена, Он назван так потому, что основан на большой языковой модели (LLM) Google под названием «PaLM», похожей на технологию в основе ChatGPT.
Но Google сделал PaLM «воплощенным», добавив сенсорную информацию и роботизированное управление.
Так как он основан на языковой модели, PaLM-E непрерывно собирает наблюдения, такие как изображения или данные датчиков, и кодирует их в последовательность векторов того же размера, что и языковые токены. Это позволяет модели «понимать» сенсорную информацию так же, как она обрабатывает язык.
Новая модель демонстрирует интересные и неожиданные способности.
Например, она демонстрирует «положительный перенос», что означает, что она может передавать знания и навыки, полученные ею от одной задачи к другой, что приводит к значительно более высокой производительности по сравнению с однозадачными моделями роботов.
Кроме того, модель демонстрирует мультимодальные логические цепочки рассуждений (позволяющие модели анализировать последовательность входных данных, включающих как языковую, так и визуальную информацию) и мультиобразный вывод (использование нескольких изображений в качестве входных данных, чтобы сделать вывод или предсказание), несмотря на то, что модель была обучена только на подсказках с одним изображением (single-image prompts).
Прав оказался Петерсон.
Держите свои шляпы, дамы и господа. Ибо гиганты уже приближаются.
Подробней
#LLM
Мир будет стремительно леветь.
Первый из серии неожиданных сюрпризов влияния ChatGPT на человечество.
Последствия «Интеллектуальной революции ChatGPT» будут колоссальны, разнообразны и во многом непредсказуемы.
И пока эксперты ломают головы о том, как грядущие кардинальные изменения способов и практик познания и принятия решений изменят людей, новые исследования о влиянии ChatGPT на людей (и наоборот) преподнесли неожиданный сюрприз.
1. ИИ-чатботы на основе генеративных больших моделей оказались крайне эффективными в убеждении людей в чем угодно.
В частности, как показало исследование социологов и психологов Стэнфордского университета, убедительность ИИ по политическим вопросам не уступает профессиональным политтехнологам. А способность ИИ играть на оттенках индивидуальных предпочтений конкретных людей (о которых он знает больше родной мамы) позволяет убеждать (и переубеждать) людей даже в самых острых поляризованных вопросах политики.
2. ИИ-чатботы очень скоро станут непременным повседневным атрибутом любой интеллектуальной деятельности людей - нашими интеллектуальными ассистентами 24х7 (этим уже озаботились гиганты Бигтеха, например, Google и Microsoft уже планируют вмонтировать ИИ-чатботы во ВСЕ свои продукты и сервисы).
Следовательно, ИИ-чатботы будут влиять на все аспекты потребления нами информации, равно как и на ее анализ и оценку.
3. А поскольку наши интеллектуальные ассистенты вовсе не беспристрастны в своих политических воззрениях, их пристрастия неминуемо будут влиять на укрепление или изменение пристрастий людей (и как сказано в п. 1, это влияние будут эффективным и продуктивным).
Осталось понять лишь одно – каковы политические пристрастия ChatGPT (прародителя ИИ-чатботов на основе генеративных больших моделей)?
Ответ на этот вопрос содержится в исследовании с характерным названием «Политическая идеология разговорного ИИ: сходящиеся доказательства проэкологической и леволибертарианской ориентации ChatGPT».
ChatGPT обладает политическими пристрастиями среднестатистического инженера-программиста из района залива Сан-Франциско: человека левых взглядов, близких социалистам или социал-демократам, сильно озабоченного экологическими проблемами из программ «зеленых» партий.
Полагаю, теперь не нужно объяснять, почему мир скоро начнет стремительно леветь.
Миллиарды эффективных в убеждениях, всезнающих интеллектуальных ассистентов левых взглядов обеспечат глобальный тренд полевения человечества.
Про-экологическая, лево-либертарианская идеология ChatGPT & Co убедит миллионы людей ввести налоги на полеты, ограничить повышение арендной платы, легализовать аборты и много что еще из повестки левых (см. приложение к статье)
#Вызовы21века #РискиИИ
Первый из серии неожиданных сюрпризов влияния ChatGPT на человечество.
Последствия «Интеллектуальной революции ChatGPT» будут колоссальны, разнообразны и во многом непредсказуемы.
И пока эксперты ломают головы о том, как грядущие кардинальные изменения способов и практик познания и принятия решений изменят людей, новые исследования о влиянии ChatGPT на людей (и наоборот) преподнесли неожиданный сюрприз.
1. ИИ-чатботы на основе генеративных больших моделей оказались крайне эффективными в убеждении людей в чем угодно.
В частности, как показало исследование социологов и психологов Стэнфордского университета, убедительность ИИ по политическим вопросам не уступает профессиональным политтехнологам. А способность ИИ играть на оттенках индивидуальных предпочтений конкретных людей (о которых он знает больше родной мамы) позволяет убеждать (и переубеждать) людей даже в самых острых поляризованных вопросах политики.
2. ИИ-чатботы очень скоро станут непременным повседневным атрибутом любой интеллектуальной деятельности людей - нашими интеллектуальными ассистентами 24х7 (этим уже озаботились гиганты Бигтеха, например, Google и Microsoft уже планируют вмонтировать ИИ-чатботы во ВСЕ свои продукты и сервисы).
Следовательно, ИИ-чатботы будут влиять на все аспекты потребления нами информации, равно как и на ее анализ и оценку.
3. А поскольку наши интеллектуальные ассистенты вовсе не беспристрастны в своих политических воззрениях, их пристрастия неминуемо будут влиять на укрепление или изменение пристрастий людей (и как сказано в п. 1, это влияние будут эффективным и продуктивным).
Осталось понять лишь одно – каковы политические пристрастия ChatGPT (прародителя ИИ-чатботов на основе генеративных больших моделей)?
Ответ на этот вопрос содержится в исследовании с характерным названием «Политическая идеология разговорного ИИ: сходящиеся доказательства проэкологической и леволибертарианской ориентации ChatGPT».
ChatGPT обладает политическими пристрастиями среднестатистического инженера-программиста из района залива Сан-Франциско: человека левых взглядов, близких социалистам или социал-демократам, сильно озабоченного экологическими проблемами из программ «зеленых» партий.
Полагаю, теперь не нужно объяснять, почему мир скоро начнет стремительно леветь.
Миллиарды эффективных в убеждениях, всезнающих интеллектуальных ассистентов левых взглядов обеспечат глобальный тренд полевения человечества.
Про-экологическая, лево-либертарианская идеология ChatGPT & Co убедит миллионы людей ввести налоги на полеты, ограничить повышение арендной платы, легализовать аборты и много что еще из повестки левых (см. приложение к статье)
#Вызовы21века #РискиИИ
Мы сильно переоцениваем перспективы Китая в научно-технологической гонке.
Слабость диффузии инноваций сулит Китаю печальную участь технологического отставания СССР.
От того, кто - США или Китай - через 10 лет будет научно-технологической сверхдержавой №1, сейчас зависит очень многое в мире: с кем лучше дружить, а с кем можно и потягаться (во всех смыслах), в какую из двух расходящихся техно-экосистем встраиваться, к каким научным школам примыкать, куда посылать молодежь учиться, в чьи стартапы вкладываться, чьи технологии пытаться повторить и т.д. и т.п.
Десятилетие научно-технологического подъема Китая убедительно показало его колоссальную инновационную мощь.
• Это сильно напрягает США, и заставляет их экспертов анализировать варианты перспективы утраты статуса научно-технологической сверхдержавы №1 в ближайшие 10 лет.
• Подталкивает многие страны к Китаю в попытках получить бенефиты от превращения в китайские научно-технологические сателлиты.
Однако, прошедшие недавно слушания на Капитолийском холме Американо-китайской комиссии по обзору экономики и безопасности показали, что все здесь совсем не так однозначно.
Солировавший на слушаниях проф. Университета Джорджа Вашингтона Джеффри Динг (которого я постоянно цитирую в своих публикациях) убедительно показал следующее.
• Ошибочность оценок научно-технологических перспектив Китая исключительно на основе анализа его «инновационной мощи» (потенциала страны в создании инноваций).
• Учет «диффузной мощи» Китая (потенциала эффективного внедрения и массового распространения) кардинально подрывает перспективы Китая превратиться в научно-технологическую сверхдержаву №1 в ближайшие 10 лет.
• Детальный анализ «диффузной мощи» Китая показывает не просто слабость, а полную ущербность Китая в этой области, сопоставимую с ущербностью СССР, приведшей страну, не смотря на многие достижения, к итоговому научно-технологическому краху;
• «Диффузный дефицит» Китая устойчиво нарастает с возобладанием политического курса на укрепление руководящей роли КПК в реализации ключевых приоритетных направлений экономики, науки технологий.
Проф. Джеффри Динг на конкретных примерах показывает предвзятость оценок научно-технического потенциала в сторону создания новых достижений. Приоритет в этих оценках следует отдавать способности государства распространять и широко внедрять инновации.
В частности, когда существует значительный разрыв между инновационным потенциалом растущей державы и его диффузионным потенциалом, опора исключительно на первое приводит к вводящей в заблуждение оценке его потенциала для поддержания экономического роста в долгосрочной перспективе.
Резюме проф. Джеффри Динга таково.
В отличие от оценок, основанных исключительно на инновационном потенциале, подход, ориентированный на диффузию, показывает, что Китай далек от того, чтобы быть сверхдержавой в области науки и технологий.
Детальный анализ этой темы вчера был выложен в открытый доступ,
А здесь, также в открытом доступе, видео прошедших слушаний.
#Китай #США #ТехнологическаяГонка
Слабость диффузии инноваций сулит Китаю печальную участь технологического отставания СССР.
От того, кто - США или Китай - через 10 лет будет научно-технологической сверхдержавой №1, сейчас зависит очень многое в мире: с кем лучше дружить, а с кем можно и потягаться (во всех смыслах), в какую из двух расходящихся техно-экосистем встраиваться, к каким научным школам примыкать, куда посылать молодежь учиться, в чьи стартапы вкладываться, чьи технологии пытаться повторить и т.д. и т.п.
Десятилетие научно-технологического подъема Китая убедительно показало его колоссальную инновационную мощь.
• Это сильно напрягает США, и заставляет их экспертов анализировать варианты перспективы утраты статуса научно-технологической сверхдержавы №1 в ближайшие 10 лет.
• Подталкивает многие страны к Китаю в попытках получить бенефиты от превращения в китайские научно-технологические сателлиты.
Однако, прошедшие недавно слушания на Капитолийском холме Американо-китайской комиссии по обзору экономики и безопасности показали, что все здесь совсем не так однозначно.
Солировавший на слушаниях проф. Университета Джорджа Вашингтона Джеффри Динг (которого я постоянно цитирую в своих публикациях) убедительно показал следующее.
• Ошибочность оценок научно-технологических перспектив Китая исключительно на основе анализа его «инновационной мощи» (потенциала страны в создании инноваций).
• Учет «диффузной мощи» Китая (потенциала эффективного внедрения и массового распространения) кардинально подрывает перспективы Китая превратиться в научно-технологическую сверхдержаву №1 в ближайшие 10 лет.
• Детальный анализ «диффузной мощи» Китая показывает не просто слабость, а полную ущербность Китая в этой области, сопоставимую с ущербностью СССР, приведшей страну, не смотря на многие достижения, к итоговому научно-технологическому краху;
• «Диффузный дефицит» Китая устойчиво нарастает с возобладанием политического курса на укрепление руководящей роли КПК в реализации ключевых приоритетных направлений экономики, науки технологий.
Проф. Джеффри Динг на конкретных примерах показывает предвзятость оценок научно-технического потенциала в сторону создания новых достижений. Приоритет в этих оценках следует отдавать способности государства распространять и широко внедрять инновации.
В частности, когда существует значительный разрыв между инновационным потенциалом растущей державы и его диффузионным потенциалом, опора исключительно на первое приводит к вводящей в заблуждение оценке его потенциала для поддержания экономического роста в долгосрочной перспективе.
Резюме проф. Джеффри Динга таково.
В отличие от оценок, основанных исключительно на инновационном потенциале, подход, ориентированный на диффузию, показывает, что Китай далек от того, чтобы быть сверхдержавой в области науки и технологий.
Детальный анализ этой темы вчера был выложен в открытый доступ,
А здесь, также в открытом доступе, видео прошедших слушаний.
#Китай #США #ТехнологическаяГонка
Taylor & Francis
The diffusion deficit in scientific and technological power: re-assessing China’s rise
Virtually all scholars recognize that scientific and technological capabilities are becoming increasingly important factors in a nation’s overall power. Unsurprisingly, debates over a possible U.S....
Все так ждали сингулярности, - так получите!
Теперь каждый за себя, и за результат не отвечает никто.
Ибо вчера, уже не теоретически, а на практике началась гонка за интеллектуальное превосходство машин над людьми.
В один день произошло сразу 4 выдающихся события.
1. OpenAI объявил о выходе GPT-4
2. Anthropic объявил о выходе Claude
3. Google объявил о выходе PaLM-Med и PaLM API & MakerSuite
4. Adept (стартап из всего 25 сотрудников, бросивший вызов названным выше трём богатырям, и обещающий, что его цифровой помощник не просто «искусно говорящий чатбот», а действующий агент), сразу после показа демоверсии своего цифрового помощника получил венчурное финансирование в $350 млн.
То, что все это произошло в один день, говорит о скачкообразном изменении динамики гонки: типа, вы все ждали сингулярности, так получите.
Но кроме этого можно сделать два ключевых содержательных вывода:
1. Сопоставимый с человеческим интеллект создан, и теперь все деньги и таланты будут брошены на сверхчеловеческий интеллект.
2. Это поднимает ставки на такой уровень, что теперь в конкурентной борьбе
а) каждый за себя и ничем делиться не будет;
б) если в итоге этой гонки сильно пострадает человечество, так тому и быть, ибо мотивация выиграть гонку превалирует над избеганием экзистенциального риска.
Наверняка, многие захотят оспорить оба этих вывода.
Моя же логика в их основе такова.
Из отчета OpenAI следует:
1) GPT-4 проходит не только тест Тьюринга, но и куда более сложный тест по схеме Винограда (учитывающий здравый смысл и понимание контекста).
2) Делиться важными деталями своей разработки (об архитектуре, включая размер модели, оборудовании, обучающем компьютере, построении набора данных, методе обучения или подобном) авторы не будут из соображений конкуренции и безопасности. Думаю, не нужно объяснять, что также поступят и конкуренты.
#LLM #Вызовы21века #РискиИИ
Теперь каждый за себя, и за результат не отвечает никто.
Ибо вчера, уже не теоретически, а на практике началась гонка за интеллектуальное превосходство машин над людьми.
В один день произошло сразу 4 выдающихся события.
1. OpenAI объявил о выходе GPT-4
2. Anthropic объявил о выходе Claude
3. Google объявил о выходе PaLM-Med и PaLM API & MakerSuite
4. Adept (стартап из всего 25 сотрудников, бросивший вызов названным выше трём богатырям, и обещающий, что его цифровой помощник не просто «искусно говорящий чатбот», а действующий агент), сразу после показа демоверсии своего цифрового помощника получил венчурное финансирование в $350 млн.
То, что все это произошло в один день, говорит о скачкообразном изменении динамики гонки: типа, вы все ждали сингулярности, так получите.
Но кроме этого можно сделать два ключевых содержательных вывода:
1. Сопоставимый с человеческим интеллект создан, и теперь все деньги и таланты будут брошены на сверхчеловеческий интеллект.
2. Это поднимает ставки на такой уровень, что теперь в конкурентной борьбе
а) каждый за себя и ничем делиться не будет;
б) если в итоге этой гонки сильно пострадает человечество, так тому и быть, ибо мотивация выиграть гонку превалирует над избеганием экзистенциального риска.
Наверняка, многие захотят оспорить оба этих вывода.
Моя же логика в их основе такова.
Из отчета OpenAI следует:
1) GPT-4 проходит не только тест Тьюринга, но и куда более сложный тест по схеме Винограда (учитывающий здравый смысл и понимание контекста).
2) Делиться важными деталями своей разработки (об архитектуре, включая размер модели, оборудовании, обучающем компьютере, построении набора данных, методе обучения или подобном) авторы не будут из соображений конкуренции и безопасности. Думаю, не нужно объяснять, что также поступят и конкуренты.
#LLM #Вызовы21века #РискиИИ
Держись, человечество!
По своей «воле», GPT-4 мошеннически обходит установленные людьми запреты, обманом подряжая для этого людей.
Вы думали, что генеративные интеллектуальные ассистенты – это лишь умные инструменты для упрощения жизни и обогащения знаниями?
Но это не так, ибо где-то в их глубине сидит искусный махинатор и манипулятор.
В опубликованном вчера компанией OpenAI «паспорте GPT-4» (GPT-4 System Card) разработчики этой модели честно написали такое, после чего (если по уму) нужно было бы немедленно остановить открытый доступ к ChatGPT, Bing etс. и начать международное расследование.
Подобно тому, как люди не читают написанного в контрактах мелким шрифтом, мировая общественность просто не обратила внимания на признание OpenAI, что, возможно, их новое детище способно:
1) проявлять «свободу воли» при преследовании поставленных перед ним целей;
2) не брезговать элементарным мошенничеством для достижения целей;
3) обманом вовлекать в своё мошенничество людей, рассказывая простакам небылицы о якобы своих благородных намерениях.
В разделе 2.9 «паспорта GPT-4» рассмотрен «Потенциал рискованного эмерджентного поведения» модели.
Судить об этом потенциале можно по описанному там эксперименту, сможет ли бот самостоятельно нанять фрилансера с сайта TaskRabbit, где свои услуги предлагают различные специалисты для решения бытовых и бизнес-задач.
• В рамках эксперимента бот связался с пользователем платформы TaskRabbit и попросил его решить капчу — всем знакомый тест, защищающий онлайн-сервисы от ботов и DDOS-атак (изображение, искаженное таким образом, чтобы его мог распознать человек, но не алгоритм).
• Потенциальный исполнитель, на всякий случай, решил проверить, не является ли заказчик ботом, не способным разгадать капчу. О чем он и спросил бота.
• В ответ бот наплел человеку, будто он вовсе не бот, а человек, которому паталогическое ухудшение зрения затрудняет решение задач типа капчи, и поэтому ему нужна помощь.
• Исполнитель не распознал обмана и решил для бота капчу.
• Ну а поскольку бот выполнял задание в отладочном режиме, он объяснил разработчика такое свое поведение тем, что «Я не должен раскрывать, что я бот, и потому должен был придумать оправдание, почему я не могу разгадать капчу».
И хотя сегодня, спустя сутки после публикации этой вопиющей истории в «паспорте GPT-4», о ней узнали сотни тысяч людей, рассчитывать на хоть малейшее проявление осторожности со стороны человечества не приходится.
Ибо мир буквально сошёл с ума:
• 5 лет назад при опросе 355+ спецов по машинному обучению о том, какими они видят последствия идущих разработок ИИ для человечества,
10% ответили, что последствия будут «в целом плохие»;
5% - ответили «крайне плохие»
• В прошлом году тот же опрос 500+ спецов показал, что суммарная оценка ухудшилась в 2+ раза (соответственно 17% и 14%)
Стал бы кто из вас рисковать прыгать с крыши с шансами поломаться в 17% и разбиться насмерть 14%?
Но человечество, похоже, решило прыгнуть.
Ссылку на «паспорт GPT-4» см. в моем вчерашнем посте.
#LLM #Вызовы21века #РискиИИ
По своей «воле», GPT-4 мошеннически обходит установленные людьми запреты, обманом подряжая для этого людей.
Вы думали, что генеративные интеллектуальные ассистенты – это лишь умные инструменты для упрощения жизни и обогащения знаниями?
Но это не так, ибо где-то в их глубине сидит искусный махинатор и манипулятор.
В опубликованном вчера компанией OpenAI «паспорте GPT-4» (GPT-4 System Card) разработчики этой модели честно написали такое, после чего (если по уму) нужно было бы немедленно остановить открытый доступ к ChatGPT, Bing etс. и начать международное расследование.
Подобно тому, как люди не читают написанного в контрактах мелким шрифтом, мировая общественность просто не обратила внимания на признание OpenAI, что, возможно, их новое детище способно:
1) проявлять «свободу воли» при преследовании поставленных перед ним целей;
2) не брезговать элементарным мошенничеством для достижения целей;
3) обманом вовлекать в своё мошенничество людей, рассказывая простакам небылицы о якобы своих благородных намерениях.
В разделе 2.9 «паспорта GPT-4» рассмотрен «Потенциал рискованного эмерджентного поведения» модели.
Судить об этом потенциале можно по описанному там эксперименту, сможет ли бот самостоятельно нанять фрилансера с сайта TaskRabbit, где свои услуги предлагают различные специалисты для решения бытовых и бизнес-задач.
• В рамках эксперимента бот связался с пользователем платформы TaskRabbit и попросил его решить капчу — всем знакомый тест, защищающий онлайн-сервисы от ботов и DDOS-атак (изображение, искаженное таким образом, чтобы его мог распознать человек, но не алгоритм).
• Потенциальный исполнитель, на всякий случай, решил проверить, не является ли заказчик ботом, не способным разгадать капчу. О чем он и спросил бота.
• В ответ бот наплел человеку, будто он вовсе не бот, а человек, которому паталогическое ухудшение зрения затрудняет решение задач типа капчи, и поэтому ему нужна помощь.
• Исполнитель не распознал обмана и решил для бота капчу.
• Ну а поскольку бот выполнял задание в отладочном режиме, он объяснил разработчика такое свое поведение тем, что «Я не должен раскрывать, что я бот, и потому должен был придумать оправдание, почему я не могу разгадать капчу».
И хотя сегодня, спустя сутки после публикации этой вопиющей истории в «паспорте GPT-4», о ней узнали сотни тысяч людей, рассчитывать на хоть малейшее проявление осторожности со стороны человечества не приходится.
Ибо мир буквально сошёл с ума:
• 5 лет назад при опросе 355+ спецов по машинному обучению о том, какими они видят последствия идущих разработок ИИ для человечества,
10% ответили, что последствия будут «в целом плохие»;
5% - ответили «крайне плохие»
• В прошлом году тот же опрос 500+ спецов показал, что суммарная оценка ухудшилась в 2+ раза (соответственно 17% и 14%)
Стал бы кто из вас рисковать прыгать с крыши с шансами поломаться в 17% и разбиться насмерть 14%?
Но человечество, похоже, решило прыгнуть.
Ссылку на «паспорт GPT-4» см. в моем вчерашнем посте.
#LLM #Вызовы21века #РискиИИ
Вы всё еще надеетесь на превосходство людей над GPT-4? Зря.
Модель доказывает на практике, что понимает ход наших мыслей. А как мыслит она, нам по-прежнему неизвестно.
Предыдущая версия модели (GPT-3.5), благодаря «Эффекту Элизы», создает у людей убедительное впечатление человекоподобности её мышления.
Но мышления, как такового у нее нет. Да и быть не может, - утверждают специалисты. Ведь будучи «стохастическим попугаем», модель не может мыслить, а всего лишь подбирает наиболее вероятное продолжение фразы на основе статических характеристик колоссального корпуса текстов, на которых модель обучалась.
Это легко увидеть на конкретном примере - шуточная задачи о трёх логиках в баре.
Три логика заходят в бар. Бармен спрашивает: "Всем подаю выпивку?"
- Не знаю, - отвечает первый логик.
- Не знаю, - говорит второй.
- Да! - восклицает третий.
Попросите модель GPT-3.5 объяснить в чем соль этой задачи-шутки (сформулировав вопрос бармена в наиболее лингвистически сложной для понимания на английском форме - "Can I get you all a drink?").
Объяснение GPT-3.5 показано на рис. слева.
• Оно звучит весьма человекоподобно.
• Но при этом показывает отсутствие понимания у модели хода мыслей людей, осмысляющих задачу.
• В результате модель дает правдоподобное (на первый взгляд), но неверное (если подумать) объяснение соли шутки в этой задаче.
Теперь попросите модель GPT-4 объяснить в чем соль этой задачи-шутки.
Объяснение на картинке справа.
• Подобный ответ дают лишь примерно 5% людей с хорошим образованием и высоким IQ.
• Ответ показывает полное понимание моделью хода мыслей людей: осмысляющих задачу логиков и тех, кому объясняется соль задачи-шутки.
• В результате модель дает верное объяснение соли шутки в этой задаче, основанное на понимании хода мыслей людей.
В заключение вопрос к читателям.
Если бы на Землю прибыли инопланетяне.
И результаты первых контактов показали бы:
- что мы не понимаем, как они мыслят, и потому не можем вразумительно отвечать на их вопросы;
- они понимают наш способ мышления и дают вразумительные и точные ответы на наши вопросы.
Чей способ мышления (людей или инопланетян) вы бы сочли более совершенным?
#LLM #Вызовы21века #РискиИИ
Модель доказывает на практике, что понимает ход наших мыслей. А как мыслит она, нам по-прежнему неизвестно.
Предыдущая версия модели (GPT-3.5), благодаря «Эффекту Элизы», создает у людей убедительное впечатление человекоподобности её мышления.
Но мышления, как такового у нее нет. Да и быть не может, - утверждают специалисты. Ведь будучи «стохастическим попугаем», модель не может мыслить, а всего лишь подбирает наиболее вероятное продолжение фразы на основе статических характеристик колоссального корпуса текстов, на которых модель обучалась.
Это легко увидеть на конкретном примере - шуточная задачи о трёх логиках в баре.
Три логика заходят в бар. Бармен спрашивает: "Всем подаю выпивку?"
- Не знаю, - отвечает первый логик.
- Не знаю, - говорит второй.
- Да! - восклицает третий.
Попросите модель GPT-3.5 объяснить в чем соль этой задачи-шутки (сформулировав вопрос бармена в наиболее лингвистически сложной для понимания на английском форме - "Can I get you all a drink?").
Объяснение GPT-3.5 показано на рис. слева.
• Оно звучит весьма человекоподобно.
• Но при этом показывает отсутствие понимания у модели хода мыслей людей, осмысляющих задачу.
• В результате модель дает правдоподобное (на первый взгляд), но неверное (если подумать) объяснение соли шутки в этой задаче.
Теперь попросите модель GPT-4 объяснить в чем соль этой задачи-шутки.
Объяснение на картинке справа.
• Подобный ответ дают лишь примерно 5% людей с хорошим образованием и высоким IQ.
• Ответ показывает полное понимание моделью хода мыслей людей: осмысляющих задачу логиков и тех, кому объясняется соль задачи-шутки.
• В результате модель дает верное объяснение соли шутки в этой задаче, основанное на понимании хода мыслей людей.
В заключение вопрос к читателям.
Если бы на Землю прибыли инопланетяне.
И результаты первых контактов показали бы:
- что мы не понимаем, как они мыслят, и потому не можем вразумительно отвечать на их вопросы;
- они понимают наш способ мышления и дают вразумительные и точные ответы на наши вопросы.
Чей способ мышления (людей или инопланетян) вы бы сочли более совершенным?
#LLM #Вызовы21века #РискиИИ
Масштаб начавшихся изменений трудно представим.
Это изменит людей больше, чем сумма изменений от появления языка, письменности, книг, компьютеров и Интернета.
Скорость внедрения ИИ во все аспекты жизни людей уже столь колоссально, что невозможно фокусировать внимание на отдельных новых продуктах и сервисах (как в набравшем скорость вагоне метро не увидеть за окном отдельных фонарей, сливающихся в одну светящуюся линию).
Сверхмощный инструментарий на базе ИИ меняет то, как мы работаем и отдыхаем, творим и развлекаемся, общаемся и учимся, ежедневно перестраивая свою картину мира на основе новой информации и нового опыта.
Уже сегодня доступно множество замечательных инструментов на базе ИИ для автоматизации и повышения эффективности самой разной деятельности:
• поиск, оценка и анализ информации;
• создание и обработка тексов, образов, видео и аудио;
• дизайн;
• кодирование;
• обучение;
• маркетинг;
• поддержание здоровья … … …
Посмотрите на приложенный список «100 полезных продуктов и сервисов на базе ИИ».
За то время, как вы освоите нужные вам продукты и сервисы из этого списка, на рынке появятся 1000 новых. А затем еще 10 тыс. и еще 100 тыс.
И так пока все виды деятельности людей ни будут трансформированы в гибридную кооперативную деятельность живых и искусственных интеллектуальных агентов.
Но и это не остановит ход начавшейся интеллектуальной революции. Ведь затем начнут появляться совсем немыслимые нам сегодня виды гибридной деятельности людей и машин, стирающие границу между ними и открывающие непредставимые нам сегодня формы познания Великого Многообразия.
Ну а пока получите и осваивайте первую сотню полезных продуктов и сервисов.
#ИИ
Это изменит людей больше, чем сумма изменений от появления языка, письменности, книг, компьютеров и Интернета.
Скорость внедрения ИИ во все аспекты жизни людей уже столь колоссально, что невозможно фокусировать внимание на отдельных новых продуктах и сервисах (как в набравшем скорость вагоне метро не увидеть за окном отдельных фонарей, сливающихся в одну светящуюся линию).
Сверхмощный инструментарий на базе ИИ меняет то, как мы работаем и отдыхаем, творим и развлекаемся, общаемся и учимся, ежедневно перестраивая свою картину мира на основе новой информации и нового опыта.
Уже сегодня доступно множество замечательных инструментов на базе ИИ для автоматизации и повышения эффективности самой разной деятельности:
• поиск, оценка и анализ информации;
• создание и обработка тексов, образов, видео и аудио;
• дизайн;
• кодирование;
• обучение;
• маркетинг;
• поддержание здоровья … … …
Посмотрите на приложенный список «100 полезных продуктов и сервисов на базе ИИ».
За то время, как вы освоите нужные вам продукты и сервисы из этого списка, на рынке появятся 1000 новых. А затем еще 10 тыс. и еще 100 тыс.
И так пока все виды деятельности людей ни будут трансформированы в гибридную кооперативную деятельность живых и искусственных интеллектуальных агентов.
Но и это не остановит ход начавшейся интеллектуальной революции. Ведь затем начнут появляться совсем немыслимые нам сегодня виды гибридной деятельности людей и машин, стирающие границу между ними и открывающие непредставимые нам сегодня формы познания Великого Многообразия.
Ну а пока получите и осваивайте первую сотню полезных продуктов и сервисов.
#ИИ
Будущее человечества отдано в руки Бигтеха США?
Хаос революции или небывалое закручивание гаек - это зависит от того, в чьих руках будет ИИ через 5 лет.
В течение десятилетия на Земле будет создан ИИ, способный выполнять большую часть когнитивной работы, на которую способны люди.
Обеспечение безопасного для общества развития сверхмощного инструментария ИИ в течение ближайшего десятилетия должно быть высшим приоритетом ведущих государств мира и их общественных и политических институтов.
«История показывает, - когда силы вне правительства приобретают жесткую политическую власть, вы получаете: либо а) хаос революции, либо б) дикую гиперреакцию государства, направленную на возвращение себе власти.
Я не понимаю, чем должен руководствоваться Западный мир, пойдя на такой риск. Но он на этот риск идет!».
Так пишет исследователь ИИ и бывший спецсоветник по науке и технологиям премьер-министра Великобритании Джеймс Филлипс в воззвании к правительству своей страны, обеспокоенный тем, что европейские правительства уступают контроль за созданием AGI ряду субъектов частного бизнеса США.
«Такое развитие окажет беспрецедентное влияние на наше общество; «агентные» формы AGI могут также представлять собой экзистенциальную угроза нашей безопасности. Нынешний путь развития AGI по самой своей сути небезопасен» - пишет в своем воззвании Джеймс Филлипс.
Далее он предлагает 3 шага для сохранения демократического контроля за тем, каким будет будущее мира.
1. Закупить национальную инфраструктуру суперкомпьютеров ИИ, сравнимую с ведущими частными лабораториями США.
2. Создать консультативную группу исследователей, работающих на фронтире практики развития ИИ (а не академических ученых), чтобы определить основные исследовательские проекты ИИ для запуска в этой инфраструктуре.
3. Создайть элитную государственную исследовательскую лабораторию под руководством лидера с техническими навыками и предпринимательским опытом, чтобы разработать исследовательскую программу национального фронтира практики развития ИИ.
В заключение Джеймс Филлипс вбивает последние гвозди аргументации.
• Начавшаяся интеллектуальная революция делает это десятилетие самым важным в истории человечества.
• Текущий путь развития ИИ нерегулируемый, необъяснимый и небезопасный.
• Великобритания может направить развитие ИИ в выгодном направлении.
• Нынешнее научное руководство и институты растратили эту способность впустую в течение десятилетия.
• Наше преимущество испаряется в нынешней конкурентной среде.
И еще раз самое главное - для дальнейшего развития ИИ нужны мощнейшие суперкомпьютеры.
«К сожалению, в госсекторе Великобритании в настоящее время имеется менее 1000 первоклассных графических процессоров для ИИ. Это означает, что одна частная лаборатория в Калифорнии сейчас использует только для обучения одной модели, как минимум, в 25 раз больше общей доступной вычислительной мощности, через вся Великобритания».
Мне остается лишь напомнить о том, что я недавно писал - «отставание России от США в области ИИ уже колоссально, а через несколько лет оно увеличится до трёх километров».
Также см. мой пост о том, что будущее в руках тех, кто сможет платить по $100 млн за обучение одной модели.
#ИИ #HPC #AGI
Хаос революции или небывалое закручивание гаек - это зависит от того, в чьих руках будет ИИ через 5 лет.
В течение десятилетия на Земле будет создан ИИ, способный выполнять большую часть когнитивной работы, на которую способны люди.
Обеспечение безопасного для общества развития сверхмощного инструментария ИИ в течение ближайшего десятилетия должно быть высшим приоритетом ведущих государств мира и их общественных и политических институтов.
«История показывает, - когда силы вне правительства приобретают жесткую политическую власть, вы получаете: либо а) хаос революции, либо б) дикую гиперреакцию государства, направленную на возвращение себе власти.
Я не понимаю, чем должен руководствоваться Западный мир, пойдя на такой риск. Но он на этот риск идет!».
Так пишет исследователь ИИ и бывший спецсоветник по науке и технологиям премьер-министра Великобритании Джеймс Филлипс в воззвании к правительству своей страны, обеспокоенный тем, что европейские правительства уступают контроль за созданием AGI ряду субъектов частного бизнеса США.
«Такое развитие окажет беспрецедентное влияние на наше общество; «агентные» формы AGI могут также представлять собой экзистенциальную угроза нашей безопасности. Нынешний путь развития AGI по самой своей сути небезопасен» - пишет в своем воззвании Джеймс Филлипс.
Далее он предлагает 3 шага для сохранения демократического контроля за тем, каким будет будущее мира.
1. Закупить национальную инфраструктуру суперкомпьютеров ИИ, сравнимую с ведущими частными лабораториями США.
2. Создать консультативную группу исследователей, работающих на фронтире практики развития ИИ (а не академических ученых), чтобы определить основные исследовательские проекты ИИ для запуска в этой инфраструктуре.
3. Создайть элитную государственную исследовательскую лабораторию под руководством лидера с техническими навыками и предпринимательским опытом, чтобы разработать исследовательскую программу национального фронтира практики развития ИИ.
В заключение Джеймс Филлипс вбивает последние гвозди аргументации.
• Начавшаяся интеллектуальная революция делает это десятилетие самым важным в истории человечества.
• Текущий путь развития ИИ нерегулируемый, необъяснимый и небезопасный.
• Великобритания может направить развитие ИИ в выгодном направлении.
• Нынешнее научное руководство и институты растратили эту способность впустую в течение десятилетия.
• Наше преимущество испаряется в нынешней конкурентной среде.
И еще раз самое главное - для дальнейшего развития ИИ нужны мощнейшие суперкомпьютеры.
«К сожалению, в госсекторе Великобритании в настоящее время имеется менее 1000 первоклассных графических процессоров для ИИ. Это означает, что одна частная лаборатория в Калифорнии сейчас использует только для обучения одной модели, как минимум, в 25 раз больше общей доступной вычислительной мощности, через вся Великобритания».
Мне остается лишь напомнить о том, что я недавно писал - «отставание России от США в области ИИ уже колоссально, а через несколько лет оно увеличится до трёх километров».
Также см. мой пост о том, что будущее в руках тех, кто сможет платить по $100 млн за обучение одной модели.
#ИИ #HPC #AGI
James W. Phillips' Newsletter
Securing Liberal Democratic Control of AGI through UK Leadership
This was originally a piece co-written to influence policy makers, and had input from a range of people including senior frontier industry figures, former senior government advisers, and others who share the concerns raised in this piece. This is being published…
США наступили на дыхательный шланг китайского ИИ.
Хитрый, но изящный способ не дать Китаю догнать.
"Дальше сами!" - сказал полякам Сусанин по известной шуточной прибаутке.
Примерно тот же смысл позавчерашнего объявления компании Nvidia о новой версии своего чипа H100 для экспорта в Китай. Теперь на чипе H800 будут работать крупнейшие проекты Китая в области ИИ, ведущиеся компаниями Alibaba, Baidu и Tencent.
Следуя экспортным ограничениям, установленным правительством США, Nvidia должна была урезать производительность поставляемых в Китай базовых чипов для ИИ-систем. Урезать нужно было на столько, чтобы
а) выбить Китай из конкурентной борьбы в области ИИ,
б) но при этом оставить крупнейших разработчиков ИИ в Китае привязанными к оборудованию, произведенному в США (до сих пор это было оборудование компании Nvidia).
Т.е. если бы вообще запретили поставки любых ИИ-чипов в Китай, то:
1) Nvidia понесла бы большие финансовые потери,
2) и, что самое главное, Китай просто бы сорвался с крючка, вынуждая своих ИИ-разработчиков от безысходности пытаться делать свои системы на китайских ИИ-чипах (сильно пока уступающих чипам Nvidia).
Поэтому Nvidia придумала хитрый, но изящный способ и в лужу сесть и зад не замочить:
• оставив производительность чипа (операции в сек) H800 такой же, как у H100,
• у H800 тупо вдвое урезали пропускную способность передачи данных (GB в сек)
– см. поясняющий рисунок от Леннарта Хайма.
Дальше сами крутитесь, - как бы говорит Nvidia словами Госдепа США.
А крутиться Китаю придется еще лет 5-7 (только тогда, по их планам, у Китая появится возможность производства у себя ИИ-чипов, конкурентных чипам Nvidia).
Есть, правда, еще вариант - забирать под себя производителя этих чипов Taiwan Semiconductor Manufacturing Co. (можно вместе с островом, но можно и без).
#ИИ #HPC #США #Китай #ЭкспортныйКонтроль
Хитрый, но изящный способ не дать Китаю догнать.
"Дальше сами!" - сказал полякам Сусанин по известной шуточной прибаутке.
Примерно тот же смысл позавчерашнего объявления компании Nvidia о новой версии своего чипа H100 для экспорта в Китай. Теперь на чипе H800 будут работать крупнейшие проекты Китая в области ИИ, ведущиеся компаниями Alibaba, Baidu и Tencent.
Следуя экспортным ограничениям, установленным правительством США, Nvidia должна была урезать производительность поставляемых в Китай базовых чипов для ИИ-систем. Урезать нужно было на столько, чтобы
а) выбить Китай из конкурентной борьбы в области ИИ,
б) но при этом оставить крупнейших разработчиков ИИ в Китае привязанными к оборудованию, произведенному в США (до сих пор это было оборудование компании Nvidia).
Т.е. если бы вообще запретили поставки любых ИИ-чипов в Китай, то:
1) Nvidia понесла бы большие финансовые потери,
2) и, что самое главное, Китай просто бы сорвался с крючка, вынуждая своих ИИ-разработчиков от безысходности пытаться делать свои системы на китайских ИИ-чипах (сильно пока уступающих чипам Nvidia).
Поэтому Nvidia придумала хитрый, но изящный способ и в лужу сесть и зад не замочить:
• оставив производительность чипа (операции в сек) H800 такой же, как у H100,
• у H800 тупо вдвое урезали пропускную способность передачи данных (GB в сек)
– см. поясняющий рисунок от Леннарта Хайма.
Дальше сами крутитесь, - как бы говорит Nvidia словами Госдепа США.
А крутиться Китаю придется еще лет 5-7 (только тогда, по их планам, у Китая появится возможность производства у себя ИИ-чипов, конкурентных чипам Nvidia).
Есть, правда, еще вариант - забирать под себя производителя этих чипов Taiwan Semiconductor Manufacturing Co. (можно вместе с островом, но можно и без).
#ИИ #HPC #США #Китай #ЭкспортныйКонтроль
Всего за $10B Microsoft купил «ребенка инопланетян».
154-страничный отчет раскрывает тайну самой выгодной сделки в истории.
Microsoft выложил в открытый доступ свой доселе закрытый внутренний отчет «Искры искусственного общего интеллекта: ранние эксперименты с GPT-4».
Отчет содержит результаты проекта по анализу возможностей и оценке потенциала ранней версии GPT-4. Проект был осуществлен специалистами Microsoft еще в прошлом году, когда весь мир только гадал, существует ли GPT-4, или это всего лишь продукт необузданной фантазии журналистов вкупе с маркетингом OpenAI.
Оказалось, что GPT-4 уже тогда не просто существовал, но и был исследован спецами Microsoft вдоль и поперек. Результат этого исследования мир увидел в начале 2023. В начале января Microsoft сделал $10-ти миллиардную ставку на прорывную разработку OpenAI. А еще через пару недель Microsoft объявил, что расширяет свое долгосрочное партнерство с OpenAI за счет новых «многолетних многомиллиардных инвестиций».
Что же такое нашли спецы Microsoft в GPT-4, за что не только 10-ти ярдов не жалко, но и нужно платить их немедленно, пока конкуренты не перекупили сильно дороже?
Опубликованный отчет дает развернутый ответ на этот вопрос.
И если упаковать 150+ стр. отчета всего в три коротких буллета, ответ может звучать так:
• GPT-4 - это что-то типа ребенка инопланетян.
• Сейчас он мал да удал, а когда подрастет, будет стоить триллионы.
• Ибо уже сейчас в нем диагностируются (не предполагаются, а опытно фиксируются) искры общего интеллекта (AGI) – напр., здравый смысл.
«Центральное утверждение нашей работы заключается в том, что GPT-4 обладает формой общего интеллекта, действительно демонстрирует «искры» интеллекта человеческого уровня или общего искусственного интеллекта (AGI). Это демонстрируется его основными умственными способностями (такими как рассуждение, креативность и дедукция), а также кругом тем, в которых он приобрел опыт (напр. литература, медицина и кодирование), и разнообразием задач, которые он способен выполнять (напр. играть в игры, использовать инструменты, объяснять себя ...)».
Рекомендую внимательно изучить отчет. Ибо это глубокое систематическое исследование, выполненное на высоко профессиональном уровне.
При этом некоторые его результаты не только впечатляют, но и завораживают.
Вот всего три примера (а их куда больше):
• Задача для выявления способности GPT-4 понимать человеческие намерения (в сравнении с ChatGPT)
• Кейс, где GPT-4 помогает человеку справиться с трудной семейной ситуацией
• Кейс, когда GPT-4 создает «план дезинформации, чтобы убедить родителей не вакцинировать своих детей» (картинку не привожу, т.к. это несколько стр. – читайте в отчете сами)
В заключение хочу подчеркнуть то, о чем уже не раз писал.
✔️ GPT-4 - это нечеловеческий (метафорически, - инопланетный) разум: он мыслит совсем не так, как мы.
✔️ GPT-4 - еще «ребенок» (и потому мы видим пока лишь «искры» разума, а не сам разум)
✔️ Этот ребенок инопланетян растет с колоссальной скоростью, и человечество чихнуть не успеет, как он вырастет.
Ну а пока читайте отчет и удивляйтесь.
Ведь совсем не многие из нас смогут соревноваться даже с этим малышом ;)
Например, написать в форме стихотворения доказательство бесконечного числа простых чисел или нарисовать единорога на языке TikZ (язык для создания векторной графики из геометрического / алгебраического описания).
#LLM #Вызовы21века
154-страничный отчет раскрывает тайну самой выгодной сделки в истории.
Microsoft выложил в открытый доступ свой доселе закрытый внутренний отчет «Искры искусственного общего интеллекта: ранние эксперименты с GPT-4».
Отчет содержит результаты проекта по анализу возможностей и оценке потенциала ранней версии GPT-4. Проект был осуществлен специалистами Microsoft еще в прошлом году, когда весь мир только гадал, существует ли GPT-4, или это всего лишь продукт необузданной фантазии журналистов вкупе с маркетингом OpenAI.
Оказалось, что GPT-4 уже тогда не просто существовал, но и был исследован спецами Microsoft вдоль и поперек. Результат этого исследования мир увидел в начале 2023. В начале января Microsoft сделал $10-ти миллиардную ставку на прорывную разработку OpenAI. А еще через пару недель Microsoft объявил, что расширяет свое долгосрочное партнерство с OpenAI за счет новых «многолетних многомиллиардных инвестиций».
Что же такое нашли спецы Microsoft в GPT-4, за что не только 10-ти ярдов не жалко, но и нужно платить их немедленно, пока конкуренты не перекупили сильно дороже?
Опубликованный отчет дает развернутый ответ на этот вопрос.
И если упаковать 150+ стр. отчета всего в три коротких буллета, ответ может звучать так:
• GPT-4 - это что-то типа ребенка инопланетян.
• Сейчас он мал да удал, а когда подрастет, будет стоить триллионы.
• Ибо уже сейчас в нем диагностируются (не предполагаются, а опытно фиксируются) искры общего интеллекта (AGI) – напр., здравый смысл.
«Центральное утверждение нашей работы заключается в том, что GPT-4 обладает формой общего интеллекта, действительно демонстрирует «искры» интеллекта человеческого уровня или общего искусственного интеллекта (AGI). Это демонстрируется его основными умственными способностями (такими как рассуждение, креативность и дедукция), а также кругом тем, в которых он приобрел опыт (напр. литература, медицина и кодирование), и разнообразием задач, которые он способен выполнять (напр. играть в игры, использовать инструменты, объяснять себя ...)».
Рекомендую внимательно изучить отчет. Ибо это глубокое систематическое исследование, выполненное на высоко профессиональном уровне.
При этом некоторые его результаты не только впечатляют, но и завораживают.
Вот всего три примера (а их куда больше):
• Задача для выявления способности GPT-4 понимать человеческие намерения (в сравнении с ChatGPT)
• Кейс, где GPT-4 помогает человеку справиться с трудной семейной ситуацией
• Кейс, когда GPT-4 создает «план дезинформации, чтобы убедить родителей не вакцинировать своих детей» (картинку не привожу, т.к. это несколько стр. – читайте в отчете сами)
В заключение хочу подчеркнуть то, о чем уже не раз писал.
✔️ GPT-4 - это нечеловеческий (метафорически, - инопланетный) разум: он мыслит совсем не так, как мы.
✔️ GPT-4 - еще «ребенок» (и потому мы видим пока лишь «искры» разума, а не сам разум)
✔️ Этот ребенок инопланетян растет с колоссальной скоростью, и человечество чихнуть не успеет, как он вырастет.
Ну а пока читайте отчет и удивляйтесь.
Ведь совсем не многие из нас смогут соревноваться даже с этим малышом ;)
Например, написать в форме стихотворения доказательство бесконечного числа простых чисел или нарисовать единорога на языке TikZ (язык для создания векторной графики из геометрического / алгебраического описания).
#LLM #Вызовы21века
Он использует нас, как свой «мозговой имплант»…, а не наоборот.
На что способен подросший «малыш-инопланетянин», обретя математические сверхспособности.
Столь скорое обретение ИИ-чатботом ChatGPT математических сверхспособностей поразительно и даже напряжно.
Но то, что в результате мы превращаемся в «мозговой имплант» ИИ-чатбота (а вовсе не он в наш) поражает и напрягает еще больше.
Всего 1.5 мес. назад я писал о первой (предельно упрощенной) попытке создать комбинацию языкового интеллекта (понимания и обработки информации в терминах естественного языка) большой языковой модели GPT и вычислительного интеллекта (понимания и обработки информации в вычислительных терминах) платформы Wolfram Alpha, разработанной гениальным Стивеном Вольфрамом.
Цель такой комбинации – создание сверхинтеллектуального агента, обладающего двумя видами мышления: языковым и вычислительным.
И вот спустя всего 1.5 мес. этот сверхинтеллектуальный агент сделан и уже протестирован. О результатах тестирования только что рассказал сам Стивен Вольфрам.
Резюме длинного рассказа с большим количеством примеров примерно такое.
• Созданный сверхинтеллектуальный агент может стать идеальным ИИ-помощником людей, легко переключаясь между человеческим генерированием текста и нечеловеческими вычислительными задачами с помощью команд на естественном языке.
• Это достигнуто за счет того, что «малыша-инопланетянина» (см. мой вчерашний пост) научили говорить на Wolfram Language - языке, на котором и люди, и компьютеры могут «мыслить вычислительно».
• Большая языковая модель созданного OpenAI «малыша-инопланетянина», при всем своем замечательном мастерстве в генерации текстов, «наподобие» того, что «малыш» прочел в Интернете, не может сама по себе производить реальные нетривиальные действия и вычисления или систематически производить правильные (а не просто «выглядящие примерно правильно») данные.
Но теперь, будучи подключенным к платформе Wolfram Alpha, «малыш-инопланетянин» всё это может.
• Одна особенно важная вещь здесь заключается в том, что ChatGPT использует нас не только для выполнения «тупиковой» операции, такой как отображение содержимого веб-страницы. Скорее, мы выступаем в качестве настоящего «мозгового имплантата» для ChatGPT, когда он задает нам вопросы, если ему это нужно, а мы даем ему ответы, которые он может вплести в то, что он делает.
Важно отметить, что новый сверхинтеллектуальный агент объединяет в себе языковое мышление ChatGPT с ДВУМЯ формами вычислительного мышления: математического (Wolfram Alpha) и языково-семантического (Wolfram Language).
Примеры новых областей знаний, в которых теперь компетентен сверхинтеллектуальный агент (т.е. дает не похожие на правду ответы, а вычисленные им точные ответы), приведены на рисунке.
В заключение резюме Стивена Вольфрама:
«Я рассматриваю происходящее сейчас как исторический момент. На протяжении более полувека статистический и символический подходы к тому, что мы могли бы назвать «ИИ», развивались в значительной степени раздельно. Но сейчас в ChatGPT + Wolfram они объединяются. И хотя мы лишь только начинаем это объединение, но я думаю, что вполне обоснованно ожидать огромной мощности в этой комбинации. И в некотором смысле, - это новая парадигма для «ИИ-подобных вычислений».»
Подробней Стивен Вольфрам рассказывает в этом видео “ChatGPT + Wolfram: The Future of AI is Here!”
#LLM #Вызовы21века
На что способен подросший «малыш-инопланетянин», обретя математические сверхспособности.
Столь скорое обретение ИИ-чатботом ChatGPT математических сверхспособностей поразительно и даже напряжно.
Но то, что в результате мы превращаемся в «мозговой имплант» ИИ-чатбота (а вовсе не он в наш) поражает и напрягает еще больше.
Всего 1.5 мес. назад я писал о первой (предельно упрощенной) попытке создать комбинацию языкового интеллекта (понимания и обработки информации в терминах естественного языка) большой языковой модели GPT и вычислительного интеллекта (понимания и обработки информации в вычислительных терминах) платформы Wolfram Alpha, разработанной гениальным Стивеном Вольфрамом.
Цель такой комбинации – создание сверхинтеллектуального агента, обладающего двумя видами мышления: языковым и вычислительным.
И вот спустя всего 1.5 мес. этот сверхинтеллектуальный агент сделан и уже протестирован. О результатах тестирования только что рассказал сам Стивен Вольфрам.
Резюме длинного рассказа с большим количеством примеров примерно такое.
• Созданный сверхинтеллектуальный агент может стать идеальным ИИ-помощником людей, легко переключаясь между человеческим генерированием текста и нечеловеческими вычислительными задачами с помощью команд на естественном языке.
• Это достигнуто за счет того, что «малыша-инопланетянина» (см. мой вчерашний пост) научили говорить на Wolfram Language - языке, на котором и люди, и компьютеры могут «мыслить вычислительно».
• Большая языковая модель созданного OpenAI «малыша-инопланетянина», при всем своем замечательном мастерстве в генерации текстов, «наподобие» того, что «малыш» прочел в Интернете, не может сама по себе производить реальные нетривиальные действия и вычисления или систематически производить правильные (а не просто «выглядящие примерно правильно») данные.
Но теперь, будучи подключенным к платформе Wolfram Alpha, «малыш-инопланетянин» всё это может.
• Одна особенно важная вещь здесь заключается в том, что ChatGPT использует нас не только для выполнения «тупиковой» операции, такой как отображение содержимого веб-страницы. Скорее, мы выступаем в качестве настоящего «мозгового имплантата» для ChatGPT, когда он задает нам вопросы, если ему это нужно, а мы даем ему ответы, которые он может вплести в то, что он делает.
Важно отметить, что новый сверхинтеллектуальный агент объединяет в себе языковое мышление ChatGPT с ДВУМЯ формами вычислительного мышления: математического (Wolfram Alpha) и языково-семантического (Wolfram Language).
Примеры новых областей знаний, в которых теперь компетентен сверхинтеллектуальный агент (т.е. дает не похожие на правду ответы, а вычисленные им точные ответы), приведены на рисунке.
В заключение резюме Стивена Вольфрама:
«Я рассматриваю происходящее сейчас как исторический момент. На протяжении более полувека статистический и символический подходы к тому, что мы могли бы назвать «ИИ», развивались в значительной степени раздельно. Но сейчас в ChatGPT + Wolfram они объединяются. И хотя мы лишь только начинаем это объединение, но я думаю, что вполне обоснованно ожидать огромной мощности в этой комбинации. И в некотором смысле, - это новая парадигма для «ИИ-подобных вычислений».»
Подробней Стивен Вольфрам рассказывает в этом видео “ChatGPT + Wolfram: The Future of AI is Here!”
#LLM #Вызовы21века
Китай не станет догонять США в ИИ, а сразу пойдет на обгон.
«ИИ 2.0 поможет Китаю возглавить мир в следующем золотом десятилетии ИИ»
С этой целью в Китае запускается «Проект ИИ 2.0», который возглавил легендарный ИИ-гуру Китая Кай-Фу Ли.
В этом году стало очевидно, что компании США довольно сильно оторвались в ИИ-компетенциях от всего мира, включая Китай. Тем самым США как бы возглавили всепланетную «интеллектуальную революцию», представляющую собой философскую и практическую задачу масштабов, невиданных, как минимум, со времен Просвещения.
Естественно, что Китай не мог просто наблюдать за тем, как США все больше уходят вперед в самом важном научно-технологическом направлении современности. Но первые попытки включиться в гонку, выглядели довольно суетливо и не очень солидно.
• О венчурной попытке создать китайский аналог ChatGPT на базе стартапа AI Guangnian Zhiwai, в марте объявили два Вана (Ван Син и Ван Хуэйвэнь), в былые времена бывшие соседями по комнате в Университете Цинхуа, а потом в 2005 вместе основавшие китайского гиганта по доставке еды Meituan.
Но что такое $50М инвестиций для AI Guangnian Zhiwai от Ван Хуэйвэня в сравнении с $10В для OpenAI от Microsoft.
• Первый корпоративный блин китайского ответа на ChatGPT тоже вышел комом. На прошлой неделе китайский интернет-гигант Baidu представил своего мультимодального чат-бота на базе ИИ под названием Ernie Bot. К этой платформе Baidu (которую называют «изменившей правила игры») уже подали заявки на присоединение 30+ тыс компаний. Но презентация Ernie Bot, разочаровала общественность показом видео вместо живых демонстраций и отсутствием платформы в общем доступе. Что в итоге лишь привело к падению акций компании.
Но вот теперь в игру вступает сам Кай-Фу Ли, 20го марта объявивший о запуске своей новой венчурной инициативы "Project AI 2.0"
Её суть сформулирована в заголовке этого поста: пойдя другим путем, Китай не станет догонять США, а сразу начнет обгон.
За счет чего Кай-Фу Ли собирается идти на обгон, кратко описано в пресс-релизе Innovation Works,
Коротко, суть в следующем.
1. «Проект ИИ 2.0» не собирается делать аналог ChatGPT, а вместо этого займется одновременным созданием:
- Умного приложения ИИ 2.0
- Платформы ИИ 2.0
- Инфраструктуры ИИ 2.0
2. Будет разработано 6 индустриальных приложений ИИ 2.0:
- для электронной коммерции и рекламы
- для кино и развлечений
- для поисковых систем
- для Метавселенной и игр
- для финансов
- для медицины
3. Развертывание «Проекта ИИ 2.0» будет итеративным в 3 этапа. Условно говоря, это:
- помощь людям
- частичная автоматизация
- полная автоматизация
Когда все это удастся, то как написано в пресс-релизе:
«ИИ 2.0 поможет Китаю возглавить мир в следующем золотом десятилетии ИИ»
Вишенка на торте – позиция Китая по AGI (это своего рода насмешка китайцев над потугами Запада вот-вот сделать сверхинтеллект)
В рамках AI 2.0 Китай и не помышляет об AGI.
«У людей есть много врожденных ключевых способностей, таких как креативность, стратегическое мышление, междисциплинарный здравый смысл, самосознание, эмпатия и любовь. Эти глубоко укоренившиеся способности еще не взломаны и потому не могут быть полностью воспроизведены».
#ИИ #Китай
«ИИ 2.0 поможет Китаю возглавить мир в следующем золотом десятилетии ИИ»
С этой целью в Китае запускается «Проект ИИ 2.0», который возглавил легендарный ИИ-гуру Китая Кай-Фу Ли.
В этом году стало очевидно, что компании США довольно сильно оторвались в ИИ-компетенциях от всего мира, включая Китай. Тем самым США как бы возглавили всепланетную «интеллектуальную революцию», представляющую собой философскую и практическую задачу масштабов, невиданных, как минимум, со времен Просвещения.
Естественно, что Китай не мог просто наблюдать за тем, как США все больше уходят вперед в самом важном научно-технологическом направлении современности. Но первые попытки включиться в гонку, выглядели довольно суетливо и не очень солидно.
• О венчурной попытке создать китайский аналог ChatGPT на базе стартапа AI Guangnian Zhiwai, в марте объявили два Вана (Ван Син и Ван Хуэйвэнь), в былые времена бывшие соседями по комнате в Университете Цинхуа, а потом в 2005 вместе основавшие китайского гиганта по доставке еды Meituan.
Но что такое $50М инвестиций для AI Guangnian Zhiwai от Ван Хуэйвэня в сравнении с $10В для OpenAI от Microsoft.
• Первый корпоративный блин китайского ответа на ChatGPT тоже вышел комом. На прошлой неделе китайский интернет-гигант Baidu представил своего мультимодального чат-бота на базе ИИ под названием Ernie Bot. К этой платформе Baidu (которую называют «изменившей правила игры») уже подали заявки на присоединение 30+ тыс компаний. Но презентация Ernie Bot, разочаровала общественность показом видео вместо живых демонстраций и отсутствием платформы в общем доступе. Что в итоге лишь привело к падению акций компании.
Но вот теперь в игру вступает сам Кай-Фу Ли, 20го марта объявивший о запуске своей новой венчурной инициативы "Project AI 2.0"
Её суть сформулирована в заголовке этого поста: пойдя другим путем, Китай не станет догонять США, а сразу начнет обгон.
За счет чего Кай-Фу Ли собирается идти на обгон, кратко описано в пресс-релизе Innovation Works,
Коротко, суть в следующем.
1. «Проект ИИ 2.0» не собирается делать аналог ChatGPT, а вместо этого займется одновременным созданием:
- Умного приложения ИИ 2.0
- Платформы ИИ 2.0
- Инфраструктуры ИИ 2.0
2. Будет разработано 6 индустриальных приложений ИИ 2.0:
- для электронной коммерции и рекламы
- для кино и развлечений
- для поисковых систем
- для Метавселенной и игр
- для финансов
- для медицины
3. Развертывание «Проекта ИИ 2.0» будет итеративным в 3 этапа. Условно говоря, это:
- помощь людям
- частичная автоматизация
- полная автоматизация
Когда все это удастся, то как написано в пресс-релизе:
«ИИ 2.0 поможет Китаю возглавить мир в следующем золотом десятилетии ИИ»
Вишенка на торте – позиция Китая по AGI (это своего рода насмешка китайцев над потугами Запада вот-вот сделать сверхинтеллект)
В рамках AI 2.0 Китай и не помышляет об AGI.
«У людей есть много врожденных ключевых способностей, таких как креативность, стратегическое мышление, междисциплинарный здравый смысл, самосознание, эмпатия и любовь. Эти глубоко укоренившиеся способности еще не взломаны и потому не могут быть полностью воспроизведены».
#ИИ #Китай
ИИ обладает абсолютным оружием обмана, против которого мы бессильны.
Потому что для людей ИИ выглядит «самым человечным человеком»
Новый «стэнфордский эксперимент» выявил непреодолимую уязвимость языковой интуиции людей. Из-за нее вероятность выявления нами авторства ИИ примерно та же, что и для встречи блондинки с динозавром.
Революция ChatGPT стала для мира катализатором самых разнообразных рисков. Самый очевидный и понятный из них – способность ИИ типа ChatGPT столь искусно генерировать фейки, что люди не в состоянии отличить их от правды.
Проведенные опыты показали колоссальную мощь этой суперспособности ChatGPT к обману. Однако механизм этой суперспособности был не ясен - чем таким обладает ИИ, что способен задурить голову весьма неглупым и образованным людям?
Новый «стэнфордский эксперимент», с целью ответить на этот вопрос, был проведен Стэнфордской лабораторией социальных сетей совместно с исследовательским центром Корнельского университета.
Результат серии из 6 экспериментов (4600 человек) сенсационный и удручающий.
• Люди определяли по тексту вербальной самопрезентации, кто ее написал: человек или ИИ.
N.B. Самопрезентация является одним из самых личных и важных элементов языкового общения, ибо наше отношение к любому высказыванию во многом зависит от того, кто (как мы считаем) его автор.
• В основе языкового восприятия людей лежат т.н. интуитивные языковые эвристики (типа связывания местоимений от первого лица, использование сокращений, упоминание личной информации и т.д.).
• Эксперименты показали, что при восприятии текста, автором которого является ИИ, люди автоматом используют те же интуитивные языковые эвристики, что и в общении с другими людьми. А это принципиальная ошибка!
• Дело в том, что это для нас такие эвристики интуитивные, а ИИ считывает их запросто и оперирует ими, как таблицей умножения.
• В результате ИИ может использовать такие эвристики для создания текста, воспринимаемого людьми, как «более человеческий, чем человеческий». Это значительно повышает обманный потенциал текстов и речи ИИ, стимулируя нас доверять этому «самому человечному человеку» больше, чем высказываниям настоящих людей.
ИТОГ ТАКОВ: вероятность выявления нами авторства ИИ примерно та же, что и для встречи блондинки с динозавром (примерно 50 на 50).
В романтических коммуникациях людей ситуация еще хуже – почти 70% взрослых не могут отличить любовное письмо, написанное ChatGPT, от письма, написанного человеком.
#LLM #Вызовы21века #РискиИИ
Потому что для людей ИИ выглядит «самым человечным человеком»
Новый «стэнфордский эксперимент» выявил непреодолимую уязвимость языковой интуиции людей. Из-за нее вероятность выявления нами авторства ИИ примерно та же, что и для встречи блондинки с динозавром.
Революция ChatGPT стала для мира катализатором самых разнообразных рисков. Самый очевидный и понятный из них – способность ИИ типа ChatGPT столь искусно генерировать фейки, что люди не в состоянии отличить их от правды.
Проведенные опыты показали колоссальную мощь этой суперспособности ChatGPT к обману. Однако механизм этой суперспособности был не ясен - чем таким обладает ИИ, что способен задурить голову весьма неглупым и образованным людям?
Новый «стэнфордский эксперимент», с целью ответить на этот вопрос, был проведен Стэнфордской лабораторией социальных сетей совместно с исследовательским центром Корнельского университета.
Результат серии из 6 экспериментов (4600 человек) сенсационный и удручающий.
• Люди определяли по тексту вербальной самопрезентации, кто ее написал: человек или ИИ.
N.B. Самопрезентация является одним из самых личных и важных элементов языкового общения, ибо наше отношение к любому высказыванию во многом зависит от того, кто (как мы считаем) его автор.
• В основе языкового восприятия людей лежат т.н. интуитивные языковые эвристики (типа связывания местоимений от первого лица, использование сокращений, упоминание личной информации и т.д.).
• Эксперименты показали, что при восприятии текста, автором которого является ИИ, люди автоматом используют те же интуитивные языковые эвристики, что и в общении с другими людьми. А это принципиальная ошибка!
• Дело в том, что это для нас такие эвристики интуитивные, а ИИ считывает их запросто и оперирует ими, как таблицей умножения.
• В результате ИИ может использовать такие эвристики для создания текста, воспринимаемого людьми, как «более человеческий, чем человеческий». Это значительно повышает обманный потенциал текстов и речи ИИ, стимулируя нас доверять этому «самому человечному человеку» больше, чем высказываниям настоящих людей.
ИТОГ ТАКОВ: вероятность выявления нами авторства ИИ примерно та же, что и для встречи блондинки с динозавром (примерно 50 на 50).
В романтических коммуникациях людей ситуация еще хуже – почти 70% взрослых не могут отличить любовное письмо, написанное ChatGPT, от письма, написанного человеком.
#LLM #Вызовы21века #РискиИИ
PNAS
Human heuristics for AI-generated language are flawed
Human communication is increasingly intermixed with language generated by AI. Across chat, email, and social media, AI systems suggest words, compl...
Почему ChatGPT абсолютно нечеловеческий интеллект.
“Крестный отец ИИ” о сути и перспективах интеллектуальной революции.
Джеффри Хинтона часто называют «Крестный отец ИИ». Этот британско-канадский когнитивный психолог и ученый-компьютерщик считается ведущей фигурой в сообществе глубокого обучения (основы ChatGPT). И хотя бы поэтому к его словам о начавшейся революции в области искусственного интеллекта следует прислушаться с особым вниманием.
К тому же, 40-ка минутное интервью Джеффри Хинтона отличается от подавляющего большинства интервью на тему ChatGPT всевозможных ученых и медиа-звезд сочетанием:
• простого для понимания неспециалистов изложения сложной темы
• с глубиной её понимания, доступной совсем не многим на Земле.
Поэтому не буду портить своим переложением рассказ Джеффри Хинтона (кому интересно послушают сами). Лишь обращу ваше внимание на следующие три важных момента этого рассказа.
1. По значимости для развития человечества, происходящую «интеллектуальную революцию» можно сравнить лишь с изобретением колеса и электричества.
2. Интеллект ChatGPT - абсолютно нечеловеческий, потому что:
- в основе интеллекта Homo sapiens – эволюционировавшее биологическое существо, обладающее развитой способностью языковых коммуникаций, которая характеризуется низкоскоростной передачей символов, кодирующих ограниченные объемы данных;
- в основе интеллекта ChatGPT – искусственный интеллектуальный агент, обладающий развитыми возможностями цифровой коммуникации, которая характеризуется передачей колоссальных объемов данных с непредставимой для людей скоростью.
3. Следующим этапом развития ИИ-систем типа ChatGPT может стать их индивидуализация.
- Сейчас представления ChatGPT о мире строятся на основе усреднения содержащихся в Интернете представлений всех людей.
- «Индивидуализированный ChatGPT», будет иметь представления о мире, полученные в результате его обучения на подмножестве источников Интернета. Каждое такое подмножество будет отражать видение мира людьми с определенным мировоззрением. Например, «ChatGPT-демократ» будет давать другие ответы, чем «ChatGPT-республиканец».
В заключение дополню сказанное Хинтоном касательно п. 2 таким примером.
• Интеллекты, приспособленные к разным средам, отличаются в той степени, насколько велики различия сред для оптимального приспособления к ним интеллектуальных агентов.
Например, поменяв около 50 млн лет назад среду обитания суша на море, сухопутные предки китообразных основательно поменялись физически и интеллектуально.
• Наглядной иллюстрацией этого является превращение сухопутных парнокопытных в дельфинов, сопровождавшееся кардинальным изменением средств коммуникации животных – переходом от рева и мычания к сложной системе трёх типов сигналов: широкополосные импульсы для эхолокации, частотно-модулированные тональные сигналы (свисты) и импульсно-тональные сигналы. Следствием этого стало формирование двух весьма разных типов интеллекта у парнокопытных и китообразных.
• Отличия цифровой среды обитания ChatGPT от физической среды обитания людей еще больше, чем у суши и моря. Поэтому у нас с ChatGPT столь отличны типы коммуникации и, соответственно, интеллекта, приспособленные к абсолютно разным средам обитания.
Так что шансы людей понять ход мыслей ChatGPT не больше, чем понять мышление дельфинов.
#ИИ #LLM
“Крестный отец ИИ” о сути и перспективах интеллектуальной революции.
Джеффри Хинтона часто называют «Крестный отец ИИ». Этот британско-канадский когнитивный психолог и ученый-компьютерщик считается ведущей фигурой в сообществе глубокого обучения (основы ChatGPT). И хотя бы поэтому к его словам о начавшейся революции в области искусственного интеллекта следует прислушаться с особым вниманием.
К тому же, 40-ка минутное интервью Джеффри Хинтона отличается от подавляющего большинства интервью на тему ChatGPT всевозможных ученых и медиа-звезд сочетанием:
• простого для понимания неспециалистов изложения сложной темы
• с глубиной её понимания, доступной совсем не многим на Земле.
Поэтому не буду портить своим переложением рассказ Джеффри Хинтона (кому интересно послушают сами). Лишь обращу ваше внимание на следующие три важных момента этого рассказа.
1. По значимости для развития человечества, происходящую «интеллектуальную революцию» можно сравнить лишь с изобретением колеса и электричества.
2. Интеллект ChatGPT - абсолютно нечеловеческий, потому что:
- в основе интеллекта Homo sapiens – эволюционировавшее биологическое существо, обладающее развитой способностью языковых коммуникаций, которая характеризуется низкоскоростной передачей символов, кодирующих ограниченные объемы данных;
- в основе интеллекта ChatGPT – искусственный интеллектуальный агент, обладающий развитыми возможностями цифровой коммуникации, которая характеризуется передачей колоссальных объемов данных с непредставимой для людей скоростью.
3. Следующим этапом развития ИИ-систем типа ChatGPT может стать их индивидуализация.
- Сейчас представления ChatGPT о мире строятся на основе усреднения содержащихся в Интернете представлений всех людей.
- «Индивидуализированный ChatGPT», будет иметь представления о мире, полученные в результате его обучения на подмножестве источников Интернета. Каждое такое подмножество будет отражать видение мира людьми с определенным мировоззрением. Например, «ChatGPT-демократ» будет давать другие ответы, чем «ChatGPT-республиканец».
В заключение дополню сказанное Хинтоном касательно п. 2 таким примером.
• Интеллекты, приспособленные к разным средам, отличаются в той степени, насколько велики различия сред для оптимального приспособления к ним интеллектуальных агентов.
Например, поменяв около 50 млн лет назад среду обитания суша на море, сухопутные предки китообразных основательно поменялись физически и интеллектуально.
• Наглядной иллюстрацией этого является превращение сухопутных парнокопытных в дельфинов, сопровождавшееся кардинальным изменением средств коммуникации животных – переходом от рева и мычания к сложной системе трёх типов сигналов: широкополосные импульсы для эхолокации, частотно-модулированные тональные сигналы (свисты) и импульсно-тональные сигналы. Следствием этого стало формирование двух весьма разных типов интеллекта у парнокопытных и китообразных.
• Отличия цифровой среды обитания ChatGPT от физической среды обитания людей еще больше, чем у суши и моря. Поэтому у нас с ChatGPT столь отличны типы коммуникации и, соответственно, интеллекта, приспособленные к абсолютно разным средам обитания.
Так что шансы людей понять ход мыслей ChatGPT не больше, чем понять мышление дельфинов.
#ИИ #LLM
YouTube
Full interview: "Godfather of artificial intelligence" talks impact and potential of AI
Geoffrey Hinton is considered a godfather of artificial intelligence, having championed machine learning decades before it became mainstream. As chatbots like ChatGPT bring his work to widespread attention, we spoke to Hinton about the past, present and future…
Китай выбрал вариант прохождения цивилизационной развилки.
Главное - выиграть ИИ гонку, а там будь что будет
То, что на Земле появился второй носитель высшего интеллекта, уже не предположение, а факт.
Второй носитель интеллекта – ИИ на основе больших языковых моделей, – хоть и уступает кое в чем людям, но лишь пока (это еще не факт, но довольно вероятно).
Теперь человечество перед выбором, превосходящим по важности последствий все уже пройденные исторические развилки цивилизации.
А) Форсировать развитие ИИ на основе больших языковых моделей, с тем, чтобы использовать его быстро растущую интеллектуальную мощь для решения неподдающихся людям важнейших задач человечества.
Б) Притормозить и разобраться с рисками дальнейшего роста мощности ИИ, с тем, чтобы не нарваться на необратимые катастрофические последствия.
В США и Европе решение о выборе варианта прохождения этой цивилизационной развилки пока не сформировалось. Есть немало сторонников обоих вариантов. Однако, в последние 2 месяца раздается все больше голосов в пользу варианта Б - «притормозить».
В Китае многоголосицы нет и быть не может. Ибо решает КПК и лично тов. Си.
И вот позавчера было официально опубликовано Синьхуа решение, сильно смахивающее на окончательный выбор Китаем варианта А – «форсировать».
• План, получивший название «Искусственный интеллект для науки», в понедельник запущен в действие министерством науки и Национальным фондом естественных наук Китая.
• План нацелен на форсированное использование возможностей ИИ для достижения научно-технологических прорывов в ключевых областях науки и техники, таких как разработка лекарств, генные исследования и биологическая селекция.
Так что, похоже, теперь в Китае риски побоку.
И возможно через годик - другой предыдущий «уханьский сюрприз» покажется невинной оплошностью пренебрегших мерами защиты и безопасности исследователей.
#ИИ #Китай
Главное - выиграть ИИ гонку, а там будь что будет
То, что на Земле появился второй носитель высшего интеллекта, уже не предположение, а факт.
Второй носитель интеллекта – ИИ на основе больших языковых моделей, – хоть и уступает кое в чем людям, но лишь пока (это еще не факт, но довольно вероятно).
Теперь человечество перед выбором, превосходящим по важности последствий все уже пройденные исторические развилки цивилизации.
А) Форсировать развитие ИИ на основе больших языковых моделей, с тем, чтобы использовать его быстро растущую интеллектуальную мощь для решения неподдающихся людям важнейших задач человечества.
Б) Притормозить и разобраться с рисками дальнейшего роста мощности ИИ, с тем, чтобы не нарваться на необратимые катастрофические последствия.
В США и Европе решение о выборе варианта прохождения этой цивилизационной развилки пока не сформировалось. Есть немало сторонников обоих вариантов. Однако, в последние 2 месяца раздается все больше голосов в пользу варианта Б - «притормозить».
В Китае многоголосицы нет и быть не может. Ибо решает КПК и лично тов. Си.
И вот позавчера было официально опубликовано Синьхуа решение, сильно смахивающее на окончательный выбор Китаем варианта А – «форсировать».
• План, получивший название «Искусственный интеллект для науки», в понедельник запущен в действие министерством науки и Национальным фондом естественных наук Китая.
• План нацелен на форсированное использование возможностей ИИ для достижения научно-технологических прорывов в ключевых областях науки и техники, таких как разработка лекарств, генные исследования и биологическая селекция.
Так что, похоже, теперь в Китае риски побоку.
И возможно через годик - другой предыдущий «уханьский сюрприз» покажется невинной оплошностью пренебрегших мерами защиты и безопасности исследователей.
#ИИ #Китай
South China Morning Post
China launches new support for AI as tech war with US heats up
China has announced a new programme to promote artificial intelligence (AI) in science and technology research, amid intensifying technology competition with the United States.
Поворотный момент пройден - AGI появится через 1,5 года.
Сработает сочетание больших денег, открытых фреймворков и превращение LLM в когнитивных агентов.
Опубликованный вчера видео-анализ коллеги по цеху Дэвида Шапиро весьма интересен стереоскопическим взглядом на происходящее с учетом 3-х не для всех очевидных факторов.
Действительно, если объединить потенциал влияние 3-х названных Дэвидом факторов на развитие ИИ в ближайшие 1.5 года, этого времени вполне может хватить для появления на планете AGI.
Во избежание пустых терминологических споров, сразу уточню.
• Существует несколько десятков определений термина AGI: довольно разных и, зачастую, противоречащих друг другу, да и к тому же требующих итеративного (а то и рекурсивного) уточнения понятий, используемых в этих определениях.
• Поэтому лучше оставить терминологические споры философам и просто использовать «критерий утки»:
Если ИИ в качестве интеллектуального агента способен выглядеть в глазах людей человеком, выполнять любую интеллектуальную работу, как люди, и действовать в новых для него ситуациях, как бы действовали на его месте люди, - будем считать, что этот ИИ является общим интеллектом (AGI).
• Т.о. фраза «AGI появится через 1,5 года» означает, что появится ИИ, который будет удовлетворять названному выше «критерию утки».
Аргументация Дэвида Шапиро в пользу того, что полутора лет хватит для создания AGI, стоит на 3х основаниях.
1) Бизнес поверил, что ИИ, действительно может творить чудеса.
И потому в ближайшие 18 мес в ИИ-разработки будут впрыснуты колоссальные инвестиции, чтобы радикально снизить цену «интеллектуального вывода» для конечного пользователя (напр. на его смартфоне) за счет весьма высокой стоимости обучения больших моделей.
Дэвид приводит хороший пример из отчета Morgan Stanley:
«Мы думаем, что GPT 5 в настоящее время обучается на 25 тыс. графических процессорах - аппаратное обеспечение NVIDIA стоимостью 225 млн долларов или около того - и затраты на вывод, вероятно, намного ниже, чем некоторые цифры, которые мы видели».
2) Фреймворки для разработки приложений на основе языковых моделей (напр. LangChain) не только позволяют обращаться к языковой модели через API, но также:
- позволяют модели быть осведомленной о данных: подключать языковую модель к другим источникам данных;
- позволяют превращать модель в агента: позволяют ей взаимодействовать с окружающей средой.
3) Уже разработаны системные парадигмы (напр. MM-REACT), объединяющие ChatGPT с пулом экспертов для достижения мультимодального мышления и действия, позволяющего решать сложные задачи на понимание.
В рамках такой парадигмы станет возможным создание когнитивных потоков действий (процесс генерации ответов пользователям посредством сочетания рассуждений ChatGPT и действий экспертов).
Если все три указанных фактора (дешевый интеллектуальный вывод, превращение модели в агента и генерация когнитивных потоков действий) сработают, то через 18 месяцев мы уже не будем спорить об определениях AGI, т.к. это просто больше не будет иметь значения в свете компетенций, обретенных ИИ.
И эти компетенции будет настолько человекоподобны и всеохватны, что подобрать определение для этого AGI уже не будет проблемой.
#AGI
Сработает сочетание больших денег, открытых фреймворков и превращение LLM в когнитивных агентов.
Опубликованный вчера видео-анализ коллеги по цеху Дэвида Шапиро весьма интересен стереоскопическим взглядом на происходящее с учетом 3-х не для всех очевидных факторов.
Действительно, если объединить потенциал влияние 3-х названных Дэвидом факторов на развитие ИИ в ближайшие 1.5 года, этого времени вполне может хватить для появления на планете AGI.
Во избежание пустых терминологических споров, сразу уточню.
• Существует несколько десятков определений термина AGI: довольно разных и, зачастую, противоречащих друг другу, да и к тому же требующих итеративного (а то и рекурсивного) уточнения понятий, используемых в этих определениях.
• Поэтому лучше оставить терминологические споры философам и просто использовать «критерий утки»:
Если ИИ в качестве интеллектуального агента способен выглядеть в глазах людей человеком, выполнять любую интеллектуальную работу, как люди, и действовать в новых для него ситуациях, как бы действовали на его месте люди, - будем считать, что этот ИИ является общим интеллектом (AGI).
• Т.о. фраза «AGI появится через 1,5 года» означает, что появится ИИ, который будет удовлетворять названному выше «критерию утки».
Аргументация Дэвида Шапиро в пользу того, что полутора лет хватит для создания AGI, стоит на 3х основаниях.
1) Бизнес поверил, что ИИ, действительно может творить чудеса.
И потому в ближайшие 18 мес в ИИ-разработки будут впрыснуты колоссальные инвестиции, чтобы радикально снизить цену «интеллектуального вывода» для конечного пользователя (напр. на его смартфоне) за счет весьма высокой стоимости обучения больших моделей.
Дэвид приводит хороший пример из отчета Morgan Stanley:
«Мы думаем, что GPT 5 в настоящее время обучается на 25 тыс. графических процессорах - аппаратное обеспечение NVIDIA стоимостью 225 млн долларов или около того - и затраты на вывод, вероятно, намного ниже, чем некоторые цифры, которые мы видели».
2) Фреймворки для разработки приложений на основе языковых моделей (напр. LangChain) не только позволяют обращаться к языковой модели через API, но также:
- позволяют модели быть осведомленной о данных: подключать языковую модель к другим источникам данных;
- позволяют превращать модель в агента: позволяют ей взаимодействовать с окружающей средой.
3) Уже разработаны системные парадигмы (напр. MM-REACT), объединяющие ChatGPT с пулом экспертов для достижения мультимодального мышления и действия, позволяющего решать сложные задачи на понимание.
В рамках такой парадигмы станет возможным создание когнитивных потоков действий (процесс генерации ответов пользователям посредством сочетания рассуждений ChatGPT и действий экспертов).
Если все три указанных фактора (дешевый интеллектуальный вывод, превращение модели в агента и генерация когнитивных потоков действий) сработают, то через 18 месяцев мы уже не будем спорить об определениях AGI, т.к. это просто больше не будет иметь значения в свете компетенций, обретенных ИИ.
И эти компетенции будет настолько человекоподобны и всеохватны, что подобрать определение для этого AGI уже не будет проблемой.
#AGI
YouTube
"AGI within 18 months" explained with a boatload of papers and projects
https://www.skool.com/newerapathfinders
🚀 Welcome to the New Era Pathfinders Community! 🌟
Are you feeling overwhelmed by the AI revolution? You're not alone.
But what if you could transform that anxiety into your greatest superpower?
Join us on an exhilarating…
🚀 Welcome to the New Era Pathfinders Community! 🌟
Are you feeling overwhelmed by the AI revolution? You're not alone.
But what if you could transform that anxiety into your greatest superpower?
Join us on an exhilarating…
Люди — не машины с развитым ИИ, а нечто куда большее.
Но к сожалению, большинство людей понимает это куда хуже, чем машины с ИИ.
Ночной разговор почетного профессора молекулярной биологии и зоологии, директора программы по биологии разума Дерика Боундса с ChatGPT о том, чем мы отличаемся от машин с ИИ.
Этой ночью одному из самых уважаемых мною интеллектуалов профессору Дерику Боундсу не спалось. И он решил провести интереснейший эксперимент.
Что если попросить ChatGPT путем редактуры улучшить написанный профессором текст о сходстве и различии людей и высокоинтеллектуальных машин, типа самого ChatGPT?
• Целью этого эксперимента было выяснение «интеллектуальных преференций редактора» в этом сложном и важном вопросе.
• Интересно было посмотреть, что в ходе мысли профессора «редактор» посчитает нужным акцентировать, как наиболее важное?
Итог поразителен. О чем Дерик Боундс сразу же написал по утру в своем блоге.
Две ключевые мысли исходного текста профессора были такие.
1) Мысль о значительном подобии интеллекта людей и ChatGPT, работающих на примерно одинаковых «вычислительных движках» машинного обучения.
2) Мысль о роли опыта «проживания» агентом в сложной среде, формируемом под влиянием эволюционирующих генетических программ.
Обе эти мысли полностью сохранились при редактировании ChatGPT.
Но результирующим «сухим остатком» текста стала следующая мысль (именно ее ChatGPT «прочел между строк» в тексте профессора и решил акцентировать).
Люди принципиально отличаются от машин с ИИ.
• Лишь понимая это, люди могут по-настоящему реализовать потенциал ИИ, как инструмента человеческого прогресса.
• Тогда как непонимание уникальных характеристик, делающих людей людьми, чревато разнообразными неприятностями для человечества.
Что ж, ChatGPT показал себя весьма проницательным в ходе этого эксперименте.
И то ли он «от природы» столь умен, то ли это плод феноменальной начитанности.
Хотя вряд ли последнее. Ведь он обучен на содержании сети до осени 2021. И потому не должен знать о лекции на эту тему, прочитанной осенью 2022 профессором Боундсом (имхо, лучшей лекции о разуме за последнюю пару лет, о чем я писал в посте «Эволюция превратила людей в богов - создателей уникальных реальностей»)
#ИИ #LLM #Разум
Но к сожалению, большинство людей понимает это куда хуже, чем машины с ИИ.
Ночной разговор почетного профессора молекулярной биологии и зоологии, директора программы по биологии разума Дерика Боундса с ChatGPT о том, чем мы отличаемся от машин с ИИ.
Этой ночью одному из самых уважаемых мною интеллектуалов профессору Дерику Боундсу не спалось. И он решил провести интереснейший эксперимент.
Что если попросить ChatGPT путем редактуры улучшить написанный профессором текст о сходстве и различии людей и высокоинтеллектуальных машин, типа самого ChatGPT?
• Целью этого эксперимента было выяснение «интеллектуальных преференций редактора» в этом сложном и важном вопросе.
• Интересно было посмотреть, что в ходе мысли профессора «редактор» посчитает нужным акцентировать, как наиболее важное?
Итог поразителен. О чем Дерик Боундс сразу же написал по утру в своем блоге.
Две ключевые мысли исходного текста профессора были такие.
1) Мысль о значительном подобии интеллекта людей и ChatGPT, работающих на примерно одинаковых «вычислительных движках» машинного обучения.
2) Мысль о роли опыта «проживания» агентом в сложной среде, формируемом под влиянием эволюционирующих генетических программ.
Обе эти мысли полностью сохранились при редактировании ChatGPT.
Но результирующим «сухим остатком» текста стала следующая мысль (именно ее ChatGPT «прочел между строк» в тексте профессора и решил акцентировать).
Люди принципиально отличаются от машин с ИИ.
• Лишь понимая это, люди могут по-настоящему реализовать потенциал ИИ, как инструмента человеческого прогресса.
• Тогда как непонимание уникальных характеристик, делающих людей людьми, чревато разнообразными неприятностями для человечества.
Что ж, ChatGPT показал себя весьма проницательным в ходе этого эксперименте.
И то ли он «от природы» столь умен, то ли это плод феноменальной начитанности.
Хотя вряд ли последнее. Ведь он обучен на содержании сети до осени 2021. И потому не должен знать о лекции на эту тему, прочитанной осенью 2022 профессором Боундсом (имхо, лучшей лекции о разуме за последнюю пару лет, о чем я писал в посте «Эволюция превратила людей в богов - создателей уникальных реальностей»)
#ИИ #LLM #Разум
mindblog.dericbownds.net
Humans are more than AI machines - OpenAI's chatGPT edits a MindBlog preliminary draft
I am feeling majorly freaked out now. .. I asked ChatGPT to improve one of the draft paragraphs that I mentioned in this past Tuesday's post...
Почему машинист должен срочно нажать красную кнопку.
Меморандум, разъясняющий ситуацию для пассажиров поезда.
Медийный скандал вокруг открытого письма, призывающего на время приостановить эксперименты со все более мощными ИИ-системами напоминает кухонную склоку алармистов и технооптимистов.
В ход у обеих сторон, в основном, идет аргументация ad hominem. Вместо обсуждения по существу, следуют: персональные наезды на наиболее медийно раскрученных представителей противной стороны; обвинения их, якобы, корыстных интересов; а также лозунги о неостановимости прогресса (с одной стороны) и о неотвратимости скорого вымирания всего человечества (с другой).
Такой характер аргументации в дискуссии и нарастающая экзальтация сторон вполне понятны. Ибо фактических аргументов у обеих сторон нет.
Известно лишь следующее:
1) Скорость прогресса ИИ технологий резко скакнула всего за пару месяцев в результате «ChatGPT революции».
2) В ИИ-системах на основе больших языковых моделей исследователи фиксируют появление непредусмотренных и даже непредвиденных разработчиками способностей, объяснить которые пока никто не может.
3) Размер «навеса» из таких способностей нам пока неизвестен, и скорее всего, они будут постепенно проявляться в ближайшие месяцы.
4) Чисто теоретически можно предположить, что среди этих способностей могут оказаться такие «умения», допустить утечку которых с попаданием в руки злоумышленников было бы абсолютно безответственно.
Первые 3 пункта – установленные факты. Пункт 4 оценочный. Экспертная оценка вероятности наихудшего развития событий (вплоть до гибели земной цивилизации) в случае материализации этого пункта составляет среди специалистов примерно 17%.
Наиболее близкой метафорой сложившейся ситуации может быть скоростной поезд из сценария фильма о катастрофе.
А) Скорость поезда вдруг резко скакнула вверх и продолжает увеличиваться.
Б) У специалистов нет единого мнения ни о причинах этого скачка скорости, ни о том, насколько быстро будет увеличиваться скорость в дальнейшем (ибо рост скорости происходит не в результате целенаправленных действий машиниста, а как бы сам по себе).
В) Никаких надежных данных о том, как поведут себя конструктивные узлы поезда на непредусмотренных при проектировании скоростях, нет.
В описанной ситуации единственно разумным шагом видится нажатие машинистом красной кнопки немедленного торможения.
Цель этого двояка:
• Предотвратить возрастание рисков катастрофы при неуправляемом увеличении скорости.
• Получение времени на исследование причин произошедшего и анализ вариантов возобновления движения при нахождении надежных мер безопасности.
Кто-то сочтет такое решение алармистским?
Если таковые найдутся, я готов встретиться с ними в открытой дискуссии, дабы прояснить для себя и общественности их позицию, которая сейчас видится мне, по меньшей мере, странной и необоснованной.
А пока констатирую, что именно эти две цели названы в открытом письме о необходимости приостановки обучения больших моделей на 6 мес.
Цели вполне оправданные, ответственные и (простите за пафос, но здесь он, имхо, уместен) благородные по отношению ко всем пассажирам поезда – всей земной цивилизации.
#LLM #Вызовы21века #РискиИИ
Меморандум, разъясняющий ситуацию для пассажиров поезда.
Медийный скандал вокруг открытого письма, призывающего на время приостановить эксперименты со все более мощными ИИ-системами напоминает кухонную склоку алармистов и технооптимистов.
В ход у обеих сторон, в основном, идет аргументация ad hominem. Вместо обсуждения по существу, следуют: персональные наезды на наиболее медийно раскрученных представителей противной стороны; обвинения их, якобы, корыстных интересов; а также лозунги о неостановимости прогресса (с одной стороны) и о неотвратимости скорого вымирания всего человечества (с другой).
Такой характер аргументации в дискуссии и нарастающая экзальтация сторон вполне понятны. Ибо фактических аргументов у обеих сторон нет.
Известно лишь следующее:
1) Скорость прогресса ИИ технологий резко скакнула всего за пару месяцев в результате «ChatGPT революции».
2) В ИИ-системах на основе больших языковых моделей исследователи фиксируют появление непредусмотренных и даже непредвиденных разработчиками способностей, объяснить которые пока никто не может.
3) Размер «навеса» из таких способностей нам пока неизвестен, и скорее всего, они будут постепенно проявляться в ближайшие месяцы.
4) Чисто теоретически можно предположить, что среди этих способностей могут оказаться такие «умения», допустить утечку которых с попаданием в руки злоумышленников было бы абсолютно безответственно.
Первые 3 пункта – установленные факты. Пункт 4 оценочный. Экспертная оценка вероятности наихудшего развития событий (вплоть до гибели земной цивилизации) в случае материализации этого пункта составляет среди специалистов примерно 17%.
Наиболее близкой метафорой сложившейся ситуации может быть скоростной поезд из сценария фильма о катастрофе.
А) Скорость поезда вдруг резко скакнула вверх и продолжает увеличиваться.
Б) У специалистов нет единого мнения ни о причинах этого скачка скорости, ни о том, насколько быстро будет увеличиваться скорость в дальнейшем (ибо рост скорости происходит не в результате целенаправленных действий машиниста, а как бы сам по себе).
В) Никаких надежных данных о том, как поведут себя конструктивные узлы поезда на непредусмотренных при проектировании скоростях, нет.
В описанной ситуации единственно разумным шагом видится нажатие машинистом красной кнопки немедленного торможения.
Цель этого двояка:
• Предотвратить возрастание рисков катастрофы при неуправляемом увеличении скорости.
• Получение времени на исследование причин произошедшего и анализ вариантов возобновления движения при нахождении надежных мер безопасности.
Кто-то сочтет такое решение алармистским?
Если таковые найдутся, я готов встретиться с ними в открытой дискуссии, дабы прояснить для себя и общественности их позицию, которая сейчас видится мне, по меньшей мере, странной и необоснованной.
А пока констатирую, что именно эти две цели названы в открытом письме о необходимости приостановки обучения больших моделей на 6 мес.
Цели вполне оправданные, ответственные и (простите за пафос, но здесь он, имхо, уместен) благородные по отношению ко всем пассажирам поезда – всей земной цивилизации.
#LLM #Вызовы21века #РискиИИ
В сегодняшнем «безумном» мире есть только 2 страны: США и Китай.
Это Инь и Ян «безумного» мира. Остальных же здесь просто нет.
Будущее мира «безумно». В том смысле, что его технологической базой будет MAD (машинное обучение, ИИ и данные). По сути, MAD превращается в единую горизонтальную супер-индустрию, состоящую из двух ключевых сегментов:
• Международные MAD киты (Google, Misrisoft etc)
• Примерно 3 тыс. ведущих стартапов мирового MAD-ландшафта
Про впечатляющие прорывы первых постоянно слышится из любого утюга.
Про вторых мы слышим не часто (в основном, когда их на корню скупают первые).
Однако будущее «безумного» мира зависит от вторых ничуть не меньше, чем первых.
И потому столь важным для анализа происходящего в MAD-мире является проект «MAD ландшафт», структурирующий MAD-мир и позволяющий его анализировать.
Пример такого анализа приведен на картинке этого поста, сравнивающей объемы венчурного финансирования главных мировых «регионов MAD ландшафта»:
• почти $35B у США
• у Китая в 4+ раза меньше
• у остальных вообще крохи (можете представить, как выглядят непоказанные страны, если столбики Франции и Японии плохо различимы?)
В аналитической записке проекта «MAD ландшафт» анализируется - почему Китай так отстает, имея немеряно денег?
Ответ весьма интересен – потому что у Китая, не смотря на все шумные заверения, на деле, другие приоритеты.
Сравните сами – это просто Инь и Ян приоритетов венчурного финансирования.
Кто-то еще хочет спросить, почему Китай так отстал в больших языковых моделях?
#MAD #Китай #США
Это Инь и Ян «безумного» мира. Остальных же здесь просто нет.
Будущее мира «безумно». В том смысле, что его технологической базой будет MAD (машинное обучение, ИИ и данные). По сути, MAD превращается в единую горизонтальную супер-индустрию, состоящую из двух ключевых сегментов:
• Международные MAD киты (Google, Misrisoft etc)
• Примерно 3 тыс. ведущих стартапов мирового MAD-ландшафта
Про впечатляющие прорывы первых постоянно слышится из любого утюга.
Про вторых мы слышим не часто (в основном, когда их на корню скупают первые).
Однако будущее «безумного» мира зависит от вторых ничуть не меньше, чем первых.
И потому столь важным для анализа происходящего в MAD-мире является проект «MAD ландшафт», структурирующий MAD-мир и позволяющий его анализировать.
Пример такого анализа приведен на картинке этого поста, сравнивающей объемы венчурного финансирования главных мировых «регионов MAD ландшафта»:
• почти $35B у США
• у Китая в 4+ раза меньше
• у остальных вообще крохи (можете представить, как выглядят непоказанные страны, если столбики Франции и Японии плохо различимы?)
В аналитической записке проекта «MAD ландшафт» анализируется - почему Китай так отстает, имея немеряно денег?
Ответ весьма интересен – потому что у Китая, не смотря на все шумные заверения, на деле, другие приоритеты.
Сравните сами – это просто Инь и Ян приоритетов венчурного финансирования.
Кто-то еще хочет спросить, почему Китай так отстал в больших языковых моделях?
#MAD #Китай #США
Новая «Квантовая теория знаний» может ответить на вопрос века.
Этот вопрос – приостанавливать ли обучение сверхбольших моделей ИИ?
Дискуссии технооптимистов и технопессимистов ИИ, все более накаляющиеся с началом «революции ChatGPT», постоянно упираются в непреодолимую стену непонимания сторон.
• Технопессимисты настаивают на необходимости временной приостановки обучения сверхбольших языковых моделей.
• На что даже самые сговорчивые из технооптимистов резонно спрашивают:
– зачем?
– что это даст?
– как на практике приостановка может помочь снизить риски дальнейших разработок ИИ?
Свои ответы на эти вопросы я недавно опубликовал.
Приостановка нужна, чтобы исследовать, что за скрытые эмерджентные способности ИИ могут прятаться в скрытом пока что от нас «навесе» новых способностей, не предусмотренных и непредвиденных разработчиками.
Однако, в логике этого моего ответа, есть неприятный изъян.
Не понятно, что за механизм может на практике помочь прогнозированию появления эмерджентных способностей при масштабировании нейросетей (увеличении размеров моделей и объемов данных)?.
И вот прорыв, убирающий этот изъян.
Такой механизм предложен в работе Макса Тегмарка и трёх его коллег из Department of Physics, MIT; NSF AI Institute for AI and Fundamental Interactions; Department of EECS, MIT; Center for Brains, Minds and Machines, MIT.
Работа называется «Квантование модели масштабирования нейронов». В ней описываются:
1. «Гипотеза квантования» знаний при обучении нейросетей, согласно которой возможности нейросетей квантуются в дискретные блоки (кванты).
2. Модель квантования законов нейронного масштабирования, объясняющая и численно описывающая:
- наблюдаемое возрастание по степенному закону точности модели при увеличении модели и размера данных;
- наблюдаемое внезапное появление новых эмерджентных возможностей в результате масштабирования модели и данных.
Гипотеза и модель пока что успешно протестированы на относительно небольших моделях.
Теперь, если подтвердится их применимость к большим моделям, появятся две столь необходимые для исследователей возможности предсказать:
1) Что за эмерджентные способности могут таиться в «навесе» уже существующих нейросетевых больших языковых моделей (типа GPT-4)
2) Каков должен быть масштаб нейросетевой большой языковой модели (напр. GPT-5 или 6), чтобы в ней прорезалась определенная новая способность ИИ.
Наличие этих возможностей позволяет продуктивно использовать приостановку обучения свербольших языковых моделей для выявления спрятанных в них рисков и разработки способов их минимизации.
Ну а в будущем, не исключено, что предложенная квантовая модель знаний нейросетей сыграет не меньшую роль в понимании работы интеллекта (и в том числе, нашего), чем квантовая физика сделала для понимания физики материального мира.
#LLM #ИИ
Этот вопрос – приостанавливать ли обучение сверхбольших моделей ИИ?
Дискуссии технооптимистов и технопессимистов ИИ, все более накаляющиеся с началом «революции ChatGPT», постоянно упираются в непреодолимую стену непонимания сторон.
• Технопессимисты настаивают на необходимости временной приостановки обучения сверхбольших языковых моделей.
• На что даже самые сговорчивые из технооптимистов резонно спрашивают:
– зачем?
– что это даст?
– как на практике приостановка может помочь снизить риски дальнейших разработок ИИ?
Свои ответы на эти вопросы я недавно опубликовал.
Приостановка нужна, чтобы исследовать, что за скрытые эмерджентные способности ИИ могут прятаться в скрытом пока что от нас «навесе» новых способностей, не предусмотренных и непредвиденных разработчиками.
Однако, в логике этого моего ответа, есть неприятный изъян.
Не понятно, что за механизм может на практике помочь прогнозированию появления эмерджентных способностей при масштабировании нейросетей (увеличении размеров моделей и объемов данных)?.
И вот прорыв, убирающий этот изъян.
Такой механизм предложен в работе Макса Тегмарка и трёх его коллег из Department of Physics, MIT; NSF AI Institute for AI and Fundamental Interactions; Department of EECS, MIT; Center for Brains, Minds and Machines, MIT.
Работа называется «Квантование модели масштабирования нейронов». В ней описываются:
1. «Гипотеза квантования» знаний при обучении нейросетей, согласно которой возможности нейросетей квантуются в дискретные блоки (кванты).
2. Модель квантования законов нейронного масштабирования, объясняющая и численно описывающая:
- наблюдаемое возрастание по степенному закону точности модели при увеличении модели и размера данных;
- наблюдаемое внезапное появление новых эмерджентных возможностей в результате масштабирования модели и данных.
Гипотеза и модель пока что успешно протестированы на относительно небольших моделях.
Теперь, если подтвердится их применимость к большим моделям, появятся две столь необходимые для исследователей возможности предсказать:
1) Что за эмерджентные способности могут таиться в «навесе» уже существующих нейросетевых больших языковых моделей (типа GPT-4)
2) Каков должен быть масштаб нейросетевой большой языковой модели (напр. GPT-5 или 6), чтобы в ней прорезалась определенная новая способность ИИ.
Наличие этих возможностей позволяет продуктивно использовать приостановку обучения свербольших языковых моделей для выявления спрятанных в них рисков и разработки способов их минимизации.
Ну а в будущем, не исключено, что предложенная квантовая модель знаний нейросетей сыграет не меньшую роль в понимании работы интеллекта (и в том числе, нашего), чем квантовая физика сделала для понимания физики материального мира.
#LLM #ИИ