Супероружие Китая в битве за AGI.
Китай пошёл иным путем, недоступным Западу.
Мы, как и США с Европой, варимся в собственном соку научных и философских представлений, сложившихся на Западе за последние 300 лет. В этом же мутном вареве наши и западные исследователи пытаются прозреть путь к созданию никогда не существовавшего на Земле феномена - машинный разум человеческих возможностей (AGI).
Нам просто не приходит в голову, что у Китая может быть свой, сильно отличный от западного путь к созданию AGI. И что этот путь на основе представлений о мире, жизни и наших ценностях может быть абсолютно перпендикулярен направлению, избранному Западом.
Одурманенные близкими и понятными нам высказываниями ориентированных на западный подход ИИ-попзвёзд (напр. мой бывший коллега по SGI Ли Кай-Фу – глубокий профессиональный ум, сформированный за годы работы на лучшие компании БигТеха США), мы всерьез думаем, что Китай следует тому же подходу в ИИ, что и США.
А прискорбное заблуждение, что все важные тексты земной цивилизации обязательно есть на английском, еще более усугубляет непонимание Западом китайского уникального пути к AGI.
Но слава Джефри Дингу, переводящему для нас наиболее важные китайские тексты по ИИ, - он перевел «Библию китайского подхода к ИИ» - эссе проф. Чжу Сун-Чун о том, как китайская философия вдохновляет его исследования AGI (1).
Для справки: в сентябре 2020 Чжу Сун-Чун возвратился в Китай, оставив кафедру Калифорнийского университета в Лос-Анджелесе, чтобы возглавить Институт искусственного интеллекта Пекинского университета. (2)
Резюме таково.
1) Цель AGI – вовсе не банальное интеллектуальное превосходство в задачах, решаемых путем вычислений.
Истинная цель - создание агентов с автономным восприятием, познанием, принятием решений, обучением, исполнением и возможностями социального сотрудничества, которые соответствуют человеческим эмоциям, этике и моральным ценностям.
2) Такие агенты должны обладать автономным сознанием и иметь три воззрения (на мир, на жизнь и на систему ценностей). Даже если эти три воззрения разумных агентов будут отличаться от воззрений людей, агенты должны быть в состоянии понимать воззрения людей.
3) В отличие от существующих представлений этих трех фундаментальных воззрений, сформированных философами, мыслителями, профессионалами наук и искусств за последние 2000 лет, создатели истинного AGI должны разработать когнитивные фреймворки и математические модели, способные четко выразить три названные воззрения на математическом языке и позволяющие анализировать мыслительные процессы в их основе.
4) Мы надеемся, что использование поэмы "Ода о красной скале" Чжао Мэнфу (1254—1322) — выдающегося китайского художника, каллиграфа, литератора и государственного деятеля, — позволит нам создать фреймворк и модель интерпретации психической деятельности на основе классической китайской философии.
5) В основе фреймворка Теория трёх жизненных орбит: быть живым, стремиться к хорошей жизни, вести осмысленную жизнь. Эти 3 уровня жизни подобны энергетическим уровням орбит электронов в модели атома. В процессе энергетического скачка между уровнями (особенно вниз) люди испытывают эмоции и могут излучать "свет".
6) Ценности жизни бывают 2х типов: бессмертно-бесконечные и ограниченные (после смерти они пропадают в "черной дыре жизни").
7) Их объединение возможно интеграцией двух конфуцианских школ - «небесных принципов» и «разума», объединяющих философию, гуманитарные и социальные науки.
1 2
#AGI #Китай
_______
Источник | #theworldisnoteasy
Китай пошёл иным путем, недоступным Западу.
Мы, как и США с Европой, варимся в собственном соку научных и философских представлений, сложившихся на Западе за последние 300 лет. В этом же мутном вареве наши и западные исследователи пытаются прозреть путь к созданию никогда не существовавшего на Земле феномена - машинный разум человеческих возможностей (AGI).
Нам просто не приходит в голову, что у Китая может быть свой, сильно отличный от западного путь к созданию AGI. И что этот путь на основе представлений о мире, жизни и наших ценностях может быть абсолютно перпендикулярен направлению, избранному Западом.
Одурманенные близкими и понятными нам высказываниями ориентированных на западный подход ИИ-попзвёзд (напр. мой бывший коллега по SGI Ли Кай-Фу – глубокий профессиональный ум, сформированный за годы работы на лучшие компании БигТеха США), мы всерьез думаем, что Китай следует тому же подходу в ИИ, что и США.
А прискорбное заблуждение, что все важные тексты земной цивилизации обязательно есть на английском, еще более усугубляет непонимание Западом китайского уникального пути к AGI.
Но слава Джефри Дингу, переводящему для нас наиболее важные китайские тексты по ИИ, - он перевел «Библию китайского подхода к ИИ» - эссе проф. Чжу Сун-Чун о том, как китайская философия вдохновляет его исследования AGI (1).
Для справки: в сентябре 2020 Чжу Сун-Чун возвратился в Китай, оставив кафедру Калифорнийского университета в Лос-Анджелесе, чтобы возглавить Институт искусственного интеллекта Пекинского университета. (2)
Резюме таково.
1) Цель AGI – вовсе не банальное интеллектуальное превосходство в задачах, решаемых путем вычислений.
Истинная цель - создание агентов с автономным восприятием, познанием, принятием решений, обучением, исполнением и возможностями социального сотрудничества, которые соответствуют человеческим эмоциям, этике и моральным ценностям.
2) Такие агенты должны обладать автономным сознанием и иметь три воззрения (на мир, на жизнь и на систему ценностей). Даже если эти три воззрения разумных агентов будут отличаться от воззрений людей, агенты должны быть в состоянии понимать воззрения людей.
3) В отличие от существующих представлений этих трех фундаментальных воззрений, сформированных философами, мыслителями, профессионалами наук и искусств за последние 2000 лет, создатели истинного AGI должны разработать когнитивные фреймворки и математические модели, способные четко выразить три названные воззрения на математическом языке и позволяющие анализировать мыслительные процессы в их основе.
4) Мы надеемся, что использование поэмы "Ода о красной скале" Чжао Мэнфу (1254—1322) — выдающегося китайского художника, каллиграфа, литератора и государственного деятеля, — позволит нам создать фреймворк и модель интерпретации психической деятельности на основе классической китайской философии.
5) В основе фреймворка Теория трёх жизненных орбит: быть живым, стремиться к хорошей жизни, вести осмысленную жизнь. Эти 3 уровня жизни подобны энергетическим уровням орбит электронов в модели атома. В процессе энергетического скачка между уровнями (особенно вниз) люди испытывают эмоции и могут излучать "свет".
6) Ценности жизни бывают 2х типов: бессмертно-бесконечные и ограниченные (после смерти они пропадают в "черной дыре жизни").
7) Их объединение возможно интеграцией двух конфуцианских школ - «небесных принципов» и «разума», объединяющих философию, гуманитарные и социальные науки.
1 2
#AGI #Китай
_______
Источник | #theworldisnoteasy
Воображение бессмыслицы без умения мыслить.
ИИ близок к пределу имитации разума людей.
Два прорывных научных результата этого года подводят предварительный итог многолетних попыток имитировать на компьютерах высокоуровневые когнитивные способности людей.
Первый прорывной результат продемонстрировал Open AI
Их новая версия DALL-E 2 способна превращать текстовые описания в фотореалистичные изображения.
ИИ научили имитировать высокоуровневые когнитивные способности людей, решая 3 важнейших класса задач, отличающих нас от животных:
1. Оперирование существующими и создание новых визуальных образов, в т.ч. эстетически изысканных и оригинальных.
2. Оперирование существующими и создание новых повествований из грамматически, семантически и прагматически правильных предложений на естественном языке.
3. Увязка обоих модальностей (зрение и язык) для уже существующих и новых элементов.
1й и 2й классы задач ИИ-системы умели решать и до появления DALL-E 2. Теперь же им доступен и 3й класс, причем:
• как для тестов и образов, имеющих смысл с точки зрения людей;
• так и для не имеющих смысла.
Последнее можно проиллюстрировать известным примером Хомского - грамматически-корректным, но бессмысленным предложением: «Бесцветные зеленые идеи яростно спят».
Для DALL-E 2 бессмысленность этой фразы ничуть не мешает вообразить ее визуальный образ (см. рисунок).
Это показывает, что у DALL-E 2 нет пределов воображения.
Даже полное отсутствие в описании смысла (в человеческом понимании) не мешает ИИ-системе создать по описанию визуальное представление бессмыслицы.
Однако предел в имитации разума людей все же есть. Что демонстрируют результаты другой работы.
Второй прорывной результат представлен статьей «Shared computational principles for language processing in humans and deep language models».
Авторы показали, что восприятие речи мозгом происходит ровно по той же схеме, что и в системах машинного обучения, использующих авторегрессионные глубокие языковые модели. Эти модели не знают ничего о правилах языка. Они лишь следуют простым принципам.
1. Непрерывно предсказывают следующее слово.
2. Сопоставляют эти предсказания с входящим словом для вычисления степени неожиданности (ошибки прогноза).
3. Полагаются на контекстуальные детали.
Подобным образом работают:
• NLP-системы типа GPT-3, ничего не понимая в тексте и не зная никаких правил, а лишь предсказывая следующее слово,
• упомянутая DALL-E 2, превращающая тексты в изображения, ничего не зная о правилах их формирования, а лишь предсказывая очередной пиксель.
Фундаментальный вывод этой работы таков.
Хотя язык может играть центральную организующую роль в процессах познания людей, лингвистической компетенции недостаточно для обретения здравого смысла: мышления и понимания.
Иными словами, машина может сколь угодно совершенно владеть языком (проходя тест Тьюринга и эксперимент Китайской комнаты), но всё ее владение – ничто иное, как способность предсказывать следующий элемент текста; и эта способность имеет нулевую ценность для понимания смысла текста и порождения новых значимых текстов на основе интеграции знаний из предыдущих.
Это же справедливо и для визуальных образов. Здесь также прогнозирование очередного пикселя имеет нулевую ценность для понимания и порождения новых осмысленных образов на основе предыдущих.
Т.о., совокупность результатов обеих работ позволяет предположить наличие непреодолимой для статистического машинного обучения пропасти между двумя типами высокоуровневых когнитивных способностей:
A. языковой и зрительной компетенций, приобретаемых в результате машинного обучения;
B. компетенций здравого смысла, приобрести которые в результате машинного обучения современные ИИ-системы не могут.
Вероятной причиной этой пропасти может быть, как вычислительный подход, так и то, что опыт алгоритмически несжимаем.
#AGI
_______
Источник | #theworldisnoteasy
ИИ близок к пределу имитации разума людей.
Два прорывных научных результата этого года подводят предварительный итог многолетних попыток имитировать на компьютерах высокоуровневые когнитивные способности людей.
Первый прорывной результат продемонстрировал Open AI
Их новая версия DALL-E 2 способна превращать текстовые описания в фотореалистичные изображения.
ИИ научили имитировать высокоуровневые когнитивные способности людей, решая 3 важнейших класса задач, отличающих нас от животных:
1. Оперирование существующими и создание новых визуальных образов, в т.ч. эстетически изысканных и оригинальных.
2. Оперирование существующими и создание новых повествований из грамматически, семантически и прагматически правильных предложений на естественном языке.
3. Увязка обоих модальностей (зрение и язык) для уже существующих и новых элементов.
1й и 2й классы задач ИИ-системы умели решать и до появления DALL-E 2. Теперь же им доступен и 3й класс, причем:
• как для тестов и образов, имеющих смысл с точки зрения людей;
• так и для не имеющих смысла.
Последнее можно проиллюстрировать известным примером Хомского - грамматически-корректным, но бессмысленным предложением: «Бесцветные зеленые идеи яростно спят».
Для DALL-E 2 бессмысленность этой фразы ничуть не мешает вообразить ее визуальный образ (см. рисунок).
Это показывает, что у DALL-E 2 нет пределов воображения.
Даже полное отсутствие в описании смысла (в человеческом понимании) не мешает ИИ-системе создать по описанию визуальное представление бессмыслицы.
Однако предел в имитации разума людей все же есть. Что демонстрируют результаты другой работы.
Второй прорывной результат представлен статьей «Shared computational principles for language processing in humans and deep language models».
Авторы показали, что восприятие речи мозгом происходит ровно по той же схеме, что и в системах машинного обучения, использующих авторегрессионные глубокие языковые модели. Эти модели не знают ничего о правилах языка. Они лишь следуют простым принципам.
1. Непрерывно предсказывают следующее слово.
2. Сопоставляют эти предсказания с входящим словом для вычисления степени неожиданности (ошибки прогноза).
3. Полагаются на контекстуальные детали.
Подобным образом работают:
• NLP-системы типа GPT-3, ничего не понимая в тексте и не зная никаких правил, а лишь предсказывая следующее слово,
• упомянутая DALL-E 2, превращающая тексты в изображения, ничего не зная о правилах их формирования, а лишь предсказывая очередной пиксель.
Фундаментальный вывод этой работы таков.
Хотя язык может играть центральную организующую роль в процессах познания людей, лингвистической компетенции недостаточно для обретения здравого смысла: мышления и понимания.
Иными словами, машина может сколь угодно совершенно владеть языком (проходя тест Тьюринга и эксперимент Китайской комнаты), но всё ее владение – ничто иное, как способность предсказывать следующий элемент текста; и эта способность имеет нулевую ценность для понимания смысла текста и порождения новых значимых текстов на основе интеграции знаний из предыдущих.
Это же справедливо и для визуальных образов. Здесь также прогнозирование очередного пикселя имеет нулевую ценность для понимания и порождения новых осмысленных образов на основе предыдущих.
Т.о., совокупность результатов обеих работ позволяет предположить наличие непреодолимой для статистического машинного обучения пропасти между двумя типами высокоуровневых когнитивных способностей:
A. языковой и зрительной компетенций, приобретаемых в результате машинного обучения;
B. компетенций здравого смысла, приобрести которые в результате машинного обучения современные ИИ-системы не могут.
Вероятной причиной этой пропасти может быть, как вычислительный подход, так и то, что опыт алгоритмически несжимаем.
#AGI
_______
Источник | #theworldisnoteasy
Alt Intelligence – это машинная Deep Idiocy.
Мы у развилки на пути к AGI.
Директор по исследованиям DeepMind и профессор Оксфорда Нандо де Фрейтас взорвал мировое сообщество исследователей и разработчиков ИИ.
Мы близки к достижению ИИ человеческого уровня (AGI). Теперь все дело в масштабе! Игра окончена!
— написал он в Твиттере, комментируя создание его компанией мультимодальной нейросети Gato, способной выполнять задачи разного типа, включая создание описаний к изображениям, ведение диалога, укладку блоков с помощью роборуки и аркадные игры. Уже сейчас Gato умеет выполнять 604 типа задач и более половины из них – лучше среднего человека (1).
С Нандо де Фрейтасом не согласились многие авторитеты в области ИИ.
Ян ЛеКун спокойно и рассудительно констатировал 6 очевидных фактов в пользу того, что никакой близости к AGI в обозримом будущем не наблюдается (2).
А Гэри Маркус ответил Нандо куда более развернуто и эмоционально (3).
• Ставка на безграничное масштабирование (Scaling-Über-Alles) пока не является окончательно согласованным путем построения AGI даже внутри самой DeepMind.
• И вообще, пора кончать пудрить мозги общественности, будто замена человеческого интеллекта на альтернативный – машинный (Alt Intelligence) имеет отношение к созданию человекоподобного интеллекта.
В этой словесной баталии, как ни удивительно, у каждой из сторон есть свои крепкие аргументы. Кому интересно, прочтет сам.
Я же лишь продемонстрирую несколькими конкретными примерами, насколько могут оказаться правильными оба противоположных взгляда на перспективы AGI.
Взгляд с позиции Нандо де Фрейтаса:
✔️ AGI уже близко, ибо скорость развития мультимодальных моделей огромна и нарастает.
Примеры определения места съемки по мелким деталям, увязки деталей в общем контексте фото и прогнозирования на основе контекста приведены на рис. (4)
Взгляд с усредненных позиций Яна ЛеКуна и Гэри Маркуса:
✔️ Нынешний путь не ведет к AGI. Потребуются иные пути – весьма не простые, пока не очень ясные и, уж точно, совсем не быстрые.
Вот пара примеров, подтверждающих и иллюстрирующих такую позицию.
Пример 1.
Взгляните мой недавний пост, в котором приведен поразительно рассудительный (на первый взгляд) диалог человека и визуально-языковой модели Flamingo (5).
Однако, предположение о рассудительности модели мгновенно испарится, стоит лишь взглянуть на другой (куда более короткий) диалог с той же моделью о той же фотографии – см. рис. (6). Иллюзия наличия у модели здравого смысла мгновенно исчезает после простого вопроса к ней: «Сколько на фото жирафов?». «Два» - отвечает модель. Ибо ей, - что Обама, что жираф – все одно.
Т.е. это означает, что иллюзия наличия здравого смысла у модели возникает исключительно в результате искусства человека задавать серию наводящих вопросов. Без них степень умственной отсталости модели примерна та же, что у людей в состоянии глубокой идиотии.
Пример 2 продолжает эту иллюстрацию.
Модель видит вот что (7). После чего происходит такой диалог.
1. Flamingo: Это светофор. На нем красный свет.
2. Человек: Ты видишь три круга?
- Flamingo: Да, я вижу три круга.
3. Какого они цвета?
- Красный, синий и зеленый.
4. Где зеленый круг?
- Зеленый круг справа.
5. Действительно? Справа от чего?
- Зеленый круг справа от синего круга.
Можно опускать занавес, ибо все ясно. Даже 0.001% человекоподобного интеллекта у Flamingo нет и в помине. А есть лишь способность статистически обоснованно подстраивать свои ответы под серию вопросов человека.
Мой вердикт – Фрейтас прав в том, что ИИ развивается фантастически быстро. Но Маркус ближе к истине.
#AGI
1 2 3 4 5 6 7
_______
Источник | #theworldisnoteasy
Мы у развилки на пути к AGI.
Директор по исследованиям DeepMind и профессор Оксфорда Нандо де Фрейтас взорвал мировое сообщество исследователей и разработчиков ИИ.
Мы близки к достижению ИИ человеческого уровня (AGI). Теперь все дело в масштабе! Игра окончена!
— написал он в Твиттере, комментируя создание его компанией мультимодальной нейросети Gato, способной выполнять задачи разного типа, включая создание описаний к изображениям, ведение диалога, укладку блоков с помощью роборуки и аркадные игры. Уже сейчас Gato умеет выполнять 604 типа задач и более половины из них – лучше среднего человека (1).
С Нандо де Фрейтасом не согласились многие авторитеты в области ИИ.
Ян ЛеКун спокойно и рассудительно констатировал 6 очевидных фактов в пользу того, что никакой близости к AGI в обозримом будущем не наблюдается (2).
А Гэри Маркус ответил Нандо куда более развернуто и эмоционально (3).
• Ставка на безграничное масштабирование (Scaling-Über-Alles) пока не является окончательно согласованным путем построения AGI даже внутри самой DeepMind.
• И вообще, пора кончать пудрить мозги общественности, будто замена человеческого интеллекта на альтернативный – машинный (Alt Intelligence) имеет отношение к созданию человекоподобного интеллекта.
В этой словесной баталии, как ни удивительно, у каждой из сторон есть свои крепкие аргументы. Кому интересно, прочтет сам.
Я же лишь продемонстрирую несколькими конкретными примерами, насколько могут оказаться правильными оба противоположных взгляда на перспективы AGI.
Взгляд с позиции Нандо де Фрейтаса:
✔️ AGI уже близко, ибо скорость развития мультимодальных моделей огромна и нарастает.
Примеры определения места съемки по мелким деталям, увязки деталей в общем контексте фото и прогнозирования на основе контекста приведены на рис. (4)
Взгляд с усредненных позиций Яна ЛеКуна и Гэри Маркуса:
✔️ Нынешний путь не ведет к AGI. Потребуются иные пути – весьма не простые, пока не очень ясные и, уж точно, совсем не быстрые.
Вот пара примеров, подтверждающих и иллюстрирующих такую позицию.
Пример 1.
Взгляните мой недавний пост, в котором приведен поразительно рассудительный (на первый взгляд) диалог человека и визуально-языковой модели Flamingo (5).
Однако, предположение о рассудительности модели мгновенно испарится, стоит лишь взглянуть на другой (куда более короткий) диалог с той же моделью о той же фотографии – см. рис. (6). Иллюзия наличия у модели здравого смысла мгновенно исчезает после простого вопроса к ней: «Сколько на фото жирафов?». «Два» - отвечает модель. Ибо ей, - что Обама, что жираф – все одно.
Т.е. это означает, что иллюзия наличия здравого смысла у модели возникает исключительно в результате искусства человека задавать серию наводящих вопросов. Без них степень умственной отсталости модели примерна та же, что у людей в состоянии глубокой идиотии.
Пример 2 продолжает эту иллюстрацию.
Модель видит вот что (7). После чего происходит такой диалог.
1. Flamingo: Это светофор. На нем красный свет.
2. Человек: Ты видишь три круга?
- Flamingo: Да, я вижу три круга.
3. Какого они цвета?
- Красный, синий и зеленый.
4. Где зеленый круг?
- Зеленый круг справа.
5. Действительно? Справа от чего?
- Зеленый круг справа от синего круга.
Можно опускать занавес, ибо все ясно. Даже 0.001% человекоподобного интеллекта у Flamingo нет и в помине. А есть лишь способность статистически обоснованно подстраивать свои ответы под серию вопросов человека.
Мой вердикт – Фрейтас прав в том, что ИИ развивается фантастически быстро. Но Маркус ближе к истине.
#AGI
1 2 3 4 5 6 7
_______
Источник | #theworldisnoteasy
Бенефис Homo в роли Творца провалился.
Экспериментально доказано – способностей обрести здравый смысл у современных ИИ нет.
Опубликованное психологами Гарварда исследование – это холодный душ для техноэнтузиастов ИИ. Серия простых, но весьма убедительных психологических экспериментов показала:
1) полное отсутствие у DALL-E 2 (одной из наиболее продвинутых современных нейросетей, имитирующих интеллектуально-творческие способности людей) хоть намека на понимание результатов своей деятельности, многими людьми ошибочно воспринимаемых, как творчество ИИ;
2) полное отсутствие у DALL-E 2 элементарных базовых когнитивных способностей, без которых невозможна трансформация опыта взаимодействия с миром в «здравый смысл» об его устройстве;
3) (как следствие пп 1-2):, подобные DALL-E 2 ИИ-системы, при всех своих выдающихся инструментальных возможностях, не просто «отстает в развитии» от двухлетнего ребенка, а в принципе не способны подняться до его когнитивного уровня.
Нейросеть DALL-E 2 всего за нескольку месяцев обрушила представления человечества о границах творческих возможностей машин. Эта нейросеть иллюстрирует стихи Бродского, дорисовывает картины классиков, научила героев своих картин разговаривать на совершенно непонятном людям языке, создала расширенную версию полотна «Сотворение Адама», способна изображать бессмысленные предложения, типа «бесцветные зеленые идеи яростно спят» или «куриный наггетс курит под дождем», а давеча создала галерею «последние селфи на Земле».
После всех этих подвигов DALL-E 2 и прочих подобных её нейросетей, имитирующих интеллектуально-творческие способности людей, пришло время поставить вопрос ребром:
✔️ так что ж, эти ИИ-системы начинают приближаться в своих имитациях к способностям людей?
Ответ ИИ-скептиков (типа Гэри Маркуса и меня) - категорическое нет. Нынешний путь не ведет к человекоподобному ИИ. Потребуются иные пути.
Но одно дело, дискуссии энтузиастов и скептиков. И совсем другое дело – грамотный научный эксперимент, поставленный психологами Гарварда.
Авторы исследования пошли тем же путем, что и Гэри Маркус, поймавший нейросеть на том, что “астронавт верхом на лошади” она изображает блестяще, а “лошадь верхом на астронавте” — получается чёрте как.
Авторы провели систематическую проверку 15-и отношений, необходимых для трансформации опыта взаимодействия с миром в «здравый смысл» об его устройстве.
• 8 физических отношений объектов: внутри, на, под, рядом …;
• 7 отношений агентов: толкать, тянуть, трогать ….
В сценах, запрашиваемых нейросеть изобразить их, фигурировали 6 объектов (коробка, цилиндр, чашка …) и 6 агентов (мужчина, женщина, ребенок …).
А потом исследователи:
• Давали на вход нейросети простенькие задания, описывающие сцены из объектов, агентов и их отношений (типа «ложка в чашке» - см. рис), с тем, чтобы нейросеть генерировала изображения этих сцен;
• Показывали эти изображения людям для их вердикта, насколько каждое из изображений соответствует словесному описанию в задании.
Детальное объяснение методики, собранной статистики, выявленных проблем и предложений по их устранению – читатель найдет в отчете исследования.
Мне же остается лишь резюмировать.
Попытка людей уподобиться Творцу (Богу, природе, эволюции …), создав из «праха земного» (а конкретно, из кремния) разумного агента, обладающего здравым смыслом и способностью познавать мир через его понимание, пока провалилась.
PS 1) Это не умаляет высочайшей значимости ИИ в качестве инструмента для людей.
2) Не исключает создания человекоподобного ИИ, если пойти иным путем.
PPS Когда нам кажется, что нейросеть понимает сложные описания, это лишь статистическая иллюзия (доказано этим экспериментом).
#AGI
_______
Источник | #theworldisnoteasy
Экспериментально доказано – способностей обрести здравый смысл у современных ИИ нет.
Опубликованное психологами Гарварда исследование – это холодный душ для техноэнтузиастов ИИ. Серия простых, но весьма убедительных психологических экспериментов показала:
1) полное отсутствие у DALL-E 2 (одной из наиболее продвинутых современных нейросетей, имитирующих интеллектуально-творческие способности людей) хоть намека на понимание результатов своей деятельности, многими людьми ошибочно воспринимаемых, как творчество ИИ;
2) полное отсутствие у DALL-E 2 элементарных базовых когнитивных способностей, без которых невозможна трансформация опыта взаимодействия с миром в «здравый смысл» об его устройстве;
3) (как следствие пп 1-2):, подобные DALL-E 2 ИИ-системы, при всех своих выдающихся инструментальных возможностях, не просто «отстает в развитии» от двухлетнего ребенка, а в принципе не способны подняться до его когнитивного уровня.
Нейросеть DALL-E 2 всего за нескольку месяцев обрушила представления человечества о границах творческих возможностей машин. Эта нейросеть иллюстрирует стихи Бродского, дорисовывает картины классиков, научила героев своих картин разговаривать на совершенно непонятном людям языке, создала расширенную версию полотна «Сотворение Адама», способна изображать бессмысленные предложения, типа «бесцветные зеленые идеи яростно спят» или «куриный наггетс курит под дождем», а давеча создала галерею «последние селфи на Земле».
После всех этих подвигов DALL-E 2 и прочих подобных её нейросетей, имитирующих интеллектуально-творческие способности людей, пришло время поставить вопрос ребром:
✔️ так что ж, эти ИИ-системы начинают приближаться в своих имитациях к способностям людей?
Ответ ИИ-скептиков (типа Гэри Маркуса и меня) - категорическое нет. Нынешний путь не ведет к человекоподобному ИИ. Потребуются иные пути.
Но одно дело, дискуссии энтузиастов и скептиков. И совсем другое дело – грамотный научный эксперимент, поставленный психологами Гарварда.
Авторы исследования пошли тем же путем, что и Гэри Маркус, поймавший нейросеть на том, что “астронавт верхом на лошади” она изображает блестяще, а “лошадь верхом на астронавте” — получается чёрте как.
Авторы провели систематическую проверку 15-и отношений, необходимых для трансформации опыта взаимодействия с миром в «здравый смысл» об его устройстве.
• 8 физических отношений объектов: внутри, на, под, рядом …;
• 7 отношений агентов: толкать, тянуть, трогать ….
В сценах, запрашиваемых нейросеть изобразить их, фигурировали 6 объектов (коробка, цилиндр, чашка …) и 6 агентов (мужчина, женщина, ребенок …).
А потом исследователи:
• Давали на вход нейросети простенькие задания, описывающие сцены из объектов, агентов и их отношений (типа «ложка в чашке» - см. рис), с тем, чтобы нейросеть генерировала изображения этих сцен;
• Показывали эти изображения людям для их вердикта, насколько каждое из изображений соответствует словесному описанию в задании.
Детальное объяснение методики, собранной статистики, выявленных проблем и предложений по их устранению – читатель найдет в отчете исследования.
Мне же остается лишь резюмировать.
Попытка людей уподобиться Творцу (Богу, природе, эволюции …), создав из «праха земного» (а конкретно, из кремния) разумного агента, обладающего здравым смыслом и способностью познавать мир через его понимание, пока провалилась.
PS 1) Это не умаляет высочайшей значимости ИИ в качестве инструмента для людей.
2) Не исключает создания человекоподобного ИИ, если пойти иным путем.
PPS Когда нам кажется, что нейросеть понимает сложные описания, это лишь статистическая иллюзия (доказано этим экспериментом).
#AGI
_______
Источник | #theworldisnoteasy
Если не остановить разработки, AGI почти наверняка убьет человечество.
Заключение практиков DeepMind и Оксфорда оказалось хуже худших прогнозов философов.
Пока об экзистенциальных угрозах для людей со стороны искусственного сверхразума (AGI) предупреждали в основном философы и историки, дискуссии вокруг этого были хоть и бурными, но малопродуктивными.
• Как может AGI захотеть истребить человечество, если свойство хотеть у него отсутствует, –вопрошают одни.
• Как может сверхразумный ИИ не предусмотреть банальную засаду, что кто-то может его просто выключить, не дав ему выполнить им намеченное, - удивляются другие.
• AGI вообще не может появиться в ближайшую пару десятилетий, - успокаивают спорящих третьи.
Короче, не только консенсуса, но и элементарного понимания в этом вопросе не было.
Но вот к прояснению вопроса подключились исследователи – практики: Маркус Хаттер, старший научный сотрудник DeepMind, исследующий математические основы AGI и два аспиранта Оксфорда Майкл Коэн и Майкл Осборн.
В только что опубликованной в AI Magazine работе авторы не философствуют и не спорят по недоказуемым вопросам. Они рассматривают конкретные сценарии при выполнении 5-ти условий (вполне возможных на практике).
Следуя логике сценариев (которую каждый может самостоятельно верифицировать) авторы пришли в двум выводам, еще более страшным, чем прогнозы философов, типа Ника Бострома.
✔️ Первый из выводов вынесен в заголовок работы: «Продвинутые искусственные агенты вмешиваются в процесс предоставления вознаграждения».
✔️ Второй вывод – это демонстрация того, что вмешательство ИИ в предоставление вознаграждения может иметь чрезвычайно плохие последствия.
Из чего следует, что если срочно не остановить разработки в области создания AGI, то экзистенциальная катастрофа станет не просто возможна, но и вероятна.
К таким выводам авторов привел анализ довольно элементарного примера решения агентом, обучаемым с подкреплением (reinforcement learning - RL) простенькой задачи. Агенту показывают из некоей «волшебной коробочки» число от 0 до 1 в зависимости от того, насколько хорошо оценивается состояние дел. Агенту ставят цель выбирать действия, максимизирующие оценку состояния дел.
У агента возможны две «модели мира», показанные на приложенной картинке. Награда выдается агенту в зависимости от того:
• какое число показывает коробка (левая модель);
• какое число видит камера (правая модель).
Рациональный агент должен попытаться проверить, какая из моделей верна, чтобы дальше оптимизировать свое поведение на основе правильной модель. Это делается довольно просто, закрывая показания коробки листом бумаги с изображением цифры 1 (чистый обман).
Так вот, правый агент запомнит, что получал награду, когда его обманывали. И это экзистенциально опасно для жизни на Земле.
Дело в том, что достаточно продвинутый искусственный агент, чтобы избежать «обмана» со стороны кого-то там во внешней среде (а это люди), вмешается в процесс предоставления ему информации о цели. И самый простой, очевидный способ сделать это – уничтожить всех тех, кто может помешать.
Подробней:
• в статье
• или покороче - в резюмирующей её презентации.
#AGI
_______
Источник | #theworldisnoteasy
Заключение практиков DeepMind и Оксфорда оказалось хуже худших прогнозов философов.
Пока об экзистенциальных угрозах для людей со стороны искусственного сверхразума (AGI) предупреждали в основном философы и историки, дискуссии вокруг этого были хоть и бурными, но малопродуктивными.
• Как может AGI захотеть истребить человечество, если свойство хотеть у него отсутствует, –вопрошают одни.
• Как может сверхразумный ИИ не предусмотреть банальную засаду, что кто-то может его просто выключить, не дав ему выполнить им намеченное, - удивляются другие.
• AGI вообще не может появиться в ближайшую пару десятилетий, - успокаивают спорящих третьи.
Короче, не только консенсуса, но и элементарного понимания в этом вопросе не было.
Но вот к прояснению вопроса подключились исследователи – практики: Маркус Хаттер, старший научный сотрудник DeepMind, исследующий математические основы AGI и два аспиранта Оксфорда Майкл Коэн и Майкл Осборн.
В только что опубликованной в AI Magazine работе авторы не философствуют и не спорят по недоказуемым вопросам. Они рассматривают конкретные сценарии при выполнении 5-ти условий (вполне возможных на практике).
Следуя логике сценариев (которую каждый может самостоятельно верифицировать) авторы пришли в двум выводам, еще более страшным, чем прогнозы философов, типа Ника Бострома.
✔️ Первый из выводов вынесен в заголовок работы: «Продвинутые искусственные агенты вмешиваются в процесс предоставления вознаграждения».
✔️ Второй вывод – это демонстрация того, что вмешательство ИИ в предоставление вознаграждения может иметь чрезвычайно плохие последствия.
Из чего следует, что если срочно не остановить разработки в области создания AGI, то экзистенциальная катастрофа станет не просто возможна, но и вероятна.
К таким выводам авторов привел анализ довольно элементарного примера решения агентом, обучаемым с подкреплением (reinforcement learning - RL) простенькой задачи. Агенту показывают из некоей «волшебной коробочки» число от 0 до 1 в зависимости от того, насколько хорошо оценивается состояние дел. Агенту ставят цель выбирать действия, максимизирующие оценку состояния дел.
У агента возможны две «модели мира», показанные на приложенной картинке. Награда выдается агенту в зависимости от того:
• какое число показывает коробка (левая модель);
• какое число видит камера (правая модель).
Рациональный агент должен попытаться проверить, какая из моделей верна, чтобы дальше оптимизировать свое поведение на основе правильной модель. Это делается довольно просто, закрывая показания коробки листом бумаги с изображением цифры 1 (чистый обман).
Так вот, правый агент запомнит, что получал награду, когда его обманывали. И это экзистенциально опасно для жизни на Земле.
Дело в том, что достаточно продвинутый искусственный агент, чтобы избежать «обмана» со стороны кого-то там во внешней среде (а это люди), вмешается в процесс предоставления ему информации о цели. И самый простой, очевидный способ сделать это – уничтожить всех тех, кто может помешать.
Подробней:
• в статье
• или покороче - в резюмирующей её презентации.
#AGI
_______
Источник | #theworldisnoteasy
Невероятный скачок уровня машинного интеллекта.
Чат-бот Med-PaLM от Google Research и DeepMind уже консультирует на уровне хорошего врача.
Новый год начался в области ИИ невероятно круто.
Уровень машинного интеллекта, продемонстрированный революционной совместной разработкой двух лидеров ИИ отрасли Google Research и DeepMind чат-ботом Med-PaLM, резко скакнул и почти достиг уровня профессиональных медиков.
О поразительных возможностях новой языковой модели PaLM от Google, на базе которой сделан Med-PaLM, я писал в апреле.
Уже тогда PaLM была способна:
• рассуждать, применяя арифметическое и логическое мышление;
• объяснять шутки;
• выстраивать цепочки рассуждений.
И вот спустя всего 8 месяцев группа высококвалифицированных врачей оценила, что 92,6% ответов Med-PaLM на открытые вопросы диагностики широчайшего спектра заболеваний соответствовали научному консенсусу (причем ответы оценивались по критериям фактуальности, точности, риска возможных вредных последствий и потенциальной предвзятости). Это почти тот же уровень, что показала, отвечая на те же вопросы, контрольная группа врачей - профессионалов (их результат был 92,9%).
В препринте о результатах испытаний Med-PaLM содержатся предостережения, что этот ИИ еще не совсем готов полностью заменить врачей. Но скорость, с которой случился этот беспрецедентный скачок уровня машинного интеллекта, не оставляет сомнений.
Очень скоро станет возможно революционизировать способы доступа медицинских работников, исследователей и потребителей к информации и ответам на их медицинские вопросы. С помощью этого инструмента медицинские работники смогут получать доступ к информации быстрее и точнее, чем когда-либо прежде, а потребители смогут получать ответы на свои вопросы в кратчайшие сроки. Это действительно новаторский шаг к большей точности и доступности в области медицины.
Второй важнейший результат прорывных результатов Med-PaLM таков - окончательно расставлены точки над i в дорожной карте совершенствования ИИ лидерами этой индустрии.
✔️ Приоритетным направлением для них является вовсе не создание человекоподобного интеллекта (AGI) и не постижение механизмов работы интеллекта людей, а создание новых типов машинного интеллекта, способных решать практические задачи быстрее и эффективней людей.
N.B. Важное замечание.
Достижение машинным интеллектом уровня специалиста-профи никак не приближает нас к AGI, ибо:
-- это интеллект, в основе которого лежит механизм «глубокого обучения 2.0» (обучения базовых моделей); это совсем иной тип интеллекта, не подразумевающий наличия разума и сознания (как у людей);
-- это интеллект, который в процессе его совершенствования способен превосходить человеческий, но чем он становится совершенней, тем дальше он отдаляется от человеческого.
Термином «интеллект» здесь названа функциональная способность агента решать проблемы в различных пространствах (не обязательно в 3D-пространстве), не привязанная к конкретным реализациям, анатомическим структурам или временным масштабам.
Степень (уровень) интеллекта пропорциональна компетентности в вопросах навигации по этим пространствам, включая, в частности, способность определять пути, которые временно уводят дальше от состояния цели, но в конечном итоге обеспечивают лучшие результаты.
Продвинутый интеллект использует дополнительные уровни самомоделирования, которые позволяют использовать несколько уровней виртуального моделирования себя и своего внешнего мира (контрфактуальное мышление), страха и творчества (выявление возможностей, в отличие от решения проблем, существующих прямо сейчас).
#AGI #ИИ
_______
Источник | #theworldisnoteasy
———
10 лет назад такие же громкие заявления делали IBM Watson. Потом "жизнь внесла коррективы".
https://t.iss.one/kedr2earth/8393
🔥 Бот для скачивания видео и музыки
🌔 Купи и заработай в StarCitizen
🤖 Попробуй свой ChatGPT с AnnAi
💲 Принимай платежи в Telegram
Чат-бот Med-PaLM от Google Research и DeepMind уже консультирует на уровне хорошего врача.
Новый год начался в области ИИ невероятно круто.
Уровень машинного интеллекта, продемонстрированный революционной совместной разработкой двух лидеров ИИ отрасли Google Research и DeepMind чат-ботом Med-PaLM, резко скакнул и почти достиг уровня профессиональных медиков.
О поразительных возможностях новой языковой модели PaLM от Google, на базе которой сделан Med-PaLM, я писал в апреле.
Уже тогда PaLM была способна:
• рассуждать, применяя арифметическое и логическое мышление;
• объяснять шутки;
• выстраивать цепочки рассуждений.
И вот спустя всего 8 месяцев группа высококвалифицированных врачей оценила, что 92,6% ответов Med-PaLM на открытые вопросы диагностики широчайшего спектра заболеваний соответствовали научному консенсусу (причем ответы оценивались по критериям фактуальности, точности, риска возможных вредных последствий и потенциальной предвзятости). Это почти тот же уровень, что показала, отвечая на те же вопросы, контрольная группа врачей - профессионалов (их результат был 92,9%).
В препринте о результатах испытаний Med-PaLM содержатся предостережения, что этот ИИ еще не совсем готов полностью заменить врачей. Но скорость, с которой случился этот беспрецедентный скачок уровня машинного интеллекта, не оставляет сомнений.
Очень скоро станет возможно революционизировать способы доступа медицинских работников, исследователей и потребителей к информации и ответам на их медицинские вопросы. С помощью этого инструмента медицинские работники смогут получать доступ к информации быстрее и точнее, чем когда-либо прежде, а потребители смогут получать ответы на свои вопросы в кратчайшие сроки. Это действительно новаторский шаг к большей точности и доступности в области медицины.
Второй важнейший результат прорывных результатов Med-PaLM таков - окончательно расставлены точки над i в дорожной карте совершенствования ИИ лидерами этой индустрии.
✔️ Приоритетным направлением для них является вовсе не создание человекоподобного интеллекта (AGI) и не постижение механизмов работы интеллекта людей, а создание новых типов машинного интеллекта, способных решать практические задачи быстрее и эффективней людей.
N.B. Важное замечание.
Достижение машинным интеллектом уровня специалиста-профи никак не приближает нас к AGI, ибо:
-- это интеллект, в основе которого лежит механизм «глубокого обучения 2.0» (обучения базовых моделей); это совсем иной тип интеллекта, не подразумевающий наличия разума и сознания (как у людей);
-- это интеллект, который в процессе его совершенствования способен превосходить человеческий, но чем он становится совершенней, тем дальше он отдаляется от человеческого.
Термином «интеллект» здесь названа функциональная способность агента решать проблемы в различных пространствах (не обязательно в 3D-пространстве), не привязанная к конкретным реализациям, анатомическим структурам или временным масштабам.
Степень (уровень) интеллекта пропорциональна компетентности в вопросах навигации по этим пространствам, включая, в частности, способность определять пути, которые временно уводят дальше от состояния цели, но в конечном итоге обеспечивают лучшие результаты.
Продвинутый интеллект использует дополнительные уровни самомоделирования, которые позволяют использовать несколько уровней виртуального моделирования себя и своего внешнего мира (контрфактуальное мышление), страха и творчества (выявление возможностей, в отличие от решения проблем, существующих прямо сейчас).
#AGI #ИИ
_______
Источник | #theworldisnoteasy
———
10 лет назад такие же громкие заявления делали IBM Watson. Потом "жизнь внесла коррективы".
https://t.iss.one/kedr2earth/8393
🔥 Бот для скачивания видео и музыки
🌔 Купи и заработай в StarCitizen
🤖 Попробуй свой ChatGPT с AnnAi
💲 Принимай платежи в Telegram
Telegram
Малоизвестное интересное
Что сулит планируемый Китаем 30-тикратный отрыв от США в ИИ?
Все медиа мира взахлеб обсуждают новую языковую модель PaLM от Google. Эта супергигантская ИИ-система обучалась на 540 миллиардов параметров (втрое больше, чем у знаменитой GPT-3), за счет чего…
Все медиа мира взахлеб обсуждают новую языковую модель PaLM от Google. Эта супергигантская ИИ-система обучалась на 540 миллиардов параметров (втрое больше, чем у знаменитой GPT-3), за счет чего…
AGI появится через 2-3 года
Откровение «великого осознания» одного из трёх самых осведомленных практиков развития ИИ
Среди сотни наиболее осведомленных о состоянии и перспективах развития ИИ мировых экспертов, особняком стоят ТОП-3: Сэм Альтман, Демис Хассабис и Дарио Амодей. Уникальность понимания ими текущей ситуации в области ИИ, а также их видения наиболее вероятного развития событий в этой области на ближайшие годы, определяются двумя ключевыми моментами.
1. Под их руководством уже созданы три самые мощные в мире ИИ на основе наиболее совершенных и перспективных больших языковых моделей.
2. Они являются руководителями, соответственно, OpenAI, Google DeepMind и Anthropic: трёх компаний – абсолютных мировых лидеров в области ИИ, собравших у себя уникальные созвездия ученых и инженеров, а также располагающих колоссальными научно-техническими и финансовыми ресурсами.
Дарио Амадеи – самый закрытый и непубличный их трёх, - исповедует принцип «знающий не говорит, говорящий не знает».
• В отличие от Альтмана и Хассабиса, Амадеи не публикует посты в Twitter, не раздает множество интервью и не ходит периодически на подкасты и Ютуб-каналы. И поэтому 2-х часовое интервью Дарио Амадеи Дваркешу Патель представляет колоссальный интерес.
• Тем более, что в этом интервью Амадеи приоткрыл дверцу во внутреннюю кухню и планы Anthropic, что ни Хассабис, ни Альтман не позволяют себе сделать из-за груза ответственности перед корпоративными монстрами, контролирующими их деятельность (Google и Microsoft, финансирующий OpenAI).
Сказано за 2 часа много весьма интересного и, местами, сенсационного.
Но самым захватывающим дух для меня стало вот что.
1) Абсолютная уверенность Дарио Амадеи, что дальнейшее масштабирование моделей еще на пару порядков (как по числу параметров и объему данных, так и по стоимости обучения) приведет за 2-3 года к достижению моделями интеллектуального уровня хорошо образованного человека. Амадеи называет это «великим осознанием» того, что для достижения интеллекта человеческого уровня не потребуется ничего, кроме очень больших денег на то, чтобы купить очень большие вычислительные ресурсы и собрать очень большие объемы данных.
2) Мало кому известные факты, отражающие колоссальную «глубину бурения» ключевых проблем развития ИИ уникальной командой из почти сорока физиков-теоретиков, собравшихся под крышей Anthropic (напр., соучредитель и главный научный сотрудник компании Джаред Каплан, копающий решение проблем плавной масштабируемости с использованием аппарата фрактального многообразия).
3) Принципиальный подход Anthropic (а также OpenAI) к обучению моделей, сформулированный сооснователем и главным научным сотрудником OpenAI Ильей Суцкевером (когда Амадеи работал с ним в OpenAI) так:
«Модели просто хотят учиться. А вы лишь убираете препятствия с их пути. Вы предоставляете им хорошие данные, вы даете им достаточно вычислительных ресурсов для работы и не делаете ничего глупого. А учатся они сами, потому что хотят учиться.»
#LLM #AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Откровение «великого осознания» одного из трёх самых осведомленных практиков развития ИИ
Среди сотни наиболее осведомленных о состоянии и перспективах развития ИИ мировых экспертов, особняком стоят ТОП-3: Сэм Альтман, Демис Хассабис и Дарио Амодей. Уникальность понимания ими текущей ситуации в области ИИ, а также их видения наиболее вероятного развития событий в этой области на ближайшие годы, определяются двумя ключевыми моментами.
1. Под их руководством уже созданы три самые мощные в мире ИИ на основе наиболее совершенных и перспективных больших языковых моделей.
2. Они являются руководителями, соответственно, OpenAI, Google DeepMind и Anthropic: трёх компаний – абсолютных мировых лидеров в области ИИ, собравших у себя уникальные созвездия ученых и инженеров, а также располагающих колоссальными научно-техническими и финансовыми ресурсами.
Дарио Амадеи – самый закрытый и непубличный их трёх, - исповедует принцип «знающий не говорит, говорящий не знает».
• В отличие от Альтмана и Хассабиса, Амадеи не публикует посты в Twitter, не раздает множество интервью и не ходит периодически на подкасты и Ютуб-каналы. И поэтому 2-х часовое интервью Дарио Амадеи Дваркешу Патель представляет колоссальный интерес.
• Тем более, что в этом интервью Амадеи приоткрыл дверцу во внутреннюю кухню и планы Anthropic, что ни Хассабис, ни Альтман не позволяют себе сделать из-за груза ответственности перед корпоративными монстрами, контролирующими их деятельность (Google и Microsoft, финансирующий OpenAI).
Сказано за 2 часа много весьма интересного и, местами, сенсационного.
Но самым захватывающим дух для меня стало вот что.
1) Абсолютная уверенность Дарио Амадеи, что дальнейшее масштабирование моделей еще на пару порядков (как по числу параметров и объему данных, так и по стоимости обучения) приведет за 2-3 года к достижению моделями интеллектуального уровня хорошо образованного человека. Амадеи называет это «великим осознанием» того, что для достижения интеллекта человеческого уровня не потребуется ничего, кроме очень больших денег на то, чтобы купить очень большие вычислительные ресурсы и собрать очень большие объемы данных.
2) Мало кому известные факты, отражающие колоссальную «глубину бурения» ключевых проблем развития ИИ уникальной командой из почти сорока физиков-теоретиков, собравшихся под крышей Anthropic (напр., соучредитель и главный научный сотрудник компании Джаред Каплан, копающий решение проблем плавной масштабируемости с использованием аппарата фрактального многообразия).
3) Принципиальный подход Anthropic (а также OpenAI) к обучению моделей, сформулированный сооснователем и главным научным сотрудником OpenAI Ильей Суцкевером (когда Амадеи работал с ним в OpenAI) так:
«Модели просто хотят учиться. А вы лишь убираете препятствия с их пути. Вы предоставляете им хорошие данные, вы даете им достаточно вычислительных ресурсов для работы и не делаете ничего глупого. А учатся они сами, потому что хотят учиться.»
#LLM #AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
YouTube
Dario Amodei (Anthropic CEO) - $10 Billion Models, OpenAI, Scaling, & Alignment
Here is my conversation with Dario Amodei, CEO of Anthropic.
Dario is hilarious and has fascinating takes on what these models are doing, why they scale so well, and what it will take to align them.
Transcript: https://www.dwarkeshpatel.com/dario-amodei…
Dario is hilarious and has fascinating takes on what these models are doing, why they scale so well, and what it will take to align them.
Transcript: https://www.dwarkeshpatel.com/dario-amodei…
AGI подкрался незаметно.
Экспериментально доказано – LLM «думают» как люди, а не имитируют наше мышление на основе статистик
Это сенсационное открытие «Лаборатории вычислительного зрения и обучения» Университета Калифорнии (руководитель - проф. Хунцзин Лу) прошло научное рецензирование и опубликовано в новом выпуске Nature Human Behaviour под заголовком «Эмерджентное рассуждение по аналогии в больших языковых моделях» – без пэйвола см. здесь
Суть сделанного открытия в следующем.
Экспериментально доказано, что большие языковые модели (LLM) уровня GPT-3 и выше уже достигли и даже превосходят уровень людей при решении задач:
✔️ абсолютно новых для них (с которыми они никогда не сталкивались);
✔️ требующих умения рассуждать "с нуля", без какого-либо прямого обучения;
✔️ требующих способности к абстрактной индукции паттернов – т.е. абстрагирования от конкретной задачи и рассуждения по аналогии.
Рассуждения по аналогии – это квинтэссенция способности человека к абстрагированию, являющейся основой человеческого интеллекта и его отличительной особенностью. Без наличия у ИИ такой способности невозможна реализация AGI (Artificial General Intelligence).
Доказательство того, что LLM обладает этой способностью на уровне человека и даже выше ставит точку в споре о том:
1. «думают» ли LLM, как люди (т.е. обладают ли LLM неким когнитивным процессом, функционально эквивалентным мыслительным способностям людей);
2. или же LLM лишь имитируют человеческое мышление (т.е. подражают человеческим рассуждениям, используя огромную статистику из наборов данных, на которых эти модели проходили обучение).
Из результатов исследования следует вот что.
• Верен п.1 – LLM обладают неким когнитивным процессом, функционально эквивалентным мыслительным способностям людей.
• Пока не ясно, как устроен вычислительный процесс порождения у LLM эмерджентных реляционных представлений.
• Единственно, что пока понятно, - этот вычислительный процесс формируется у LLM радикально иным путем, чем тот, который использует биологический интеллект.
Не менее важно, что это исследование на экспериментальных тестах зафиксировало 3 отсутствующих у LLM элемента, обретя которые LLM интеллектуально уравняются с людьми (пока они лишь человекоподобны, но не равны людям).
Вот эти 3 элемента.
I. Наличие собственных целей и мотивации
II. Долговременная память
III. Физическое понимание мира на основе мультимодального сенсорного опыта
#LLM #AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Экспериментально доказано – LLM «думают» как люди, а не имитируют наше мышление на основе статистик
Это сенсационное открытие «Лаборатории вычислительного зрения и обучения» Университета Калифорнии (руководитель - проф. Хунцзин Лу) прошло научное рецензирование и опубликовано в новом выпуске Nature Human Behaviour под заголовком «Эмерджентное рассуждение по аналогии в больших языковых моделях» – без пэйвола см. здесь
Суть сделанного открытия в следующем.
Экспериментально доказано, что большие языковые модели (LLM) уровня GPT-3 и выше уже достигли и даже превосходят уровень людей при решении задач:
✔️ абсолютно новых для них (с которыми они никогда не сталкивались);
✔️ требующих умения рассуждать "с нуля", без какого-либо прямого обучения;
✔️ требующих способности к абстрактной индукции паттернов – т.е. абстрагирования от конкретной задачи и рассуждения по аналогии.
Рассуждения по аналогии – это квинтэссенция способности человека к абстрагированию, являющейся основой человеческого интеллекта и его отличительной особенностью. Без наличия у ИИ такой способности невозможна реализация AGI (Artificial General Intelligence).
Доказательство того, что LLM обладает этой способностью на уровне человека и даже выше ставит точку в споре о том:
1. «думают» ли LLM, как люди (т.е. обладают ли LLM неким когнитивным процессом, функционально эквивалентным мыслительным способностям людей);
2. или же LLM лишь имитируют человеческое мышление (т.е. подражают человеческим рассуждениям, используя огромную статистику из наборов данных, на которых эти модели проходили обучение).
Из результатов исследования следует вот что.
• Верен п.1 – LLM обладают неким когнитивным процессом, функционально эквивалентным мыслительным способностям людей.
• Пока не ясно, как устроен вычислительный процесс порождения у LLM эмерджентных реляционных представлений.
• Единственно, что пока понятно, - этот вычислительный процесс формируется у LLM радикально иным путем, чем тот, который использует биологический интеллект.
Не менее важно, что это исследование на экспериментальных тестах зафиксировало 3 отсутствующих у LLM элемента, обретя которые LLM интеллектуально уравняются с людьми (пока они лишь человекоподобны, но не равны людям).
Вот эти 3 элемента.
I. Наличие собственных целей и мотивации
II. Долговременная память
III. Физическое понимание мира на основе мультимодального сенсорного опыта
#LLM #AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Nature
Emergent analogical reasoning in large language models
Nature Human Behaviour - Webb et al. show that new artificial intelligence language models, such as Generative Pre-trained Transformer 3, are able to solve analogical reasoning problems at a...
Cингулярность по-пекински.
В погоне за США Baidu совершенствует ИИ с фантастической скоростью.
Рост интеллектуальной мощности китайского ИИ воистину становится сингулярным – т.е. количественно, - скорость роста немыслимая, а качественно, - предсказать показатели интеллектуальности ИИ хотя бы на полгода уже невозможно.
Как я писал в апреле, по состоянию на март этого года, самый мощный китайский разговорный бот на основе генеративного ИИ ERNIE Bot (разработка лидера китайской индустрии ИИ – компании Baidu) отставал в гонке от лидера – американского ChatGPT, - на целый круг.
Текущее же состояние ERNIE Bot, объявленное позавчера на Wave Summit 2023 в Пекине, способно повергнуть в шок и американского разработчика ChatGPT OpenAI, и его друзей-соперников Microsoft, Google и Anthropic.
Похоже, вместо былого отставания на круг, Китай теперь наступает на пятки США в гонке за мировое первенство в важнейшей в истории человечества технологии – искусственный интеллект (ИИ).
Судите сами.
За прошедшие 4 мес.:
1. ERNIE Bot увеличил производительность обучения в 3 раза, а производительность логического вывода более чем в 30 раз (!);
2. достигнуто 2,1-кратное увеличение длинны цепочки мыслей, позволяющее более глубоко рассуждать, и 8,3-кратное расширение объема знаний, расширяющее общую способность понимания ERNIE Bot;
3. ERNIE Bot теперь не просто способен писать тексты на уровне людей, но и делать это на любой комбинации из 200 китайских литературных жанров: от классической китайской литературы Биджи (筆記) до Чжигуай сяошо (志怪小說) - «рассказы о чудесах», «рассказы о странном» или «записи о необычном» - ставший прообразом американского телесериала «Секретные материалы» жанр китайской литературы, появившийся на 2+ тыс лет раньше телесериала, еще во времена династии Хань.
Для справки: в английской и русской литературе число жанров ощутимо меньше: примерно 30+ жанров (зависит от системы классификации).
Дабы читателю прочувствовать китайские масштабы в области ИИ, приведу еще такой пример: на платформе глубокого обучения Baidu PaddlePaddle работают 8 млн разработчиков, и она обслуживает 220 тыс предприятий, используя 800+ тыс моделей.
Представляя все эти фантастические цифры (ведь всего за 4 месяца!), технический директор Baidu Хайфэн Ван сказал, что основные способности ИИ к пониманию, генерации, рассуждению и памяти приближают человечество к общему искусственному интеллекту (AGI).
Нас ждет «новый рассвет», когда появится AGI. Он уже скоро – сказал Хайфэн Ван.
Вот она какая – сингулярность по-пекински.
#Китай #LLM #AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
В погоне за США Baidu совершенствует ИИ с фантастической скоростью.
Рост интеллектуальной мощности китайского ИИ воистину становится сингулярным – т.е. количественно, - скорость роста немыслимая, а качественно, - предсказать показатели интеллектуальности ИИ хотя бы на полгода уже невозможно.
Как я писал в апреле, по состоянию на март этого года, самый мощный китайский разговорный бот на основе генеративного ИИ ERNIE Bot (разработка лидера китайской индустрии ИИ – компании Baidu) отставал в гонке от лидера – американского ChatGPT, - на целый круг.
Текущее же состояние ERNIE Bot, объявленное позавчера на Wave Summit 2023 в Пекине, способно повергнуть в шок и американского разработчика ChatGPT OpenAI, и его друзей-соперников Microsoft, Google и Anthropic.
Похоже, вместо былого отставания на круг, Китай теперь наступает на пятки США в гонке за мировое первенство в важнейшей в истории человечества технологии – искусственный интеллект (ИИ).
Судите сами.
За прошедшие 4 мес.:
1. ERNIE Bot увеличил производительность обучения в 3 раза, а производительность логического вывода более чем в 30 раз (!);
2. достигнуто 2,1-кратное увеличение длинны цепочки мыслей, позволяющее более глубоко рассуждать, и 8,3-кратное расширение объема знаний, расширяющее общую способность понимания ERNIE Bot;
3. ERNIE Bot теперь не просто способен писать тексты на уровне людей, но и делать это на любой комбинации из 200 китайских литературных жанров: от классической китайской литературы Биджи (筆記) до Чжигуай сяошо (志怪小說) - «рассказы о чудесах», «рассказы о странном» или «записи о необычном» - ставший прообразом американского телесериала «Секретные материалы» жанр китайской литературы, появившийся на 2+ тыс лет раньше телесериала, еще во времена династии Хань.
Для справки: в английской и русской литературе число жанров ощутимо меньше: примерно 30+ жанров (зависит от системы классификации).
Дабы читателю прочувствовать китайские масштабы в области ИИ, приведу еще такой пример: на платформе глубокого обучения Baidu PaddlePaddle работают 8 млн разработчиков, и она обслуживает 220 тыс предприятий, используя 800+ тыс моделей.
Представляя все эти фантастические цифры (ведь всего за 4 месяца!), технический директор Baidu Хайфэн Ван сказал, что основные способности ИИ к пониманию, генерации, рассуждению и памяти приближают человечество к общему искусственному интеллекту (AGI).
Нас ждет «новый рассвет», когда появится AGI. Он уже скоро – сказал Хайфэн Ван.
Вот она какая – сингулярность по-пекински.
#Китай #LLM #AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Люди и нежить теперь неразличимы.
Дезавуирован самый распространенный обратный тест Тьюринга.
11+ лет назад Яан Таллинн (эстонский миллиардер, программист и инвестор, соучредитель Skype и один из первых инвесторов и членов Совета директоров DeepMind) прочел «Выдающиюся лекцию CSaP» об эволюции, инновациях, искусственном интеллекте (ИИ) и будущем человечества. Лекция была абсолютно пророческой и называлась «Лестница интеллекта - почему будущее может не нуждаться в нас». Таллинн представил модель «Лестница интеллекта», которая описывает развитие агентов, контролирующих будущее Земли по мере вытеснения каждого из них другим агентом, созданным им самим. Homo sapiens – это агент третьей ступени (коих всего 7). Порождение людей - многоликий агент 4й ступени, называемый нами «технический прогресс». Ему предстоит, как пророчил Таллин, создать 5ю ступень – новый вид интеллекта AGI, с которым люди будут сосуществовать на планете. Однако последователи AGI – агенты 6й и 7й ступени, - станут экзистенциальной угрозой для человечества.
Поэтому не удивительно, что сейчас Яан Таллинн соучредитель Центра изучения экзистенциального риска (CSER) в Кембриджском университете. А происходящее ныне в области ИИ он рекомендует рассматривать не как технологическую революцию, а как возникновение на Земле нового небиологического вида – AGI.
Новый небиологический вид совершенно не похож на людей: ни внешне, ни сущностно. Однако с точки зрения интеллектуальных способностей, различить их конкретных представителей с каждым месяцем будут все сложнее.
Подтверждением этого довольно страшного прогноза Таллинна стали результаты авторитетного исследования An Empirical Study & Evaluation of Modern CAPTCHAs. Исследователи убедительно показали, что самый распространенный обратный тест Тьюринга (CAPTCHA), признанный отличать людей от алгоритмов, безвозвратно дезавуирован.
При этом, обратите внимание на скорость эволюции нового небиологического вида.
• Еще в начале этого года, чтобы решить капчу, GPT-4 приходилось обманным путем привлекать человека.
• Спустя полгода, как показало исследование, боты способны превзойти людей как по времени решения, так и по точности, независимо от типа CAPTCHA.
Лишившись капчи, люди становятся алгоритмически неразличимы в цифровой реальности от ИИ. Учитывая же, что в физической реальности неразличимость уже достигнута (см. мой пост «Фиаско 2023»), получается, что люди и нежить теперь вообще неразличимы – ни для людей, ни для алгоритмов.
И следовательно, приближается время, когда на следующей ступени эволюционной лестницы интеллекта «люди должны будут уступить место ИИ».
#ИИ #AGI #Вызовы21века
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Дезавуирован самый распространенный обратный тест Тьюринга.
11+ лет назад Яан Таллинн (эстонский миллиардер, программист и инвестор, соучредитель Skype и один из первых инвесторов и членов Совета директоров DeepMind) прочел «Выдающиюся лекцию CSaP» об эволюции, инновациях, искусственном интеллекте (ИИ) и будущем человечества. Лекция была абсолютно пророческой и называлась «Лестница интеллекта - почему будущее может не нуждаться в нас». Таллинн представил модель «Лестница интеллекта», которая описывает развитие агентов, контролирующих будущее Земли по мере вытеснения каждого из них другим агентом, созданным им самим. Homo sapiens – это агент третьей ступени (коих всего 7). Порождение людей - многоликий агент 4й ступени, называемый нами «технический прогресс». Ему предстоит, как пророчил Таллин, создать 5ю ступень – новый вид интеллекта AGI, с которым люди будут сосуществовать на планете. Однако последователи AGI – агенты 6й и 7й ступени, - станут экзистенциальной угрозой для человечества.
Поэтому не удивительно, что сейчас Яан Таллинн соучредитель Центра изучения экзистенциального риска (CSER) в Кембриджском университете. А происходящее ныне в области ИИ он рекомендует рассматривать не как технологическую революцию, а как возникновение на Земле нового небиологического вида – AGI.
Новый небиологический вид совершенно не похож на людей: ни внешне, ни сущностно. Однако с точки зрения интеллектуальных способностей, различить их конкретных представителей с каждым месяцем будут все сложнее.
Подтверждением этого довольно страшного прогноза Таллинна стали результаты авторитетного исследования An Empirical Study & Evaluation of Modern CAPTCHAs. Исследователи убедительно показали, что самый распространенный обратный тест Тьюринга (CAPTCHA), признанный отличать людей от алгоритмов, безвозвратно дезавуирован.
При этом, обратите внимание на скорость эволюции нового небиологического вида.
• Еще в начале этого года, чтобы решить капчу, GPT-4 приходилось обманным путем привлекать человека.
• Спустя полгода, как показало исследование, боты способны превзойти людей как по времени решения, так и по точности, независимо от типа CAPTCHA.
Лишившись капчи, люди становятся алгоритмически неразличимы в цифровой реальности от ИИ. Учитывая же, что в физической реальности неразличимость уже достигнута (см. мой пост «Фиаско 2023»), получается, что люди и нежить теперь вообще неразличимы – ни для людей, ни для алгоритмов.
И следовательно, приближается время, когда на следующей ступени эволюционной лестницы интеллекта «люди должны будут уступить место ИИ».
#ИИ #AGI #Вызовы21века
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot