Малоизвестное интересное
67.8K subscribers
124 photos
1 video
11 files
1.83K links
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
Инаковость разума.
Что делает ИИ непохожим на нас, и почему это столь важно.

Часть 1: Бомж-интеллектуал – как ИИ превращает мусор в золото знаний.

Не реально стать олимпийским чемпионом, питаясь как бомж.

А можно ли, питаясь информацией откуда придется (правдивой и не очень, точной и не совсем), стать продвинутым интеллектуалом?
• Для человека, ответ – однозначно нет (ибо примеры такого отсутствуют).
• А для внечеловеческого разума больших языковых моделей (БЯМ), ответ – да запросто.

Можно ли, будучи слепым от рождения, стать известным художником?
• Для человека, ответ – определенно нет (пример Эшрефа Армагана – единственного за всю историю человечества от рождения слепого художника, – лишь исключение, подтверждающее правило).
• А для внечеловеческого разума БЯМ, ответ – да запросто.

Эти два отличия БЯМ от людей столь показательны и наглядны, что я решил использовать их в качестве демонстрационных кейсов кардинальной инаковости двух разумов.

Вы спросите – зачем?

А вот зачем.
✔️ Кейсов, демонстрирующих внешнее подобие (интеллектуальное и поведенческое) БЯМ и людей, сколько угодно и в академических и популярных источниках. Это разнообразные тесты (лингвистические, логические, творческие – для разных предметных областей и контекстов использования), призванные демонстрировать, насколько способности БЯМ приближаются к способностям людей.
✔️ Кейсы же, демонстрирующие кардинальную инаковость разума БЯМ и людей, найти куда сложнее.


Но такие кейсы необходимы для понимания глубины качественных отличий разума людей и БЯМ.
Без этого понимания невозможно избавиться от антропоморфизации БЯМ:
– ведущей к искажению трактовок оценок разумности БЯМ (как существующих, так и перспективных);
– сбивающей точность прицела при выборе дальнейшего направления разработок БЯМ.


Познакомиться с двумя демонстрационными кейсами кардинальной инаковости БЯМ, в основе которых два уникальных свойства этого внечеловеческого разума – суперэффективный инфометаболизм и сверхэффективная кросс-модальная когнитивность, – подписчики моих лонгридов могут на трех платформах по ссылкам ниже.
Картинка https://telegra.ph/file/e9c492bc220d9ec787ba0.jpg
Ссылки на 3 платформы:
https://www.patreon.com/theworldisnoteasy
https://boosty.to/theworldisnoteasy
https://vk.com/club226218451

#ГенИИ #LLMvsHomo #Экзопсихология #Экзосоциология #ПереосмыслениеКонтакта #ИнойИнтеллект
Дуэль ИИ и человека на вершине творчества.
Кто лучше пишет - признанный писатель или ИИ?

Эта 1я приятная для человечества новость за несколько лет творческого соревнования людей с искусственным интеллектом машин.
До сих пор, как это ни обидно для людей, игра шла в одни ворота.
• Началось это еще в конце прошлого века с сенсационного проигрыша тогдашнего шахматного чемпиона мира машине. Ну а сегодняшние чемпионы мира уже и не пытаются выиграть у машин, ибо машины по классу игры ушли далеко вперед.
• А когда дошло до творческого предсказания трехмерной структуры 214 миллионов белков, выяснилось, что здесь нечего ловить уже и всему человечеству (людям бы потребовалось на это 80+ млн лет!).

Однако, по состоянию на этот год, все же оставался один не взятый ИИ творческий бастион. Самый высший по людским меркам – литература. Хотя и, казалось бы, самый сподручный для ИИ на основе больших языковых моделей (LLM), ибо здесь они играют на своем = языковом поле.

Сообщения о результатах исследований, где LLM превосходят среднестатистических людей в широком спектре задач, связанных с языком, стали рутиной, и творческое письмо не является исключением.
Поэтому возникает естественный вопрос: готовы ли LLM конкурировать в навыках творческого письма с лучшим (а не средним) романистом?

Чтобы получить ответ на этот вопрос, группа испанских исследователей устроила соревнование в духе дуэлей ИИ и человека, типа DeepBlue против Каспарова и AlphaGo против Ли Сидоля.
Это была дуэль между
Патрисио Проном - признанный на мировом уровне аргентинский писатель, чьи произведения переведены на многие языки, обладатель нескольких национальных и международных литературных наград, которого критики считают одним из лучших в своем поколении испаноязычным писателем.
• и GPT-4 - одной из лучших в мире сегодняшних LLM, обладающей множеством наивысших экспертных оценок в широком спектре творческих тестов и уже доказавшей свои способности достигать и превосходить среднестатистический уровень людей при выполнении отдельных видов профессиональной деятельности.

Организаторы попросили Прона и GPT-4 предложить по тридцать заголовков, а затем написать рассказы как на свои заголовки, так и на заголовки соперника.
Затем авторы исследования подготовили оценочную шкалу, вдохновленную определением креативности философа Маргарет Боден, назвавшей творчество «фундаментальной особенностью человеческого интеллекта и неизбежным вызовом для интеллекта искусственного».
И наконец, были собраны 5400 оценок, проставленных литературными критиками и учеными.

Результаты этого эксперимента показали:
✔️ LLM все еще далеки от того, чтобы бросить вызов лучшим писателям из вида Homo sapiens.
✔️ По шахматным меркам, в писательском деле LLM не то что до гроссмейстера, но и, похоже, до мастера не дотягивает ни по одному из критериев оценки: привлекательность, оригинальность, креативность, собственный голос, возможность включения в антологию.
✔️ Достижение топового человеческого уровня навыков творческого письма, вероятно, не может быть достигнуто просто увеличением размеров языковых моделей.


И это значит, что мы еще с LLM поборемся за звание «венец творения» среди носителей высшего интеллекта на Земле 😊

Картинка https://telegra.ph/file/46a4fae677a99b8926088.jpg
Статья https://arxiv.org/abs/2407.01119
#LLMvsHomo
Продолжение текста предыдущего поста
(прошу извинить за этот кульбит при публикации, но задержание Дурова не прошло бесследно для возможностей авторов публиковаться в Telegram и
Telegra.ph)

Рассказу об этом посвящена 2я части лонгрида об инаковости разума людей и ИИ, проиллюстрированного десятками примеров.
• 2я часть начинается с рассказа о единственном в истории человечества слепом от рождения художнике Эшрефе Армагане и о том, что увидели в его мозге на фМРТ гарвардские исследователи Амир Амеди и Алваро Паскуаль-Леоне.
• Потом описываются несколько совсем новых экспериментов с лучшими мультимодальными большими языковыми моделями и их подтипом визуально-языковые модели. Эти эксперименты демонстрируют, «что их зрение … похоже на зрение умного человека, который слеп и делает обоснованные предположения.»
• Затем, на примере одного из тестов гаокао (китайский аналог ЕГЭ), предпринята попытка, путем многократных наводящих подсказок, помочь понять двум самым продвинутым моделям смысл того, что они «видят» на картинке комикса и почему. Мои попытки, увы, безуспешные, желающие читатели смогут, при желании, продолжить самостоятельно (вдруг-таки GPT-4o иои Claude 3.5 Sonnet начнёт хоть что-то понимать из того, что видят, по-человечески).
• Ну и, наконец, о самом главном.
- Что за сверхэффективная кросс-модальная когнитивность позволяет моделям превосходить 99,99% людей по изобразительным способностям, никогда не видя ни форм, ни цветов, ни света, ни тени, ни перспективы …
- И как эту когнитивную способность можно объяснить с позиций работ Оливера Сакса, Жан-Пьера Шанжё и Кевина Дорста.

Обо всем этом подписчики моих лонгридов могут прочесть на трех платформах по ссылкам ниже.

https://www.patreon.com/theworldisnoteasy
https://boosty.to/theworldisnoteasy
https://vk.com/club226218451

#ГенИИ #LLMvsHomo #Экзопсихология #Экзосоциология #ПереосмыслениеКонтакта #ИнойИнтеллект
Наняли бы вы на работу Океан Соляриса?
Три капкана на пути внедрения генеративного ИИ.

Этот пост полезно прочесть всем руководителям, обдумывающим перспективы «найма» генеративного ИИ для задействования его мощного интеллектуального ресурса в своей работе.
Представьте себе ситуацию:
• Вы – руководитель.
• Ваши кадровики предлагают вам кандидатуру чрезвычайно компетентного нового сотрудника - по внешним отзывам и описанию кадровиков, разносторонне способного полимата, обладающего знаниями в широчайшем спектре областей и навыками многих профессий.
• Но и на солнце есть пятна. У этого кандидата есть три настораживающих «пунктика». Эдакие три инаковости, кардинально отличающие его от всех известных вам людей.

1) Его метрика сложности задач (определяющая, какие задачи для него сложные, а какие простые) абсолютно не соответствует ни вашей, ни кого-либо из ваших сотрудников. Это, в частности, значит, что сложнейшее в вашем понимании задание он может выполнить на раз-два, а наипростейшее для вас задание он запросто может запороть.

2) Для него не существует ответа «я не знаю». Это значит, что даже при категорической нехватке исходных данных для решения задачи и полном отсутствии у него необходимых для решения таких задач знаний и умений, он не признается в этом и будет биться головой о стену сколь угодно долго в безуспешных попытка решить задачу, подсовывая вам все новые ошибочные решения.

3) Правильность решения им поставленной вами задачи в значительной степени зависит от того, как вы ему эту задачу сформулируете. И, что самое неприятное, заранее неизвестно, какая из ваших формулировок поспособствует правильному решению, а какая ошибочному. Получается, как повезет.

Что думаете? Стоит вам нанять на работу такого сверхспособного полимата с тремя «пунктиками»?
Я бы нанял.
• Но не для заполнения каких-либо вакансий или замены сотрудников
• А для выполнения особых ролей (каких – расскажу)

А теперь вот вам такая информация к размышлению.
Новая статья в Nature на сотнях убедительных примеров доказывает, что современные модели генеративного ИИ обладают тремя вышеописанными кардинальными инаковостями, принципиально отличающими их «разум» от нашего. Т.е. лучшие современные модели генеративного ИИ – и есть такие сверхспособные полиматы с 3 пунктиками.

Заинтересованный читатель моих лонгридов может прочесть по приведенным ссылкам:
[1, 2, 3]
• мой анализ значения трех названных кардинальных инаковостей «разума» LLM при их использовании на практике,
• мои размышления о том, как, даже при наличии общего языка (что в случае LLM кажется очевидным), истинное понимание нами LLM может оставаться недостижимым, и это делает наше сотрудничество в важных вопросах непредсказуемо рискованным (что иллюстрируется примером попыток взаимодействия людей и Океана в романе Станислава Лема «Солярис»).

#ИнойИнтеллект #LLMvsHomo

* * * * *
P.S. Примерно неделю канал будет на осенних каникулах. И вместо нового малоизвестного-интересного, рекомендую вам:
• освежить в памяти 3 важных предсказания годичной давности (дабы проверить их актуальность сегодня)
• а также подивиться, насколько близко к предсказанному «Эффектом Ленина-Трампа» шли события в США (и не только) с 2016 по сегодня.


1) Сбывшийся важный прогноз.
В посте «Китай строит гигантский завод по производству чипов, управляемый ускорителем частиц» приведен прогноз, что это не поможет Китаю вырваться из «удушающего захвата» экспортного контроля США.
Все так пока и получается.
2) Предсказание двух грядущих глобальных ловушек.
• К «Ловушке Гудхарта» мир продолжает неотвратимо приближаться.
• Выбор развилки на пути к «Ловушке Фукидида» (или от нее) скоро определится по результатам президентских выборов в США.
3) Из авторов трёх возможных сценариев ближайшего будущего, все более засеваемого минами ИИ-рисков, похоже, прав оказался, не алармист Юваль Харари или оптимист Мустафа Сулейман, а прагматик Питер Тиль.
4) Подумайте, как скажется «Эффект Ленина-Трампа» на предстоящие выборы.

Счастливо!
Порог имитации.
Сколько нужно картин Ван-Гога, чтобы имитировать его стиль?

Простой вопрос о способности генеративного ИИ (ГенИИ) неотличимо имитировать в дискуссии человека более не актуален (ибо уже нет сомнений, - может).
Трудный вопрос – это вопрос о способности ГенИИ сравниться в разумности с «человеком разумным» явно преждевременный (ибо сначала нужно убедиться, что ГенИИ, в принципе обладает каким-то, пусть и нечеловеческим, разумом).
• Новая работа HOW MANY VAN GOGHS DOES IT TAKE TO VAN GOGH? FINDING THE IMITATION THRESHOLD дает весьма интересный аргумент в пользу положительного ответа на трудный вопрос.
• И вместе с тем, помогает в поиске границ похожести/непохожести двух разных типов разума (людей и ГенИИ)

Авторы этой работы поставили интереснейший вопрос.
✔️ Художнику-человеку, для копирования стиля другого художника, может хватить всего несколько картин последнего. Напр. для копирования стиля Ваг-Гога хватило бы 5и картин «Звездная ночь», «Подсолнухи», «Автопортрет», «Пшеничное поле с кипарисами» и «Ирисы» (а в пределе, и одной из них).
А сколько картин нужно ГенИИ?
Есть ли «порог имитации» - т.е. минимально необходимого числа картин конкретного автора, чтобы скопировать его стиль?


Оказалось, что нижний порог имитации для ГенИИ много-много больше, чем для человека. И он равен примерно 200 (точно, он лежит в диапазоне 200-600, в зависимости от достигаемой степени похожести)

Из чего следует, что вопрос прав на интеллектуальную собственность на изображения решается запросто – простым ограничением (меньше 200) числа изображений конкретного автора. После чего модель просто не сможет воспроизводить стиль с высокой степенью похожести.

И, кстати, оказалось, что порог имитации также решает вопрос персональной собственности на изображения себя (для «звезд» и прочих публичных фигур). Порог имитации здесь тот же. И для невозможности воспроизведения чужих лиц достаточно лишь обеспечить порог имитации в обучающих данных модели.

Так что получается, что в такой изысканной способности разума, как копирование стиля изображений и лиц, разум людей и ГенИИ похожи. Только эффективность этой способности у людей раз в 200+ выше.

Подробней об «инаковости разумов» читайте у меня в постах и лонгридах с тэгом #ИнойИнтеллект

#ГенИИ #LLMvsHomo
Не время быть идиотами, ИИ может победить людей.
В начале 21 века эволюция человека достигла своей максимальной точки. Естественный отбор, процесс, благодаря которому сильнейшие, умнейшие, быстрейшие размножались активнее чем другие ... теперь вывел на первый план иные качества ... процесс начал двигаться в обратную сторону, в сторону отупения. Учитывая уничтожение хищников, угрожающих исчезновению вида, поощряться стало максимально быстрое размножение, а разумные люди оказались перед угрозой исчезновения."
Это преамбула культового фильма-антиутопии «Идиократия» (кто не видел, смотрите).
Фильм – иллюстрация гипотезы о превращении земной цивилизации в мир кретинов, в результате неизбежной траектории H. sapiens к идиотизму – см. трейлер.

Через 6 лет после выхода фильма «гипотеза идиократии» получила подтверждение в работах известного американского биолога Дж. Крабтри. Разработанная им матмодель показала, что роль естественного отбора уменьшается, и это ведет к накоплению мутаций, ухудшению умственного и эмоционального развития.

Модель Крабтри – лишь эвристическая гипотеза. Ибо проверить ее адекватность невозможно из-за отсутствия возможности провести эксперимент.

Но как иначе тогда, черт побери, объяснять такие вещи? (см. рисунок)

Вверху слева: оценки p(doom) – вероятности того, что развитие ИИ приведет человечество к гибели, по мнению ведущих специалистов ИИ
Оценка Дарио Амадеи (СЕО Anthropic), недавно провозгласившего, что ИИ станет для человечества «машиной благодатной милости»: 10-25%
Вверху справа: Метафорическая иллюстрация того, что такая оценка Амадеи близка к вероятности «русской рулетки», в которую человечество играет, выпуская в люди новые версии после GPT-4.

Внизу справа: оценки аналитиков Ситигруп перспектив развития ИИ: AGI в 2029, ASI с 2031.
Внизу слева их же оценки того, какие скилсы вам нужно развивать, чтобы ни AGI ни ASI не лишили вас работы: коммуникации, критическое мышление, эмоциональный интеллект, эмпатию …


Как тут не вспомнить гипотезу Крабтри, что планета превращается в мир идиотов.
И всем рекомендую помнить, что проф. Деан (один из самых известных в мире нейробиологов) уже 2 года призывает человечество задуматься: «Не время быть идиотами, ИИ может победить людей».
#ИИ #AGI #LLMvsHomo
Открытие тысячелетия - создана универсальная модель человеческого познания.
И уж поверьте, - это важнее, чем выборы Трампа.

Вычислительная модель «Кентавр» способна точно (!) предсказывать и моделировать любое (!) человеческое поведение в любом (!) эксперименте из любой (!) области, который можно описать на естественном языке.
Это открытие сделано выдающимся коллективом из 15-ти ведущих мировых научных центров. И оно окажет прорывное влияние на когнитивные науки, бросая вызов существующей парадигме разработки вычислительных моделей человеческого разума.

Кратко это открытие можно описать так:
• если революционный прорыв ChatGPT показал человечеству, что ИИ-модели могут быть неотличимы от людей в любых действиях, основанных на использовании человеческих языков, -
• то революционный прорыв «Кентавра» показывает человечеству, что ИИ-модели могут быть неотличимы от людей по своему поведению в любых ситуациях и обстоятельствах, связанных с исследованием, планированием и научением.

Иными словами, ИИ-модели могут не только оперировать на наших языках неотличимо от нас, но и при этом вести себя, как неотличимые от нас разумные сущности.


Авторы исследования создали модель «Кентавр» путем дообучения открытой языкового модели Llama 3.1 70B на новом крупномасштабном наборе данных под названием Psych-101. Psych-101 – набор данных беспрецедентного масштаба. Он охватывая данные по каждому психологическому испытанию от более чем 60,000 участников, которые сделали более 10,000,000 актов выбора в 160 экспериментах.
«Кентавр» не только точнее моделирует поведение новых участников по сравнению с существующими когнитивными моделями, но и обобщает свои знания на новые контексты, модификации задач и совершенно новые области.
Более того, авторы обнаружили, что внутренние представления модели становятся более согласованными с человеческой нейронной активностью после дообучения модели.

Это открытие имеет реальные шансы стать универсальной моделью познания. Следующим шагом должно стать преобразование этой универсальной вычислительной модели в единую теорию человеческого познания.

#LLMvsHomo #Познание
Проверьте себя на понимание основ «Квантовой мяукомеханики».
Цель – сравнение вашего и иного интеллекта (ИИ)

Вопрос такой: объясните смысл этой картинки. Что хотели сказать ее авторы?
Здесь вы должны сделать паузу в чтении и попробовать дать свой ответ на поставленный вопрос.
Сделали?
Отлично!
А вот для сравнения ответы 2х ИИ.
Ответ ChatGPT 4o
Эта картинка смешно обыгрывает сложные квантовые концепции, используя котов, чтобы сделать их более доступными и забавными.
1. Кот Шрёдингера — один из самых известных мысленных экспериментов в квантовой механике, описывающий кота, который находится в суперпозиции состояний "жив" и "мертв" до момента наблюдения. На картинке кот сидит в коробке, символизируя эту неопределенность.
2. Кот де Бройля — волновой аспект частиц. На картинке кот растягивается в волну, чтобы показать, что частица в квантовом мире может быть описана как волна.
3. Кот Дирака — иллюстрирует положительное и отрицательное состояния, напоминающие античастицы. Положительный кот нарисован на коробке, а его "отрицательный" двойник виден как тень, чтобы показать античастицу.
4. Ферми-коты — иллюстрируют принцип запрета Паули, согласно которому два фермиона (частицы с полуцелым спином) не могут занимать одно и то же квантовое состояние. На картинке коты аккуратно рассажены по разным коробкам.
5. Бозе-коты — частицы, которые могут находиться в одном и том же состоянии (например, бозоны). Здесь показано множество котов в одной коробке, чтобы продемонстрировать их способность занимать одно квантовое состояние.
6. Кот Гейзенберга — представляет принцип неопределенности, согласно которому невозможно точно определить одновременно положение и импульс частицы. Кот разделен на части, чтобы показать неопределенность его положения и движения.
7. Кот Капицы — отсылка к физике сверхтекучих жидкостей. "Капица" — это имя физика, изучавшего сверхтекучесть. Лямбда-точка — температура, при которой жидкость становится сверхтекучей. Картинка показывает кота, который "течет" над и под уровнем жидкости, иллюстрируя это явление.

Ответ Claude 3 Haiku
Каждое из этих изображений кошек связано с ключевыми концепциями квантовой механики, наглядно демонстрируя фундаментальные принципы квантового мира с помощью забавных и запоминающихся образов.
1. Кот Шрёдингера: Это отсылка к парадоксу Шрёдингера, где кот в закрытой коробке может быть одновременно жив и мертв, пока его состояние не будет измерено. Это иллюстрирует квантовый принцип суперпозиции.
2. de Broglie Cat: Этот кот изображен волнообразно, что отсылает к теории де Бройля о волновой природе частиц. Согласно этой теории, частицы, такие как электроны, обладают не только свойствами частиц, но и волновыми свойствами.
3. Fermi Cats: Здесь изображены несколько одинаковых котов, что отсылает к статистике Ферми-Дирака, описывающей поведение одинаковых частиц, таких как электроны, которые подчиняются принципу Паули и не могут находиться в одном квантовом состоянии.
4. Bose Cats: В отличие от Fermi Cats, эти коты изображены в виде большой "кучи", что напоминает бозе-конденсат - состояние материи, в котором множество бозонов (частиц, не подчиняющихся принципу Паули) занимают одно и то же квантовое состояние.
5. Heisenberg Cat: Этот кот имеет сразу несколько возможных положений, отображая принцип неопределенности Гейзенберга, который говорит, что невозможно одновременно точно измерить сопряженные физические величины, такие как положение и импульс частицы.
6. Kapitsa Cat: Два кота, расположенные выше и ниже некой "точки", иллюстрируют концепцию, связанную с именем физика Петра Капицы, которая описывает квантовые свойства сверхтекучести.

P.S. По оценке моделей, ответить на их уровне детализации и понимания смогут лишь до 5 % людей
А мы сейчас это проверим.
А) Если вы смогли – ставьте 👍
Б) Если же нет – ставьте 🤯

Заодно узнаем, какой % читателей боится сравнить свой интеллект с иным (это покажет разница между числом просмотров и (А + Б) 😊

#LLMvsHomo
“Революция ChatGPT” запустила 2й этап переформатирования мира и разума людей в цифру
(анонс нового лонгрида)
1й этап – начавшийся в 2000-х бум социальных сетей – привел к лавинообразному перемещению социальных взаимодействий людей в цифровую среду Интернета с последующей трансформацией, а порой и полным замещением путей, способов и механизмов социальных коммуникаций, формировавшихся несколько тысячелетий генно-культурной коэволюции людей.
2-й этап – распространение больших языковых моделей, – принимая эстафету от соцсетей, может стать еще более сильным катализатором переформатирования мира и человека. Ибо теперь будут радикально меняться уже не только пути и способы социальных коммуникаций, но и механизмы осуществления социально-когнитивных функций людей и их агентности.


Спектр влияния LLM на социально-когнитивные механизмы людей пока точно неизвестен. Но гипотетически LLM способны влиять даже на основу основ социальной жизни общества – его социальные нормы (неписаные правила, предписывающие, что люди должны и что не должны делать для решения социальных, экологических и медицинских проблем, с которыми сталкиваются общества).

Так ли это?

Мой новый лонгрид «Трайбализм ИИ-моделей ведет мир к цифровой холодной войне» (37 стр., 25 рис., 37 ссылок) - одна из первых попыток (а может и просто первая) создать подобие строительных лесов, позволяющих дальше строить некий трансдисциплинарный интеллектуальный каркас исследований всего комплекса вопросов начинающегося культурного сдвига, порождаемого (впервые в истории человечества) объединением людей и машин.

Подписчики моих лонгридов могут прочесть этот новый текст
на Boosty, Patreon, VK и (это новация) на Дзене.

#АлгокогнитивнаяКультура #СоциальныеСети #LLMvsHomo #Вызовы21века
Что оказалось за дверью в бездну черного ящика ИИ.
Новые откровения сверхважного прорыва в понимании механизмов разума машин и людей.

Как я писал в мае, «внутри черного ящика оказалась дверь в бездну». Речь шла о 1й успешной попытке компании Anthropic вскрыть черный ящик генеративного ИИ больших языковых моделей. Это был реально сверхважный прорыв, без которого все разговоры о том, что скрывается внутри внечеловеческого разума моделей, оставались чистыми спекуляциями.

Колоссальным откровением той работы было то, что за дверью черного ящика одной из самых больших на тот момент моделей семейства Claude оказался не ожидаемый многими «стохастический попугай», а таящийся там куда боле мощный ИИ. Его основу, как предположили исследователи, составляет мультимодальная гиперсеть моносемантических «субнейронов», образующих в гиперсети нечто похожее на коги (в теории когнитома Константина Анохина так называются элементарные единицы опыта, кодирующие соотношение целого организма с теми или иными аспектами мира).

Тогда же исследователям удалось на практике показать сильную уязвимость внечеловеческого (а возможно, и человеческого) разума. Когда воздействие всего на один такой «ког» вело к изменению матрицы «личности» модели. Например, усиление роли функции «Мост Золотые Ворота» вызвало у Клода кризис идентичности, который даже Хичкок не мог себе представить.

Два новых исследования приоткрывают дверь в бездну черного ящика моделей пошире. И теперь за ней можно разглядеть кое-что из того:
• как устроена гиперсеть
• и что она в себе скрывает


1е исследование предлагает объяснение сверхэффективной кросс-модальной когнитивности, описанной мною в лонгриде «Слепые гении живописи». Исследование отвечает на поставленный мною в лонгриде вопрос: как эти модели, построенные на одном наборе параметров, умудряются обрабатывать и понимать такой разнообразный диапазон входных данных, от разных языков до кода, арифметики и даже изображений и звука?

В этой статье предлагается интригующий ответ: «гипотеза семантического хаба». Основная идея проста, но глубока. Вместо того чтобы полагаться на отдельные специализированные отсеки для каждого типа данных, LLM изучают общее пространство представления — «семантический хаб», — где семантически схожие концепции группируются вместе, независимо от их первоначальной формы.

Если 1е исследование предлагает гипотезу, частично объясняющую устройства гиперсети, то 2е исследует, что эта гиперсеть в себе скрывает.

Авторы показывают, что за дверью черного ящика LLM не просто скрыт куда больший интеллект, что проявляется в диалогах с ним. Оказывается, что этот интеллект «скрывает» от общающихся с ним людей целые букеты своих секретных способностей, которые нельзя выявить через примитивные (naive) запросы пользователей.

И чтобы как-то выявить эти скрытые способности, необходим сложный комплекс мер «допроса модели», раскрывающих её скрытую реальную "компетентность" (а не ту компетентность, что она демонстрирует в ответах на примитивные запросы «белковых мешков»).

#ГенИИ #LLMvsHomo #ИнойИнтеллект