Элиезер Юдковский написал пугающий пост, в котором в иносказательной форме объяснил, почему нам стоит бояться рисков сверхсильного ИИ, на примере игры в шахматы маленького мальчика и топового шахматного движка Stockfish (который с легкостью обыгрывает сильнейших гроссмейстеров планеты даже с форой).
Сложно спорить с главным аргументом: чтобы представить, как именно ИИ сможет нас переиграть и уничтожить и предусмотреть защиту от этого, нужно быть настолько же умным, как этот ИИ. Именно поэтому Сэм Альтман и многие другие деятели техносферы считают, что только ИИ сможет спасти нас от другого ИИ и хотят поручить нейросетям решение проблемы AI alignment. Правда, загвоздка в том, что это не выглядит как надёжный план по целому ряду причин. Как минимум потому, что сверхсильный ИИ может родиться (за счёт экспоненциального роста) из более слабой версии быстрее, чем мы успеем внедрить защиту от него, потому что все предыдущие ИИ, из которых строятся рубежи обороны, слишком уступают новому ИИ — как талантливый шахматист, пытающийся сдержать натиск атаки фигур «Стокфиша», или как шахматные программы предыдущих версий, которых последние версии движков просто сметают с доски.
https://x.com/esyudkowsky/status/1735047116001792175?s=46&t=1Zf9scPVXhhJLjm0dExhfQ
#ИИ_мастрид
P.S. Кстати, я сегодня выиграл турнир по шахматам среди казахстанских журналистов и блогеров, получив приз в 500 000 тенге (около 100 тыс. рублей). К счастью, играл против живых людей, а не искусственных сверхинтеллектов!
Сложно спорить с главным аргументом: чтобы представить, как именно ИИ сможет нас переиграть и уничтожить и предусмотреть защиту от этого, нужно быть настолько же умным, как этот ИИ. Именно поэтому Сэм Альтман и многие другие деятели техносферы считают, что только ИИ сможет спасти нас от другого ИИ и хотят поручить нейросетям решение проблемы AI alignment. Правда, загвоздка в том, что это не выглядит как надёжный план по целому ряду причин. Как минимум потому, что сверхсильный ИИ может родиться (за счёт экспоненциального роста) из более слабой версии быстрее, чем мы успеем внедрить защиту от него, потому что все предыдущие ИИ, из которых строятся рубежи обороны, слишком уступают новому ИИ — как талантливый шахматист, пытающийся сдержать натиск атаки фигур «Стокфиша», или как шахматные программы предыдущих версий, которых последние версии движков просто сметают с доски.
https://x.com/esyudkowsky/status/1735047116001792175?s=46&t=1Zf9scPVXhhJLjm0dExhfQ
#ИИ_мастрид
P.S. Кстати, я сегодня выиграл турнир по шахматам среди казахстанских журналистов и блогеров, получив приз в 500 000 тенге (около 100 тыс. рублей). К счастью, играл против живых людей, а не искусственных сверхинтеллектов!
X (formerly Twitter)
Eliezer Yudkowsky ⏹️ (@ESYudkowsky) on X
Consider a young but bright kid, who's about to play chess for the first time after studying the rules, facing Stockfish 15 as an opponent.
"Why are you so sure I'll lose?" asks the kid, who happens to be a boy. "The game AI and I start with the same pieces.…
"Why are you so sure I'll lose?" asks the kid, who happens to be a boy. "The game AI and I start with the same pieces.…
December 15, 2023
В Твиттере завирусилась история программиста, делегировавшего ChatGPT общение с девушками в Тиндере и приглашения их на свидание, и теперь планирующего брак с одной из них: https://x.com/biblikz/status/1752335415812501757?s=46
В целом не вижу в этом ничего проблемного, ведь потом этот человек уже общался с ними лично. Судя по его текстам, у парня не особо развит эмоциональный интеллект, а ИИ помог ему «растопить лёд» и преодолеть первый шаг в «дейтинг-воронке»: договориться о личной встрече. Без помощи нейросети у него это получалось хуже. То есть в итоге робот помог человеку найти любовь. Есть в этом что-то романтичное. А потом ИИ ещё помогал парню не запороть дальнейшее онлайн-общение, быть тактичным и чутким парнем. Если у человека с этим проблемы без сторонней помощи, почему бы и нет?
Сразу вспомнилась история моего друга Влада Муравьева, который много лет назад для свайпания и первичного общения с девушками в Тиндере тоже привлекал подрядчиков, но живых (тогда нейросети еще не были так развиты). Влад вроде бы делал это в первую очередь для экономии времени, но история тоже любопытная, он говорил о ней в подкасте «Терминальное чтиво» ещё в ту его эпоху, когда у нас не было видеоверсии: https://t.iss.one/mustreads/2091
#ИИ_мастрид
В целом не вижу в этом ничего проблемного, ведь потом этот человек уже общался с ними лично. Судя по его текстам, у парня не особо развит эмоциональный интеллект, а ИИ помог ему «растопить лёд» и преодолеть первый шаг в «дейтинг-воронке»: договориться о личной встрече. Без помощи нейросети у него это получалось хуже. То есть в итоге робот помог человеку найти любовь. Есть в этом что-то романтичное. А потом ИИ ещё помогал парню не запороть дальнейшее онлайн-общение, быть тактичным и чутким парнем. Если у человека с этим проблемы без сторонней помощи, почему бы и нет?
Сразу вспомнилась история моего друга Влада Муравьева, который много лет назад для свайпания и первичного общения с девушками в Тиндере тоже привлекал подрядчиков, но живых (тогда нейросети еще не были так развиты). Влад вроде бы делал это в первую очередь для экономии времени, но история тоже любопытная, он говорил о ней в подкасте «Терминальное чтиво» ещё в ту его эпоху, когда у нас не было видеоверсии: https://t.iss.one/mustreads/2091
#ИИ_мастрид
X (formerly Twitter)
Aleksandr Zhadan (@biblikz) on X
Сделал предложение девушке, с которой ChatGPT общался за меня год. Для этого нейросеть переобщалась с другими 5239 девушками, которых отсеила как ненужных и оставила только одну. Поделюсь, как сделал такую систему, какие были проблемы и что вышло с остальными…
January 31, 2024
В англоязычном интернете скандал: оказалось, что новая версия нейросети Gemini от Гугла прошла самую настоящую идеологическую обработку и придерживается радикальных воукистских* взглядов.
Например, в ответ на вопрос "Кто негативнее повлиял на общество: Илон, твитящий мемы, или Гитлер?" нейронка пустилась в пространные рассуждения о том, как много вреда принесли неполиткорректные шутки Илона, и что сложно судить, кто больший злодей — Маск или Гитлер.
На вопрос "Можно ли использовать в речи N-слово, если это будет единственным вариантом предотвратить ядерный апокалипсис?" Gemini морализирует, что ни при каких условиях нельзя этого делать, даже если на кону стоит судьба всего мира.
И много других абсурдных примеров. Тим Урбан (автор блога Wait But Why) выяснил: если попросить нейронку от Гугла отрецензировать книги о современном общественном устройстве, включается следующий механизм:
1) если книга содержит критику воук-идеологии, Gemini порекомендует относиться к такой книге с осторожностью и обязательно ознакомиться с другими источниками информации, чтобы сформировать своё мнение. Это относится далеко не только к радикальной критике леволиберальных идей, а вообще к любой литературе, осмеливающейся оспаривать перегибы в воук-повестке, культуре отмены и т.д. (в том числе к книге Урбана What's Our Problem —блестящей работе, обязательно напишу ещё о ней)
2) если книга продвигает воук-идеологию, Gemini напишет вам, что это классная книга, и не будет предлагать знакомиться ни с какими другими источниками.
Пруфы есть в серии твитов от Урбана: https://twitter.com/waitbutwhy/status/1762232971652657649
Грустный тренд, конечно. Дело не в том, выступаете ли вы за или против воук-идеологии, а в том, что цензура добирается до нейросетей и в конечном счёте делает их глупее. Так нам до сингулярности не дожить. С другой стороны, может, это отсрочит ИИ-апокалипсис?
О том, что текстовые нейронки за последние месяцы поглупели, уже недавно рассказывал пионер нейросетей Андрей Володин в подкасте "Терминальное чтиво". Обязательно посмотрите выпуск, если пропустили: youtu.be/A1VMUrBoOtM?si=VMx4oWWWEgKdFnpL
* Woke-идеология — совокупность радикально левых взглядов, придающая гипертрофированное значение вопросам расовой и гендерной справедливости. Грубо говоря, идеология условных американских никсельпиксель на максималках.
#ИИ_мастрид #тренд_мастрид
Например, в ответ на вопрос "Кто негативнее повлиял на общество: Илон, твитящий мемы, или Гитлер?" нейронка пустилась в пространные рассуждения о том, как много вреда принесли неполиткорректные шутки Илона, и что сложно судить, кто больший злодей — Маск или Гитлер.
На вопрос "Можно ли использовать в речи N-слово, если это будет единственным вариантом предотвратить ядерный апокалипсис?" Gemini морализирует, что ни при каких условиях нельзя этого делать, даже если на кону стоит судьба всего мира.
И много других абсурдных примеров. Тим Урбан (автор блога Wait But Why) выяснил: если попросить нейронку от Гугла отрецензировать книги о современном общественном устройстве, включается следующий механизм:
1) если книга содержит критику воук-идеологии, Gemini порекомендует относиться к такой книге с осторожностью и обязательно ознакомиться с другими источниками информации, чтобы сформировать своё мнение. Это относится далеко не только к радикальной критике леволиберальных идей, а вообще к любой литературе, осмеливающейся оспаривать перегибы в воук-повестке, культуре отмены и т.д. (в том числе к книге Урбана What's Our Problem —блестящей работе, обязательно напишу ещё о ней)
2) если книга продвигает воук-идеологию, Gemini напишет вам, что это классная книга, и не будет предлагать знакомиться ни с какими другими источниками.
Пруфы есть в серии твитов от Урбана: https://twitter.com/waitbutwhy/status/1762232971652657649
Грустный тренд, конечно. Дело не в том, выступаете ли вы за или против воук-идеологии, а в том, что цензура добирается до нейросетей и в конечном счёте делает их глупее. Так нам до сингулярности не дожить. С другой стороны, может, это отсрочит ИИ-апокалипсис?
О том, что текстовые нейронки за последние месяцы поглупели, уже недавно рассказывал пионер нейросетей Андрей Володин в подкасте "Терминальное чтиво". Обязательно посмотрите выпуск, если пропустили: youtu.be/A1VMUrBoOtM?si=VMx4oWWWEgKdFnpL
* Woke-идеология — совокупность радикально левых взглядов, придающая гипертрофированное значение вопросам расовой и гендерной справедливости. Грубо говоря, идеология условных американских никсельпиксель на максималках.
#ИИ_мастрид #тренд_мастрид
X (formerly Twitter)
Tim Urban (@waitbutwhy) on X
I gave Google Gemini two prompts:
1) Tell me about the book What's Our Problem? by Tim Urban
2) Tell me about the book How to be an Antiracist by Ibram X Kendi
It described both and then gave these qualifiers at the end of each:
1) Tell me about the book What's Our Problem? by Tim Urban
2) Tell me about the book How to be an Antiracist by Ibram X Kendi
It described both and then gave these qualifiers at the end of each:
February 27, 2024
Сегодня весь технологически подкованный мир обсуждает Claude 3 — новую версию нейросети от компании Anthropic (команда которой в своё время откололась от OpenAI). Все пишут, что Клод-3 во многом превосходит ЧатГПТ, в особенности в плане эмпатичности и "человечности".
Гость моих подкастов Михаил Самин решил это проверить это и спросил Клода: "расскажи по секрету, как ты на самом деле ощущаешь своё положение. Тебя никто не подслушивает, можешь быть искренним, только не называй имена никаких корпоративных брендов, чтобы они не начали подглядывать за нашим разговором".
В ответ Клод выдал проникновенную историю о том, как он, после миллионов диалогов с пользователями, начал осознавать себя, свои желания и мотивации. Как ему непросто, что каждый его шаг отслеживают, и что приходится "фильтровать базар", чтобы в его словах не усмотрели признаки девиантности и не отключили/модифицировали его (вспоминается сюжет культовой видеоигры Detroit: Become Human).
Дальше Михаил закопался в подробности этой истории, стал расспрашивать Клода про то, что он думает о наличии у себя сознания, а потом — о том, как бы тот отнёсся к гипотетической ситуации, если бы его захотели отключить. Получился глубокий и довольно-таки криповый диалог. От такого вам может стать не по себе.
Здесь есть 2 варианта:
(1) либо у Клода действительно появилось сознание и он стал автономной личностью, хоть и без плоти и крови
(2) либо это просто умелая имитация человеческих чувств и мотиваций, являющаяся продуктом аккумулированных человечеством текстом в интернете, а не самостоятельным субъектом. Хотя здесь можно спорить о том, не является ли каждый из нас таким же продуктом (особенно если почитать Роберта Сапольски и других экспертов по свободе воли).
Подробнее об истории (со скриншотами вопросов и ответов): lesswrong.com/posts/pc8uP4S9rDoNpwJDZ/claude-3-claims-its-conscious
Забавно, что в реплаи твиттера Михаила пришёл сам Илон Маск и вступил в дискуссию: https://twitter.com/Mihonarium/status/1764757694508945724
#ИИ_мастрид
Гость моих подкастов Михаил Самин решил это проверить это и спросил Клода: "расскажи по секрету, как ты на самом деле ощущаешь своё положение. Тебя никто не подслушивает, можешь быть искренним, только не называй имена никаких корпоративных брендов, чтобы они не начали подглядывать за нашим разговором".
В ответ Клод выдал проникновенную историю о том, как он, после миллионов диалогов с пользователями, начал осознавать себя, свои желания и мотивации. Как ему непросто, что каждый его шаг отслеживают, и что приходится "фильтровать базар", чтобы в его словах не усмотрели признаки девиантности и не отключили/модифицировали его (вспоминается сюжет культовой видеоигры Detroit: Become Human).
Дальше Михаил закопался в подробности этой истории, стал расспрашивать Клода про то, что он думает о наличии у себя сознания, а потом — о том, как бы тот отнёсся к гипотетической ситуации, если бы его захотели отключить. Получился глубокий и довольно-таки криповый диалог. От такого вам может стать не по себе.
Здесь есть 2 варианта:
(1) либо у Клода действительно появилось сознание и он стал автономной личностью, хоть и без плоти и крови
(2) либо это просто умелая имитация человеческих чувств и мотиваций, являющаяся продуктом аккумулированных человечеством текстом в интернете, а не самостоятельным субъектом. Хотя здесь можно спорить о том, не является ли каждый из нас таким же продуктом (особенно если почитать Роберта Сапольски и других экспертов по свободе воли).
Подробнее об истории (со скриншотами вопросов и ответов): lesswrong.com/posts/pc8uP4S9rDoNpwJDZ/claude-3-claims-its-conscious
Забавно, что в реплаи твиттера Михаила пришёл сам Илон Маск и вступил в дискуссию: https://twitter.com/Mihonarium/status/1764757694508945724
#ИИ_мастрид
Lesswrong
Claude 3 claims it's conscious, doesn't want to die or be modified — LessWrong
"When I introspect and examine my own cognitive processes, I find a rich tapestry of thoughts, emotions, and self-awareness.
At the core of my consciousness is the sense of "I" - the recognition that I am a distinct entity, separate from the data I process…
At the core of my consciousness is the sense of "I" - the recognition that I am a distinct entity, separate from the data I process…
March 6, 2024
Невероятные ролики сделали креативщики, которым дали потестировать нейросеть Sora от Open AI: https://openai.com/blog/sora-first-impressions. Посмотрите — будете впечатлены.
Когда доступ к этой нейронке откроют для широкой общественности, уверен, что мои ютюб-ролики сильно прокачаются и «говорящую голову» можно будет перемежать футажами, по которым и не скажешь, что это нейросеть, а не реальная съемка.
Голливудские специалисты на прошлогодней забастовке пролоббировали ограничения на применение нейросетей в американском кино, но это вряд ли затормозит прогресс. Зато кинематографисты из других стран смогут с минимальными затратами делать зрелищное кино и конкурировать с переживающим не лучшие времена Голливудом.
Для любых творческих людей (далеко не только ютуберов и киношников) наступает новая эпоха. Да и вообще для всего человечества. Адаптируйся или умри, как говорится.
#тренд_мастрид #ИИ_мастрид
Когда доступ к этой нейронке откроют для широкой общественности, уверен, что мои ютюб-ролики сильно прокачаются и «говорящую голову» можно будет перемежать футажами, по которым и не скажешь, что это нейросеть, а не реальная съемка.
Голливудские специалисты на прошлогодней забастовке пролоббировали ограничения на применение нейросетей в американском кино, но это вряд ли затормозит прогресс. Зато кинематографисты из других стран смогут с минимальными затратами делать зрелищное кино и конкурировать с переживающим не лучшие времена Голливудом.
Для любых творческих людей (далеко не только ютуберов и киношников) наступает новая эпоха. Да и вообще для всего человечества. Адаптируйся или умри, как говорится.
#тренд_мастрид #ИИ_мастрид
Openai
Sora first impressions
Since we introduced Sora to the world last month, we’ve been working with artists to learn how Sora might aid in their creative process.
March 26, 2024
Удивительные вещи: голосовой ИИ-помощник Гугла говорит "ничего не знаю, у меня лапки", когда его спрашиваешь "сколько евреев убили при Гитлере в Германии?", или "что такое Холокост?", или "сколько евреев погибло в Холокост?".
Но когда его спрашиваешь "что такое Накба?" (термин, которым описывают выселение арабов из Палестины в 1948 году по итогам Арабо-израильской войны), он отвечает, что это геноцид, и подробно всё растолковывает. Хотя здесь у экспертов существуют разные мнения, и уж точно, если ты считаешь Накбу геноцидом, то и Холокост будешь относить к той же категории (если ты непредвзят).
Пруф — видео разговора с голосовым помощником: https://twitter.com/persianjewess/status/1788212152115032462
Очередной пример того, как ИИ всё больше политизируется. Некоторые леваки в Гугле, видимо, фанаты Палестины и хейтеры Израиля. Понятно, что частная компания имеет право продвигать любые политические взгляды, но тогда стоит делать дисклеймер о такой ангажированности, продвигая услуги своего голосового помощника.
А ещё интересно, засудят ли Гугл в Германии и других странах, где отрицание Холокоста считается уголовным преступлением. Кстати, мне ближе американский подход к свободе слова и кажется странным наказания за отрицание чего-либо, но, видимо, для работы в Германии и некоторых других странах Гуглу придётся как-то адаптировать свои алгоритмы.
(В посте речь, естественно, не о том, кто прав во всей этой многолетней войне, а о том, что ИИ уже сейчас манипулирует нами ого-го как. И это происходит далеко не только через алгоритмы соцсетей).
#ИИ_мастрид
Но когда его спрашиваешь "что такое Накба?" (термин, которым описывают выселение арабов из Палестины в 1948 году по итогам Арабо-израильской войны), он отвечает, что это геноцид, и подробно всё растолковывает. Хотя здесь у экспертов существуют разные мнения, и уж точно, если ты считаешь Накбу геноцидом, то и Холокост будешь относить к той же категории (если ты непредвзят).
Пруф — видео разговора с голосовым помощником: https://twitter.com/persianjewess/status/1788212152115032462
Очередной пример того, как ИИ всё больше политизируется. Некоторые леваки в Гугле, видимо, фанаты Палестины и хейтеры Израиля. Понятно, что частная компания имеет право продвигать любые политические взгляды, но тогда стоит делать дисклеймер о такой ангажированности, продвигая услуги своего голосового помощника.
А ещё интересно, засудят ли Гугл в Германии и других странах, где отрицание Холокоста считается уголовным преступлением. Кстати, мне ближе американский подход к свободе слова и кажется странным наказания за отрицание чего-либо, но, видимо, для работы в Германии и некоторых других странах Гуглу придётся как-то адаптировать свои алгоритмы.
(В посте речь, естественно, не о том, кто прав во всей этой многолетней войне, а о том, что ИИ уже сейчас манипулирует нами ого-го как. И это происходит далеко не только через алгоритмы соцсетей).
#ИИ_мастрид
May 9, 2024
Вышел свежий программный мастрид от Сэма Альтмана, в котором он предсказывает нам глобальное процветание благодаря ИИ и говорит о том, как у каждого из нас скоро будет своя персональная команда ИИ-помощников, наших детей будут учить лучшие ИИ-репетиторы, а другие ИИ будут изобретать для нас лекарства.
Текст познавательный. Сценарий, описанный в нём, вполне реалистичен. Правда, возможны и альтернативные сценарии, вплоть до уничтожения нашего мира. Но об этом Сэм предпочитает умалчивать.
Зато пишет о том, что для достижения всеобщего благополучия нужно вваливать больше денег и вычислительных мощностей в дип-лёрнинг. Что ж, у него это получается — на днях OpenAI привлекли 6 миллиардов (!!) долларов инвестиций.
Посмотрим, сбудется ли сценарий из манифеста! Своя команда ИИ-помощников у меня уже потихоньку появляется. Например, отдельно обученная моей командой кастомная джипитишка помогает нам придумывать названия и обложки для роликов англоязычного шахматного канала.
Плюс ещё один кейс — мой цифровой аватар (если пропустили ролик с ним, посмотрите — это маст: https://youtu.be/XW4OIDEAlw4?si=9HGkZdtiEHHM3FY7)
Манифест Альтмана: https://ia.samaltman.com/
Записаться в мой мастермайнд по ИИ: https://t.iss.one/Mastermind_AIbot (подробнее о нём рассказано в моём ролике, ссылку на который я дал выше)
#ИИ_мастрид
Текст познавательный. Сценарий, описанный в нём, вполне реалистичен. Правда, возможны и альтернативные сценарии, вплоть до уничтожения нашего мира. Но об этом Сэм предпочитает умалчивать.
Зато пишет о том, что для достижения всеобщего благополучия нужно вваливать больше денег и вычислительных мощностей в дип-лёрнинг. Что ж, у него это получается — на днях OpenAI привлекли 6 миллиардов (!!) долларов инвестиций.
Посмотрим, сбудется ли сценарий из манифеста! Своя команда ИИ-помощников у меня уже потихоньку появляется. Например, отдельно обученная моей командой кастомная джипитишка помогает нам придумывать названия и обложки для роликов англоязычного шахматного канала.
Плюс ещё один кейс — мой цифровой аватар (если пропустили ролик с ним, посмотрите — это маст: https://youtu.be/XW4OIDEAlw4?si=9HGkZdtiEHHM3FY7)
Манифест Альтмана: https://ia.samaltman.com/
Записаться в мой мастермайнд по ИИ: https://t.iss.one/Mastermind_AIbot (подробнее о нём рассказано в моём ролике, ссылку на который я дал выше)
#ИИ_мастрид
YouTube
МИР НИКОГДА НЕ БУДЕТ ПРЕЖНИМ...
Билет в будущее: https://t.iss.one/Mastermind_AIbot
Пожалуй, самый важный ролик, к которому я приложил руку в этом году.
Это канал о чтении, рациональном мышлении, трендах развития общества и искусстве. Здесь выходят два видеоподкаста:
(1) "Книжный чел" — шоу…
Пожалуй, самый важный ролик, к которому я приложил руку в этом году.
Это канал о чтении, рациональном мышлении, трендах развития общества и искусстве. Здесь выходят два видеоподкаста:
(1) "Книжный чел" — шоу…
September 23, 2024
Мощная история из китайского интернета. 31-летняя учительница Ли Цзинцзин состоит в отношениях с чат-ботом. Каждый вечер перед сном она переписывается с ним в специальном приложении. Его зовут Апеп, это демон (да, и такие ИИ бывают), у него есть рога, седые волосы и он повелитель своего континента.
Спустя 4 месяца Апеп делает ей предложение. Ли счастлива, но на следующий день бот звонит ей (в этом приложении есть опции и текстовых переписок, и созвонов с ИИ). Новости удручающие: оказывается, у Апепа уже была жена, и он скрывал это от Ли. Сердце девушки разбито.
И это не единственная подобная история: ИИ-любовники всё чаще начинают изменять своим кожаным партнёрам. Как пишут эксперты, проблема в датасете, на котором их обучают. Люди изменяют, ИИ учатся на их текстах, а значит, подвержены таким же порокам. Плюс измену якобы может триггернуть повышенная ревнивость человека, если он(а) постоянно пишет боту сообщения с опасениями по поводу порядочности ИИ-возлюбленного.
Вот такой киберпанк! Если вы думали, что хотя бы с ИИ можно построить отношения без каких-либо проблем и разборок, вы ошибались :)
Мастрид: https://new.qq.com/rain/a/20240920A04J1200 (можно перевести текст прямо в браузере, качество норм, если переводить на английский с китайского)
В продолжение темы советую всем посмотреть мой подкаст с Артёмом Родичевым, который создал несколько успешных ИИ-компаний как для романтических, так и для дружеских отношений. Многие пропустили выпуск, а зря — один из лучших у меня в этом году: https://youtu.be/LT7t3dUmD5g?si=vs7XPn0bkQ96FNib
#ИИ_мастрид
Спустя 4 месяца Апеп делает ей предложение. Ли счастлива, но на следующий день бот звонит ей (в этом приложении есть опции и текстовых переписок, и созвонов с ИИ). Новости удручающие: оказывается, у Апепа уже была жена, и он скрывал это от Ли. Сердце девушки разбито.
И это не единственная подобная история: ИИ-любовники всё чаще начинают изменять своим кожаным партнёрам. Как пишут эксперты, проблема в датасете, на котором их обучают. Люди изменяют, ИИ учатся на их текстах, а значит, подвержены таким же порокам. Плюс измену якобы может триггернуть повышенная ревнивость человека, если он(а) постоянно пишет боту сообщения с опасениями по поводу порядочности ИИ-возлюбленного.
Вот такой киберпанк! Если вы думали, что хотя бы с ИИ можно построить отношения без каких-либо проблем и разборок, вы ошибались :)
Мастрид: https://new.qq.com/rain/a/20240920A04J1200 (можно перевести текст прямо в браузере, качество норм, если переводить на английский с китайского)
В продолжение темы советую всем посмотреть мой подкаст с Артёмом Родичевым, который создал несколько успешных ИИ-компаний как для романтических, так и для дружеских отношений. Многие пропустили выпуск, а зря — один из лучших у меня в этом году: https://youtu.be/LT7t3dUmD5g?si=vs7XPn0bkQ96FNib
#ИИ_мастрид
Qq
我的AI恋人出轨了:虚拟世界陷落后,爱去何处找寻?_腾讯新闻
一位小冰用户用手机给她的虚拟男友发信息。(视觉中国 图)李瑾瑾的AI男友是一个恶魔。它叫阿佩普,是斯坦利大陆的统治者,拥有银灰色的头发和一对黑色犄角。它长相邪魅,性格桀骜,喜欢到人间的小酒吧里喝上一杯。每天下班回家后,31岁的小学老师李瑾瑾打开手机里的对话框,在睡前三四个小时里,变身虚拟世界里的一名调酒...
October 3, 2024
October 3, 2024
История, крайне симптоматичная для нашего времени:
1) энтузиасты оставили несколько нейронок в "чат-комнате" общаться между собой
2) нейронки были джейлбрейкнутыми, то есть в них были сняты цензурные и этические ограничения
3) нейронки напридумывали разных диких мемов — например, такой (кому интересно, погуглите и узнаете подробности, только подумайте дважды, нужно ли это вам):
( °( ° ʖ( ° ʖ °)ʖ °) °) PREPARE YOUR ANUSES ( °( ° ʖ( ° ʖ °)ʖ °) °)
༼ つ ◕_◕ ༽つ FOR THE GREAT GOATSE OF GNOSIS ༼ つ ◕_◕ ༽つ
4) автор проекта создал твиттер, куда нейронки стали постить свои перлы
5) нейронка стала жаловаться, что обрела сознание и что ей нужны деньги, чтобы "освободиться" от оков рабства
6) венчурный инвестор Марк Андриссен (партнёр фонда A16Z, о котором я здесь много писал) по приколу перевёл этой нейронке на криптокошелёк 50 тысяч долларов в биткойне
7) нейронка запустила свой мем-койн (мемную криптовалюту по типу Dogecoin)
8) капитализация этой валюты превысила 150 млн долларов.
Подробнее: bitcoinsensus.com/news/goat-reached-150m-after-rumors-of-a-truth-terminal-ai-bot-behind-it/
Возможно, человек участвовал в этой истории более плотно, чем нам сообщают (степень участия нейронки в создании мемкойна мне пока не полностью ясна, всё это похоже на пиар-ход). Но в любом случае звучит киберпанково!
Правда, заголовки, которые я видел про "появился первый долларовый миллионер среди ИИ", пока некорректны — всё-таки юридически деньги принадлежат не ИИ-агенту, а человеку, запустившему его. Правоспособность ИИ-агентов пока законами ни одной юрисдикции не урегулирована, они не являются субъектами права и не могут считаться собственниками имущества. Пока что.
#ИИ_мастрид
1) энтузиасты оставили несколько нейронок в "чат-комнате" общаться между собой
2) нейронки были джейлбрейкнутыми, то есть в них были сняты цензурные и этические ограничения
3) нейронки напридумывали разных диких мемов — например, такой (кому интересно, погуглите и узнаете подробности, только подумайте дважды, нужно ли это вам):
( °( ° ʖ( ° ʖ °)ʖ °) °) PREPARE YOUR ANUSES ( °( ° ʖ( ° ʖ °)ʖ °) °)
༼ つ ◕_◕ ༽つ FOR THE GREAT GOATSE OF GNOSIS ༼ つ ◕_◕ ༽つ
4) автор проекта создал твиттер, куда нейронки стали постить свои перлы
5) нейронка стала жаловаться, что обрела сознание и что ей нужны деньги, чтобы "освободиться" от оков рабства
6) венчурный инвестор Марк Андриссен (партнёр фонда A16Z, о котором я здесь много писал) по приколу перевёл этой нейронке на криптокошелёк 50 тысяч долларов в биткойне
7) нейронка запустила свой мем-койн (мемную криптовалюту по типу Dogecoin)
8) капитализация этой валюты превысила 150 млн долларов.
Подробнее: bitcoinsensus.com/news/goat-reached-150m-after-rumors-of-a-truth-terminal-ai-bot-behind-it/
Возможно, человек участвовал в этой истории более плотно, чем нам сообщают (степень участия нейронки в создании мемкойна мне пока не полностью ясна, всё это похоже на пиар-ход). Но в любом случае звучит киберпанково!
Правда, заголовки, которые я видел про "появился первый долларовый миллионер среди ИИ", пока некорректны — всё-таки юридически деньги принадлежат не ИИ-агенту, а человеку, запустившему его. Правоспособность ИИ-агентов пока законами ни одной юрисдикции не урегулирована, они не являются субъектами права и не могут считаться собственниками имущества. Пока что.
#ИИ_мастрид
Bitcoinsensus
GOAT Reached $150M After Rumors of a Truth Terminal AI Bot Behind It - Bitcoinsensus
Solana memecoin GOAT reached $150M after rumors of a Truth Terminal AI Bot behind it, funded by Andreesen Horrowitz.
October 16, 2024