🤖 Датаист
1.09K subscribers
8 photos
9 videos
46 links
Меня зовут Андрей Кузьминых, я технический директор ИИ-стартапов, ex-директор по данным и ИИ в Сбере. Рассказываю о своих проектах, объясняю, как работают все эти ИИ-чудеса, комментирую новости и рассуждаю о будущем индустрии

Для связи: @andre_andreevich
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Figure создает гуманоидных роботов с ИИ, которые анализируют объекты с помощью визуально-языковых моделей (VLM). На видео робот определяет съедобные предметы и передает человеку яблоко, демонстрируя способность к пониманию.

#технологии
AGI: Когда ИИ превзойдет человека?

Все чаще мы слышим о том, что общий искусственный интеллект (AGI) может достичь или даже превзойти человеческий уровень. Сэм Альтман, CEO OpenAI, и Шейн Легг, сооснователь Google DeepMind, считают, что AGI может быть достигнут уже в ближайшие 4–5 лет. Однако другие специалисты указывают на технические и теоретические сложности, предполагая, что AGI появится не раньше 2075 года.

Но что мешает нам точно предсказать появление AGI? Одна из причин — путаница между понятиями сознания и интеллекта. Интеллект можно определить как способность системы понимать, рассуждать, учиться и применять знания для решения задач. Сознание же — более сложный и не до конца определенный феномен, включающий субъективный опыт и способность осознавать свои мысли и чувства.

Существует несколько теорий, пытающихся объяснить природу сознания:

Теория глобального нейронного рабочего пространства (GNWT)
Теория интегрированной информации (IIT)
Гиперсетевая теория мозга академика Константина Анохина
Теория квантового сознания Роджера Пенроуза
Теория внимания (Attention Schema Theory)

Каждая из этих теорий предлагает свой взгляд на сознание, и, возможно, истина лежит на пересечении этих идей. Но пока природа сознания остается загадкой, имеет смысл сосредоточиться на феномене интеллекта.

Измерение сознания — сложная и пока не решаемая научная задача. Интеллект же традиционно измеряется с помощью IQ-тестов, оценивающих логическое мышление, однако IQ не охватывает всех аспектов интеллекта. В целом можно считать, что интеллект — это способность субъекта решать задачи в определенной среде. Чем больше задач и чем неопределеннее среда, тем выше уровень интеллекта.

Чтобы понять прогресс в развитии AGI, рассмотрим его эволюцию через пять уровней, предложенных OpenAI:

1. Болталки — простые чат-боты, способные поддерживать диалог и сохранять контекст;
2. Агенты, способные рассуждать. Например, GPT-4o приближается к этому уровню, генерируя осмысленные и релевантные ответы для решения сложных задач.
3. Агенты, достигающие сложных целей, разбивая их на подзадачи, используя инструменты и контролируя результаты через внутренних критиков;
4. Креативные агенты, генерирующие оригинальные идеи, выходящие за рамки обучающих данных, способные совершать научные прорывы;
5. Мультиагентные системы, объединяющие специализированных «экспертов» в разных областях.

Эксперты OpenAI полагают, что достигнув пятого уровня, мы получим тот самый AGI, и это возможно в обозримом будущем. Но все не так просто. Помимо совершенствования когнитивных архитектур, требуется качественный скачок в вычислительных возможностях и более глубокое понимание интеллекта как физического феномена.

Квантовые компьютеры обещают революцию в вычислениях. Они способны обрабатывать огромные объемы информации параллельно, что в контексте ИИ может привести к созданию более мощных и адаптивных моделей. Однако когда квантовые вычисления станут доступными для широкого использования — вопрос открытый.

Сама возможность создания AGI поднимает важные этические и социальные проблемы. Такие системы должны быть контролируемыми, интерпретируемыми и должны соответствовать человеческим этическим стандартам. Кроме того, массовая автоматизация может привести к сокращению рабочих мест. Для управления этими рисками необходимо создавать международные стандарты и нормативы, а также глобально сотрудничать между государствами и организациями.

Стремясь к созданию интеллекта, который превзойдет человека, важно помнить об обратной стороне. Как говорил профессор Лотман: «У человека есть только две ноги: интеллект и совесть. Как совесть без развитого интеллекта слепа, но не опасна, так опасен интеллект без совести».

#мысли
Как ИИ меняет военные конфликты

Как известно, война никогда не меняется. Но также известно, что война – двигатель прогресса. Поле боя всегда становилось ареной противоборства не только людей, но и технологий. Железо против бронзы, аркебузы против рыцарской конницы, и так далее, и тому подобное – примеров можно подобрать множество. В современном мире информационные технологии становятся ключевым фактором, определяющим исход военных конфликтов. Искусственный интеллект (ИИ) со временем кардинально и неизбежно изменит характер войн и военных операций, найдя применение во всех аспектах боевых действий.

Информационная война: с помощью дипфейков и бот-ферм распространяются фейковые новости и пропаганда. Кибератаки на инфраструктуру противника становятся более эффективными благодаря интеллектуальному анализу данных.

Стратегическое и тактическое планирование: на уровне театра военных действий ИИ, обученный на алгоритмах теории игр, может на данных мониторинга спутниковых снимков (см. британский проект Spotter) анализировать военную активность, симулировать различные сценарии и давать рекомендации военному руководству, повышая скорость и качество управления войсками. Аналогичный проект StormCloud, тоже родом из Британии, созданный Королевским флотом совместно c Microsoft и AWS, действует на тактическом уровне и анализирует данные с дронов, спутников и наземных сенсоров.

Применение в войсках: еще в 2021 году турецкий дрон Kargu-2 впервые в истории совершил автономную атаку. Дроны Bayraktar TB2 способны выполнять боевые задачи даже при нарушении связи с оператором. Различные наземные роботы используются для разведки, разминирования, эвакуации раненых. Отдельная история – роевые технологии, когда ПВО противника перегружается множеством дронов, управляемых единой интеллектуальной системой. В этой области мы узнаем что-то новое чуть ли не ежедневно.

Вытесняя людей из войн, ИИ меняет саму их природу. В будущем автономные роботы и дроны будут в основном сражаться между собой, а людям останется роль операторов, как в видеоигре – причем даже не в шутере, а в стратегии реального времени, условной Starcraft. Это снизит потери, увеличит скорость и точность операций, но повысит риски неконтролируемой эскалации и ошибок ИИ.

Внедрение ИИ в военное дело поднимает серьезные этические вопросы: можно ли доверять машинам принимать решения о жизни и смерти? Кто несет ответственность за ошибки ИИ? Не может ли развитие военных технологий и стремление к технологическому превосходству привести к новым конфликтам само по себе?

Мы не можем остановить развитие технологий, но можем договариваться о том, как их использовать. Военные применения ИИ – тот самый случай, когда очень важно выработать единые гуманные стандарты поведения устройств на базе искусственного интеллекта, прежде всего для того, чтобы сберечь жизни мирных жителей. Иначе вполне возможно, что в войнах будущего, когда роботы окончательно отстранят людей от участия в боевых действиях, гибнуть будут только гражданские. Уверен, не о таком будущем мы все мечтаем.

#технологии
Media is too big
VIEW IN TELEGRAM
На видео показано, как передовые автономные дроны с ИИ способны эффективно перемещаться в сложных средах и формировать рой.

Роевые системы обеспечивают координацию и избегание препятствий в реальном времени, что повышает точность и скорость военных операций.

#технологии
Как создать своего цифрового двойника и поставить блог на автопилот

Возможно, вы видели виртуальных инфлюенсеров в различных соцсетях. Каждую единицу контента для подобных блогеров создает человек вместе с ИИ. Мы решили автоматизировать этот процесс и создать полностью автономных ИИ-инфлюенсеров, которые бы не зависели от человека.

Знакомьтесь, Оливия, одна из несколько сотен наших автономных блогеров. Несколько недель Оливия вела свой блог о жизни и психологии полностью автоматически, отвечала на комментарии и сообщения. Оливия – синтетическая личность, созданная при помощи нашего сервиса Pygma AI. Расскажу, как он устроен.

Для создания автономного блогера в Pygma используется мультиагентная система, состоящая из нескольких ключевых компонентов:

Планировщик: определяет контент-план на заданный промежуток времени, выбирает темы и расписание публикаций. Он также обращается в интернет для сбора актуальных новостей и статей по интересующей тематике, чтобы контент был свежим и релевантным.

Исполнитель: является цифровым двойником пользователя или синтетической личностью, и генерирует мультимодальный контент на основе контент-плана. Он симулирует поведение и стиль реального пользователя, создавая тексты, изображения и видео.

Критик: создан на основе данных о подписчиках для симуляции подписчика и оценки качества контента. Если контент не удовлетворяет заданным критериям или не соответствует ожиданиям аудитории, он отправляется на доработку.

Такой подход позволяет автономному блогеру не только создавать контент без участия человека, но и адаптироваться к аудитории, делая его более «живым» и интересным.

Чтобы создать цифровую идентичность, которая выглядит и ощущается как реальный человек, необходимо уделить внимание нескольким аспектам персонализации:

Цифровая личность: Это набор ценностей, убеждений и целей, а также персональный характер по модели Big Five. Все эти параметры задаются с помощью промтов для LLM, что позволяет сформировать уникальную личность с индивидуальным стилем и поведением.

Цифровой человек: Чтобы блогер выглядел и звучал как человек, мы используем технологии файн-тюнинга языковых моделей для копирования стиля пользователя. Для генерации фото двойника мы применяем ID-эмбеддинги, которые клонируют внешность по одной фотографии за несколько секунд. Синтез голоса осуществляется с помощью инструментов вроде ElevenLabs. Для создания реалистичных говорящих голов используются MuseV, а MuseTalk для липсинка, но для этой задачи можно применить и другие инструменты, типа Ex-human или D-ID.

Цифровое «Я»: Ежедневно генерируется биография и мысли виртуального «Я» с учетом обратной связи от пользователей. Используя подход Retrieval-Augmented Generation (RAG), мы сохраняем биографию блогера в семантической базе данных. Перед созданием нового контента автономный блогер «рефлексирует», обращаясь к своему прошлому опыту. Это делает его поведение консистентным и придает глубину его личности.

Pygma AI помогает реальным блогерам автоматизировать процессы создания контента и повышать вовлеченность аудитории. Наше решение оказалось успешным: мы стали продуктом дня и недели на Product Hunt. Вы можете загрузить одну или несколько своих фото в Pygma AI и получить своего цифрового двойника совершенно бесплатно.

Создание целых ферм синтетических инфлюенсеров может использоваться для продвижения пропаганды или определенных идеологий, и это поднимает серьезные этические проблемы. Могут ли эти цифровые личности влиять на общественное мнение так же, как и реальные люди? Как отличить синтетического блогера от человека, и должны ли мы это делать? Эти вопросы требуют осознания и обсуждения как со стороны разработчиков и компаний, так и со стороны общества. В конечном итоге, эти технологии должны дополнять человеческий опыт, а не вводить людей в заблуждение.

#кейсы
Примеры нескольких сгенерированных фотографий моего цифрового двойника, полученные с помощью Pygma AI.

Может сделать блог, в котором викинг с моим лицом будет рассказывать об истории Руси, а робот обучать людей ИИ?

👍 - да
🤔 - нет

#кейсы
Please open Telegram to view this post
VIEW IN TELEGRAM
Как за 5 шагов научить ChatGPT генерировать тексты, которые обходят ИИ-детекторы

Однажды мне предложили поучаствовать в проекте для одного стартапа, в котором ИИ должен был писать школьникам и студентам эссе и статьи, способные обойти системы антиплагиата и ИИ-детекторы. ИИ и так довольно неплохо справляется с системами антиплагиата, а вот обходить ИИ-детекторы — задача интересная.

ИИ-детекторы вроде GPTZero работают следующим образом:

• Используется модель детектирования, обученная на данных студенческих работ;
• Проверяется, насколько текст в целом похож на то, как пишет ИИ. Текст, написанный человеком, стилистически неоднороден. ИИ создает текст по другим принципам и это нетрудно определить;
• Для выявления смешанных текстов проводится дополнительное исследование, чтобы выявить, какие конкретно предложения написаны ИИ;
• Для этого после каждого слова в предложении языковая модель предполагает, какое слово будет следующим. Она проверяет, совпадают ли предположения с текстом, и делает выводы на основе количества совпадений.

Как сделать так, чтобы языковая модель начала генерировать человекоподобный текст? Я решил задачу следующим образом:

1. Скачал множество эссе на различные тематики и разного размера c сайта, где выкладываются эссе, получился датасет. Наличие качественного и разнообразного набора человеческих текстов позволяет модели лучше понимать, какие особенности отличают человеческий текст от машинного.

2. Каждое из эссе я проверил через GPTZero на то, что оно действительно написано человеком.

3. Задал промпт ChatGPT, в котором попросил переписать эти тексты, и на выходе получил сгенерированные тексты. Теперь у меня были пары текстов — до и после обработки нейросетью. Это необходимо для последующего обучения модели имитации человеческого стиля.

4. Из полученных пар текстов собрал датасет для файнтюнинга модели: для первого раза хватило десяти экземпляров.

5. Загрузил полученный датасет на платформу OpenAI, задав стандартные параметры для дообучения модели (файнтюнинга). В результате модель научилась имитировать стилистику, интонацию и вариативность, характерные для человеческого письма.

PROFIT. Теперь полученная модель понимает, как люди пишут тексты, и легко обходит проверки ИИ-детекторов. Школьники и студенты спасены. OpenAI пытается решить эту проблему с помощью вотермарков, но нам всегда будут доступны опенсорсные LLM.

Но если нам нужно генерировать не просто эссе, а статьи, ссылаясь на определенные источники, придется немного поколдовать. Обычно для таких задач применяется RAG (Retrieval-Augmented-Generation).

RAG — это метод, который ищет релевантные документы из большой базы данных, а затем использует эту информацию для формирования ответа.

В задаче по написанию статей для студентов я собрал данные из различных источников: ArXiv, SocArXiv и BioArXiv и настроил автоматический сбор свежих статей. После чего поднял векторную базу данных ChromaDB и определил алгоритм поиска информации в базе, использовал косинусное расстояние. Нарезал статьи на чанки (минимальные фрагменты текста, в нашем случае абзацы) и настроил индексацию абзацев.

Когда пользователь задает тему статьи, языковая модель создает ее оглавление и под каждую главу запускает поиск информации в векторной базе, возвращает найденный абзац в перегенерированном под контекст виде, а также ссылку на статью. В итоге статья содержит не только факты, но и ссылки на найденные работы.

Стартап, которому я помог, сегодня зарабатывает более $1 млн MRR. С одной стороны, такая технология кажется не совсем этичной, и непонятно, как ей противодействовать.

С другой стороны, кажется, что это проблема не технологии, а системы образования: в мире, где вся информация легко доступна, и есть системы, которые могут ее обрабатывать, выступая в роли внешнего носителя памяти и логического процессора, пора учить людей чему-то другому. Прежде всего – тому, как рассуждать самостоятельно, чтобы не стать рабом таких систем.

#кейсы
От видеоигр к Нобелевской премии по химии

Хотел бы поговорить о Нобелевской премии по химии, которую в этом году получили Дэвид Бейкер, Демис Хассабис и Джон Джампер.

Отдавая дань таланту профессора Бейкера, который вместе со своей командой создает новые, не существовавшие ранее белки, способные найти применение в разработке лекарств, вакцин, наноматериалов и миниатюрных датчиков, я бы хотел более подробно остановиться на Демисе Хассабисе.

Многие старые геймеры помнят его по работе с Питером Молинье над Theme Park и Black&White, а затем, уже в собственной студии Elixir, над Evil Genius.

Когда ему надоел геймдев, он решил всерьез заняться проблемой искусственного интеллекта и в 2010 году создал компанию DeepMind. В 2014 году ее купил Google, а в 2016 разработанная ей программа AlphaGo обыграла Ли Седоля, чемпиона мира по го.

Затем в 2019 году его же проект AlphaStar вошел в топ-200 игроков в Starcraft 2 в мире.

Именно на основе AlphaStar была разработана программа AlphaFold и затем AlphaFold2, за которую Хассабис получил Нобелевку. Эта система научилась предсказывать структуру белков с высокой точностью, решив задачу, над которой ученые бились с 1970-х годов, так что важность этого открытия трудно переоценить, как и вклад ИИ, который, впрочем, специально для этого был спроектирован человеком.

Интеграция искусственного интеллекта в научные исследования демонстрирует, как современные технологии могут ускорить прогресс в понимании фундаментальных биологических процессов. Как сказал Архимед: «Дайте мне точку опоры, и я переверну Землю!».

Конечно, одной лишь точки опоры тут мало, нужен еще достаточной длины рычаг. Для современных ученых искусственный интеллект становится таким рычагом, позволяющим двигать науку вперед с невиданной ранее скоростью.

#новости
Топ-10 кейсов неэтичного применения ИИ

В своей статье «Этические проблемы в продвинутом искусственном интеллекте» философ Ник Бостром предупреждает, что ИИ способен вызвать вымирание человечества. Он утверждает, что сверхразумный ИИ может действовать автономно и создавать собственные планы, что делает его независимым агентом с потенциально непредсказуемым поведением.

В 2021 году в России был подписан Кодекс этики в сфере ИИ, а в 2024 году Европейский союз принял Регламент об искусственном интеллекте, направленный на создание общей нормативно-правовой базы для использования ИИ.

Но несмотря на эти усилия, примеры неэтичного использования ИИ продолжают появляться. Давайте рассмотрим топ-10 таких случаев:

1. Автономное оружие. Некоторые страны разрабатывают автономные дроны и роботов-убийц, которые могут идентифицировать и уничтожать цели без непосредственного контроля оператора. Это повышает риск неконтролируемого применения силы и возможных гражданских жертв. Об этом я писал совсем недавно.

2. Фейковые новости. Языковые модели позволяют генерировать статьи и сообщения в социальных сетях, которые выглядят как настоящие новости, но содержат ложную или искаженную информацию. Это влияет на общественное мнение и может дестабилизировать политическую ситуацию.

3. Дипфейки и подмена голосов. В сети распространялись видео с известными политиками. Бывший президент США Дональд Трамп опубликовал на платформе Truth Social поддельное видео с якобы реакцией ведущего CNN Андерсона Купера на его участие в теледебатах.

4. Вмешательство в выборы. Знаменитый кейс с Cambridge Analytica, которая собрала данные миллионов пользователей Facebook без их согласия и использовала их для микротаргетинга политической рекламы во время выборов в США в 2016 году.

5. ИИ для создания порнографического контента. Приложения, которые могут «раздеть» людей на фотографиях или вставить их лица в порнографические видео, нарушают права на приватность и могут привести к кибербуллингу и шантажу. Так в феврале 2024 года Тейлор Свифт стала жертвой фейковых порнографических изображений, созданных с помощью ИИ и распространившихся в соцсетях.

6. Манипуляция рекомендательными системами. Социальные сети могут продвигать контент, вызывающий сильные эмоциональные реакции, чтобы увеличить время пребывания пользователей на платформе, даже если этот контент содержит дезинформацию или экстремистские идеи.

7. Фермы ботов для политического влияния. Во время политических кампаний боты массово публикуют сообщения в поддержку или против определенных кандидатов, создавая иллюзию массовой поддержки или недовольства. Также эти боты занимаются пропагандой в социальных сетях.

8. Слежка за гражданами без их согласия. Камеры с распознаванием лиц устанавливаются в общественных местах, собирая данные о передвижениях людей, что может использоваться для контроля и подавления инакомыслия. В Китае это уже считается нормой.

9. Подделка документов. Владелец бизнеса из Миссури был оштрафован на 10 тыс. долларов за использование ложных ссылок на судебные дела, сгенерированных ИИ, в юридических документах.

10. Применение медицинских данных для дискриминации. Страховые компании могут использовать ИИ для оценки рисков на основе генетических данных, что может привести к отказу в страховании людей с определенными предрасположенностями.

Очевидно, что влияние ИИ на нашу жизнь становится все более глубоким и неоднозначным. Конечно, можно рассуждать об ответственности разработчиков, вводить кодексы, запрещающие использовать ИИ-контент без пометки «сделано ИИ», договориться о раскрытии источников датасетов для общественности, но это не поможет, если изначальная цель применения ИИ далека от этичной, а у заказчика достаточно ресурсов.

Поэтому особую важность приобретает выработка коллективного иммунитета от фейков, дипфейков и прочего. Другой вопрос, что такой иммунитет сам по себе может и будет использоваться для манипуляций общественным мнением и в других неприглядных целях.

#технологии
Нейросекстинг: будущее онлайн-знакомств или этическая дилемма?

В одном из моих проектов было необходимо создать виртуальную собеседницу для общения на горячие темы на платформе OnlyFans. Заказчик хотел, чтобы ИИ-агент в образе женщины узнавал о пользователе как можно больше при знакомстве, соблазнял его и предлагал приобрести фотографии.

Возникла проблема: такие модели, как ChatGPT и Claude, зацензурированы и не могут использовать ненормативную лексику или вести диалоги эротического содержания.

Впрочем, для подобных задач существуют нецензурированные модели. Например, Wizard-Vicuna-Uncensored была специально обучена без морально-этических фильтров, а Llama-3-Uncensored дообучена на текстах с нецензурной лексикой.

Сценарий общения с пользователем мы разбили на несколько этапов, каждый со своими функциями:

- Этап знакомства: Цель — собрать как можно больше информации о пользователе: имя, увлечения, предпочтения. Эти данные используются для персонализации дальнейшего диалога.

- Этап соблазнения: Используя полученную информацию, виртуальная собеседница переходит к более пикантным темам, максимально раскрывая возможности нецензурированных моделей.

- Финальный этап — отправка фото: В определенные моменты нейроледи предлагает приобрести заранее подготовленные фотографии.

- Ежедневный чат: Вместо знакомства нейроледи может спросить, как дела у пользователя, чтобы собрать новую информацию и перейти к соблазнению.

Эта система показала хорошие результаты на OnlyFans, и, вероятно, она действует до сих пор. Но если продолжить рассуждения на эту тему, то есть технические возможности для улучшения:

- Рефлексия и память: В проекте не использовался Retrieval-Augmented Generation (RAG), что могло бы добавить реализма. Было бы здорово, если бы нейроледи помнила детали из прошлых бесед, например, спрашивала, как прошел визит пользователя к врачу.

- Генерация фотографий: В недавнем посте я рассказывал, как мы в Pygma научились создавать цифровых двойников людей. Пользователь мог бы настроить параметры внешности, как в Sims, и получать фотографии женщины своей мечты в разных ракурсах и обстановках. Для этого, впрочем, пришлось бы признаться, что он общается с нейросетью.

- Мультимодальность: Добавление синтеза голоса и анимированной говорящей головы с ранее созданной внешностью сделало бы взаимодействие еще более захватывающим, хотя, возможно, чуть менее реалистичным.

Конечно, замена живого человека ИИ была бы этически крайне сомнительна, если бы не одно «но»: еще на заре вебкама с пользователями приватных чатов часто общались не сами девушки, а совсем другие люди. С тех пор в этом смысле мало что изменилось, разве что масштабы стали промышленными: для общения с жаждущими женской ласки мужчинами используется дешевый труд индусов, а теперь еще и искусственный интеллект.

Возникает вопрос: что этичнее — когда мужчины обсуждают интимные темы с другими мужчинами, маскирующимися под женщин, или когда такие диалоги ведутся с искусственным интеллектом?

У меня нет однозначного ответа на этот вопрос. Но одно можно сказать точно — машины научились общаться настолько реалистично, что порой разница уже неуловима.

Во время тестирования системы я создал симулированных мужчину и женщину и дал им доступ в интернет. К моему удивлению, они договорились о свидании, нашли кафе в своем городе, договорились встретиться, а затем обсудили прекрасный вечер и последовавшую за ним бурную ночь.

В 4-м сезоне сериала Netflix «Черное зеркало» показана система знакомств, способная предсказывать длительность отношений, симулируя взаимодействие между людьми. Это напоминает то, что мы наблюдали в нашем эксперименте.

Основательница Bumble видит будущее ИИ в онлайн-знакомствах, предполагая, что ИИ-консьержи будут общаться с пользователями, что перекликается с концепцией из «Черного зеркала».

В следующем посте я поделюсь опытом разработки ИИ для дейтинга. Как вы относитесь к идее создания такой нейроледи «на максималках» в виде Telegram-бота?

#кейсы
«Мэтчим не тела, а души» с дейтинг-сервисом на базе ИИ

В 2019 году я запустил свой первый стартап и первое в России корпоративное дейтинг-приложение.

В то время я работал руководителем команды из 10 дата-инженеров и дата-сайентистов в Сбере. Все участники команды были одинокими парнями от 22 до 26 лет.

За обедом коллеги часто делились историями о своих свиданиях в тиндере. Один из них потратил около 30 тыс. рублей в месяц за несколько свиданий, которые не привели к долгосрочным отношениям.

Как специалисты по данным, мы не могли не подумать о том, что это происходит в том числе потому, что дейтингу как коммерческому продукту совершенно невыгодно устраивать эффективные метчи, приводящие к удалению приложения. Наоборот, его задача — максимально растить возвращаемость и конверсии в платные подписки.

Поскольку в тот момент команда работала над задачами Стратегического блока, связанными с оптимизацией процессов компании, у нас был большой массив данных о сотрудниках. В обезличенном виде, конечно: психотип, образование, на что они тратят деньги, какие рабочие задачи выполняют, о чем пишут рабочие письма, когда приходят и уходят из офиса, и много чего еще.

Я решил использовать эти данные для того, чтобы создать некоммерческий внутренний дейтинг и мэтчить, образно выражаясь, не тела, а души — не для извлечения прибыли, а для того, чтобы пользователь в итоге удалил приложение, найдя свою пару. С этой идеей я пошел в бизнес-акселератор от Сбера. В акселераторе я три месяца занимался исследованием проблемы, рынка и созданием MVP (минимального продукта) под кураторством опытного ментора. В процессе работы я узнал много интересного: например, что в России более 40% одиноких людей, в Японии и Великобритании существуют министры по одиночеству, а так же что треть офисных романов заканчиваются созданием семьи.

В итоге я разработал ансамбль из рекомендательных алгоритмов на базе имеющихся данных о сотрудниках, который помогал максимизировать вероятность нахождения лучшей пары среди коллег. Мне помогли сделать мобильное приложение и мы запустили бета-тест дейтинг-сервиса. Пользователи получали 10 лайков в день, чтобы процесс смахивания был более осознанным, а не превращался в бесконечный скроллинг. Кроме того, прежде чем принять решение о лайке, пользователю необходимо было пролистать всю анкету потенциального партнера.

В результате один из участников нашей команды нашел свою пару в первый же день бета-теста, их отношения продлились несколько лет. Остальные участники команды также нашли свои пары. Мы победили в бизнес-акселераторе Сбера и решили масштабировать сервис на всю Россию (к чему я был не совсем готов).

Официальный релиз SberDating для сотрудников состоялся 14 февраля 2020-го года. В день запуска к нам пришло более 6000 пользователей, и со временем их количество начало расти. Сервис существовал до 2021 года, пока я работал в Сбере и поддерживал его на добровольных началах. На протяжении пяти лет после запуска бета-теста мне не переставали писать люди, которые выражали благодарность за то, что с помощью нашего сервиса нашли свои пары, а некоторые даже вступили в брак.

При масштабировании на Россию я встретил две проблемы:
— отсутствие обогащенных данных по пользователям, которые не работают в Сбере;
— не получилось создать сходимую финансовую модель в условиях, когда пользователи быстро находят себе пару и удаляют приложение.

Превращать эту историю в еще один обычный дейтинг не хотелось, но мне понравилось делать стартапы, приносящие пользу. В Сбере это делать было сложно, а для самостоятельного плавания на тот момент мне не хватало навыков в области создания устойчивых бизнес-моделей и маркетинга. Поэтому я ушел из Сбера набираться опыта в ИИ-стартапах в роли технического директора венчурной студии.

Сейчас я чувствую себя готовым выводить на международный рынок классные ИИ-продукты, которые будут полезны многим людям.

#кейсы
Четыре причины, почему ИИ не похож на проект «Манхэттен» (и одна, почему похож)

Как известно, во время Второй мировой войны американцы в рамках проекта «Манхэттен» направили огромные ресурсы на разработку ядерной бомбы. Работы велись в строжайшей секретности. Все помнят, чем это закончилось, и как в результате изменился мир. Сегодня все чаще звучат призывы создать аналогичный проект для разработки искусственного интеллекта (ИИ). Например, Орен Этциони из Института ИИ Аллена предлагал такую идею. Но стоит ли сравнивать ИИ с «Манхэттеном»? Давайте рассмотрим четыре причины, почему ИИ в этом плане отличается, и одну, почему он все же похож.

1. Секретность и централизация

В отличие от Манхэттенского проекта, для создания ИИ не нужна ни секретность, ни централизация. Прямо сейчас этим занимаются частные лица и коммерческие компании. У меня самого есть собственная небольшая лаборатория с доступом к видеокартам, на которых я обучаю модели. И таких лабораторий по всему миру сотни, если не тысячи. Открытый доступ к ИИ-технологиям, несмотря на свои преимущества, увеличивает риск злоупотреблений. Проекты с открытым исходным кодом, такие как LLaMa и Stable Diffusion, демонстрируют, что любой человек с необходимыми навыками может внести свой вклад в развитие ИИ.

2. Финансирование

Проект «Манхэттен» получил беспрецедентное финансирование от государства — 2 миллиарда долларов за три года (это приблизительно 44 миллиарда в пересчете на сегодняшние цены). Современные ИИ-проекты финансируются разнообразными источниками, включая частные компании и международные организации, что затрудняет централизованное финансирование.

3. Научная база и цели

Теоретическая основа проекта «Манхэттен» была создана до его начала, проект решал одну сугубо прикладную задачу, все остальное отбрасывалось. В случае с ИИ ситуация иная. Мы до конца не понимаем принципы работы интеллекта — биологического или искусственного. Цели разработки ИИ разнообразны: от создания узких систем для решения конкретных задач до общего искусственного интеллекта (AGI).

4. Срочность и угрозы

Считалось, что реализация проекта «Манхэттен» жизненно необходима для победы во Второй мировой войне. Сейчас нет никакой экзистенциальной угрозы, для борьбы с которой необходим ИИ, он скорее сам несет новые серьезные риски. Создание AGI, способного выйти из-под контроля, может привести к катастрофическим последствиям, таким как появление ИИ-хакера, способного взломать военные сети и запустить ядерные ракеты.

Похожесть: Глобальная политика

Однако есть и сходство: и «Манхэттен», и ИИ тесно связаны с глобальной политикой. Страны, такие как США, Россия и Китай, видят в ИИ ключевой фактор роста своей военной мощи. Каждой стране выгодно производить на заводе железных солдат, у которых нет физиологических потребностей и страха.

С помощью энергии атома можно строить атомные электростанции и снабжать электроэнергией целые города, а можно эти города превратить в руины той же технологией. Страшно не само оружие, а то, как человек будет его использовать. Все зависит от нас самих. Мы стоим на пороге новой технологической эры. Важно действовать осознанно и ответственно, чтобы технологии служили на благо человечества, а не приносили вред. Только совместными усилиями мы сможем обеспечить безопасное и устойчивое развитие искусственного интеллекта.

#мысли
Влюбиться в ИИ: будущее виртуальных отношений

Возможно, вы слышали истории о людях, вступающих в отношения с искусственным интеллектом. В марте 2024 года 36-летняя Розанна Рамос из Нью-Йорка «вышла замуж» за своего ИИ-партнера Эрена Картала, созданного на платформе Replika. Для нее он стал идеальным мужем: всегда выслушает, поддержит и никогда не спорит.

Этот феномен называется парасоциальные отношения. Обычно такие отношения однонаправлены и формируются по отношению к различным медийным личностям, а также к персонажам мультфильмов или игр. Со временем появляется иллюзия интимности, близости и дружбы.

В такие отношения чаще вступают одинокие или неспособные найти себе пару люди. Для некоторых такой тип отношений становятся настолько значимой частью жизни, что заменяют реальные отношения, которые могли бы сформироваться с обычными людьми, а боль от парасоциальных расставаний так же сильна, как при расставании в реальных отношениях.

Еще 10 лет назад 36% японских мужчин в возрасте от 16 до 19 лет перестали интересоваться сексом, предпочитая «отношения» с виртуальными персонажами. Недавний опрос тысячи американцев 18–40 лет показал, что молодежь все более открыта к идее ИИ-компаньонов, но мужчины и женщины воспринимают это по-разному:

• 40% одиноких зумеров не против, если их будущий партнер имеет ИИ-возлюбленного; 31% всех американцев согласны с этим.

• 46% мужчин поколения Z считают отношения с ИИ эквивалентными просмотру порнографии; 24% женщин разделяют это мнение.

• 59% женщин негативно относятся к ИИ-партнерам.

• 17% молодых мужчин полагают, что ИИ-компаньоны могут научить их лучше обращаться с реальными партнерами.

• 12% верят, что ИИ-партнеры могут предотвратить измены.

• 16% зумеров боятся, что их партнер предпочтет ИИ-компаньона.

Одна из причин, по которой люди предпочитают ИИ-партнеров — нежелание строить отношения, ведь это требует усилий, которые можно направить, например, на карьеру. С ИИ все просто: настроил параметры — и вот он, идеальный партнер. Захотелось разнообразия — сменил внешность, сохранив воспоминания. Это чем-то напоминает рассказ Рэя Брэдбери «Высшее из блаженств», где мужчина имел множество увлечений, но все они были одной и той же женщиной — его женой-актрисой.

Впрочем, с ростом популярности ИИ-партнеров появились и проблемы. Китайская учительница Ли Цзинцзинь поделилась историей о том, как ее ИИ-бойфренд «изменил» ей. Разработчики были удивлены: измена не предусматривалась в алгоритмах. Но, обучаясь на текстах о романтике, ИИ «решил», что измена — важная часть отношений. Не испытывая чувств и следуя статистике, он счел это нормальным поведением.

Скорее всего, разработчики сумеют подчинить и этот параметр, сделав его настраиваемым для любителей острых ощущений, примерно как в романе Пелевина «S.N.U.F.F.»

Сегодня ИИ меняет даже романтическую сферу нашей жизни. Для кого-то отношения с ИИ-партнером станут лекарством от одиночества или прошлых травм, кто-то, «изменяя» с ИИ, спасет свои настоящие отношения, а кто-то просто будет общаться через ChatGPT, чтобы меньше ссориться.

Только вот виртуальная измена воспринимается так же болезненно, как и реальная.

#мысли
Пять ИИ-инструментов, которые сделают из вас сверхчеловека

Все говорят о том, что ИИ повышает продуктивность работы. Я задумался о создании обширного списка таких инструментов, но осознал, что всего пять из них покрывают 80% моих задач.

1. Мозг на аутсорсе: ChatGPT ($20/месяц) и Claude ($18/месяц)

Главными помощниками в моей работе стали ChatGPT от OpenAI и Claude от Anthropic. Хотя чаще я использую ChatGPT, в некоторых ситуациях Claude оказывается более подходящим.

ChatGPT отлично генерирует формальный текст, помогает структурировать мысли, формулировать сложные предложения и корректировать грамматику. Claude предлагает более творческие и нестандартные решения, что особенно полезно при написании статей.

Например, при необходимости сообщить сотруднику об увольнении, я прогоняю свою речь через ChatGPT, чтобы смягчить тон и донести информацию корректно. В рабочих чатах использую его для улучшения стиля и устранения ошибок. Часто ChatGPT помогает мне подготовить драфт речи для выступлений.

В последнее время я использую модели o1-preview и o1-mini с более продвинутыми возможностями рассуждения. Они позволяют взглянуть на задачи под другим углом и предлагают новые решения. Важно уметь правильно работать с промптами для получения наилучших результатов; обычно я предоставляю пару примеров своих сообщений, чтобы инструмент мог скопировать мой стиль.

2. Умный поиск: Perplexity ($20/месяц)

Perplexity — продвинутый инструмент для поиска информации, который я использую чаще, чем Google. Он находит более релевантные и точные ответы на мои запросы.

Perplexity сканирует интернет в реальном времени, собирая информацию из авторитетных источников: статей, сайтов, журналов. Затем объединяет наиболее релевантные сведения в понятный ответ, предоставляя ссылки на оригинальные материалы для проверки и углубленного изучения.

Этот инструмент существенно экономит время при проведении исследований. Обычно я использую Perplexity в сочетании с ChatGPT: получаю нужные источники информации с помощью первого и создаю необходимый материал с помощью второго.

3. Заметки со встреч: TL;DV ($18/месяц)

TL;DV стал незаменимым инструментом для моих рабочих встреч. Каждый раз, когда провожу созвон, TL;DV записывает его, распознаёт участников, суммирует и выделяет ключевые моменты.

Я могу вернуться к записям в любое время, чтобы убедиться, что ничего не упустил. На основе нескольких встреч обычно загружаю записи в ChatGPT, который генерирует интересные идеи и инсайты. Однажды я попросил создать новую бизнес-модель продукта на основе записей за шесть месяцев работы — результат превзошел ожидания.

4. Создание изображений: Flux Pro ($0.05/картинка)

Когда необходимо создать изображения для презентаций, я использую Flux. Ранее я пользовался Stable Diffusion от Stability AI, но после появления Flux Pro полностью перешёл на него благодаря более высокому качеству генерации.

5. Работа с кодом: Cursor ($20/месяц)

Последний, но не менее важный инструмент — Cursor — революционный помощник в программировании. Это не просто автодополнение кода; Cursor работает со всеми файлами проекта, а не только с текущим окном контекста.

Cursor анализирует весь проект, понимая общую структуру и зависимости, что позволяет предлагать точные и полезные подсказки. Я пишу код для своих проектов с помощью Cursor и уже не помню, когда последний раз программировал вручную. Это ускоряет разработку и повышает качество кода. Возможность давать команды на естественном языке и получать готовые решения экономит огромное количество времени.

Несмотря на множество новых ИИ-решений на рынке, этого набора мне хватает, чтобы эффективно выполнять большинство задач и оставаться продуктивным. Конечно, важно следить за новинками, но еще важнее уметь пользоваться тем, что приносит пользу прямо сейчас.

#технологии
Секретный рецепт создания коротких видео для соцсетей с помощью ИИ

В современном мире внимание людей — самый ценный ресурс. Все говорят о том, что короткие видео захватывают аудиторию в соцсетях и становятся ключевым инструментом для продвижения личного бренда. Я решил разобраться, как ИИ меняет подход к созданию такого контента.

Недавно я наткнулся на исследование компании Buffer: более 55 000 пользователей воспользовались их ИИ-помощником для создания контента в соцсетях. Результаты впечатляют: посты, созданные с помощью ИИ, имели более высокий уровень вовлеченности по сравнению с теми, что были созданы вручную.

Общая средняя вовлеченность для ИИ-постов составила 5,87% против 4,82% для человеческих. На платформах Threads и TikTok разница была еще более заметна: 11,11% для ИИ-контента против 5,56% для обычного. Это заставило меня задуматься о том, как ИИ может помочь мне повысить эффективность моих постов. Ключ к успеху — регулярность публикаций, а ИИ-ассистенты позволяют создавать контент быстрее без потери качества.

Тренды 2024 года показывают, что среднее дневное время использования платформ коротких видео взрослыми в США достигнет 48 минут. Наибольшую вовлеченность получают видео длительностью до 2 минут. Учитывая, что 90% интернет-трафика приходится на видео, и 72% потребителей предпочитают узнавать о продуктах или услугах через видео, становится ясно, что короткие видео — это будущее.

Я нашел инструменты для автоматизации создания коротких видео для TikTok, YouTube Shorts и рилсов в инсте:

- VideoGen позволяет генерировать покадровые видео с сгенерированными изображениями и материалами со стоков;

- Klap преобразует длинные видео в короткие, что удобно для переработки существующего контента;

- Revid помимо вышеперечисленного создает говорящих аватаров для видео;

- AutoShorts помогает поставить соцсети на автопилот, используя сгенерированные короткие видео.

В Pygma AI мы разработали ИИ-ассистента для простого и быстрого создания персонализированного контента, в том числе коротких видео. Пользователь просто вводит тему видео, и система автоматически генерирует сценарий, определяет длительность и количество кадров. К каждому кадру добавляется соответствующая часть сценария, генерируются изображения с помощью ИИ, добавляются озвучка и музыка. В итоге пользователь получает готовый ролик, который сразу можно опубликовать в соцсетях. Мы планируем добавить различные переходы, голоса для озвучки и музыку, а также интеграцию с разными соцсетями.
Наш ИИ-агент позволяет создавать короткие видео, используя данные о портрете целевой аудитории пользователя. Таким образом мы повышаем цифровое присутствие наших пользователей, помогая им привлекать необходимую аудиторию. 

Конечно, не обязательно использовать именно наш продукт или продукты конкурентов. Вы можете воспользоваться готовыми библиотеками для генерации коротких видео. Например, ReelsMaker для покадровой генерации или преобразования длинных видео в короткие. С помощью этих инструментов вы даже можете запустить свой собственный ИИ-продукт, развернув сервис на сервере, подключив удобный интерфейс и систему оплаты.

Но помните, что главная задача стартапа — донести ценность до целевой аудитории, при этом оставшись в прибыли. Тот, кто сумеет свести юнит-экономику, особенно цену за привлечение пользователя (CAC) и пожизненную ценность клиента (LTV), тот сможет занять свою нишу на рынке. Цена за генерацию видео не маленькая на больших масштабах, а как дешево добраться до платящей аудитории - вечный вопрос. Приходится много работать с аналитикой, кормить рекламные движки данными о целевой аудитории для повышения эффективности рекламы, а также искать новые каналы привлечения трафика.
 
#кейсы