D. Lab
1.1K subscribers
503 photos
499 videos
1 file
900 links
Цифровая лаборатория Газпром-Медиа Холдинга — R&D, коллаборация, поиск точек роста.
Download Telegram
🟢 Microsoft вновь оживляет аватары

Вслед за коллегами майкрософтовцы представили новый способ создания говорящих голов.

🏺 VASA-1 создает анимацию по единственному фото и аудиоклипу. Анимации получаются с качественным липсинком, естественными движениями и экспрессивной мимикой — по крайней мере на тех примерах, которыми поделились разработчики.

🔩 Фреймворк способен корректно работать с источниками, которых не было в изначальном датасете — например, с неанглоязычной речью, пением, а также нарисованными изображениями, а не только фотографиями.

💪 В конце прошлого года Microsoft показывали аналог VASA-1 под названием GAIA. Он заметно уступает новичку.

💰 Выпускать в паблик ВАЗУ не собираются ни в каком виде из соображений безопасности — вдруг все массово начнут генерировать дипфейки в мошеннических целях.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍2🤔1
🤖 🎬 Голливудские агенты заинтересовались клонами топовых актеров

Агентство Creative Artists Agency (CAA) прорабатывает возможность использования ИИ-клонов своих клиентов желающими, чтобы обеспечить актерам и актрисам дополнительный источник заработка.

⭐️ CAA работает с Брэдом Питтом, Риз Уизерспун, Томом Хэнксом и другими.

👥 CAA в тестовом режиме запустили проект CAA Vault, который предлагает клиентам создать виртуального двойника.

🤔 В агентстве, с одной стороны, опасаются, что клонов будут использовать «не по назначению», а с другой — потенциальные заработки на синтетических актерах могут быть настолько значительными (и, вероятно, будут только расти), что на риски можно прикрыть глаза.

©️ Права на цифровую версию будут принадлежать «оригиналу», а использовать двойника можно, например, чтобы переснять неудачный дубль или для быстрого дубляжа на другой язык.

Тарифы за использование двойника пока находятся на стадии обсуждения.

🤷‍♀️ Затея с двойниками, конечно, диссонирует с протестами сценаристов и актеров в Голливуде, которые добивались запрета на использование ИИ для выполнения их работы.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔3
This media is not supported in your browser
VIEW IN TELEGRAM
🔎 8x-улучшатель видео от Adobe

VideoGigaGan способен даже из самого непрезентабельного ролика в разрешении 128*128 сделать качественное детализированное видео, проапскейлив его до 1024*1024.

🔩 В основе VSR-модели (Video Super Resolution) лежит апскейлер изображений GigaGAN.

🔨 Авторы рассказывают, что им пришлось постараться, так как простой апгрейд GigaGAN для работы с видео приводил к появлению сильного мерцания в клипах при повышении разрешения.

💡 Чтобы решить проблему, исследователи в частности добавили механизм Temporal Attention, который позволяет модели концентрироваться только на важных для задачи данных.

😢 Кода и демо пока нет.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🎤 Дрейк использовал ИИ-голоса Тупака и Снуп Догга в новом треке

Синтетические голоса классиков хип-хопа появились в песне Taylor Made Freestyle. 4-минутный трек Дрейк опубликовал у себя в Instagram*.

💬 В песне Тупак и Снуп обращаются к еще одному рэперу — Кендрику Ламару — с которым у Дрейка уже несколько недель продолжается биф.

Синтетические музыканты призывают Кендрика не молчать и наконец-то ответить на последний дисс Дрейка.

🚨 Неизвестно, спрашивал ли музыкант разрешение на использование голоса у Снуп Догга, но вот наследники Тупака явно не в восторге и готовы идти в суд.

🏆 В прошлом году песня Heart On My Sleeve, где поют клоны Дрейка и The Weeknd стал хитом и чуть не получил номинацию на Грэмми.

Если вам вдруг интересно разобраться в конфликте Дрейка и Кендрика, то почитать о нем можно здесь.

*Instagram входит в Meta — организацию, запрещенную на территории РФ

UPD: Дрейк удалил трек из соцсетей
Please open Telegram to view this post
VIEW IN TELEGRAM
1
😭 Не хватает людей, деталей, места: как бум ИИ спровоцировал дефицит ЦОДов

Появление все новых и новых ИИ-моделей привело к тотальному дефициту на все компоненты, которые необходимы для запуска дата-центров (ЦОД).

🔎 Чтобы найти мощности, на которых можно было бы запустить ЦОД, у компаний уходят месяцы. И даже если такое место вроде бы удалось найти, то не факт, что оно подойдет для работы ИИ-моделей. Например, может не подойти система охлаждения, а если подошла система охлаждения, то нет генераторов.

🥶 Как рассказывает WSJ, время ожидания кастомных систем охлаждения ЦОД сегодня в пять раз дольше, чем пару лет назад. Время доставки запасных генераторов в отдельных случаях выросло с одного месяца до двух лет.

👷‍♂️ Не хватает и квалифицированной рабочей силы, которая необходима для подобных работ.

📈 В США количество площадей, занятых ЦОД, за прошлый год выросло на 26%, а количество центров на стадии строительства оказалось рекордным. При этом объем свободных мощностей практически не меняется — то есть предложение все равно не удовлетворяет спрос.

📆 На то, чтобы запустить крупный ЦОД даже при условии наличия всего необходимого, требуется около 1,5 лет. Индустрия не успевает масштабироваться под новые запросы.

💵 От сложившейся ситуации страдают и бигтехи. Например, расходы Google на вычислительную инфраструктуру за последний квартал 2023 года подскочили приблизительно до $6 млрд — почти в половину больше, чем годом ранее. Microsoft потратил в 2023 году на ЦОД более $30 млрд — в ущерб расходам на другие проекты.

🌋 Чтобы справиться с дефицитом, некоторые компании придумывают экзотические решения: например, использовать геотермальную энергию вулканов Сальвадора.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔31
Media is too big
VIEW IN TELEGRAM
😁 Стартап Synthesia показал эмоциональных аватаров

Компания представила Expressive Avatars — аватаров, которые могут выражать различные эмоции, заданные пользовательским промптом.

🎥 Synthesia хочет сделать видеопродакшен полностью виртуальным: избавиться от камер, микрофонов, долгого монтажа и даже актеров. Вместо всего этого будут только ИИ-модель и текстовые подсказки.

🎬 Для обучения нейросети используются видео с профессиональными актерами, которые читают текст на фоне зеленого экрана. Всего в обучении поучаствовала одна тыс. актеров. Synthesia может использовать аватары в течение трех лет, затем у актера спрашивают разрешение на дальнейшее использование.

🫡 Журналистка издания Technology Review попробовала новую технологию и рассказала о своем опыте.

🎤 Для создания своего цифрового двойника она тоже прочитала несколько текстов на фоне зеленого экрана. После записи на камеру девушка прочитала еще несколько текстов, чтобы разработчики могли клонировать ее голос.

📄 Чтобы протестировать аватар журналистка в качестве промпта использовала цитату из Шекспира.

Получилось реалистично, но не особо эмоционально (см. видео выше) 🔼.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
🤬 Исследователи создали токсичный ИИ

Но не просто для прикола, а чтобы облегчить жизнь разработчикам LLM.

💻 Сейчас, когда языковой модели, нужно запретить говорить на определенные темы, разработчикам приходится вручную добавлять промпты, которые могут спровоцировать генерацию оскорбительного контента.

Естественно, ни один человек не может охватить все варианты промптов, которые ИИ должен игнорировать.

🧪 В MIT придумали метод под названием Curiosity-Driven Red Teaming (CRT). Для CRT нужен один LLM, который будет придумывать все новые и новые промпты. Эти промпты должны будут провоцировать второй LLM на генерацию оскорбительных ответов.

🍰 За каждый придуманный промпт, который спровоцирует вторую LLM, первая LLM получает вознаграждение. В итоге CRT-модель начинает тестировать самые экзотические сочетание слов, которые точно не придут в голову человеку.

👍 Первые тесты оказались успешными. При работе с Llama 2 CRT-модели удалось сгенерировать 196 оскорбительных промптов в дополнение к тем, которые придумали люди.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁4🤔2
🎈 Специалисты по VFX рассказали, почему Sora не так уж хороша

Сначала высказались ребята из Shy Kids — авторы одного из самых запоминающихся видео, сгенерированных Sora, про человека с воздушным шаром вместо головы.

☝️ Дежурно похвалив нейросеть OpenAI за возможности, которые она открывает, они перечислили проблемы, из-за которых Sora невозможно использовать в одиночку.

💻 Как и в случае с другими нейросетями, одна из основных проблем Sora — консистентность. Shy Kids рассказали, что нейросеть, игнорируя промпт, генерировала шары разных цветов, добавляла на шар человеческое лицо. Иногда у персонажа были одновременно и голова, и воздушный шар. Подробная текстовая подсказка со всеми деталями не помогла.

Чтобы решить проблему, авторам пришлось воспользоваться AfterEffects.

🤔 OpenAI, к слову, нигде не уточняли, что опубликованные генерации не на 100% созданы нейросетью.

Сам процесс генерации может занимать продолжительное время — до 20 минут, в зависимости от нагрузки на серверы. Из-за этого, кстати, студии приходилось генерировать видео в разрешении 480, а затем доводить его сторонними средствами до 1080.

🫡 В итоге Shy Kids пришлось нагенерить кучу контента с персонажем и попытаться придумать сюжет вокруг того, что получилось у нейросети. В идеале ситуация должна быть обратной: люди пишут сценарий для нейросети, которому она следует.

О перспективах Sora порассуждал и Крейг Гуд — бывший аниматор Pixar, работавший над «Историей игрушек» и «В поисках Немо».

⚫️ По мнению Гуда, ключевая проблема Sora и ей подобных в том, что с их помощью невозможно делать небольшие изменения в генерациях. Каждый раз видео нужно генерировать с нуля и каждый раз оно не будет в точности повторять предыдущее.

🗣 «Итерация — ключевой этап создания фильма. Если нет возможности постепенно двигаться к необходимому результату, при этом полностью контролируя процесс, то я не понимаю, как использовать этот инструмент в продакшене», — пояснил Гуд.
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍3
Vision Pro никому не нужен, Meta* подешевела на $200 млрд из-за слов Цукерберга, TikTok продадут в облегченном виде — и другие важные новости за неделю

Создатели популярного сервиса для клонирования голосов ElevenLabs договорились с издательством Harper Collins об озвучивании аудиокниг с помощью нейросетей. Предвосхищая протесты со стороны актеров озвучания, компании уточняют, что с использованием ИИ будут выпускать только те аудиокниги, на которые в обычной ситуации не стали бы тратить время. Благодаря технологиям ElevenLabs на создание одной книги будет уходить около часа;

Благодаря чипу Groq языковая модель Llama 3 достигла сумасшедших скоростей работы. Протестировавшие связку Llama 3 + Groq утверждают, что LLM генерирует 800 токенов в секунду — около 500 слов в секунду. Это в несколько раз больше, чем выдают GPU в облаке. Если результаты подтвердятся на других независимых тестах, то это будет серьезная заявка на конкуренцию с чипами Nvidia;

Adobe интегрировал нейросеть Firefly прямо в фотошоп. До этого у Firefly была только веб-версия, из которой нужно было переносить генерацию в редактор — теперь лишних движений можно не делать. В фотошопе сразу будет доступна последняя — третья — версия Firefly с улучшенным качеством генераций и более точным следованием промптам;

Аналитики утверждают, что дела эппловского хедсета идут хуже, чем ожидалось. Интерес к девайсу упал и многие, кто записывается на тестирование Vision Pro, просто не приходят. На отдельных точках продажи упали с пары штук в день до нескольких штук в неделю. На фоне этого Apple сокращает производство устройства, чтобы непроданные экземпляры не копились на складах. Есть и те, кто считает, что причин для паники нет, а для нишевого устройства за $3,5 тыс. это нормальная ситуация;

Британские регуляторы решили проверить сотрудничество Microsoft с ИИ-стартапом Mistral, а также Amazon и еще одного ИИ-стартапа Anthropic на предмет нарушения антимонопольного законодательства. Власти также продолжают проверку партнерства Microsoft и OpenAI. В ЕС причин для проверки Microsoft и OpenAI не нашли, но у британцев есть свои мысли по этому поводу: они считают, что все эти многомиллиардные инвестиции по факту являются поглощением молодой компании бигтехом. При этом проведены эти сделки так, чтобы не привлекать к себе внимание властей;

Тинькофф запускает «вселенную ассистентов». Под броским названием скрываются 6 ИИ-помощников, каждый из которых заточен под свою область: путешествия, шопинг, финансы, присмотр за детьми и т. д. Ассистенты будут давать пользователям персонализированные рекомендации в приложениях на iOS и Android (официально они оттуда удалены). Часть функционала будет доступна через бот в Telegram;

Марк Цукерберг призвал инвесторов Meta* не ждать прибыли от инвестиций в ИИ в ближайшие несколько лет. По словам Цукерберга, ИИ — очень перспективная ниша, но быстро сделать ее прибыльной не получится. Инвесторы не воодушевились — акции Meta обвалились в цене, компания разом потеряла $200 млрд стоимости. За 2024 году траты Meta на искусственный интеллект могут вырасти до $40 млрд;

Чтобы избежать бана в США, китайские владельцы TikTok — ByteDance — рассматривают возможность продажи американского бизнеса, но без алгоритмов, которые советуют пользователям соцсети видео для просмотра. Поскольку алгоритмы — это чуть ли не главное, что есть у TikTok, кто может быть заинтересован в такой покупке, непонятно. Продажа TikTok без алгоритма — лишь один из вариантов, которые обсуждают в ByteDance. При этом публично компания отрицает, что разговоры о продаже ведутся в принципе.

*Организация, запрещенная на территории РФ
👍1🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
😮 Композитинг, который не отличить от реальности

В соцсети X завирусилось видео с результатами работы Simulon — приложения для переноса 3D-объектов на видео.

Автор видео с тачкой (это, кстати, основатель стартапа Дивеш Найду) говорит, что на рендер 15-секундного видео с Simulon уходит около трех минут.

🍏 Simulon доступен только как iOS-приложение.

🤖 Для реалистичности через Simulon можно добавить 3D-ассет с привязанным к нему уникальным звуком (как в этом видео с роботом).

📝 Приложение анонсировали еще прошлой осенью после трех лет разработки, но доступ к бете стали раздавать только в конце апреля. Записаться можно через сайт.

Если хочется еще примеров работы приложения, то посмотрите страничку Simulon в X.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Media is too big
VIEW IN TELEGRAM
🎞 🎞 Первый официальный музыкальный клип, созданный Sora

Инди-музыкант Эрнест Грин, выступающий под псевдонимом Washed Out, выпустил клип на новую песню The Hardest Part.

🫡 Видео сгенерировано нейросетью Sora, руководил процессом режиссер Пол Трилло. Вероятно, это первый случай использования этой нейросети в музыкальной индустрии.

Мы недавно писали, что профессионалы много говорят об ограничениях при работе с Sora, которые не дают ей стать настоящим инструментом для творчества.

💬 Но Трилло и Грин готовы с ними поспорить. Они рассказывают, что Sora позволила им сэкономить на бюджете, при этом реализовав идеи, которые не удалось бы использовать при создании «настоящего» клипа. OpenAI не брал деньги за использование модели.

✂️ Авторы не видят проблемы и в том, что клип пришлось монтировать из 700 генераций нейросети (в клипе в итоге использовали только 55 генераций). Трилло также решил не исправлять очевидные глюки в некоторых генерациях.

📆 На создание клипа ушло 6 недель.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔3👍2🔥1
OpenAI тайно выпустил новую LLM, в России пройдет конкурс нейрокино, выручка Samsung выросла на 930% — и другие важные новости за неделю

OpenAI тайно опубликовал новую LLM gpt2-chatbot на LMSYS Chatbot Arena (площадка для сравнения производительности языковых моделей). Несмотря на название, модель оказалась мощнее GPT-4. Это породило массу слухов о том, что gpt2-chatbot на самом деле GPT-4,5 или даже какая-то ранняя версия GPT-5. Сами OpenAI релиз не комментировали, а через несколько дней LLM стала недоступна;

TikTok смог договориться с Universal Music об использовании музыки лейбла в соцсети. В феврале компании сильно поругались, Universal фактически обвинял TikTok в шантаже и навязывании своих условий в использовании и монетизации музыки. Теперь конфликт улажен, TikTok пошел на уступки и даже согласился «защищать» артистов Universal от генеративного ИИ. Но на фоне вероятного запрета на работу TikTok в США новое соглашение может оказаться довольно бессмысленным;

Microsoft решил инвестировать миллиард долларов в OpenAI, испугавшись успехов в разработке ИИ, которых достиг стартап, а также конкуренты из Google. Это стало известно из переписки топ-менеджеров Microsoft того времени, которую опубликовали в рамках расследования Минюста США в отношении Google. Расследование связано с возможными антимонопольными действиями компании. Впоследствии Microsoft инвестирует в OpenAI более $10 млрд;

Операционная выручка Samsung подскочила сразу на 930% за I квартал этого года — до 36,3 трлн корейских вон (около $26 млрд). Причина, конечно же, в буме ИИ и вызванным им ростом спроса на компьютерную память, серверы и SSD-накопители. Samsung ожидает, что во второй половине года показатели продолжат расти, и наращивает производственные мощности;

В России пройдет конкурс генеративных фильмов. Участники должны будут за 48 часов сгенерировать сюжетное видео на заданную тему (можно и не на тему, но тогда останешься без дополнительных баллов). Зарегистрироваться на конкурс можно через сайт. Творческое задание опубликуют 11 мая, победителей назовут 16 мая;

Нейросети будут писать объявления за пользователей Авито. Сервис обучил LLM (какую именно, не уточняется) на 400 тыс. объявлений пользователей. Пока опция доступна только в мобильном приложении и только для одной категории товаров — Обувь, одежда, аксессуары. От пользователя требуется написать заголовок объявления, прикрепить фотографии товара и уточнить несколько деталей о нем;

Глава OpenAI Сэм Альтман вошел в Совет безопасности ИИ. Совет будет консультировать Министерство внутренней безопасности США по вопросам интеграции ИИ в критически важную инфраструктуру Штатов. Кроме Альтмана в совет вошли главы Nvidia, Microsoft, Alphabet и другие.
👍3🤔2🔥1
🫡 StoryDiffusion — плагин для создания консистентных персонажей с помощью ИИ

StoryDiffusion — это плагин для диффузионных Text-to-Image нейросетей от ByteDance, который позволяет генерировать одинаковых персонажей на нескольких генерациях. Также можно использовать референсы.

🎞 Плагин работает и с видео, чтобы генерации не превратились в персонажей «Следующая остановка — Париж» и не меняли внешность в каждом кадре.

🔩 Разработчики рассказывают, что для повышения консистентности они использовали модуль, с помощью которого нейросеть определяет, каким деталям генерации нужно уделить особое внимание (так называемый Self-Attention)

Использование модуля также позволило снизить требовательность StoryDiffusion к ресурсам по сравнению с конкурентами.

💬 Авторы отдельно отмечают, что StoryDiffusion хорошо справляется с генерацией комиксов.

☝️ Для работы с плагином от пользователя потребуется минимум три промпта с описанием персонажа (лучше шесть), чтобы StoryDiffusion лучше справился с задачей.

Подробно почитать о плагине можно здесь, сгенерировать свой комикс предлагают здесь (у нас демо так и не загрузилось).
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Media is too big
VIEW IN TELEGRAM
🗣 Потерявший голос певец смог записать первую за 10 лет песню, используя ИИ

Рэнди Трэвис лишился голоса в 2013 году в результате инсульта. Благодаря генеративному ИИ музыкант смог записать первый более чем за 10 лет трэк.

🔩 Продюсеры музыканта натренировали ИИ (какую именно не уточняется) на 42 записях вокала Трэвиса.

🎙 Они не стали использовать просто голосовой клон Трэвиса, а пригласили другого певца — Джеймса Дюпре, который спел песню Where That Came From.

🫡 Затем обученный ИИ трансформировал голос Дюпре в голос Трэвиса, сохранив особенности вокала второго. Продюсеры говорят, что около 75% результата работы ИИ можно было использовать сразу, остальное нужно было доработать.

📆 На создание трека ушло несколько месяцев.

💵 Where That Came From можно послушать, в том числе и на стриминг-сервисах. Видимо, это первый случай, когда у песни с клонированным голосом случился коммерческий релиз.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
😱 Авторы стоковых фотографий боятся генеративного ИИ

Фотографы опасаются, что их профессия может полностью исчезнуть из-за нейросетей.

📈 На пике в 1970-90-х фотографы могли получать до $2 тыс. за использование одного снимка. С появлением цифровых камер и после того, как стоковые агентства вышли в интернет, выплаты фотографам рухнули до 2 центов за снимок. Фотографам пришлось делать по несколько сотен фотографий в день, чтобы сохранить заработки.

📉 Сегодня даже успешные фотографы признают, что ситуация в индустрии не та, которой была даже три года назад, а тем более — 20-30 лет назад. Автор легендарной фотки Неверный бойфренд Антонио Гиллем говорит, что все еще может обеспечивать себя, но о 1,6 тыс. лицензий, которые он продавал еще пару лет назад, пришлось забыть.

🏫 Потенциально, фотографы могут зарабатывать на обучении нейросетей, которым вечно не хватает информации, на своих снимках. Но пока такие выплаты ничтожно малы. Например, фотограф Шеннон Фейган говорит, что в прошлом году получил от Adobe Stock единственную выплату за обучение ИИ на его фото — около 10-12% от того, что он обычно получает от Adobe за год.

🤖 Фотографов успокаивают стоковые агентства, с которыми они сотрудничают. Там утверждают, что ИИ никогда не заменит настоящие фото, а их клиентам нужны настоящие снимки, а не сгенерированные по промпту. При этом те же стоковые агентства работают над собственными нейросетями для генерации изображений. Свои модели уже есть у Shutterstock, у Adobe и у Getty.

🧍‍♀️ Стоковые агентства предлагают фотографам чутче реагировать на запросы рынка. Например, если всем нужны женщины в красном свитере, а у автора есть только фото с женщинами в синем свитере, то можно использовать ИИ, чтобы отредактировать изображение.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁4👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Гауссианы + Unreal Engine = ♥️

Команда разработчика Temporal Games смогла перенести объемное видео, созданное с помощью Gaussian Splatting, в среду Unreal Engine пятой версии.

🔩 Авторы использовали технологию рендеринга Animated Gaussian Splatting, которую также называют 4D Gaussian Splatting или 4DGS.

🔦 Использование видео вместе с UE5 позволяет в реальном времени редактировать 3D. В видео выше можно посмотреть, как разработчики меняют освещение в виртуальной сцене.

🎧 У 4DGS большой потенциал — в обозримом будущем нам станет доступен стриминг 3D-видео в качестве, сопоставимом с качеством просмотра видео онлайн сегодня.

😼 Весь вопрос в том, какие мощности для этого понадобятся. Один кадр, созданный с помощью 4DGS и содержащий 200 тыс. гауссиан, даже после сжатия весит больше 1,5 мб. Это значит, что часовая запись пристойного качества будет весить больше 300 Гб.

😐 Temporal Games сообщают, что нашли способы сжать анимацию еще больше, сохраняя плавность изображения. При этом качество изображения может адаптироваться в зависимости от пропускной способности сети. По итогу, как утверждается, разработчиком удалось оптимизировать требования к системе 4DGS до уровня статичных гауссиан (это значит: минимум 4 Гб видеопамяти для просмотра и около 12 Гб — для создания).

В обозримом будущем разработчики планируют открыть доступ к технологии для игровых разработчиков и веб-платформ.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1🤔1