Новая нейронка для замены одежды на фото
В прошлом году все восхищались Outfit Anyone — работала она хорошо, но не позволяла загружать своих моделей — менять одежду можно было только на заготовленных, и проект, вроде как, так полностью и не релизнулся.
И вот на днях вышла idm-vton — качество чуть похуже, зато модель полностью доступна и можно загружать любые фотки людей!
Попробовать можно здесь.
🔴 @reptiloidnaya × #ai #generativeai #fashion
В прошлом году все восхищались Outfit Anyone — работала она хорошо, но не позволяла загружать своих моделей — менять одежду можно было только на заготовленных, и проект, вроде как, так полностью и не релизнулся.
И вот на днях вышла idm-vton — качество чуть похуже, зато модель полностью доступна и можно загружать любые фотки людей!
Попробовать можно здесь.
🔴 @reptiloidnaya × #ai #generativeai #fashion
Генно-модифицированные бобы со свининой — уже скоро 🐽
Я очень люблю тему еды будущего, а также конспирологию про то, как нас всех заставят 🔴 есть жуков.
Но не жуками едиными — ученые генетически модифицировали соевые бобы, благодаря чему те, помимо прочих белков, теперь содержат миоглобин — тот самый свиной белок, который придает мясу красный цвет, текстуру и вкус.
Еще раз — это не бобы с добавлением белка из мяса или каких-то вкусовых усилителей. Настоящее «мясо» растет прямо в бобах(!!!)
И самое интересное — это уже не просто какой-то эксперимент. Компания-создатель получила официальное одобрение от министерства сельского хозяйства США, а это значит, что свиные бобы могут появиться на полках магазинов быстрее, чем мы думаем.
Этот мир все дальше от Аллаха, конечно.
🔴 @reptiloidnaya × #будущее #трансгуманизм
Я очень люблю тему еды будущего, а также конспирологию про то, как нас всех заставят 🔴 есть жуков.
Но не жуками едиными — ученые генетически модифицировали соевые бобы, благодаря чему те, помимо прочих белков, теперь содержат миоглобин — тот самый свиной белок, который придает мясу красный цвет, текстуру и вкус.
Еще раз — это не бобы с добавлением белка из мяса или каких-то вкусовых усилителей. Настоящее «мясо» растет прямо в бобах(!!!)
И самое интересное — это уже не просто какой-то эксперимент. Компания-создатель получила официальное одобрение от министерства сельского хозяйства США, а это значит, что свиные бобы могут появиться на полках магазинов быстрее, чем мы думаем.
Этот мир все дальше от Аллаха, конечно.
🔴 @reptiloidnaya × #будущее #трансгуманизм
This media is not supported in your browser
VIEW IN TELEGRAM
Робо-собака с огнеметом появилась в продаже за $9420
Пока что пёсик с говорящим названием THERMONATOR управляется с помощью пульта — но помните, что однажды он получит собственный разум и волю. И вот тогда кожаные ответят за все.
Купить можно тут. Не забываем также покупать 🔴 комплект для подключения тараканов к айфонам.
– Ваша собака кусается?
– Она делает больно иначе.
🔴 @reptiloidnaya × #роботы #будущее
Пока что пёсик с говорящим названием THERMONATOR управляется с помощью пульта — но помните, что однажды он получит собственный разум и волю. И вот тогда кожаные ответят за все.
Купить можно тут. Не забываем также покупать 🔴 комплект для подключения тараканов к айфонам.
– Ваша собака кусается?
– Она делает больно иначе.
🔴 @reptiloidnaya × #роботы #будущее
Совершен прорыв в редактировании человеческого ДНК с помощью ИИ.
В прошлый раз я 🔴 писал про генерацию новых элементов — но все это было только в цифровом виде. На этот раз все серьезнее.
Несколько дней назад был успешно проведен эксперимент с редактированием ДНК в живых человеческих клетках.
Пока что не в живом кожаном человеке, но в живых клетках (в лабораторных условиях).
Для редактирования использовалась уже известная и проверенная технология CRISP — однако, она сложна в использовании: нужны сотни часов работы квалифицированных ученых для создания всего лишь одного модификатора.
Теперь же, модификатор создает ИИ. Причем не просто какой-то абстрактный ИИ, а большая языковая модель (LLM), по типу ChatGPT(!!!)
А теперь самое вкусное: модель выложили в опен-сорс.
Возможность стать кошкодевкой уже маячит на горизонте.
🔴 @reptiloidnaya × #будущее #трансгуманизм
В прошлый раз я 🔴 писал про генерацию новых элементов — но все это было только в цифровом виде. На этот раз все серьезнее.
Несколько дней назад был успешно проведен эксперимент с редактированием ДНК в живых человеческих клетках.
Пока что не в живом кожаном человеке, но в живых клетках (в лабораторных условиях).
Для редактирования использовалась уже известная и проверенная технология CRISP — однако, она сложна в использовании: нужны сотни часов работы квалифицированных ученых для создания всего лишь одного модификатора.
Теперь же, модификатор создает ИИ. Причем не просто какой-то абстрактный ИИ, а большая языковая модель (LLM), по типу ChatGPT(!!!)
А теперь самое вкусное: модель выложили в опен-сорс.
Возможность стать кошкодевкой уже маячит на горизонте.
🔴 @reptiloidnaya × #будущее #трансгуманизм
Media is too big
VIEW IN TELEGRAM
Раскрашиваем тачку с помощью Vision Pro.
Еще один видос, который разлетелся по соцсетям и требует комментария.
На самом деле, никакая тачка тут не раскрашивается — используемое в видосе приложение AirDraw рисует просто в воздухе.
Если тачка уедет, все нарисованное останется на месте.
Привязывать контент к объектам реального мира с помощью VPS (визуального позиционирования) или геолокации, а также трекать кастомные объекты на Vision Pro пока нельзя.
Но для арт-перфомансов — прикольно!
🔴 @reptiloidnaya × #ar #augmentedreality #visionpro #apple
Еще один видос, который разлетелся по соцсетям и требует комментария.
На самом деле, никакая тачка тут не раскрашивается — используемое в видосе приложение AirDraw рисует просто в воздухе.
Если тачка уедет, все нарисованное останется на месте.
Привязывать контент к объектам реального мира с помощью VPS (визуального позиционирования) или геолокации, а также трекать кастомные объекты на Vision Pro пока нельзя.
Но для арт-перфомансов — прикольно!
🔴 @reptiloidnaya × #ar #augmentedreality #visionpro #apple
Инопланетяне! На планете возможна жизнь! Нужно будет основать колонию! — кричит интернет.
Инопланетно-ящерная редакция этого канала имеет честь прокомментировать свежие новости о планете K2-18 b.
1. Картинка, естественно, фантазия: как выглядит планета, мы не знаем — она слишком далеко и никакой телескоп ее так не видит.
2. В прошлом году там предварительно «нашли» диметилсульфид — продукт жизнедеятельности фитопланктона и прочих водорослей, такие живут в океанах на Земле. Также были «найдены» углекислый газ, метан, и водяной пар.
3. В кавычках, потому что данные, конечно, только косвенные — пробы там не возьмешь, поэтому используется спектроскопия, которая может ошибаться.
4. Сейчас телескоп Джеймс Уэбб будет сверлить планету взглядом в попытках подтвердить данные.
Интересное о планете:
— Находится далеко — ~120 световых лет. То есть, если пошлем местным ящерам сообщение, ответа придется ждать в 2 раза дольше (~240 лет).
— Расположена в «обитаемой» зоне (это значит, что там может быть вода).
— В 2.6 раза больше Земли (такую планету обычно называют «Супер-Землей» — привет, хеллдайверы!)
— Гравитация чуть выше земной — если ваш вес 60 кг, на K2-18 b он будет около 70 кг.
— Скорее всего, есть твердая поверхность и океаны.
— Год проходит за 33 дня.
— Климат мерзкий: в районе -10 C°
Полетели бы на такую жить?
А в следущий раз расскажу, почему добраться туда будет проблематично, если вообще возможно.
🔴 @reptiloidnaya × #космос
Инопланетно-ящерная редакция этого канала имеет честь прокомментировать свежие новости о планете K2-18 b.
1. Картинка, естественно, фантазия: как выглядит планета, мы не знаем — она слишком далеко и никакой телескоп ее так не видит.
2. В прошлом году там предварительно «нашли» диметилсульфид — продукт жизнедеятельности фитопланктона и прочих водорослей, такие живут в океанах на Земле. Также были «найдены» углекислый газ, метан, и водяной пар.
3. В кавычках, потому что данные, конечно, только косвенные — пробы там не возьмешь, поэтому используется спектроскопия, которая может ошибаться.
4. Сейчас телескоп Джеймс Уэбб будет сверлить планету взглядом в попытках подтвердить данные.
Интересное о планете:
— Находится далеко — ~120 световых лет. То есть, если пошлем местным ящерам сообщение, ответа придется ждать в 2 раза дольше (~240 лет).
— Расположена в «обитаемой» зоне (это значит, что там может быть вода).
— В 2.6 раза больше Земли (такую планету обычно называют «Супер-Землей» — привет, хеллдайверы!)
— Гравитация чуть выше земной — если ваш вес 60 кг, на K2-18 b он будет около 70 кг.
— Скорее всего, есть твердая поверхность и океаны.
— Год проходит за 33 дня.
— Климат мерзкий: в районе -10 C°
Полетели бы на такую жить?
А в следущий раз расскажу, почему добраться туда будет проблематично, если вообще возможно.
🔴 @reptiloidnaya × #космос
This media is not supported in your browser
VIEW IN TELEGRAM
Воровство одежды в Web AR
Наткнулся на прикольный эксперимент — захват одежды нейронкой ibm-vton (про нее 🔴 тут) и натягивание одежды на 3D модель в AR. Работает все в 8thwall.
Ссылку на попробовать автор не дает, но почти наверняка устроено так:
Автор подготовил 3D модель аватара и его рендер, причем он сделал так, что UV модельки является плоской проекцией на рендер.
Далее ibm-vton натягивает шмотку на рендер аватара, и полученная текстура просто применяется к модели. Все!
Кстати, автор не просто так показывает модельку только спереди — при использовании проекции на спине не будет ничего (точнее, будут шакалы).
🔴 @reptiloidnaya × #ar #augmentedreality #webar #fashion
Наткнулся на прикольный эксперимент — захват одежды нейронкой ibm-vton (про нее 🔴 тут) и натягивание одежды на 3D модель в AR. Работает все в 8thwall.
Ссылку на попробовать автор не дает, но почти наверняка устроено так:
Автор подготовил 3D модель аватара и его рендер, причем он сделал так, что UV модельки является плоской проекцией на рендер.
Далее ibm-vton натягивает шмотку на рендер аватара, и полученная текстура просто применяется к модели. Все!
Кстати, автор не просто так показывает модельку только спереди — при использовании проекции на спине не будет ничего (точнее, будут шакалы).
🔴 @reptiloidnaya × #ar #augmentedreality #webar #fashion
Трендовый AI-девайс оказался приложением на Андроиде
Возможно, вы видели безумный хайп по устройству Rabbit r1 за $200 — новому AI-помощнику с красивым дизайном, созданном в teenage engineering.
Как оно работает? С устройством можно общаться голосом, оно умеет распознавать то, что видит камера, а также включать Спотифай и заказывать Убер.
Всем здравомыслящим людям эта идея показалась абсолютно идиотской с самого начала — зачем отдельное устройство, если можно просто сделать приложение?
1. Все, что делает r1, может делать любой, даже самый дешевый телефон — приложение ChatGPT (как и десятки других) также умеет распознавать картинку с камеры и общаться голосом.
2. Включать Спотифай умеют даже тупые (по нынешним меркам) Siri на Айфоне или Google Assistant на Андроиде.
3. Ни один нормальный человек не будет носить с собой в кармане еще одну коробку, которая требует своей дополнительной сим-карты и зарядки (часы, очки и наушники не в счет — это таки другое и имеет реальные юзкейсы).
4. r1, конечно, смартфон никак не заменит — он буквально не умеет ничего, что должен уметь смартфон.
И вот, первые покупатели получили устройства. Разумеется, среди них нашлись инженеры.
И, кто бы мог подумать! Девайс оказался дешевым Андроидом с простым приложением, которое как и ChatGPT, отправляет команды в облако (т.е. требует постоянного подключения к интернету — работай AI локально на устройстве, это было бы реально круто, хотя и все также бесполезно).
Более того, приложение было немедленно из устройства извлечено и загружено на обычный телефон — разумеется, оно на нем без проблем заработало.
Да, устройство красивое. Да, можно запустить голосовой чат одной кнопкой — но вы уже сегодня можете сделать это на любом смартфоне.
Величайший прогрев гоев, конечно.
🔴 @reptiloidnaya × #future #ai #devices
Возможно, вы видели безумный хайп по устройству Rabbit r1 за $200 — новому AI-помощнику с красивым дизайном, созданном в teenage engineering.
Как оно работает? С устройством можно общаться голосом, оно умеет распознавать то, что видит камера, а также включать Спотифай и заказывать Убер.
Всем здравомыслящим людям эта идея показалась абсолютно идиотской с самого начала — зачем отдельное устройство, если можно просто сделать приложение?
1. Все, что делает r1, может делать любой, даже самый дешевый телефон — приложение ChatGPT (как и десятки других) также умеет распознавать картинку с камеры и общаться голосом.
2. Включать Спотифай умеют даже тупые (по нынешним меркам) Siri на Айфоне или Google Assistant на Андроиде.
3. Ни один нормальный человек не будет носить с собой в кармане еще одну коробку, которая требует своей дополнительной сим-карты и зарядки (часы, очки и наушники не в счет — это таки другое и имеет реальные юзкейсы).
4. r1, конечно, смартфон никак не заменит — он буквально не умеет ничего, что должен уметь смартфон.
И вот, первые покупатели получили устройства. Разумеется, среди них нашлись инженеры.
И, кто бы мог подумать! Девайс оказался дешевым Андроидом с простым приложением, которое как и ChatGPT, отправляет команды в облако (т.е. требует постоянного подключения к интернету — работай AI локально на устройстве, это было бы реально круто, хотя и все также бесполезно).
Более того, приложение было немедленно из устройства извлечено и загружено на обычный телефон — разумеется, оно на нем без проблем заработало.
Да, устройство красивое. Да, можно запустить голосовой чат одной кнопкой — но вы уже сегодня можете сделать это на любом смартфоне.
Величайший прогрев гоев, конечно.
🔴 @reptiloidnaya × #future #ai #devices
Жители Лондона используют дроны, чтобы надевать вёдра на камеры наблюдения и блокировать их.
Киберпанк, который мы заслужили.
Если вдруг кто не помнит, в Skyrim надевали ведро на голову торговцу, после чего он переставал видеть происходящее вокруг, и можно было невозбранно ограбить весь магазин.
👁️🗨️ Вас заметили.
🔴 @reptiloidnaya × #будущее #роботы #дроны
Киберпанк, который мы заслужили.
👁️🗨️ Вас заметили.
🔴 @reptiloidnaya × #будущее #роботы #дроны
Media is too big
VIEW IN TELEGRAM
Первый музыкальный клип, созданный с помощью SORA
Про прорывную нейронку для видеогенерации от OpenAI я уже писал несколько раз, почитайте — 1, 2, 3, а также о ее опасностях.
К сожалению или к счастью, открытого доступа пока нет — его раздали только некоторому количеству художников и режиссеров, которые, пока что, используют SORA во имя добра.
Вот, например первый музыкальный видеоклип (тут в качестве). Что интересно:
1. Для создания 4-х минутного клипа было сгенерировано около 700 фрагментов.
2. На генерацию каждого уходило от 15 до 60 минут.
3. Весь продакшн занял около 1.5 месяца.
4. Для создания хорошего конечного продукта, в любом случае, пока (и еще очень долго) нужен будет талантливый кожаный режиссер.
Главным вопросом остается стоимость — видеогенерация (пока еще) требует больших мощностей и стоит дорого, поэтому пока неясно, что выгоднее — генерить или снимать с кожаными актерами (в перспективе, понятно, что первое).
В общем, почитайте интервью — там интересно.
🔴 @reptiloidnaya × #ai #generativeai #sora
Про прорывную нейронку для видеогенерации от OpenAI я уже писал несколько раз, почитайте — 1, 2, 3, а также о ее опасностях.
К сожалению или к счастью, открытого доступа пока нет — его раздали только некоторому количеству художников и режиссеров, которые, пока что, используют SORA во имя добра.
Вот, например первый музыкальный видеоклип (тут в качестве). Что интересно:
1. Для создания 4-х минутного клипа было сгенерировано около 700 фрагментов.
2. На генерацию каждого уходило от 15 до 60 минут.
3. Весь продакшн занял около 1.5 месяца.
4. Для создания хорошего конечного продукта, в любом случае, пока (и еще очень долго) нужен будет талантливый кожаный режиссер.
Главным вопросом остается стоимость — видеогенерация (пока еще) требует больших мощностей и стоит дорого, поэтому пока неясно, что выгоднее — генерить или снимать с кожаными актерами (в перспективе, понятно, что первое).
В общем, почитайте интервью — там интересно.
🔴 @reptiloidnaya × #ai #generativeai #sora
Media is too big
VIEW IN TELEGRAM
Ну ничего — вот будет у меня огнемет, и тогда кожаные ответят за все...
Наша любимая рубрика «киберпанк, который мы заслужили».
Статья про видео — тут.
🔴 @reptiloidnaya × #киберпанк #роботы
Наша любимая рубрика «киберпанк, который мы заслужили».
Статья про видео — тут.
🔴 @reptiloidnaya × #киберпанк #роботы
Метаверс-платформы и игры, конечно, являются отличным полем для экономических экспериментов. Вот, почти социализм построили (с предсказуемым результатом, читайте весь пост по ссылке): https://t.iss.one/olya_tashit/2751
Telegram
Метаверсошная
Дети снова митингуют в Роблоксе 😂
На платформе есть одна очень популярная симсоподобная игра - Блоксбург.
Как я поняла, игру продали новым владельцам и те выкатили грандиозный апдейт.
Теперь за всю работу, независимо от левела игроков, всем платят одинаково.…
На платформе есть одна очень популярная симсоподобная игра - Блоксбург.
Как я поняла, игру продали новым владельцам и те выкатили грандиозный апдейт.
Теперь за всю работу, независимо от левела игроков, всем платят одинаково.…
VFX для народа!
Вы наверняка видели популярные сейчас видосы с огромными сумками на зданиях, кроссовками, ездящими по дорогам и прочими визуальными эффектами — FOOH (Fake Out-Of-Home) реклама все больше набирает тренд.
Уже примерно год я наблюдаю за стартапом Simulon, цель которого — демократизировать VFX и который наконец вышел в закрытую бету. Как оно работает?
1. Вы снимаете обычным телефоном сферическую панораму вашего окружения — она используется для правильного расчета освещения и теней.
2. Сканируете пространство LiDAR'ом телефона, чтобы оттрекать поверхности.
3. Размещаете 3D-объект и снимаете видео.
После этого видос уходит в облако, где происходит рендеринг с рейтрейсингом и прочими приколами.
На выходе — качественная, фотореалистичная картинка. Результат, на который пришлось бы потратить немало времени, трекая и композя все это в Blender и After Effects.
Сравните первый и второй видос: первый — рендер, второй — превью. Ждем релиз, в общем.
🔴 @reptiloidnaya × #ar #augmentedreality #vfx
Вы наверняка видели популярные сейчас видосы с огромными сумками на зданиях, кроссовками, ездящими по дорогам и прочими визуальными эффектами — FOOH (Fake Out-Of-Home) реклама все больше набирает тренд.
Уже примерно год я наблюдаю за стартапом Simulon, цель которого — демократизировать VFX и который наконец вышел в закрытую бету. Как оно работает?
1. Вы снимаете обычным телефоном сферическую панораму вашего окружения — она используется для правильного расчета освещения и теней.
2. Сканируете пространство LiDAR'ом телефона, чтобы оттрекать поверхности.
3. Размещаете 3D-объект и снимаете видео.
После этого видос уходит в облако, где происходит рендеринг с рейтрейсингом и прочими приколами.
На выходе — качественная, фотореалистичная картинка. Результат, на который пришлось бы потратить немало времени, трекая и композя все это в Blender и After Effects.
Сравните первый и второй видос: первый — рендер, второй — превью. Ждем релиз, в общем.
🔴 @reptiloidnaya × #ar #augmentedreality #vfx