Derp Learning
12.9K subscribers
3.03K photos
827 videos
9 files
1.27K links
Используем ИИ строго не по назначению.
Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
Download Telegram
I shared the following note with the Openai team today
Forwarded from Сиолошная
АХАХАХХАХАХАХАХАХАХ
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Индустрия через пару лет такая: «А чего бы нам не запускаться только на нейронных чипах?»

Думаете, Хуанг не пойдет на это, учитывая все его последние заявления? Отлично же картинку держит, не?!
Forwarded from Dev Meme / devmeme
Тем временем VisualRWKV не стоит на месте и уже подбирается к LLAVA по метрикам, при большей скорости и меньшем расходе памяти.

Когда они уже картинки начнут генерить, ну.

https://github.com/howard-hou/VisualRWKV
Forwarded from Psy Eyes
Runway: режим Video-2-Video теперь есть и в Turbo версии Gen-3. До этого оно было только в базовой модели.

Также в Turbo завезли работу с вертикальными видео.

Твит
Сайт
Про Runway Turbo
This media is not supported in your browser
VIEW IN TELEGRAM
Так и запишем: на чердаке больше не спрятаться

Robust Ladder Climbing with a Quadrupedal Robot

paper

@derplearning
This media is not supported in your browser
VIEW IN TELEGRAM
Фоторежим из Death Stranding 2 как отдельный вид искусства

@derplearning
This media is not supported in your browser
VIEW IN TELEGRAM
PortraitGen - Portrait Video Editing Empowered by
Multimodal Generative Priors


Интересный подход к video2video с объездом через 4D гауссианы.
Неожиданно, с кодом и претренами.

paper
git
project
CogView3 & CogView-3Plus

В целом осень выдалась урожайной, в основном благодаря ECCV & SIGGRAPH ASIA

Вот и китайцы выкатили очередную итерацию CogView text2image

Если верить авторам, бьет SDXL во все поля (пора все-таки уже с FLUX сравнивать, сдохле второй год пошел)

paper
code

@derplearning
Ctrl-X: Controlling Structure and Appearance for Text-To-Image Generation Without Guidance (NeurIPS 2024)

И такой еще подход зарелизили.
Берем две референсных картинки: одну для стиля, другую для структуры, шатаем ими аттеншен, и получаем контролируемые генерации без гайданса, тюна, или контролнетов.

Похоже на reference controlnet (который контролнетом назвали видимо потому, что было лень объяснять)

code
paper
reddit
project

@derplearning