Forwarded from Нейроэстетика
⚓️🇺🇦 Одесса — генеративная фото коллекция
Посвящаю самому любимому и родному городу в мире! Мой любой Одессе! Ты выстоишь!
Одеса — це Україна! 💙💛
автор: Н е й р о э с т е т и к а ✖️ Мишин Лернинг
Посвящаю самому любимому и родному городу в мире! Мой любой Одессе! Ты выстоишь!
Одеса — це Україна! 💙💛
автор: Н е й р о э с т е т и к а ✖️ Мишин Лернинг
❤100👍7👎3😢1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖🎥 Начало эпохи генеративного видео | CogVideo
Nuwa и CogVideo — две основополагющие нейростети в Text2Video задачах, о которых я писал ранее (1, 2). И будущее поколение будет сравнивать свои метрики именно с ними.
VQ-VAE/GAN + авторегрессия увы не дает нормального результата на малом кол-ве параметров (<20B). Так что подождем нормальный диффузионный text2image.
😒 полу-демо на китайском
💻 git 📄 paper
@Мишин Лернинг 🎓
Nuwa и CogVideo — две основополагющие нейростети в Text2Video задачах, о которых я писал ранее (1, 2). И будущее поколение будет сравнивать свои метрики именно с ними.
VQ-VAE/GAN + авторегрессия увы не дает нормального результата на малом кол-ве параметров (<20B). Так что подождем нормальный диффузионный text2image.
😒 полу-демо на китайском
💻 git 📄 paper
@Мишин Лернинг 🎓
🔥28👍1
❤️ DALL·E 2 Product Updates
Мне кажется, что ИИ и искусство еще никогда не были так близки к друг другу: OpenAI заявили что следующая их цель 1,000,000 пользователей DALL-E 2
Сейчас DALL-E 2 доступен 100,000 пользователям со всего мира. Сегодня мне на почту пришло письмо, где говорится об изменениях, касающихся API, давайте разберем:
▪️ Чтобы дать возможность большему числу людей прикаснуться к интеллектуальному чуду, OpenAI решили уменьшить выдачу: 4 генерации вместо 6
▪️ Увеличили память с 10ти до 50ти последних запросов, а сохранять в избранное не 1,000 а 10,000 картинок.
▪️ Кроме того OpenAI повысили diversity. Больше людей хороших и разных!
Я ощущаю прогресс в чем-то совершенно новом. Мои генерации нравятся мне все больше, я вырабатываю определенную стилистику, перекочевавшую из любительской фотографии. За выходные я узнал много фотохудожников, стилей и терминов.
Надеюсь скоро и тебе придет инвайт!
Ну а 4 картинки в выдаче вместо 6ти не беда, когда они такие!
@мишин лернинг
Мне кажется, что ИИ и искусство еще никогда не были так близки к друг другу: OpenAI заявили что следующая их цель 1,000,000 пользователей DALL-E 2
Сейчас DALL-E 2 доступен 100,000 пользователям со всего мира. Сегодня мне на почту пришло письмо, где говорится об изменениях, касающихся API, давайте разберем:
▪️ Чтобы дать возможность большему числу людей прикаснуться к интеллектуальному чуду, OpenAI решили уменьшить выдачу: 4 генерации вместо 6
▪️ Увеличили память с 10ти до 50ти последних запросов, а сохранять в избранное не 1,000 а 10,000 картинок.
▪️ Кроме того OpenAI повысили diversity. Больше людей хороших и разных!
Я ощущаю прогресс в чем-то совершенно новом. Мои генерации нравятся мне все больше, я вырабатываю определенную стилистику, перекочевавшую из любительской фотографии. За выходные я узнал много фотохудожников, стилей и терминов.
Надеюсь скоро и тебе придет инвайт!
Ну а 4 картинки в выдаче вместо 6ти не беда, когда они такие!
@мишин лернинг
❤37👍8🔥3👎2
🤖 DALL·E вышел в BETA!
На старте OpenAI давали генерировать по 10 картинок и без каких-то лимитов, потом количество генераций срезали до 8ми, а потом до 6ти и ввели лимит в 50 генераций в день, теперь число генераций по одному запросу в выдаче: 4 картинки.
Но OpanAI поставило цель достичь 1,000,000 пользователей DALL•E 2. Объясню как это будет работать:
▪️ Новому юзеру даётся 50 кредитов
▪️ Один кредит — 4 картинки по описанию
▪️ 115 кредитов можно купить за 15$ (получается 0.13$ за запрос)
▪️ Каждый месяц вы получаете 15 кредитов бесплатно
▪️ Если вы, как я, участвовали в альфе, то получите 100 кредитов в бонус единоразово.
Сразу скажу, что 15, 50, 100 и 115 кредитов это совсем ничего! Последнее время я каждый день генерил по 50 запросов (по 6 картинок) и этого всегда было мало! На создание хорошей коллекции уходит 10-30 кредитов. С другой стороны, хоть вы и не обладаете копирайтом на изображения, вы можете использовать их в коммерческих целях.
@мишин лернинг
На старте OpenAI давали генерировать по 10 картинок и без каких-то лимитов, потом количество генераций срезали до 8ми, а потом до 6ти и ввели лимит в 50 генераций в день, теперь число генераций по одному запросу в выдаче: 4 картинки.
Но OpanAI поставило цель достичь 1,000,000 пользователей DALL•E 2. Объясню как это будет работать:
▪️ Новому юзеру даётся 50 кредитов
▪️ Один кредит — 4 картинки по описанию
▪️ 115 кредитов можно купить за 15$ (получается 0.13$ за запрос)
▪️ Каждый месяц вы получаете 15 кредитов бесплатно
▪️ Если вы, как я, участвовали в альфе, то получите 100 кредитов в бонус единоразово.
Сразу скажу, что 15, 50, 100 и 115 кредитов это совсем ничего! Последнее время я каждый день генерил по 50 запросов (по 6 картинок) и этого всегда было мало! На создание хорошей коллекции уходит 10-30 кредитов. С другой стороны, хоть вы и не обладаете копирайтом на изображения, вы можете использовать их в коммерческих целях.
@мишин лернинг
❤22😢6👍4
😉 Stable Diffusion Beta Access
Помните писал про то, что скоро будет моделька (фото с огромным зайкой на улице)
Модель представляет из себя смесь Latent Diffusion Model и DALL•E 2 на CLIP векторах и в 'стабильном 'CLIP-Guided режиме. Отсюда и имя: Stable Diffusion
Подробнее в следующем посте
> заявка на бету
Помните писал про то, что скоро будет моделька (фото с огромным зайкой на улице)
Модель представляет из себя смесь Latent Diffusion Model и DALL•E 2 на CLIP векторах и в 'стабильном 'CLIP-Guided режиме. Отсюда и имя: Stable Diffusion
Подробнее в следующем посте
> заявка на бету
🔥10❤6👍2
Forwarded from Нейроэстетика
🤖 Потестировал новую Text2Image модель. Встречайте, Stable Diffusion
Модель является синтезем Latent Diffusion Model и Imagen. Из-за LDM подхода модель сразу генерит 768х768, а не 64 > 256 > 1024 как DALL-E 2 и Imagen!
Сразу скажу, что пока пройдено лишь 25% обучения и для сэмплинга не используется ни CLIP-guidance, ни classifier free guidance, которые буду использоваться потом и невероятно усилят качество генераций!
👉 Записаться на бетку можно тут
Н е й р о э с т е т и к а ✖️ Мишин Лернинг
Модель является синтезем Latent Diffusion Model и Imagen. Из-за LDM подхода модель сразу генерит 768х768, а не 64 > 256 > 1024 как DALL-E 2 и Imagen!
Сразу скажу, что пока пройдено лишь 25% обучения и для сэмплинга не используется ни CLIP-guidance, ни classifier free guidance, которые буду использоваться потом и невероятно усилят качество генераций!
👉 Записаться на бетку можно тут
Н е й р о э с т е т и к а ✖️ Мишин Лернинг
❤14👍11🔥2