This media is not supported in your browser
VIEW IN TELEGRAM
😏 боже, как пафосно хоронят иллюстраторов в клоне тиктока
Первая обложка, сгенерированная ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ!
Вспоминаю хорошую шутку, которую услышал от А. Чернодуба:
«Статистику пишут на R, Deep Learning пишут на Python, AI пишут на слайдах презентаций и в рекламных текстах»
upd. они ещё и статью выкатили, не мл статью разумеется
Первая обложка, сгенерированная ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ!
Вспоминаю хорошую шутку, которую услышал от А. Чернодуба:
«Статистику пишут на R, Deep Learning пишут на Python, AI пишут на слайдах презентаций и в рекламных текстах»
upd. они ещё и статью выкатили, не мл статью разумеется
👍66🔥12👎1
Forwarded from Derp Learning
Там openai, видимо, немношк надавливают на dalle-mini.
Оно и понятно, ведь модель никак не связана с DALL-E и openai, использует бренд без разрешения и (о ужос) позволяет генерить картинки по запрещённым в DALL-E ключевым словам.
Жду миллионов клонов dalle-mini со схожими названиями, например, ellda. 🙄🤣
А ещё лучше, позволяющим генерить только запрещенные в DALL-E запросы.
С юридической точки зрения кейс простой, и у автора dalle-mini довольно мало шансов сохранить даже публичный репо под тем же названием, но мы все помним успех Бейонсе с удалением чего-либо из инторнетов.
Сорс
За наводку спасибо @dallesexy
Оно и понятно, ведь модель никак не связана с DALL-E и openai, использует бренд без разрешения и (о ужос) позволяет генерить картинки по запрещённым в DALL-E ключевым словам.
Жду миллионов клонов dalle-mini со схожими названиями, например, ellda. 🙄🤣
А ещё лучше, позволяющим генерить только запрещенные в DALL-E запросы.
С юридической точки зрения кейс простой, и у автора dalle-mini довольно мало шансов сохранить даже публичный репо под тем же названием, но мы все помним успех Бейонсе с удалением чего-либо из инторнетов.
Сорс
За наводку спасибо @dallesexy
🔥29👎1
📓 Диффузионная сахарная SOTA: Elucidating the Design Space of Diffusion-Based Generative Models
Если без математики.. Помните пейпер iDDPM, который предложил ряд достаточно важных улучшений для трейна и инференса диффузии? Именно iDDPM стал стандартом современной диффузии, которую мы знаем. И сегодня iDDPM и являются одним из самых популярных и фундаментальных подходов к трейну. Все ваши любимые DALL•E 2 и Imagen это iDDPM на каскаде 64х64pix и DDIM инференс на более поздних.
Подход Karras et al., 2022 от NVIDIA является таким же прорывом по отношению к iDDPM, как и iDDPM к ванильному DDPM. Подход Karras et al. позволяет перебить Diffusion Models Beat GANs в ImageNet-64 с FID=2.07 и достигнуть значения в 1.55, что является просто колоссальнейшим скачком.
Самое интересное, что Катерина (она гений ml математики и кода) уже имплементировала этот подход. И он даже параллелится на Multi-GPU и multi-node с Hugging Face Accelerate (Accelerate — это явно некстген)
📄 paper
💻 code (Катерина) ✨
@мишин лернинг
Если без математики.. Помните пейпер iDDPM, который предложил ряд достаточно важных улучшений для трейна и инференса диффузии? Именно iDDPM стал стандартом современной диффузии, которую мы знаем. И сегодня iDDPM и являются одним из самых популярных и фундаментальных подходов к трейну. Все ваши любимые DALL•E 2 и Imagen это iDDPM на каскаде 64х64pix и DDIM инференс на более поздних.
Подход Karras et al., 2022 от NVIDIA является таким же прорывом по отношению к iDDPM, как и iDDPM к ванильному DDPM. Подход Karras et al. позволяет перебить Diffusion Models Beat GANs в ImageNet-64 с FID=2.07 и достигнуть значения в 1.55, что является просто колоссальнейшим скачком.
Самое интересное, что Катерина (она гений ml математики и кода) уже имплементировала этот подход. И он даже параллелится на Multi-GPU и multi-node с Hugging Face Accelerate (Accelerate — это явно некстген)
📄 paper
💻 code (Катерина) ✨
@мишин лернинг
🔥23👍3👎3
Forwarded from DL in NLP (Vlad Lialin)
GitHub Copilot теперь доступен всем
https://github.blog/2022-06-21-github-copilot-is-generally-available-to-all-developers
1. 60 дней пробный период
1. $10/мес или $100/год
1. Бесплатно для студентов и меинтейнеров популярного opensource 🎉
По-моему весьма адекватная цена, я использую копайлот где-то с сентября и он очень крут. Очень помогает писать всякий boilerplate и другой простой код. Также matplotlib стало возможно использовать без постоянного поиска команд в гугле/документации. Но самое главное: зачастую помогает придумать название переменной 😂
Пока доступен только индивидуальным разработчикам, продукт для больших компаний обещают later this year. Интересно, появится ли когда-нибудь on-premise решение, а то без этого кажется в больших компаниях типа FAANG он будет запрещен всегда 😞
https://github.blog/2022-06-21-github-copilot-is-generally-available-to-all-developers
1. 60 дней пробный период
1. $10/мес или $100/год
1. Бесплатно для студентов и меинтейнеров популярного opensource 🎉
По-моему весьма адекватная цена, я использую копайлот где-то с сентября и он очень крут. Очень помогает писать всякий boilerplate и другой простой код. Также matplotlib стало возможно использовать без постоянного поиска команд в гугле/документации. Но самое главное: зачастую помогает придумать название переменной 😂
Пока доступен только индивидуальным разработчикам, продукт для больших компаний обещают later this year. Интересно, появится ли когда-нибудь on-premise решение, а то без этого кажется в больших компаниях типа FAANG он будет запрещен всегда 😞
The GitHub Blog
GitHub Copilot is generally available to all developers
We’re making GitHub Copilot, an AI pair programmer that suggests code in your editor, generally available to all developers for $10 USD/month or $100 USD/year. It will also be free to use for verified students and maintainers of popular open source projects.
❤15👍9👎3
Forwarded from Градиентное погружение
Торчвижен обновился (и уже давно)
👉 И это довольно важно, так как многие любят использовать модели из их хаба, а тут выкатили сразу кучу, так ещё и с более крутым качеством.
🔥Что нового:
1️⃣ Добавили веса IMAGENET1K_V2, улучшив метрику:
ResNet50:
acc@1 (on ImageNet-1K): 76.13 -> 80.858
acc@5 (on ImageNet-1K): 92.862 -> 95.434
MobileNet_V3_Large:
acc@1 (on ImageNet-1K): 74.042 -> 75.274
acc@5 (on ImageNet-1K): 91.34 -> 92.566
В основном резнет-образные получили сильный буст, остальные не очень много.
2️⃣ Обновили список квантизированных моделей (удивился что такой есть, полезно смотреть доки)
3️⃣ Добавили инференс трансформации по умолчанию (подробнее в следующем посте)
@gradientdip
Попробовать можно уже сейчас, но только в main ветке (сейчас ветка v12 - stable)
👉 И это довольно важно, так как многие любят использовать модели из их хаба, а тут выкатили сразу кучу, так ещё и с более крутым качеством.
🔥Что нового:
1️⃣ Добавили веса IMAGENET1K_V2, улучшив метрику:
ResNet50:
acc@1 (on ImageNet-1K): 76.13 -> 80.858
acc@5 (on ImageNet-1K): 92.862 -> 95.434
MobileNet_V3_Large:
acc@1 (on ImageNet-1K): 74.042 -> 75.274
acc@5 (on ImageNet-1K): 91.34 -> 92.566
В основном резнет-образные получили сильный буст, остальные не очень много.
2️⃣ Обновили список квантизированных моделей (удивился что такой есть, полезно смотреть доки)
3️⃣ Добавили инференс трансформации по умолчанию (подробнее в следующем посте)
@gradientdip
Попробовать можно уже сейчас, но только в main ветке (сейчас ветка v12 - stable)
🔥13👎2👍1
🦁 Parti — Новый Text2Image от Google | DALL-E 1 Наносят ответный удар
Авторегрессионный подход к генерации казался уже в далеком прошлом. Все перекинулись в диффуз, и это вполне ожидаемо, глядя на успехи DALL-E 2 и Imagen. И да, Imagen от Google таки делает DALL-E 2. Но Google не успокоился.. Можно сказать что Google дернул OpenAI дважды:
▪️ Imagen > DALL-E 2
▪️ Parti > DALL-E 1
Встречайте: Pathways Autoregressive Text-to-Image model (Parti). И самое странное то, что Parti бьет Imagen по MS-COCO FID в Zero-Shot!
Всего Google обучил 4 модели:
350M - 14.10 FID
750M - 10.71 FID
3B - 8.10 FID
20B - 7.23 FID
Архитектруно Parti это трансформер энкордер-декодер работающий с текстовыми токенами и токенами ViT-VQGAN. Ну и спасибо LAION за датасет!
p.s.: Субъективно, я уже решил что лучше Parti или Imagen... Вроде текст у Parti лучше, но вот гановские артефакты чуть больше бесят, но вот фиксятся ли они каскадами апскейлеров — хз..
💻 project
📄 paper
👾 GIT
@мишин лернинг
Авторегрессионный подход к генерации казался уже в далеком прошлом. Все перекинулись в диффуз, и это вполне ожидаемо, глядя на успехи DALL-E 2 и Imagen. И да, Imagen от Google таки делает DALL-E 2. Но Google не успокоился.. Можно сказать что Google дернул OpenAI дважды:
▪️ Imagen > DALL-E 2
▪️ Parti > DALL-E 1
Встречайте: Pathways Autoregressive Text-to-Image model (Parti). И самое странное то, что Parti бьет Imagen по MS-COCO FID в Zero-Shot!
Всего Google обучил 4 модели:
350M - 14.10 FID
750M - 10.71 FID
3B - 8.10 FID
20B - 7.23 FID
Архитектруно Parti это трансформер энкордер-декодер работающий с текстовыми токенами и токенами ViT-VQGAN. Ну и спасибо LAION за датасет!
p.s.: Субъективно, я уже решил что лучше Parti или Imagen... Вроде текст у Parti лучше, но вот гановские артефакты чуть больше бесят, но вот фиксятся ли они каскадами апскейлеров — хз..
💻 project
📄 paper
👾 GIT
@мишин лернинг
❤18👍9🔥5👎2