Мишин Лернинг 🇺🇦🇮🇱
7.91K subscribers
1.16K photos
141 videos
4 files
634 links
Субъективный канал об искусстве машинного обучения, нейронных сетях и новостях из мира искусственного интеллекта.
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
😏 боже, как пафосно хоронят иллюстраторов в клоне тиктока

Первая обложка, сгенерированная ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ!

Вспоминаю хорошую шутку, которую услышал от А. Чернодуба:

«Статистику пишут на R, Deep Learning пишут на Python, AI пишут на слайдах презентаций и в рекламных текстах»

upd. они ещё и статью выкатили, не мл статью разумеется
👍66🔥12👎1
Forwarded from Derp Learning
Там openai, видимо, немношк надавливают на dalle-mini.

Оно и понятно, ведь модель никак не связана с DALL-E и openai, использует бренд без разрешения и (о ужос) позволяет генерить картинки по запрещённым в DALL-E ключевым словам.

Жду миллионов клонов dalle-mini со схожими названиями, например, ellda. 🙄🤣
А ещё лучше, позволяющим генерить только запрещенные в DALL-E запросы.

С юридической точки зрения кейс простой, и у автора dalle-mini довольно мало шансов сохранить даже публичный репо под тем же названием, но мы все помним успех Бейонсе с удалением чего-либо из инторнетов.

Сорс
За наводку спасибо @dallesexy
🔥29👎1
📓 Диффузионная сахарная SOTA: Elucidating the Design Space of Diffusion-Based Generative Models

Если без математики.. Помните пейпер iDDPM, который предложил ряд достаточно важных улучшений для трейна и инференса диффузии? Именно iDDPM стал стандартом современной диффузии, которую мы знаем. И сегодня iDDPM и являются одним из самых популярных и фундаментальных подходов к трейну. Все ваши любимые DALL•E 2 и Imagen это iDDPM на каскаде 64х64pix и DDIM инференс на более поздних.

Подход Karras et al., 2022 от NVIDIA является таким же прорывом по отношению к iDDPM, как и iDDPM к ванильному DDPM. Подход Karras et al. позволяет перебить Diffusion Models Beat GANs в ImageNet-64 с FID=2.07 и достигнуть значения в 1.55, что является просто колоссальнейшим скачком.

Самое интересное, что Катерина (она гений ml математики и кода) уже имплементировала этот подход. И он даже параллелится на Multi-GPU и multi-node с Hugging Face Accelerate (Accelerate — это явно некстген)

📄 paper
💻 code (Катерина)

@мишин лернинг
🔥23👍3👎3
Forwarded from DL in NLP (Vlad Lialin)
GitHub Copilot теперь доступен всем
https://github.blog/2022-06-21-github-copilot-is-generally-available-to-all-developers

1. 60 дней пробный период
1. $10/мес или $100/год
1. Бесплатно для студентов и меинтейнеров популярного opensource 🎉

По-моему весьма адекватная цена, я использую копайлот где-то с сентября и он очень крут. Очень помогает писать всякий boilerplate и другой простой код. Также matplotlib стало возможно использовать без постоянного поиска команд в гугле/документации. Но самое главное: зачастую помогает придумать название переменной 😂

Пока доступен только индивидуальным разработчикам, продукт для больших компаний обещают later this year. Интересно, появится ли когда-нибудь on-premise решение, а то без этого кажется в больших компаниях типа FAANG он будет запрещен всегда 😞
15👍9👎3
Торчвижен обновился (и уже давно)

👉 И это довольно важно, так как многие любят использовать модели из их хаба, а тут выкатили сразу кучу, так ещё и с более крутым качеством.

🔥Что нового:

1️⃣ Добавили веса IMAGENET1K_V2, улучшив метрику:

ResNet50:
acc@1 (on ImageNet-1K): 76.13 -> 80.858
acc@5 (on ImageNet-1K): 92.862 -> 95.434

MobileNet_V3_Large:
acc@1 (on ImageNet-1K): 74.042 -> 75.274
acc@5 (on ImageNet-1K): 91.34 -> 92.566

В основном резнет-образные получили сильный буст, остальные не очень много.

2️⃣ Обновили список квантизированных моделей (удивился что такой есть, полезно смотреть доки)

3️⃣ Добавили инференс трансформации по умолчанию (подробнее в следующем посте)

@gradientdip

Попробовать можно уже сейчас, но только в main ветке (сейчас ветка v12 - stable)
🔥13👎2👍1
🦁 Parti — Новый Text2Image от Google | DALL-E 1 Наносят ответный удар

Авторегрессионный подход к генерации казался уже в далеком прошлом. Все перекинулись в диффуз, и это вполне ожидаемо, глядя на успехи DALL-E 2 и Imagen. И да, Imagen от Google таки делает DALL-E 2. Но Google не успокоился.. Можно сказать что Google дернул OpenAI дважды:
▪️ Imagen > DALL-E 2
▪️ Parti > DALL-E 1

Встречайте: Pathways Autoregressive Text-to-Image model (Parti). И самое странное то, что Parti бьет Imagen по MS-COCO FID в Zero-Shot!

Всего Google обучил 4 модели:
350M - 14.10 FID
750M - 10.71 FID
3B - 8.10 FID
20B - 7.23 FID

Архитектруно Parti это трансформер энкордер-декодер работающий с текстовыми токенами и токенами ViT-VQGAN. Ну и спасибо LAION за датасет!

p.s.: Субъективно, я уже решил что лучше Parti или Imagen... Вроде текст у Parti лучше, но вот гановские артефакты чуть больше бесят, но вот фиксятся ли они каскадами апскейлеров хз..

💻 project
📄 paper
👾 GIT
@мишин лернинг
18👍9🔥5👎2
🏞 Random neural generations from Parti
🔥54👎4