Awesome-Diffusion
Один из админов нашел репозиторий, достойный вашего внимания, но перед началом стоит чуть поговорить про то, что такое диффузионные модели:
Работают диффузионные модели следующим образом — сначала искажают обучающие данные, постепенно добавляя гауссовский шум, медленно стирая детали, пока данные не превратятся в чистый шум, а затем нейронная сеть обучается, чтобы обратить этот процесс искажения вспять. При обратном искажении данные синтезируются из чистого шума путем постепенного снижения шума до тех пор, пока не будет получен чистый образец. (источник)
Собственно тема интересная и скорее всего вы о ней слышали, когда смотрели на всякие нейрогенерации коих в последнее время довольно много.
Репозиторий представляет собой сборник ссылок на статьи и их реализации, разделённые на самые разные темы(в том числе NLP, Vision, Audio, TS, etc).
Всё оформлено классно, а самое главное - структурированно.
Меня заинтересовала тема временных рядов и скорее всего, при необходимости, я попробую что-нибудь оттуда использовать.
Репозиторий
Один из админов нашел репозиторий, достойный вашего внимания, но перед началом стоит чуть поговорить про то, что такое диффузионные модели:
Работают диффузионные модели следующим образом — сначала искажают обучающие данные, постепенно добавляя гауссовский шум, медленно стирая детали, пока данные не превратятся в чистый шум, а затем нейронная сеть обучается, чтобы обратить этот процесс искажения вспять. При обратном искажении данные синтезируются из чистого шума путем постепенного снижения шума до тех пор, пока не будет получен чистый образец. (источник)
Собственно тема интересная и скорее всего вы о ней слышали, когда смотрели на всякие нейрогенерации коих в последнее время довольно много.
Репозиторий представляет собой сборник ссылок на статьи и их реализации, разделённые на самые разные темы(в том числе NLP, Vision, Audio, TS, etc).
Всё оформлено классно, а самое главное - структурированно.
Меня заинтересовала тема временных рядов и скорее всего, при необходимости, я попробую что-нибудь оттуда использовать.
Репозиторий
👍9🔥6
Визуализация аудитории
Сделал небольшой парсер участников канала в телеге.
Беру все доступные описания и закидываю в модель, подаю в PCA и сжимаю до вектора из 2-х элементов, ручками выбираю кол-во кластеров и строю график.
Теперь про график:
Красные - всякие ссылки на каналы
Темные - DS/ML/универы
Зеленые - словосочетания и предложения
Ну и те, что в центре - что-то между всеми остальными.
Пока делал всё это, задумался о том, сколько данных мы теряем - начиная от сжатия и заканчивая кластеризацией.
Ведь действительно, для сжатия мы подаем N-мерные вектора, которые схлопываются в 2-мерные и именно по 2-мерным мы делаем кластеризацию.
Ок, давай подавать N-мерные, в чем проблема?
Проблема в том, что тогда у кластеров не будет четкой границы и понимать график станет куда сложнее.
Этим постом я хотел вернуть нас к пониманию того, что объяснять ML довольно сложно. Почему? Потому что мы не всегда имеем полное представление о данных.
Код для визуализации
Сделал небольшой парсер участников канала в телеге.
Беру все доступные описания и закидываю в модель, подаю в PCA и сжимаю до вектора из 2-х элементов, ручками выбираю кол-во кластеров и строю график.
Теперь про график:
Красные - всякие ссылки на каналы
Темные - DS/ML/универы
Зеленые - словосочетания и предложения
Ну и те, что в центре - что-то между всеми остальными.
Пока делал всё это, задумался о том, сколько данных мы теряем - начиная от сжатия и заканчивая кластеризацией.
Ведь действительно, для сжатия мы подаем N-мерные вектора, которые схлопываются в 2-мерные и именно по 2-мерным мы делаем кластеризацию.
Ок, давай подавать N-мерные, в чем проблема?
Проблема в том, что тогда у кластеров не будет четкой границы и понимать график станет куда сложнее.
Этим постом я хотел вернуть нас к пониманию того, что объяснять ML довольно сложно. Почему? Потому что мы не всегда имеем полное представление о данных.
Код для визуализации
👍14
Forwarded from Градиент обреченный
akutagawa.pdf
653.2 KB
DIY. Делаем книги
🌗 Продолжаю экспериментировать с созданием параллельных книг на иностранных языках. Повозился на майских праздниках с библиотекой weasyprint, чтобы сверстать выровненную при помощи моего хобби-проекта книгу в PDF.
Очень кропотливое занятие, которое, однако можно автоматизировать. На выходе получается вот такая замечательная книга.
🌗 Выравнивание идет при помощи LaBSE, которая обучалась на 100+ языках, можно дообучать и на другие, более редкие языки (про это можно почитать тут). Пока что можно сделать себе книжку в html.
Github
🌗 Продолжаю экспериментировать с созданием параллельных книг на иностранных языках. Повозился на майских праздниках с библиотекой weasyprint, чтобы сверстать выровненную при помощи моего хобби-проекта книгу в PDF.
Очень кропотливое занятие, которое, однако можно автоматизировать. На выходе получается вот такая замечательная книга.
🌗 Выравнивание идет при помощи LaBSE, которая обучалась на 100+ языках, можно дообучать и на другие, более редкие языки (про это можно почитать тут). Пока что можно сделать себе книжку в html.
Github
🔥9❤1
🔥 Мы сделали DALLE2
Ну или почти.
👉 Месяц работы, море потраченных нервов и арендованный сервер - совместно с автором Love. Death. Transformers. у нас получилось сделать dalle2-decoder, способный декодировать эмбеддинги клипа.
Как обычно, всё опен сурс на гитхабе.
Лайк, репост, звездочка ⚡️
Градиентное погружение
Ну или почти.
👉 Месяц работы, море потраченных нервов и арендованный сервер - совместно с автором Love. Death. Transformers. у нас получилось сделать dalle2-decoder, способный декодировать эмбеддинги клипа.
Как обычно, всё опен сурс на гитхабе.
Лайк, репост, звездочка ⚡️
Градиентное погружение
🔥29👍3❤2
Forwarded from Love. Death. Transformers.
Никто не просил, никто не ждал, но я наконец доделал и выложил самый(вероятно) быстрый captioning на русском языке.
Модель основанная на работе CLIP prefix caption, обучена на ruCOCO на 2*1080ti и выложена
Алсо моделька умеет в ZS и при должном promt может решать простенькие VQA задачки
github
hf 🤗
HFspaces🤗
collab 🔮
Лайк шер звездочка ✨
Модель основанная на работе CLIP prefix caption, обучена на ruCOCO на 2*1080ti и выложена
Алсо моделька умеет в ZS и при должном promt может решать простенькие VQA задачки
github
hf 🤗
HFspaces🤗
collab 🔮
Лайк шер звездочка ✨
👍24🔥4
Бесплатно и в облаке - ʎzy 💥
👉 ʎzy(лизи) - это система для запуска произвольного python кода в облаке, которая в ближайшее время станет open-source.
Зачем❔
1️⃣ Для контроля и оптимизации доставки данных
2️⃣ Масштабирование - ускорение существующего кода с использованием облачных ресурсов
3️⃣ Хранения результатов экспериментов
Отдельно заинтересовала возможность запуска вычислений катбуста. Как? Да очень просто
Ну и также: автоматический перенос зависимостей и минимальное изменение кода.
↘️ Сейчас идет Бетка, в private preview бесплатно доступны NVidia Tesla V100 GPU, скоро будет добавлен доступ к A100.
@Градиентное погружение
Попробовать
Послушать доклад
Взглянуть на презу
Обратная связь(Чатик)
👉 ʎzy(лизи) - это система для запуска произвольного python кода в облаке, которая в ближайшее время станет open-source.
Зачем❔
1️⃣ Для контроля и оптимизации доставки данных
2️⃣ Масштабирование - ускорение существующего кода с использованием облачных ресурсов
3️⃣ Хранения результатов экспериментов
Отдельно заинтересовала возможность запуска вычислений катбуста. Как? Да очень просто
model.fit(data, labels, provisioning=Provisioning(gpu=Gpu.any()))⚡️ После публикации в open-source можно будет взять terraform скрипты и поднять лизи у себя в приватном облаке, при необходимости.
Ну и также: автоматический перенос зависимостей и минимальное изменение кода.
↘️ Сейчас идет Бетка, в private preview бесплатно доступны NVidia Tesla V100 GPU, скоро будет добавлен доступ к A100.
@Градиентное погружение
Попробовать
Послушать доклад
Взглянуть на презу
Обратная связь(Чатик)
🔥7👍2
🔥 IMAGEN уже в коде
— Пока все мусолят тему крутости новой модельки над DALLE 2, а разрабы создают чатики для реализации архитектуры, один из админов за ночь справился с задачей.
📎 Прикрепили генерации модельки, обученной с нуля за пару часов на P100 и небольшом сете.
@Градиентное погружение
👉 Лайк, Шер, Звёздочка
Гитхаб
Попробовать ❤️
Про IMAGEN
— Пока все мусолят тему крутости новой модельки над DALLE 2, а разрабы создают чатики для реализации архитектуры, один из админов за ночь справился с задачей.
📎 Прикрепили генерации модельки, обученной с нуля за пару часов на P100 и небольшом сете.
@Градиентное погружение
👉 Лайк, Шер, Звёздочка
Гитхаб
Попробовать ❤️
Про IMAGEN
🔥13👍2
I Don't Like Notebooks
Прошло 4 года с момента выступления Джоэла Граса на JupyterCon 2018, но несмотря на это, его преза до сир пор ощущается живой и актуальной за счет веселых мемов и приятной подачи.
Просто выделите немного времени, расслабьтесь и пролистайте слайды, вам понравится.
@Градиентное погружение
Преза
Выступление
Прошло 4 года с момента выступления Джоэла Граса на JupyterCon 2018, но несмотря на это, его преза до сир пор ощущается живой и актуальной за счет веселых мемов и приятной подачи.
Просто выделите немного времени, расслабьтесь и пролистайте слайды, вам понравится.
@Градиентное погружение
Преза
Выступление
👍17
Forwarded from Love. Death. Transformers.
#чтивонаночь
Очень крутая штука от huggingface - accelerate, позволяет встраивать multi gpu tensor parallel training в обычные torch скрипты и не думать.
Blogpost
Очень крутая штука от huggingface - accelerate, позволяет встраивать multi gpu tensor parallel training в обычные torch скрипты и не думать.
Blogpost
Digitalocean
Multi-GPU on raw PyTorch with Hugging Face’s Accelerate library | DigitalOcean
In this article, we examine HuggingFace’s Accelerate library for multi-GPU deep learning. We apply Accelerate with PyTorch and show how it can be used to sim…
👍5
Вот несколько примеров того, что я сегодня сгенерировал с помощью imagen. Сейчас ещё тренирую.
@gradientdip
@gradientdip
❤12🔥4