Градиентное погружение
4.61K subscribers
179 photos
11 videos
10 files
164 links
Обсуждаем новости, рассказываем про ML с кодом и колабом, выигрываем соревы 🏆

Контакты: @Cene655, @Cucu_LaPraline
Download Telegram
Теперь вы знаете как отвечать человеку, когда вам лень или он вам не понравился.

Это вопрос. Вопросам здесь не место.
👍22
Визуализация аудитории

Сделал небольшой парсер участников канала в телеге.

Беру все доступные описания и закидываю в модель, подаю в PCA и сжимаю до вектора из 2-х элементов, ручками выбираю кол-во кластеров и строю график.

Теперь про график:
Красные - всякие ссылки на каналы
Темные - DS/ML/универы
Зеленые - словосочетания и предложения

Ну и те, что в центре - что-то между всеми остальными.

Пока делал всё это, задумался о том, сколько данных мы теряем - начиная от сжатия и заканчивая кластеризацией.

Ведь действительно, для сжатия мы подаем N-мерные вектора, которые схлопываются в 2-мерные и именно по 2-мерным мы делаем кластеризацию.

Ок, давай подавать N-мерные, в чем проблема?
Проблема в том, что тогда у кластеров не будет четкой границы и понимать график станет куда сложнее.

Этим постом я хотел вернуть нас к пониманию того, что объяснять ML довольно сложно. Почему? Потому что мы не всегда имеем полное представление о данных.

Код для визуализации
👍14
Обучение нейронок в VR Chat

Это уже за гранью моего понимания
👍13
akutagawa.pdf
653.2 KB
DIY. Делаем книги

🌗 Продолжаю экспериментировать с созданием параллельных книг на иностранных языках. Повозился на майских праздниках с библиотекой weasyprint, чтобы сверстать выровненную при помощи моего хобби-проекта книгу в PDF.

Очень кропотливое занятие, которое, однако можно автоматизировать. На выходе получается вот такая замечательная книга.

🌗 Выравнивание идет при помощи LaBSE, которая обучалась на 100+ языках, можно дообучать и на другие, более редкие языки (про это можно почитать тут). Пока что можно сделать себе книжку в html.

Github
🔥91
Forwarded from Борис опять
https://github.com/connorferster/handcalcs

Python --> Latex

Выглядит бомбически
👍24🔥3
🔥 Мы сделали DALLE2

Ну или почти.

👉 Месяц работы, море потраченных нервов и арендованный сервер - совместно с автором Love. Death. Transformers. у нас получилось сделать dalle2-decoder, способный декодировать эмбеддинги клипа.

Как обычно, всё опен сурс на гитхабе.

Лайк, репост, звездочка ⚡️

Градиентное погружение
🔥29👍32
Никто не просил, никто не ждал, но я наконец доделал и выложил самый(вероятно) быстрый captioning на русском языке.
Модель основанная на работе CLIP prefix caption, обучена на ruCOCO на 2*1080ti и выложена

Алсо моделька умеет в ZS и при должном promt может решать простенькие VQA задачки

github
hf 🤗
HFspaces🤗
collab 🔮

Лайк шер звездочка
👍24🔥4
Бесплатно и в облаке - ʎzy 💥

👉 ʎzy(лизи) - это система для запуска произвольного python кода в облаке, которая в ближайшее время станет open-source.

Зачем

1️⃣ Для контроля и оптимизации доставки данных

2️⃣ Масштабирование - ускорение существующего кода с использованием облачных ресурсов

3️⃣ Хранения результатов экспериментов

Отдельно заинтересовала возможность запуска вычислений катбуста. Как? Да очень просто

model.fit(data, labels, provisioning=Provisioning(gpu=Gpu.any()))

⚡️ После публикации в open-source можно будет взять terraform скрипты и поднять лизи у себя в приватном облаке, при необходимости.

Ну и также: автоматический перенос зависимостей и минимальное изменение кода.

↘️ Сейчас идет Бетка, в private preview бесплатно доступны NVidia Tesla V100 GPU, скоро будет добавлен доступ к A100.

@Градиентное погружение

Попробовать
Послушать доклад
Взглянуть на презу
Обратная связь(Чатик)
🔥7👍2
🔥 IMAGEN уже в коде

— Пока все мусолят тему крутости новой модельки над DALLE 2, а разрабы создают чатики для реализации архитектуры, один из админов за ночь справился с задачей.

📎 Прикрепили генерации модельки, обученной с нуля за пару часов на P100 и небольшом сете.

@Градиентное погружение

👉 Лайк, Шер, Звёздочка

Гитхаб
Попробовать ❤️
Про IMAGEN
🔥13👍2
I Don't Like Notebooks

Прошло 4 года с момента выступления Джоэла Граса на JupyterCon 2018, но несмотря на это, его преза до сир пор ощущается живой и актуальной за счет веселых мемов и приятной подачи.

Просто выделите немного времени, расслабьтесь и пролистайте слайды, вам понравится.

@Градиентное погружение

Преза
Выступление
👍17
Вот несколько примеров того, что я сегодня сгенерировал с помощью imagen. Сейчас ещё тренирую.

@gradientdip
12🔥4