Forwarded from Мишин Лернинг 🇺🇦🇮🇱
🔫 Nvidia выпустила GeForce RTX 3090 Ti | Рекомендованная цена: 2000$
Вкратце пробежимся по деталям:
• 10% средний буст в сравнении с 3090
• VRAM остался 24gb
• VRAM Speed вырос до 21 Gbps vs 19.5 Gbps (3090)
• TFLOPS FP32: 40.0 vs 35.6 (3090)
• TFLOPS FP16: 160 vs 142 (3090)
• Рекомендованная цена: $1,999 vs $1,499 (3090)
• Кастомные карточки будут доходить в цене до 3000$
🚀 RTX 3090 Family: 3090 & 3090TI
Вкратце пробежимся по деталям:
• 10% средний буст в сравнении с 3090
• VRAM остался 24gb
• VRAM Speed вырос до 21 Gbps vs 19.5 Gbps (3090)
• TFLOPS FP32: 40.0 vs 35.6 (3090)
• TFLOPS FP16: 160 vs 142 (3090)
• Рекомендованная цена: $1,999 vs $1,499 (3090)
• Кастомные карточки будут доходить в цене до 3000$
🚀 RTX 3090 Family: 3090 & 3090TI
This media is not supported in your browser
VIEW IN TELEGRAM
Друзья, увидел прикольную вариацию нерфа "Neural RGB-D Surface Reconstruction". Нерф обучили на RGBD сканах и таким образом могут достойно восстанавливать поверхности,а не только рендерить сцену с новых углов. Обычно neural radiance fields очень плохо восстанавливают именно форму предметов, но это не мешает им получать качественный рендеринг.
Forwarded from лидер мнений среди удобрений
This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанк по-русски: бабушка помогает роверу перейти через дорогу. Как мило!
Задача сортировки маленьких массивов данных примитивных типов является частой операцией во многих алгоритмах. Для скорости важно уметь компилировать алгоритм сортировки в наименьшее количество ассемблерных инструкций и без ветвлений. Так вот, парни из DeepMind натравили сетку MuZero на эту задачу, чтобы она с помощью Reinforcement Learning поискала, как улучшить существующие алгоритмы сортировки.
До этого:
Sort3 компилировалася в 18 инструкций (3 элемента за 3 сравнения)
Sort4 - в 28 (4 элемента за 5 сравнений)
Sort5 - в 46 (5 элементов за 9 сравнений).
MuZero:
Нашла как сделать sort3 за 17 инструкций, sort5 за 43!!! Это прям круто и очень неожиданно! Тут пожно посмотерть патч в llvm.
Подробнее в посте у experimentalchill.
До этого:
Sort3 компилировалася в 18 инструкций (3 элемента за 3 сравнения)
Sort4 - в 28 (4 элемента за 5 сравнений)
Sort5 - в 46 (5 элементов за 9 сравнений).
MuZero:
Нашла как сделать sort3 за 17 инструкций, sort5 за 43!!! Это прям круто и очень неожиданно! Тут пожно посмотерть патч в llvm.
Подробнее в посте у experimentalchill.
This media is not supported in your browser
VIEW IN TELEGRAM
Вышло обновление Disco Diffusion 5.1 для генерации картинок и видео.
Телега шакалит качество 😢
-> Ссылка на колаб
Телега шакалит качество 😢
-> Ссылка на колаб
Вы читаете о множестве продвинутых алгоритмов и чувствуете, как синдром самозванца кусает вас в этот самый момент? Не волнуйтесь, это нормально, особенно если вы Дата Саентист или специалист по AI.
Надеюсь, вы понимаете, о чем я говорю — бывают моменты, когда вы хотите погрузиться по шею в конкретный алгоритм, прочитать о том, как эксперты использовали его для решения бесчисленных проблем, и вы также хотите внести свой вклад, набравшись опыта. А в следующий момент вы видите, как ваши коллеги обсуждают новый алгоритм/технологию, и вы тоже хотите ее изучить. Но наше время ограничено, и мы можем успеть сделать не так много. Мы должны выбирать между широкими поверхностными знаниями или узкими глубинными знаниями.
Подробнее о том, как не потеряться в потоке проф. информации и не чувствовать себя глупцом можно почитать тут.
Надеюсь, вы понимаете, о чем я говорю — бывают моменты, когда вы хотите погрузиться по шею в конкретный алгоритм, прочитать о том, как эксперты использовали его для решения бесчисленных проблем, и вы также хотите внести свой вклад, набравшись опыта. А в следующий момент вы видите, как ваши коллеги обсуждают новый алгоритм/технологию, и вы тоже хотите ее изучить. Но наше время ограничено, и мы можем успеть сделать не так много. Мы должны выбирать между широкими поверхностными знаниями или узкими глубинными знаниями.
Подробнее о том, как не потеряться в потоке проф. информации и не чувствовать себя глупцом можно почитать тут.
Хитрая Латентная Диффузия после обучения на гигантском датасете впервые почти научилась генерировать почти нормальный текст. Подробности про модель в следующем посте.
Го тестить колаб.
Го тестить колаб.
Telegram
Love. Death. Transformers.
Обученный на 5 миллиардном датасете, 400м модель guided diffusion
Collab 💫
kaggle by @Nikuson
Promt: a robot holding a sign that reads: "This is weird"
Collab 💫
kaggle by @Nikuson
Promt: a robot holding a sign that reads: "This is weird"
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️Latent Diffusion
Парни из моей научной группы (Heidelberg Uni + LMU) запилили соту в text-to-image генерации!
Новая моедель - Latent Diffusion умеет генерить картинки из воздуха, так же как и по классовому лейблу, семантической сегментации или по текстовому описанию. Более того она может и в super-resolution, и зарисовывать дыры в картинках.
Классические диффузионные модели довольно громоздкие и медленные. Главный трюк нового метода - это запуск дифуззионного процесса на скрытых векторах в ботленеке автоэнкодера, вместо сырых пикселей, как это делалось раньше. За счет этого стало возможным найти сладкий баланс между экспрессивностью модели и ее громоздкостью. То есть такую диффузию можно обучить (и тестировать) за адекватное время на умеренных вычислительных ресурсах. Парни тренили на одной NVIDIA A100.
Потыкать можно в код или в колаб. А подробнее про метод - в статье
Парни из моей научной группы (Heidelberg Uni + LMU) запилили соту в text-to-image генерации!
Новая моедель - Latent Diffusion умеет генерить картинки из воздуха, так же как и по классовому лейблу, семантической сегментации или по текстовому описанию. Более того она может и в super-resolution, и зарисовывать дыры в картинках.
Классические диффузионные модели довольно громоздкие и медленные. Главный трюк нового метода - это запуск дифуззионного процесса на скрытых векторах в ботленеке автоэнкодера, вместо сырых пикселей, как это делалось раньше. За счет этого стало возможным найти сладкий баланс между экспрессивностью модели и ее громоздкостью. То есть такую диффузию можно обучить (и тестировать) за адекватное время на умеренных вычислительных ресурсах. Парни тренили на одной NVIDIA A100.
Потыкать можно в код или в колаб. А подробнее про метод - в статье
Тренится Latent Diffusion от 6 до 32 дней на одной V100, либо от 3 до 14 на одной A100 GPU*.
*A100 примерно в 2.2 раза быстрее V100 на этой задаче.
*A100 примерно в 2.2 раза быстрее V100 на этой задаче.
OpenAI выпустила DALLE-2. И результаты сносят крышу! Все эти картинки сгенерированы.
https://openai.com/dall-e-2/
https://openai.com/dall-e-2/
Forwarded from Neural Shit
Таки добрался до Latent Diffusion. Не Dall-e 2, конечно, но тоже оче крутая штука.
Вот вам оттуда котиков в стиле Ван Гога и Пикассо
Вот вам оттуда котиков в стиле Ван Гога и Пикассо