Forwarded from Мишин Лернинг 🇺🇦🇮🇱
🔫 Nvidia выпустила GeForce RTX 3090 Ti | Рекомендованная цена: 2000$
Вкратце пробежимся по деталям:
• 10% средний буст в сравнении с 3090
• VRAM остался 24gb
• VRAM Speed вырос до 21 Gbps vs 19.5 Gbps (3090)
• TFLOPS FP32: 40.0 vs 35.6 (3090)
• TFLOPS FP16: 160 vs 142 (3090)
• Рекомендованная цена: $1,999 vs $1,499 (3090)
• Кастомные карточки будут доходить в цене до 3000$
🚀 RTX 3090 Family: 3090 & 3090TI
Вкратце пробежимся по деталям:
• 10% средний буст в сравнении с 3090
• VRAM остался 24gb
• VRAM Speed вырос до 21 Gbps vs 19.5 Gbps (3090)
• TFLOPS FP32: 40.0 vs 35.6 (3090)
• TFLOPS FP16: 160 vs 142 (3090)
• Рекомендованная цена: $1,999 vs $1,499 (3090)
• Кастомные карточки будут доходить в цене до 3000$
🚀 RTX 3090 Family: 3090 & 3090TI
👍19👎8❤3
This media is not supported in your browser
VIEW IN TELEGRAM
Друзья, увидел прикольную вариацию нерфа "Neural RGB-D Surface Reconstruction". Нерф обучили на RGBD сканах и таким образом могут достойно восстанавливать поверхности,а не только рендерить сцену с новых углов. Обычно neural radiance fields очень плохо восстанавливают именно форму предметов, но это не мешает им получать качественный рендеринг.
🔥16👍6
Forwarded from лидер мнений среди удобрений
This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанк по-русски: бабушка помогает роверу перейти через дорогу. Как мило!
❤137🥰46🔥18👍2😢1
Задача сортировки маленьких массивов данных примитивных типов является частой операцией во многих алгоритмах. Для скорости важно уметь компилировать алгоритм сортировки в наименьшее количество ассемблерных инструкций и без ветвлений. Так вот, парни из DeepMind натравили сетку MuZero на эту задачу, чтобы она с помощью Reinforcement Learning поискала, как улучшить существующие алгоритмы сортировки.
До этого:
Sort3 компилировалася в 18 инструкций (3 элемента за 3 сравнения)
Sort4 - в 28 (4 элемента за 5 сравнений)
Sort5 - в 46 (5 элементов за 9 сравнений).
MuZero:
Нашла как сделать sort3 за 17 инструкций, sort5 за 43!!! Это прям круто и очень неожиданно! Тут пожно посмотерть патч в llvm.
Подробнее в посте у experimentalchill.
До этого:
Sort3 компилировалася в 18 инструкций (3 элемента за 3 сравнения)
Sort4 - в 28 (4 элемента за 5 сравнений)
Sort5 - в 46 (5 элементов за 9 сравнений).
MuZero:
Нашла как сделать sort3 за 17 инструкций, sort5 за 43!!! Это прям круто и очень неожиданно! Тут пожно посмотерть патч в llvm.
Подробнее в посте у experimentalchill.
🔥46👍11👏3❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Вышло обновление Disco Diffusion 5.1 для генерации картинок и видео.
Телега шакалит качество 😢
-> Ссылка на колаб
Телега шакалит качество 😢
-> Ссылка на колаб
🔥21😱7👍6👎2😢2
Вы читаете о множестве продвинутых алгоритмов и чувствуете, как синдром самозванца кусает вас в этот самый момент? Не волнуйтесь, это нормально, особенно если вы Дата Саентист или специалист по AI.
Надеюсь, вы понимаете, о чем я говорю — бывают моменты, когда вы хотите погрузиться по шею в конкретный алгоритм, прочитать о том, как эксперты использовали его для решения бесчисленных проблем, и вы также хотите внести свой вклад, набравшись опыта. А в следующий момент вы видите, как ваши коллеги обсуждают новый алгоритм/технологию, и вы тоже хотите ее изучить. Но наше время ограничено, и мы можем успеть сделать не так много. Мы должны выбирать между широкими поверхностными знаниями или узкими глубинными знаниями.
Подробнее о том, как не потеряться в потоке проф. информации и не чувствовать себя глупцом можно почитать тут.
Надеюсь, вы понимаете, о чем я говорю — бывают моменты, когда вы хотите погрузиться по шею в конкретный алгоритм, прочитать о том, как эксперты использовали его для решения бесчисленных проблем, и вы также хотите внести свой вклад, набравшись опыта. А в следующий момент вы видите, как ваши коллеги обсуждают новый алгоритм/технологию, и вы тоже хотите ее изучить. Но наше время ограничено, и мы можем успеть сделать не так много. Мы должны выбирать между широкими поверхностными знаниями или узкими глубинными знаниями.
Подробнее о том, как не потеряться в потоке проф. информации и не чувствовать себя глупцом можно почитать тут.
👍24
Хитрая Латентная Диффузия после обучения на гигантском датасете впервые почти научилась генерировать почти нормальный текст. Подробности про модель в следующем посте.
Го тестить колаб.
Го тестить колаб.
Telegram
Love. Death. Transformers.
Обученный на 5 миллиардном датасете, 400м модель guided diffusion
Collab 💫
kaggle by @Nikuson
Promt: a robot holding a sign that reads: "This is weird"
Collab 💫
kaggle by @Nikuson
Promt: a robot holding a sign that reads: "This is weird"
👍15
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️Latent Diffusion
Парни из моей научной группы (Heidelberg Uni + LMU) запилили соту в text-to-image генерации!
Новая моедель - Latent Diffusion умеет генерить картинки из воздуха, так же как и по классовому лейблу, семантической сегментации или по текстовому описанию. Более того она может и в super-resolution, и зарисовывать дыры в картинках.
Классические диффузионные модели довольно громоздкие и медленные. Главный трюк нового метода - это запуск дифуззионного процесса на скрытых векторах в ботленеке автоэнкодера, вместо сырых пикселей, как это делалось раньше. За счет этого стало возможным найти сладкий баланс между экспрессивностью модели и ее громоздкостью. То есть такую диффузию можно обучить (и тестировать) за адекватное время на умеренных вычислительных ресурсах. Парни тренили на одной NVIDIA A100.
Потыкать можно в код или в колаб. А подробнее про метод - в статье
Парни из моей научной группы (Heidelberg Uni + LMU) запилили соту в text-to-image генерации!
Новая моедель - Latent Diffusion умеет генерить картинки из воздуха, так же как и по классовому лейблу, семантической сегментации или по текстовому описанию. Более того она может и в super-resolution, и зарисовывать дыры в картинках.
Классические диффузионные модели довольно громоздкие и медленные. Главный трюк нового метода - это запуск дифуззионного процесса на скрытых векторах в ботленеке автоэнкодера, вместо сырых пикселей, как это делалось раньше. За счет этого стало возможным найти сладкий баланс между экспрессивностью модели и ее громоздкостью. То есть такую диффузию можно обучить (и тестировать) за адекватное время на умеренных вычислительных ресурсах. Парни тренили на одной NVIDIA A100.
Потыкать можно в код или в колаб. А подробнее про метод - в статье
🔥26👍16❤1❤🔥1
Тренится Latent Diffusion от 6 до 32 дней на одной V100, либо от 3 до 14 на одной A100 GPU*.
*A100 примерно в 2.2 раза быстрее V100 на этой задаче.
*A100 примерно в 2.2 раза быстрее V100 на этой задаче.
👍7❤1
Forwarded from Derp Learning
Я просто оставлю это здесь.
Киберпанк небоскреб от Ван Гога.
Киберпанк небоскреб от Ван Гога.
🔥122❤12👍12😱4😁2
OpenAI выпустила DALLE-2. И результаты сносят крышу! Все эти картинки сгенерированы.
https://openai.com/dall-e-2/
https://openai.com/dall-e-2/
🔥73👍2
Forwarded from Neural Shit
Таки добрался до Latent Diffusion. Не Dall-e 2, конечно, но тоже оче крутая штука.
Вот вам оттуда котиков в стиле Ван Гога и Пикассо
Вот вам оттуда котиков в стиле Ван Гога и Пикассо
👍15❤9