+170% скорости генерации без костылей 🔝
Наши специалисты предложили новый механизм внимания NABLA для диффузионных трансформеров. Он позволяет снизить вычислительную нагрузку при сохранении качества генерации видео за счёт использования поблочного внимания, которое динамически адаптируется к разрежённости в трансформерах.
Результат: ускорение генерации модели Wan 2.1-14B в 2,7 раза (оценка CLIP, оценка VBench, оценка людей).
Метод работает без написания дополнительных CUDA-ядер и полностью совместим с Flex Attention из PyTorch⚡️
➡️ Читайте статью на Hugging Face.
❤️ — Full Attention уходит, скорость остаётся
Наши специалисты предложили новый механизм внимания NABLA для диффузионных трансформеров. Он позволяет снизить вычислительную нагрузку при сохранении качества генерации видео за счёт использования поблочного внимания, которое динамически адаптируется к разрежённости в трансформерах.
1️⃣ Вместо полного вычисления маски внимания (Full Attention) NABLA использует блочно-разрежённое внимание2️⃣ Модель сжимает матрицы Query и Key, выделяя наиболее важные блоки с помощью кумулятивной функции распределения Softmax3️⃣ Важными считаются те блоки, сумма которых превышает адаптивный порог 1−thr (алгоритмический параметр)4️⃣ Вычисления выполняются только для наиболее значимых блоков
Результат: ускорение генерации модели Wan 2.1-14B в 2,7 раза (оценка CLIP, оценка VBench, оценка людей).
Метод работает без написания дополнительных CUDA-ядер и полностью совместим с Flex Attention из PyTorch
❤️ — Full Attention уходит, скорость остаётся
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍4👏3🔥1
Уже планируете осень? 3 сентября — дата, которую стоит обвести красным 🚨
GoCloud Tech 2025 — конференция, где соберутся все, кто работает с AI. Четыре трека, десятки экспертов, воркшопы, демо, мерч и afterparty. Подробности — здесь👇
GoCloud Tech 2025 — конференция, где соберутся все, кто работает с AI. Четыре трека, десятки экспертов, воркшопы, демо, мерч и afterparty. Подробности — здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥4
Forwarded from Cloud.ru
AI-помощник в облаке, RAG, агенты, мультиагентные системы...
Где и когда:
Регистрируйтесь, чтобы ничего не пропустить
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤4
AI, который создаёт архитектуры, которые создают будущее
Учёные из Шанхайского университета разработали ASI-ARCH — экспериментальную систему для исследований в области AI. Она уже открыла 106 новых SOTA-архитектур. В отличие от AutoML и NAS, которые требуют постоянного вмешательства человека — ввода различных параметров, корректировки гипотез, анализа результатов — ASI-ARCH работает полностью автономно.
Процесс поиска архитектур включал несколько этапов:
Одна из лучших архитектур, найденных ASI-ARCH, набрала в тестах 48,51 балла, обойдя лидеров по работе с длинными последовательностями — Mamba2 (47,84) и Gated DeltaNet (47,32).
Где система находит идеи?
Она улучшает проверенные методы вроде гейтинга и свёртки. Это напоминает подход учёных, которые совершенствуют уже существующие теории.
ASI-ARCH доказала, что AI может не только копировать, но и самостоятельно развивать существующие решения, открывая новые архитектуры.
❤️ — сверхинтеллект всё ближе
🤔 — это лишь прокаченный инструмент
Учёные из Шанхайского университета разработали ASI-ARCH — экспериментальную систему для исследований в области AI. Она уже открыла 106 новых SOTA-архитектур. В отличие от AutoML и NAS, которые требуют постоянного вмешательства человека — ввода различных параметров, корректировки гипотез, анализа результатов — ASI-ARCH работает полностью автономно.
Процесс поиска архитектур включал несколько этапов:
➡️ генерация гипотез — обучение моделей (20 млн параметров) на 1 млрд токенов и отбор тех, что по бенчмаркам (точность и производительность) превзошли базовую гибридную архитектуру DeltaNet для обработки последовательностей➡️ верификация — масштабирование отобранных моделей до 340 млн параметров, удаление слишком сложных архитектур. Итог — 106 новых SOTA-архитектур➡️ финальный этап — обучение пяти лучших моделей на 15 млрд токенов и сравнение с флагманами
Одна из лучших архитектур, найденных ASI-ARCH, набрала в тестах 48,51 балла, обойдя лидеров по работе с длинными последовательностями — Mamba2 (47,84) и Gated DeltaNet (47,32).
Где система находит идеи?
Она улучшает проверенные методы вроде гейтинга и свёртки. Это напоминает подход учёных, которые совершенствуют уже существующие теории.
51,7% идей взяты из научной литературы
38,2% — из анализа прошлых экспериментов
10,1% — оригинальные идеи
ASI-ARCH доказала, что AI может не только копировать, но и самостоятельно развивать существующие решения, открывая новые архитектуры.
❤️ — сверхинтеллект всё ближе
🤔 — это лишь прокаченный инструмент
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔7❤6👍1😁1