Forwarded from Machinelearning
SmolVLM - серия компактных VLM отличающихся высокой эффективностью использования памяти и могут быть развернуты на локальных устройствах с ограниченными ресурсами.
Только что были выпущены SmolVLM (256M и 500M), которым требуются GPU <1GB для запуска.
Модели настолько маленькт, что могут работать 100% локально в вашем браузере на WebGPU!
🤗 Модели: https://huggingface.co/collections/HuggingFaceTB/smolvlm-256m-and-500m-6791fafc5bb0ab8acc960fb0
@ai_machinelearning_big_data
#AI #ML #SmallVLM #Huggingface
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Гайд 120-дневной программы обучения CUDA для всех, кто хочет углубиться в программирование на GPU.
Это структурированный, ежедневный план, охватывающий потоки, управление памятью, параллелизм и отладку и многое другое.
Урок на каждый день включает в себя:
- Разбор основной темы занятии
- Практическое упражнение / мини-проект
Разбор ошибок при отладке кода
- Рекомендованные ресурсы
▪Github
▪CUDA C Programming Guide
▪CUDA Toolkit Reference
▪CUDA Best Practices Guide
▪ Бесплатный 12-ти часовой курс по CUDA от freeCodeCamp
@machinelearning_interview - материалы для мл собеса
#cuda #nvidia #freecourse #opensource #tutorial
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 GRPO (Group Relative Policy Optimization) - основной алгоритм deepseek r1
@machinelearning_interview
@machinelearning_interview
Forwarded from Machinelearning
Одно из лучших иллюстрированных объяснение внутренностей DeepSeek-R1.
▪ Читать
▪ Попробовать
Наивное квантование всех слоев полностью ломает модель, вызывая бесконечные циклы и тарабарщину на выходе. Их динамические кванты решают эту проблему.
1,58-битный квант помещается в 160 ГБ VRAM (2x H100 80 ГБ) для быстрого вывода со скоростью ~140 токенов/сек.
Изучив архитектуру DeepSeek-R1, разработчики выборочно квантовали определенные слои в более высокие биты (например, в 4-битные), а большинство слоев MoE оставили в 1,5 бита.
▪Бенчмарки + блог
▪GGUF (131-212 ГБ) на Hugging Face:
▪Код
▪Демо
▪Qwen-2.5-VL
▪Qwen-2.5-1M
Netflix выпустили новый алгоритм искажения шума для генерации видео, достаточно быстрый, чтобы работать в реальном времени, который заменяет случайную временную гауссиану на коррелированный искаженный шум, полученный из полей оптического потока, который сохраняет при этом пространственную гауссиану. Эффективность алгоритма позволяет тонко настраивать современные модели диффузии видео с минимальными расходами и предоставляет универсальное решение для широкого спектра управления движением на видео. Обширные эксперименты и исследования демонстрируют преимущества метода, делая его надежным и масштабируемым подходом для управления движением в диффузионных моделях видео.
▪HF
▪Github
▪ Github
@ai_machinelearning_big_data
#ai #ml #news #llm #deepseek #Netflix #Qwen #Pika #news #ainews
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Почему DeepSeek считает себя YandexGPT?
🌟 По телеграм-каналам разлетелись скрины ответов от китайского чат-бота, где он упоминает продукты Яндекса и утверждает, что создан в России. В сети задались вопросом, как такое возможно. Аналитики говорят, что галлюцинация могла возникнуть из-за обучения модели на общедоступных данных. В рунете много публичных обсуждений, связанных с технологиями Яндекса, поэтому модель может случайным образом воспроизвести информацию, утверждая, что она является YandexGPT.
@machinelearning_interview
🌟 По телеграм-каналам разлетелись скрины ответов от китайского чат-бота, где он упоминает продукты Яндекса и утверждает, что создан в России. В сети задались вопросом, как такое возможно. Аналитики говорят, что галлюцинация могла возникнуть из-за обучения модели на общедоступных данных. В рунете много публичных обсуждений, связанных с технологиями Яндекса, поэтому модель может случайным образом воспроизвести информацию, утверждая, что она является YandexGPT.
@machinelearning_interview
This media is not supported in your browser
VIEW IN TELEGRAM
Вот что нужно сделать:
— Скачиваете LMStudio под свою операционную систему. У него удобный интерфейс, а также можно загружать документы;
Открываете программу, переходите в раздел Discover и выбираете DeepSeek R1 Distill Llama 8b;
Эта версия отличается от онлайн-версии DeepSeek R1 — в ней используется Llama 8b.
📌 Скачать
#DeepSeek #free #LMStudio
Please open Telegram to view this post
VIEW IN TELEGRAM
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️Курс Hugging Face Agents начинается на следующей неделе.
Это бесплатно и выглядит очень многообещающе.
https://bit.ly/hf-learn-agents
Это бесплатно и выглядит очень многообещающе.
https://bit.ly/hf-learn-agents
Forwarded from Machinelearning
Stable Flow - метод редактирования изображений без предварительного обучения на основе flow-based моделей (FLUX).
Метод основывается на идее определения "жизненно важных слоев" в DiT, которые критически важны для формирования изображения. Эти слои определяются перебором слоев путем измерения отклонений в содержании изображения.
Редактирование изображения выполняется путем параллельной генерации, где признаки из траектории генерации исходного изображения инжектируются в траекторию редактируемого изображения. Такая стратегия раньше применялась в моделях на архитектуре UNet, теперь адаптирована для DiT.
Инъекция происходит только в vital layers, что дает стабильность редактирования, сохраняя нередактируемые области нетронутыми. Это дает возможность выполнять различные типы редактирования: нежесткие деформации, добавление объектов, замену объектов и изменение сцены, используя один и тот же механизм.
Для инпейнта реальных изображений применяется инверсия, выполняемая с помощью солвера Euler Ordinary Differential Equation (ODE), с добавлением метода "подталкивания" вне распределения. Этот метод заключается в небольшом скалярном возмущении чистого латентного пространства, что позволяет улучшить точность реконструкции и ограничить изменения в процессе редактирования.
Пользовательское исследование подтвердило, что Stable Flow превосходит SDEdit, P2P+NTI, Instruct-P2P, MagicBrush, MasaCTRL по 4 категориям: соответствие текстовому запросу, сохранение исходного изображения, реалистичность и общее качество редактирования.
⚠️ Для запуска кода Satble Flow необходим токен HuggingFace
⚠️ Проект поддерживает возможность CPU offload, он включается ключом
--cpu_offload
при инференсе.# Clone repo
git clone https://github.com/snap-research/stable-flow.git
cd stable-flow
# Create conda env
conda env create -f environment.yml
conda activate stable-flow
# Batch image inference
python run_stable_flow.py \
--hf_token YOUR_PERSONAL_HUGGINGFACE_TOKEN \
--prompts "A photo of a dog in standing the street" \
"A photo of a dog sitting in the street" \
"A photo of a dog in standing and wearing a straw hat the street" \
"A photo of a mink"
# Image editing inference
python run_stable_flow.py \
--hf_token YOUR_PERSONAL_HUGGINGFACE_TOKEN \
--input_img_path inputs/bottle.jpg \
--prompts "A photo of a bottle" \
"A photo of a bottle next to an apple"
@ai_machinelearning_big_data
#AI #ML #StableFlow
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM