Машинное обучение RU
17.7K subscribers
1.58K photos
207 videos
11 files
2.04K links
Все о машинном обучении

админ - @workakkk

@data_analysis_ml - анализ даннных

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram -лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python 📚

@datascienceiot - 📚

РКН: clck.ru/3FmrUw
Download Telegram
🌟 ai-renamer

Это великолепно. Кто-то разработал интерфейс командной строки, который использует Lms (Ollama) для переименования ваших файлов по их содержимому.

🎓 Github

@machinelearning_ru
👍10🔥32
Forwarded from Machinelearning
⚡️ FP8 LLMs: набор квантированный моделей с увеличенной эффективностью и производительностью под vLLM

FP8- это формат квантования, предоставляющий для моделей баланс между точностью и эффективностью. Он обеспечивает нерегулярное представление диапазона и масштабирование для каждого тензора на GPU, что позволяет достичь прироста производительности и сокращения потребления памяти.
Этот современный формат обещает революцию в развертывании LLM, значительно улучшая эффективность инференеса без ущерба для качества модели:

🟢В плотных моделях (70В) ITL (среднее время генераций каждого токена в выводе) сокращается двукратно, а в МоЕ- моделях до 1.6х;
🟢3-х кратное улучшение пропускной способности в сценариях, где снижение потребления VRAM приводит к возможности увеличения размера пакетов обработки.

Реализация поддержки FP8 стала возможна благодаря усилиям сервисов Neuralmagic.com и Anyscale.com, которые активно поддерживают open-soure сообщество.

В репозитории выложены Instruct FP8 версии моделей:

🟢Llama-3 (8B,70B);
🟢Mixtral (7B, 22B);
🟢Qwen2 (1,5B, 7b, 72B);
🟢Mistral 7B
🟢Llama-2 7B
🟢Phi-3 (mini-128K, medium-128K)
🟢Gemma-2 9b-it

⚠️ Представленный набор моделей предназначен для запуска в среде vLLM (версии от 0.5 и выше) и ее реализациях, поддерживающих технологии разреженности и быстрого инференса:

🟢nm-vllm: форк vLLM от сервиса Neuralmagic.com;
🟢DeepSparse: среда выполнения для CPU-only систем;
🟢SparseML: тулкит с возможностью инференса, который позволяет создавать разреженные модели и конвертировать их в .onnx формат.

vLLM - open-source среда для быстрого вывода и использования LLM, основанная на методе PagedAttention.
PagedAttention - алгоритм внимания, вдохновленный классической идеей виртуальной памяти и подкачки в операционных системах. Его использование снижает нагрузку на VRAM, связанную со сложными алгоритмами выборки. Экономия памяти может достигать до 55%.
Более подробно про vLLM и алгоритм PagedAttention можно прочитать на странице проекта


🟡Страница проекта Neuralmagic
🟡Модели на HF
🟡Arxiv Page Attention
🖥GitHub vLLm
🖥GitHub nm-vllm

@ai_machinelearning_big_data

#FP8 #LLM #vLLM #ML
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍82
⚡️ ColPali — эффективный поиск по документам с помощью VLM

pip install git+https://github.com/ManuelFay/colpali

Метод ColPali опирается на такие VLM (Vision Language Models) как модель PaliGemma от команды Google Zürich, и использует улучшенный векторный поиск, предложенный в модели ColBERT.

🖥 GitHub
🤗 Hugging Face
🟡 Arxiv

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9
SmolLM: новые модели SOTA, 135M, 360M и 1.7B, которые идеально подходят для работы на эйдж девайсах! 🔥

Модели: huggingface.co/blog/smollm
Demo: https://huggingface.co/spaces/HuggingFaceTB/SmolLM-360M-Instruct-WebGPU

@machinelearning_ru
👍63🔥2
⚡️ Mathstral 7B — модель от Mistral, заточенная под решение математических и научных задач

На базовом уровне Mathstral опирается на модель Mistral 7B, но больше заточена по STEM-задачи.
В различных стандартных отраслевых тестах Mathstral демонстрирует отличные результаты в своей размерной категории (7B). В частности, модель достигает показателя 56.6% в MATH и 63.47% в MMLU.

🤗 Hugging Face
🟡 Официальный анонс от MistralAI

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Интересная интерактивная веб-страница, посвященная применению Vision-LLM в робототехнике 😇

Действительно забавно исследовать пространство представления больших моделей, используя текстовый ввод для создания поз 😂

https://europe.naverlabs.com/research/publications-enhanced/bridging-environments-and-language-with-rendering-functions-and-vision-language-models/

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍83🔥1
🔥 Apple только что выпустила LLM с открытым исходным кодом 7B, весами, обучающим кодом и набором данных! 👀

TL;DR:
🧠 Базовая модель 7B, обученная на 2,5 Т токенах в открытых наборах данных
Данные в основном на английском языке и контекстное окно 2048
Объединенные данные DCLM-BASELINE, StarCoder и ProofPile2
MMLU 0.6372 > Mistral & < Llama3
Открытая лицензия с лицензией Apple
Соответствует моделям с закрытыми наборами данных, таким как Mistral
Обучен с использованием Python и OpenLM framework
Доступно на huggingface и в Transformers

Модель: https://huggingface.co/apple/DCLM-7B
Репозиторий: https://github.com/mlfoundations/dclm
Набор данных: https://huggingface.co/datasets/mlfoundations/dclm-baseline-1.0
Документация: https://arxiv.org/abs/2406.11794

@machinelearning_ru
👍6🔥53
🔥 ZeroEval: простая унифицированная платформа для оценки LMS.

Двумя первоначальными задачами являются MMLU-Redux и GSM.

Github: https://github.com/yuchenlin/ZeroEval

@machinelearning_ru
👍3🔥32
🎓 Архив открытых курсов прямо в телеграм!

Вот огромная база материалов, которая пополлняется каждый день!

>Python (96гб видео)
>C# (45гб курсов)
>Английский (101гб курсов)
>Java (23гб видео)
>PHP (43гб видео)
>Мобильная разработка (22гб курсов)
>Go ( 132гб видео)
>Rust (35 гб видео)
>SQL (43гб видео)
>MySQL (31гб видео)
>Другое (234гб видео)

Крутейший Архив на 20241Гб: Курсов, книг, шпаргалок, стаетй, лекция ресурсы — всё собрано в одном месте: @datacours
5
🚨LaSe-E2V: К преобразованию событий в видео с учетом семантики, ориентируясь на язык

Новый фреймворк под названием LaSe-E2V, который может обеспечить высококачественную реконструкцию E2V с учетом семантики с точки зрения языка.моделями распространения с учетом текстовых условий.

🌟𝐏𝐫𝐨𝐣: https://vlislab22.github.io/LaSe-E2V/
🚀𝐀𝐛𝐬: https://arxiv.org/abs/2407.05547

@machinelearning_ru
👍62🔥1
📢 Stable Audio Open!

Stability AI открывает модель генерации звука со стереозвуком переменной длительности (до 47 секунд) на частоте 44,1 кГц на основе текстовых прометав

proj: https://stability-ai.github.io/stable-audio-open-demo/
abs: https://arxiv.org/abs/2407.14358

@machinelearning_ru
👍7🔥32
This media is not supported in your browser
VIEW IN TELEGRAM
👣 Cake — это фреймворк на Rust, разработанный для распределенного вывода LLMтипа LLama3 (70B+).

Его цель — сделать большие языковые модели доступными путем объединения потребительских устройств в гетерогенный кластер, включающий iOS, Android, macOS, Linux и Windows. Это позволяет эффективно использовать устаревающие устройства, делая ИИ более доступным и демократичным.

Cake распределяет блоки трансформеров среди нескольких устройств, что делает возможным вывод моделей, превышающих ограничения памяти отдельных GPU-устройств.

Фреймворк настраивается как для рабочих, так и для главных узлов с REST API, совместимым с OpenAI, для управления задачами распределенного вывода. Конфигурационные файлы определяют топологию, назначая слои модели конкретным рабочим узлам, что обеспечивает эффективное распределение ресурсов в кластере.

**Ключевые особенности:**


* Распределенный вывод крупных моделей
* Гетерогенный кластер устройств
* Настраиваемые рабочие и главные узлы
* Совместимость с REST API OpenAI
* Оптимальное распределение ресурсов

На видео энтузиаст запускает Llama3 8B на собственном кластере, состоящем из, iPad Pro, MacBook Pro, iPhone 15 Pro Max, NVIDIA GeForce 3080 и 2x NVIDIA Titan X Pascal.

🔗 Github

@rust_code
Please open Telegram to view this post
VIEW IN TELEGRAM
👍103🔥3
💻Postgres Professional обновила бесплатный курс по администрированию PostgreSQL 16

Компания Postgres Professional заявила о выпуске обновлённого курса по администрированию свободно распространяемой СУБД PostgreSQL. DBA-1 представляет собой базовый курс для администраторов PostgreSQL, разработанный специалистами Postgres Professional. Материал доступен для самостоятельного изучения на сайте разработчиков и в авторизованных учебных центрах.

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🔥21