227K subscribers
3.8K photos
632 videos
17 files
4.45K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🌟 Qwen2-Math: набор моделей для математических вычислений.

Qwen2-Math - специализированный англоязычный набор моделей на базе LLM Qwen2 для математических вычислений. Всего в релиз вошло 6 вариантов с разной плотностью параметров, от 1.5B до 72B.
Старшая модель Qwen 2-Math-72B предназначена для сложных математических вычислений и подходит для задач, требующих глубокого обучения и обширной обработки данных. Версия "Instruct" этой модели, Qwen 2-Math-72B-Instruct, получила дополнительные настройки, которые позволяют ей точно следовать инструкциям пользователя.

Список моделей на HF:

🟢Qwen2-Math-72B
🟢Qwen2-Math-72B-Instruct
🟢Qwen2-Math-7B
🟢Qwen2-Math-7B-Instruct
🟢Qwen2-Math-1.5B
🟢Qwen2-Math-1.5B-Instruct

Qwen2-Math прошли предварительное обучение на тщательно разработанном датасете, который содержит большие качественные математические веб-тексты, книги, экзаменационные вопросы и данные для предварительного обучения математике, синтезированные Qwen2.
Qwen2-Math тестировались на трех популярных англоязычных математических бенчмарках GSM8K, Math и MMLU-STEM и трех китайских математических тестах CMATH, GaoKao Math Cloze и GaoKao Math QA
Результаты показывают, что флагманская модель Qwen2-Math-72B-Instruct превосходит GPT-4o, Claude-3.5-Sonnet, Gemini-1.5-Pro и Llama-3.1-405B.

▶️Системные рекомендации по железу такие же, как для моделей семейства Qwen2-series LLM:

🟢Qwen2-Math-1.5B, BF16, Transformers, input length 6144 / 14336 / 30720 - 9 / 16 / 30 Gb GPU VRAM;
🟢Qwen2-Math-7B, BF16, Transformers, input length 6144 / 14336 / 30720 - 14 / 28 / 43 Gb GPU VRAM;
🟠Qwen2-Math-72B, BF16, Transformers, input length 6144 / 14336 / 30720 - 144 Gb x2 GPU/ 170 Gb x3 GPU / 209 Gb x3 GPU VRAM.


📌Лицензирование : Apache 2.0 для base и instruct моделей 1.5B и 7B, Tongyi Qianwen для 72B и 72B Instruct.


🟡Страница проекта
🟡Коллекция моделей на HF
🟡Сообщество в Discord
🖥Github [ Stars: 271 | Issues: 1 | Forks: 13]


@ai_machinelearning_big_data

#AI #LLM #ML #Qwen2
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍26🔥115👨‍💻2
🌟Qwen2-Audio: Общайтесь с LLM помощью голоса.

Qwen2-Audio - аудио-языковых модель, которая способна принимать аудио и текст на вход и генерировать текст на выходе.

Предусмотрено два режима взаимодействия:
🟠голосовой чат: пользователи могут использовать голос для передачи инструкций модели без без ввода текста;
🟠аудио-анализ: пользователи могут предоставлять аудиоинформацию (включая речь, звук, музыку) и текстовые инструкции для анализа.

Обе опубликованные модели поддерживают 8 языков и диалектов: китайский, английский, кантонский, французский, итальянский, испанский, немецкий и японский:

🟢Qwen2-Audio-7B

🟢Qwen2-Audio-7B-Instruct

Инференс на transformers в cli возможен в нескольких режимах:

🟠простой инференс модели Qwen2-Audio;
🟠пакетный инференс (например, несколько текстовых запросов к аудиофайлу);
🟠инференс анализа аудио (в этом режиме доступны и текстовые и аудио-инструкции);
🟠инференс голосового чата.


▶️Локальный запуск с GradioUI:


# Ensure you have latest Hugging face transformers
pip install git+https://github.com/huggingface/transformers

# to build a web UI demoinstall the following packages
pip install -r requirements_web_demo.txt

# run Gradio web UI
python demo/web_demo_audio.py



📌Лицензирование : Apache 2.0


Страница проекта
Коллекция моделей на HF
Arxiv
Сообщество в Discord
Demo
Github [ Stars: 618 | Issues: 7 | Forks: 17]

@ai_machinelearning_big_data

#AI #LLM #ML #Qwen2
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍288🔥6🎉4