Ищете мощный сервер без переплаты?
Выгодное решение для обработки и анализа больших данных — выделенный сервер конфигурации AR45-NVMe от Selectel. Он подойдет для эффективной работы с многопоточностью и Python, R, Spark в рамках одной машины, а также машинного обучения на CPU.
Преимущества сервера:
- 16 высокочастотных ядер,
- Безлимитный интернет-трафик и приватная сеть — 1 Гбит/с,
- DDoS-защита, публичный IPv4, SLA — 99,8%,
- Автоустановка ОС и загрузка своих ISO-образов,
- Техподдержка 24/7 и замена комплектующих за 3 часа.
Закажите сервер конфигурации AR45-NVMe на сайте в несколько кликов: https://slc.tl/2kf85?erid=2W5zFK8n6et
Выгодное решение для обработки и анализа больших данных — выделенный сервер конфигурации AR45-NVMe от Selectel. Он подойдет для эффективной работы с многопоточностью и Python, R, Spark в рамках одной машины, а также машинного обучения на CPU.
Преимущества сервера:
- 16 высокочастотных ядер,
- Безлимитный интернет-трафик и приватная сеть — 1 Гбит/с,
- DDoS-защита, публичный IPv4, SLA — 99,8%,
- Автоустановка ОС и загрузка своих ISO-образов,
- Техподдержка 24/7 и замена комплектующих за 3 часа.
Закажите сервер конфигурации AR45-NVMe на сайте в несколько кликов: https://slc.tl/2kf85?erid=2W5zFK8n6et
🚀 IBM Granite 4.0 теперь доступен в Unsloth
🧩 Модель в формате GGUF с гибридной архитектурой (Hybrid Mamba) — сочетание плотных слоёв и MoE для ускорения и снижения памяти.
⚡ Основные факты:
- Доступные размеры: Micro (3B), Tiny (7B/1B активный), Small (32B/9B активный).
- Контекст до 128K токенов.
- Тренировка в Unsloth до 2× быстрее и требует на 50% меньше VRAM.
- Поддержка Ollama, llama.cpp и Docker для лёгкого запуска.
🎯 Где полезно: чат-боты, edge-развёртывания, длинные документы, кастомизация через fine-tuning.
Подробнее: https://docs.unsloth.ai/new/ibm-granite-4.0
Hf: https://huggingface.co/collections/unsloth/granite-40-68ddf64b4a8717dc22a9322d
🧩 Модель в формате GGUF с гибридной архитектурой (Hybrid Mamba) — сочетание плотных слоёв и MoE для ускорения и снижения памяти.
⚡ Основные факты:
- Доступные размеры: Micro (3B), Tiny (7B/1B активный), Small (32B/9B активный).
- Контекст до 128K токенов.
- Тренировка в Unsloth до 2× быстрее и требует на 50% меньше VRAM.
- Поддержка Ollama, llama.cpp и Docker для лёгкого запуска.
🎯 Где полезно: чат-боты, edge-развёртывания, длинные документы, кастомизация через fine-tuning.
Подробнее: https://docs.unsloth.ai/new/ibm-granite-4.0
Hf: https://huggingface.co/collections/unsloth/granite-40-68ddf64b4a8717dc22a9322d
❤3👍3🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
💡 Модель Ming-UniAudio — это универсальный фреймворк, сочетающий понимание речи, генерацию и редактирование.
- Модель Ming-UniAudio — это универсальный фреймворк, сочетающий *понимание речи*, *генерацию* и *редактирование*.
- В её основе лежит единый непрерывный токенизатор речи, интегрирующий семантические и акустические признаки.
- Поддерживается инструкционное редактирование: можно менять звук, содержание или тональность без указания временных фрагментов.
- В бенчмарках показывает конкурентные результаты и для распознавания, и для генерации речи.
- Лицензия: Apache-2.0.
💻 GitHub: https://github.com/inclusionAI/Ming-UniAudio
🤗 Tokenizer: https://huggingface.co/inclusionAI/MingTok-Audio
🤗 Model:
base: https://huggingface.co/inclusionAI/Ming-UniAudio-16B-A3B
edit: https://huggingface.co/inclusionAI/Ming-UniAudio-16B-A3B-Edit
🤗 Benchmark: https://huggingface.co/datasets/inclusionAI/Ming-Freeform-Audio-Edit-Benchmark
🌍 blog: https://xqacmer.github.io/Ming-Unitok-Audio.github.io/
#AI #Speech #SpeechLLM #LLM #GenerativeAI #Audio #ASR #TTS #SpeechEditing
- Модель Ming-UniAudio — это универсальный фреймворк, сочетающий *понимание речи*, *генерацию* и *редактирование*.
- В её основе лежит единый непрерывный токенизатор речи, интегрирующий семантические и акустические признаки.
- Поддерживается инструкционное редактирование: можно менять звук, содержание или тональность без указания временных фрагментов.
- В бенчмарках показывает конкурентные результаты и для распознавания, и для генерации речи.
- Лицензия: Apache-2.0.
💻 GitHub: https://github.com/inclusionAI/Ming-UniAudio
🤗 Tokenizer: https://huggingface.co/inclusionAI/MingTok-Audio
🤗 Model:
base: https://huggingface.co/inclusionAI/Ming-UniAudio-16B-A3B
edit: https://huggingface.co/inclusionAI/Ming-UniAudio-16B-A3B-Edit
🤗 Benchmark: https://huggingface.co/datasets/inclusionAI/Ming-Freeform-Audio-Edit-Benchmark
🌍 blog: https://xqacmer.github.io/Ming-Unitok-Audio.github.io/
#AI #Speech #SpeechLLM #LLM #GenerativeAI #Audio #ASR #TTS #SpeechEditing
🔥2❤1👍1
💾 Генеральный директор Western Digital заявил, что жёсткие диски остаются центральным элементом хранения данных для ИИ: примерно 80% данных гиперскейлеров хранятся на HDD, 10% — на SSD и ещё 10% — на лентах.
Такое распределение объясняется экономикой и энергопотреблением: диски примерно в 5–6 раз дешевле SSD при больших объёмах и потребляют меньше ватт на терабайт.
В дата-центрах данные распределяют по уровням: «горячие» — на флэше, «тёплые и холодные» — на HDD, архивные — на ленте. Это оптимальный баланс стоимости и производительности.
Однако спрос на хранение для ИИ настолько вырос, что производители не успевают удовлетворять рынок: время ожидания дисков сверхвысокой ёмкости (32 ТБ+) растягивается от нескольких месяцев до года.
pcguide.com/news/hard-drives-far-from-obsolete-says-western-digital-ceo-and-ai-is-one-big-reason-why/
Такое распределение объясняется экономикой и энергопотреблением: диски примерно в 5–6 раз дешевле SSD при больших объёмах и потребляют меньше ватт на терабайт.
В дата-центрах данные распределяют по уровням: «горячие» — на флэше, «тёплые и холодные» — на HDD, архивные — на ленте. Это оптимальный баланс стоимости и производительности.
Однако спрос на хранение для ИИ настолько вырос, что производители не успевают удовлетворять рынок: время ожидания дисков сверхвысокой ёмкости (32 ТБ+) растягивается от нескольких месяцев до года.
pcguide.com/news/hard-drives-far-from-obsolete-says-western-digital-ceo-and-ai-is-one-big-reason-why/
🔥6❤2👍1