Анализ данных (Data analysis)
46.3K subscribers
2.32K photos
269 videos
1 file
2.05K links
Data science, наука о данных.

@haarrp - админ

@itchannels_telegram - 🔥 главное в ит

@ai_machinelearning_big_data - ML

@machinelearning_interview - вопросы с собесдований по Ml

РКН: clck.ru/3FmyAp
Download Telegram
🔥 OpenVINO Toolkit — это мощный инструмент с открытым исходным кодом для оптимизации и выполнения моделей машинного обучения!

🌟 OpenVINO позволяет преобразовывать модели из популярных фреймворков, таких как TensorFlow, PyTorch и ONNX, в формат, оптимизированный для работы на аппаратуре Intel. Он поддерживает широкий спектр устройств, включая процессоры, GPU, FPGA и специализированные чипы, что делает его идеальным выбором для разработки производительных AI-приложений.

🔐 Лицензия: Apache-2.0

🖥 Github

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍31❤‍🔥11
Только что вышла версия CUDA 12.8 с поддержкой Blackwell.

Гайд по работе с TensorCore 5-го поколения:

https://docs.nvidia.com/cuda/parallel-thread-execution/index.html#tensorcore-5th-generation-instructions

#cuda #TensorCore #nvidia
🔥5🤣32🥰1
⭐️ DataDreamer, библиотека Python с открытым исходным кодом, позволяет легко генерировать синтетические данные и интегрируется с huggingface

🔍 Узнайте, как это сделать: https://huggingface.co/blog/asoria/datadreamer-datasets#6790671e20a7d3ca6f72b6cb

@data_analysis_ml
👍73🔥2😐2
⭐️ Video LLaMA 3 "Мультимодальные базовые модели для понимания изображений и видео" от ДАМО Алибаба

Model: https://huggingface.co/collections/DAMO-NLP-SG/videollama3-678cdda9281a0e32fe79af15
Paper: https://huggingface.co/papers/2501.13106

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍5🔥3
🔥 Minima — это open source решение для RAG в контейнерах для развертывания на любых мощностях (клауд или локал), с возможностью интеграции с ChatGPT и MCP.

Minima также может использоваться как RAG на вашей машине.

Minima поддерживает три режима работы:

1. Изолированная установка — Работа в контейнерах без внешних зависимостей, таких как ChatGPT или Claude. Все нейронные сети (LLM, ранкер, эмбеддинг) и векторный сторедж запускаются на вашем сервере или ПК, обеспечивая безопасность ваших данных.
2. Кастомный GPT — Запросы к вашим локальным документам через приложение или веб-версию ChatGPT с использованием кастомных GPT. Индексатор работает на вашем сервере или локальном ПК, а основная LLM остаётся ChatGPT.
3. Anthropic Claude — Использование приложения Anthropic Claude для запросов к вашим локальным документам. Индексатор работает на вашем локальном ПК, а основная LLM — это Anthropic Claude.

В данный момент, Minima решает задачу RAG on-premises и призывает всех поставить звезду и форкнуть репозиторий, а так же не стесняться и принять участие в разработке.

📌 Лицензия MPL-2.0

Github

@data_analysis_ml
👍86🔥4
⚡️ Повторно дистиллированная
Deepseek AiR1 (1,5B) превосходит по своим характеристикам оригинальную дистиллированную модель!


https://huggingface.co/mobiuslabsgmbh/DeepSeek-R1-ReDistill-Qwen-1.5B-v1.0

@data_analysis_ml
👍15😱31🔥1
⭐️ Anton Pidkuiko рассказывает, как он создал ИИ-агента, который занял первое место в Meta HackerCup 2024 (дивизион ИИ).

Он демонстрирует использование передовых методов рассуждений LLM, методов RAG и облачной инфраструктуры для решения сложных задач программирования в больших масштабах.

Посмотрите запись: https://www.youtube.com/watch?v=cvIeT4MlIx4

@data_analysis_ml

#pytorch #ai #expertexchange
Please open Telegram to view this post
VIEW IN TELEGRAM
13👍9🔥2
🔥 MagicMirror — это приложение для мгновенной замены лиц, причесок и одежды с помощью ИИ!

🌟 Оно работает локально на macOS и Windows, не требует мощного оборудования и обеспечивает полную конфиденциальность, так как обработка изображений выполняется на устройстве.

🔐 Лицензия: MIT

🖥 Github

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12👍103
🔥 Qwen 2.5 - 7B and 14B с длинной контекста в 1 миллион!

Они также выпустили свой собственный форк vllm - чтобы вы могли развернуть модель у себя дома! 💥

Стоит отметить, что модель 14B-1M выигрывает у гораздо более крупной модели Qwen 2.5 Turbo (предположительно MoE с тем же количеством активных параметров).

Более того, она еще и превосходит бета-версия GPT-4/ 4o на длинном контексте!

https://huggingface.co/collections/Qwen/qwen25-1m-679325716327ec07860530ba

@data_analysis_ml

#Qwen
👍13🔥73
Базы данных для задач любой сложности

Безопасность, масштабируемость и отказоустойчивость баз данных — ключевые требования для любых современных веб-сервисов и приложений. А наличие этих требований по умолчанию, без дополнительной головной боли — мечта для любого бизнеса. Или не мечта, а реальность? Selectel предлагает одни из лучших облачных баз данных на рынке и берет эти на заботы на себя:

● предоставляет высокую производительность за счет оптимальной настройки ПО, подбора мощного железа и локальных NVMe-дисков;
● обеспечивает резервное копирование. Бесплатные бэкапы создаются автоматически, а восстановление данных происходит вплоть до секунды;
● гарантирует отказоустойчивость. Создать отказоустойчивый кластер можно всего от двух нод, что позволяет сэкономить до 33% стоимости ресурсов;
● дает возможности для быстрого масштабирования. При росте нагрузки можно поменять конфигурацию облачного сервера и количество реплик без простоя.
● заботится о безопасности: сервис соответствует российским и международным стандартам — закону 152-ФЗ (УЗ-1), приказу ФСТЭК № 21, PCI DSS, ISO 27001, 27017, 27018 и ГОСТ Р 57580.

Развернуть готовые к работе кластеры облачных баз данных в несколько кликов: https://slc.tl/v7gmo

Реклама, АО «Селектел», ИНН: 7810962785, ERID: 2VtzqwgdXD6
7👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🌟 Интересный сайт, который наглядно сравнивает производительность процессоров разных поколений!

🔗 Ссылка: *клик*

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
17🔥9👍4
Forwarded from Machinelearning
⚡️ Мл сообщество активно обсуждает успехи Китая и DeepSeek-R1, в частности, в гонке за доминирование на рынке ИИ.

Релиз R1 и новости об инвестировании в развитие отрасли, вызвали падение акций американских ИТ-гигантов на бирже NASDAQ.

Но помимо R1 в этом месяце разработчики из Китая выпустили еще очень много интересных моделей 🔥 Китай набирает очень серьезные обороты,

Давайте посмотрим на список самых ярких релизов из Поднебесной за январь:

LLM:
InternLM3-8B-Instruct
MiniMax-Text-01
RWKV-7 RNN + трансформер 👀
Собственно сам DeepSeek-R1
Baichuan-M1-14B медицинский LLM 🩺
Qwen2.5-Math-PRM от Alibaba
Qwen2.5 -1M


Модели кодинга:
Tare от BytedanceTalk

TTS модели синтеза и генерации речи:
T2A-01-HD от MiniMax AI
LLaSA

МЛЛМ:
Kimi k1.5 от Moonshot AI
MiniCPM-o-2_6 от OpenBMB
Sa2VA-4B от ByteDanceOSS
VideoLLaMA 3 от Alibaba DAMO
LLaVA-Mini от Китайской академии наук

Hunyuan-7B от TXhunyuan
Hunyuan 3D 2.0

ИИ-агенты:
UI-TARS от ByteDanceOSS
GLM-PC

Датасеты:
Fineweb-Edu-Chinese-V2.1
Multimodal_textbook от Alibaba
MME-Finance от Hithink AI
GameFactory от KwaiVGI

📌 Полный список Релизов

#ai #ml #digest #china #deepseek #Alibaba
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥115👍5
Media is too big
VIEW IN TELEGRAM
Open Suno уже здесь! Вы можете генерировать целые песни с моделью параметров 7B! 🔥

Вы можете выбрать фоновую музыку, жанр, тексты песен — качество на выходе просто безумное!

Доступны все контрольные точки модели

https://huggingface.co/m-a-p
12👍4🥰1🤨1
🔥 LocalAI — это инструмент с открытым исходным кодом для запуска моделей искусственного интеллекта локально, без необходимости подключения к облаку!

🌟 Он совместим с API OpenAI и поддерживает работу с моделями машинного обучения, такими как LLaMA, GPT-4 и другими. LocalAI предоставляет удобные инструменты для интеграции в существующие приложения, поддерживает GPU-ускорение и может работать в контейнерах Docker.

🔐 Лицензия: MIT

🖥 Github

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍5🔥3
🤗 На HF только что появились два новых ризонинг датасета.

1. OpenThoughts: 114 тыс примеров, полученных из R1 по математике, кодингу и науке https://huggingface.co/datasets/open-thoughts/OpenThoughts-114k.

2. R1-Distill-SFT: 1.7M (!), отобранных из R1-32B на NuminaMath и Tulu data

https://huggingface.co/datasets/ServiceNow-AI/R1-Distill-SFT

@data_analysis_ml
👍145🔥3
🖥 Audiblez — это инструмент для конвертации электронных книг в аудиокниги!

🌟 Он использует модель текст-в-речь Kokoro для создания файлов в формате .m4b из файлов .epub. Программа поддерживает различные языки, голоса и позволяет настроить скорость чтения. Также доступна работа на GPU для ускорения обработки.

🔐 Лицензия: MIT

🖥 Github

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
12🔥6👍3
🐋 DeepSeek только что потерпел поражение в ходе аудита NewsGuard и занял предпоследнее место по точности ответов чат-ботов, провалив 83% тестов.

В сравнении с западными конкурентами такими, как ChatGPT от OpenAI и Google Gemini, DeepSeek разделил 10-е место с другим чат-ботом.

т.е. когда предъявлялись явно ложные утверждения, они опровергались лишь в 17% случаев.

→ NewsGuard применил свой стандартный аудит дезинформации к DeepSeek, оценив, как он справлялся с ложными заявлениями в политике, здравоохранении, бизнесе и международных отношениях. В то время как ведущие чат-боты имели средний показатель ошибок 62%, DeepSeek показал себя значительно хуже, ошибившись в 83% случаев.

→ Чат-бот особенно плохо справлялся с запросами, связанными с новостями, повторяя ложные утверждения в 30% случаев и не давая прямых ответов в 53% случаев.

https://www.reuters.com/world/china/deepseeks-chatbot-achieves-17-accuracy-trails-western-rivals-newsguard-audit-2025-01-29/

#DeepSeek #ai #ml
👍19🥴18🤔96🔥6😁4😢3🤨31😱1
🔥 MemoRAG — инновационный фреймворк RAG, который использует память для более эффективного извлечения данных и генерации ответов!

🌟 MemoRAG расширяет стандартный RAG, добавляя глобальную модель памяти, что позволяет обрабатывать запросы с учётом всего контекста базы данных. Это обеспечивает более точные и содержательные ответы, особенно для сложных или многоуровневых задач.

💡 Ключевые возможности MemoRAG включают поддержку сверхдлинных контекстов (до миллиона токенов), оптимизацию производительности, создание контекстуальных подсказок, ускорение обработки данных за счёт кеширования и повторное использование закодированного контекста. Инструмент может быть интегрирован с различными моделями LLM, такими как Meta-Llama и Mistral, и предоставляет демо для тестирования на базе Streamlit.

🔐 Лицензия: Apache-2.0

🖥 Github

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍6