Анализ данных (Data analysis)
46.3K subscribers
2.31K photos
264 videos
1 file
2.04K links
Data science, наука о данных.

@haarrp - админ

@itchannels_telegram - 🔥 главное в ит

@ai_machinelearning_big_data - ML

@machinelearning_interview - вопросы с собесдований по Ml

РКН: clck.ru/3FmyAp
Download Telegram
🔥 MetaGPT — это фреймворк, который преобразует простое текстовое описание задачи в полный пакет проектной документации и кода!

🌟 Он моделирует работу IT-компании, назначая различные роли, такие как менеджер продукта, менеджер проекта, инженер и другие, каждому из которых соответствует агент на основе большой языковой модели. Эти агенты взаимодействуют друг с другом, следуя стандартизированным операционным процедурам (SOP), что позволяет эффективно разрабатывать сложные программные продукты.

🔐 Лицензия: MIT

🖥 Github

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍149🔥51
🚀 Flashmla от deepeseek

DeepSeek представил MLA – революционное ускорение инференса LLM
DeepSeek выпустил свою реализацию MLA (Multi-head Latent Attention), которая значительно ускоряет работу больших языковых моделей (LLM) и существенно снижает требования к памяти. Вот как это работает:

Что такое MLA?
MLA – это инновационный механизм внимания, который использует технику «low-rank joint compression» для сжатия матриц «ключей» (K) и «значений» (V). Благодаря этому подходу достигается:

Снижение использования памяти до 93.3%: сжатие позволяет уменьшить объем данных, которые нужно хранить для каждого слоя внимания.
Увеличение пропускной способности до 5.76 раз: особенно заметно на длинных контекстах, где традиционные методы сталкиваются с проблемами масштабирования.
Основные принципы работы MLA
MLA впервые был представлен в публикации DeepSeek AI V2, где также описывалась их архитектура Mixture-of-Experts. Ключевые этапы работы метода «low-rank joint compression» MLA включают:

1️⃣ Проекция в латентное пространство:
Вместо хранения полных матриц K и V для каждой «головы» внимания, они проецируются в общее, низкоразмерное латентное пространство. Это позволяет существенно сократить объем необходимых данных.

2️⃣ Обучаемые латентные векторы:
MLA вводит набор обучаемых латентных векторов, число которых значительно меньше, чем размеры исходных матриц K и V. Эти векторы служат своего рода «ядром», которое хранит сжатую информацию.

3️⃣ Нелинейная проекция:
Ключи и значения проецируются в латентное пространство с использованием нелинейной функции, которая обучается вместе с моделью. Это позволяет адаптивно подбирать оптимальное сжатие в зависимости от задачи.

4️⃣ Восстановление «по требованию»:
При вычислении коэффициентов внимания происходит динамическое восстановление приближенных матриц K и V из сохраненных латентных векторов. Важно, что восстановление выполняется «по требованию», только для необходимых токенов, что экономит вычислительные ресурсы.

Техническая поддержка и оптимизация
DeepSeek также представил open-source CUDA ядра, оптимизированные для NVIDIA Hopper GPUs, что обеспечивает высокую производительность MLA на современном оборудовании. Ознакомиться с кодом и начать использовать оптимизированные ядра можно по ссылке: FlashMLA на GitHub.

https://github.com/deepseek-ai/FlashMLA

@data_analysis_ml
9👍4🔥2🤣2🥰1
✔️ Подтвержден выпуск Claude 3.7 Sonnet

AWS Badrock готовятся разместить новую версию Sonnet 3.7, которая, скорее всего, будет анонсирована сегодня во время мероприятия Amazon.

* Модель в настоящее время скрыта и не отображается в пользовательском интерфейсе

Инсайдеры раскопали, что модель достигает SOTA в кодинге, агентных способностях, сложном рассуждении и генерации контента.

Благодаря высокой производительности и контролю над скоростью работы, Claude 3.7 Sonnet заточена для реализации AI-агентов и комплексных AI-решений.

Источник: https://archive.is/BkvLb

@data_analysis_ml - подпистаться
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👍105
🔥 PIKE-RAG (sPecIalized KnowledgE and Rationale Augmented Generation) — это метод, разработанный для улучшения возможностей больших языковых моделей в извлечении, понимании и применении специализированных знаний!

🌟 Он направлен на построение последовательной логики рассуждений, что позволяет LLM постепенно приходить к точным ответам, особенно в сложных промышленных приложениях.

🔐 Лицензия: MIT

🖥 Github

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
11👍7🥰1
🔥 Memobase — это система памяти, ориентированная на профили пользователей, разработанная для интеграции долговременной памяти в генеративные AI-приложения!

🌟 Она позволяет виртуальным компаньонам, образовательным инструментам и персональным ассистентам запоминать, понимать и адаптироваться к своим пользователям.

🔐 Лицензия: Apache-2.0

🖥 Github

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍86🥰2
⚡️ DeepSeek-R1-FP4 от NVIDIA привлекает внимание тем, что сочетает в себе передовые идеи для быстрого и эффективного поиска по мультимедийному контенту.

Главное, что здесь сделано по-новому — это применение 4-битной точности (FP4) для представления данных.

Такая оптимизация позволяет существенно снизить затраты памяти и ускорить вычислительный процесс, что особенно важно при работе с огромными массивами изображений или видео.

Суть подхода в том, что система сначала «вчитывается» в контент, извлекая из него ключевые признаки, а затем преобразует их в компактные векторные представления.

Эти векторы отражают глубокую семантику, а не просто поверхностные характеристики, поэтому поиск становится более осмысленным. При запросе система сравнивает вектор, соответствующий запросу, с уже сохранёнными представлениями, находя наиболее похожие и релевантные результаты.

Такой метод особенно интересен для приложений, где необходимо работать с мультимодальными данными — будь то поиск похожих сцен в видеоархивах или сопоставление изображений с текстовыми описаниями. Оптимизация под современные аппаратные решения от NVIDIA делает эту модель подходящей для интеграции в реальные системы, где скорость и эффективность поиска играют ключевую роль.

В общем, DeepSeek-R1-FP4 — это пример того, как современные технологии позволяют не только повысить качество поиска, но и сделать его более доступным с точки зрения вычислительных ресурсов.

huggingface.co/nvidia/DeepSeek-R1-FP4
10👍5🔥2🐳2
🔥 Это — подробное руководство по созданию и пониманию AI-агентов — автономных систем, которые могут анализировать информацию, принимать решения и выполнять задачи!

🔗 Ссылка: *клик*

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍146🔥2
✔️ Hume AI открыла доступ к Octave: ТTS-модель, которая умеет говорить с эмоциями.

Octave, TTS-модель, анонсированная в конце декабря 2024 года, стала доступной через web и API. Модель умеет не просто "читать" слова, а понимает их смысл в контексте. Octave способна отыгрывать персонажей, генерировать голоса по запросу и изменять эмоциональную окраску и стиль речи.

Благодаря функции Voice Design, Octave может создать любой ИИ-голос по текстовому описанию. От "терпеливого, чуткого консультанта с голосом ASMR" до "средневекового рыцаря" – Octave воплотит любую фантазию. В ближайшем будущем планируется запуск функции клонирования голоса.

В ходе слепого сравнительного исследования, Octave превзошла систему ElevenLabs Voice Design по качеству звука (71,6%), естественности (51,7%) и соответствию голоса заданному описанию (57,7%).
hume.ai

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍87🔥1
Media is too big
VIEW IN TELEGRAM
🤖 Еще один день, еще один (китайский) гуманоидный робот: сегодня STAR1 демонстрирует возможности своего робота в задачах готовки.

При такой скорости развития.год роботы будут в наших домах в ближайшее время.
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍4🔥1😁1
📖 В этой статье обсуждается улучшение оценки глубины сцены по одиночному изображению (monocular depth estimation, MDE) с использованием методов дистилляции знаний!

💡 Авторы анализируют различные стратегии нормализации глубины при дистилляции псевдометрических меток и выявляют, что глобальная нормализация может усиливать шум в псевдометрических метках, снижая эффективность дистилляции. В ответ на это они предлагают метод Cross-Context Distillation, объединяющий глобальные и локальные признаки для улучшения качества псевдометрических меток, а также многопедагогическую дистилляцию, использующую преимущества различных моделей оценки глубины. Эксперименты на эталонных наборах данных демонстрируют, что предложенный подход значительно превосходит современные методы как количественно, так и качественно.

🔗 Ссылка: *клик*

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
12👍6🔥4
🔥 GHOST 2.0 – open-source модель переноса головы от Sber AI и AIRI.

На Habr вышла статья от разработчиков Sber AI и AIRI про свежее open-source решение по переносу головы на изображениях.

Авторы рассказали, как GHOST 2.0 решает задачу headswap без видимых артефактов, сохраняя реалистичность и соответствие геометрии исходного лица. Важный этап обработки – использование Kandinsky 2.2, который упрощает адаптацию данных перед финальной генерацией.

Среди других особенностей:

• Улучшенный контроль за точностью замены головы;
• Минимизация искажений при переносе текстур;
• Полный open-source: код доступен для экспериментов и интеграции.

🔗 Ссылка: *клик*

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12👍86😁2
This media is not supported in your browser
VIEW IN TELEGRAM
🎮 Дэнни Лименсата (Danny Limensata) сделал целую игру с помощью Grok 3, создав этот готический шутер в стиле ретро Doom с нуля.

На разработку ушло менее 24 часов, и выглядит он вполне приятно!

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍24🔥9🤔43😁3🤯3
🔥CosyVoice — это многоязычная модель генерации речи, разработанная для создания естественного и выразительного синтеза голоса!

💡 Версия 2.0 предоставляет улучшенные возможности по сравнению с предыдущей версией, включая более точную и стабильную генерацию речи с уменьшенной задержкой. Модель поддерживает такие языки, как китайский, английский, японский, корейский и различные китайские диалекты. Кроме того, CosyVoice 2.0 интегрирует офлайн и потоковые технологии моделирования, обеспечивая задержку до 150 мс при сохранении высокого качества звука.

🔐 Лицензия: Apache-2.0

🖥 Github

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍95🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Сравнение 8 моделей img2vid.

Напишите в комментариях - какой генератор используете вы.

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍86🔥5
🔥 Agentic Reward Modeling: Интеграция человеческих предпочтений с проверяемыми сигналами корректности для надежных систем вознаграждения!

💡 Данный репозиторий представляет собой реализацию системы вознаграждения, объединяющей модели вознаграждения с проверяемыми сигналами корректности из различных аспектов для обеспечения надежных вознаграждений. В частности, реализован агент вознаграждения под названием RewardAgent, который сочетает вознаграждения на основе человеческих предпочтений с двумя проверяемыми сигналами: фактичностью и следованием инструкциям, что обеспечивает более надежные вознаграждения.

🔐 Лицензия: MIT

🖥 Github

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥4👍2
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Невероятно полезный инструмент от Стэнфорда — Storm посещает сотни веб-сайтов и создает огромные статьи на заданную вами тему!

🔍 К сожалению, работает только на английском, однако ничего не мешает вам перевести получившуюся статью в любой другой нейросети.

🔗 Ссылка: *клик*

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍298🔥2
📖 В этой статье авторы изучают, могут ли большие языковые модели решать задачи по определению неотрицательности многочленов!

🌟 Авторы создали набор данных SoS-1K с 1000 задачами разной сложности и обучили модель SoS-7B, которая превзошла более крупные LLM, такие как DeepSeek-V3 (671B) и GPT-4o-mini. Результаты показали, что без инструкций точность моделей была около 50%, но с правильными инструкциями она возрастала до 81%.

🔗 Ссылка: *клик*

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
9🔥4👍2🥰1
Verl – Volcano Engine Reinforc
ement Learning for LLMs

Проект, объединяющий методы обучения с подкреплением для улучшения работы языковых моделей.

Отличается экспериментальным подходом и перспективой интеграции с популярными LLM.

Github

@data_analysis_ml
8👍4🔥2🥴2