Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Deep Seek представили NSA – инновационную Sparse Attention технологию для ультрабыстрого обучения и инференса с длинным контекстом!
Основные детали:
• Динамическая иерархическая разреженность – модель умело распределяет внимание, выделяя ключевые моменты в длинных последовательностях.
• Грубое сжатие токенов – снижает объём обрабатываемых данных без потери важной информации.
• Точный выбор токенов – сохраняет критически значимые детали для высокой точности.
Благодаря оптимизации под современное железо NSA не только ускоряет инференс, но и снижает затраты на предобучение, при этом демонстрируя результаты, сравнимые или превосходящие Full Attention модели на общих тестах, задачах с длинным контекстом и инструктивном рассуждении.
Подробности и технические детали в статье: https://arxiv.org/abs/2502.11089
@machinelearning_interview
Основные детали:
• Динамическая иерархическая разреженность – модель умело распределяет внимание, выделяя ключевые моменты в длинных последовательностях.
• Грубое сжатие токенов – снижает объём обрабатываемых данных без потери важной информации.
• Точный выбор токенов – сохраняет критически значимые детали для высокой точности.
Благодаря оптимизации под современное железо NSA не только ускоряет инференс, но и снижает затраты на предобучение, при этом демонстрируя результаты, сравнимые или превосходящие Full Attention модели на общих тестах, задачах с длинным контекстом и инструктивном рассуждении.
Подробности и технические детали в статье: https://arxiv.org/abs/2502.11089
@machinelearning_interview
✔ MoBA: Mixture of Block Attention for Long-Context LLMs представляет собой революционное решение для обработки длинных контекстов в языковых моделях. Вот что в нём интересно:
• Инновационная архитектура:
- Блочное разреженная внимание: Полный контекст делится на блоки, и каждый токен учится выбирать наиболее релевантные блоки, что позволяет эффективно обрабатывать длинные последовательности.
• Параметрически независимый механизм выбора: Внедрён механизм топ-k без дополнительных параметров, который автоматически переключается между полным и разреженным вниманием, что делает модель гибкой и адаптивной.
• Эффективность и масштабируемость:
MoBA обеспечивает значительное ускорение (например, 6.5x скорость при 1 млн входных токенов) без потери производительности, что особенно важно для задач с длинным контекстом.
• Практическое применение:
Модель уже доказала свою эффективность в продакшене и демонстрирует превосходное качество работы.
Проект MoBA будет полезен всем, работающим над масштабированием LLMs и задачами с длинным контекстом, предоставляя эффективный и гибкий механизм внимания, который можно легко интегрировать в существующие системы.
▪ Github
@machinelearning_interview
• Инновационная архитектура:
- Блочное разреженная внимание: Полный контекст делится на блоки, и каждый токен учится выбирать наиболее релевантные блоки, что позволяет эффективно обрабатывать длинные последовательности.
• Параметрически независимый механизм выбора: Внедрён механизм топ-k без дополнительных параметров, который автоматически переключается между полным и разреженным вниманием, что делает модель гибкой и адаптивной.
• Эффективность и масштабируемость:
MoBA обеспечивает значительное ускорение (например, 6.5x скорость при 1 млн входных токенов) без потери производительности, что особенно важно для задач с длинным контекстом.
• Практическое применение:
Модель уже доказала свою эффективность в продакшене и демонстрирует превосходное качество работы.
Проект MoBA будет полезен всем, работающим над масштабированием LLMs и задачами с длинным контекстом, предоставляя эффективный и гибкий механизм внимания, который можно легко интегрировать в существующие системы.
▪ Github
@machinelearning_interview
Media is too big
VIEW IN TELEGRAM
🧠 Современные методы статистической теории в машинном обучении
- Видео
- Colab
- Полный курс
@machinelearning_interview
- Видео
- Colab
- Полный курс
@machinelearning_interview
⭐️ База ресурсов для поиска удаленно работа
• Toptal — ИТ фриланс для разработчиков с опытом;
• Wellfound — различные вакансии для стартапов и фрилансеров;
• RemoteOK — база для разных профессий;
• Remotive — удалёнка для айти и маркетинга;
• Галилео.ру — для инженеров;
• FlexJobs — для поиска подработок;
• JustRemote — парт-тайм работа тут;
• PowerToFly — для женщин в ИТ и бизнесе;
• RemoteWoman — для женщин, ищущих удалёнку в разных областях;
• AI Jobs — вакансии в сфере ИИ;
• Working Nomads — для цифровых кочевников, вакансии в маркетинге и ИТ;
• Simply Hired — поиск вакансий по всему миру;
• Angel List — стартапы, удалёнка в технологиях и бизнесе;
• Virtual Vocations — удалённые вакансии в разных сферах (администрация, маркетинг, ИТ);
• Remote Work — общий сайт;
• LinkedIn — ищем удалёнку среди обычных вакансий в профиле;
• We Work Remotely — удалёнка для разработчиков, дизайнеров и маркетологов;
• Jobspresso — качественные удалённые вакансии для профессионалов;
• Jobgether — удалёнка в разных профессиях, от маркетинга до ИТ;
• Fiverr — фриланс-платформа для самых разных краткосрочных проектов;
• Daily Remote — база удалённых вакансий в ИТ, маркетинге и других сферах;
• Crossover — высококачественная удалёнка для разработчиков и менеджеров;
• Outsourcely — фриланс для разных профессий;
• Upwork — крупнейшая платформа для фрилансеров, включает ВСЕ профессии;
• Dribbble — для дизайнеров и креативщиков, в том числе удалённая работа;
• Monster.com — вакансии по всему миру, в том числе удалённые;
• Angel.co — стартапы, удалёнка в сфере технологий;
• Otta — вакансии в стартапах, в том числе удалённые.
@machinelearning_interview
• Toptal — ИТ фриланс для разработчиков с опытом;
• Wellfound — различные вакансии для стартапов и фрилансеров;
• RemoteOK — база для разных профессий;
• Remotive — удалёнка для айти и маркетинга;
• Галилео.ру — для инженеров;
• FlexJobs — для поиска подработок;
• JustRemote — парт-тайм работа тут;
• PowerToFly — для женщин в ИТ и бизнесе;
• RemoteWoman — для женщин, ищущих удалёнку в разных областях;
• AI Jobs — вакансии в сфере ИИ;
• Working Nomads — для цифровых кочевников, вакансии в маркетинге и ИТ;
• Simply Hired — поиск вакансий по всему миру;
• Angel List — стартапы, удалёнка в технологиях и бизнесе;
• Virtual Vocations — удалённые вакансии в разных сферах (администрация, маркетинг, ИТ);
• Remote Work — общий сайт;
• LinkedIn — ищем удалёнку среди обычных вакансий в профиле;
• We Work Remotely — удалёнка для разработчиков, дизайнеров и маркетологов;
• Jobspresso — качественные удалённые вакансии для профессионалов;
• Jobgether — удалёнка в разных профессиях, от маркетинга до ИТ;
• Fiverr — фриланс-платформа для самых разных краткосрочных проектов;
• Daily Remote — база удалённых вакансий в ИТ, маркетинге и других сферах;
• Crossover — высококачественная удалёнка для разработчиков и менеджеров;
• Outsourcely — фриланс для разных профессий;
• Upwork — крупнейшая платформа для фрилансеров, включает ВСЕ профессии;
• Dribbble — для дизайнеров и креативщиков, в том числе удалённая работа;
• Monster.com — вакансии по всему миру, в том числе удалённые;
• Angel.co — стартапы, удалёнка в сфере технологий;
• Otta — вакансии в стартапах, в том числе удалённые.
@machinelearning_interview
Forwarded from Machinelearning
Открытый препринт книги Тарсиса Соуза (Tharsis Souza), PhD Лондонсого университета, в которой представлен критический анализ проблем и ограничений, возникающих у инженеров и руководителей технических проектов при разработке приложений на основе LLM.
Цель книги, по заявлению автора – помочь создавать надежные и безопасные системы на основе LLM, избегая распространенных ошибок.
Она ориентирована на разработчиков, технических менеджеров проектов и технических руководителей, стремящихся к углубленному пониманию и преодолению практических трудностей, связанных с внедрением LLM.
В отличие от преобладающего дискурса, акцентирующего возможности LLM, книга сосредоточена на практических сложностях и потенциальных ошибках реализации, предлагая подробное руководство по их преодолению.
В книге рассматриваются проблемы: структурной ненадежности, управления входными данными, тестирования, аспектов безопасности и элайнмента, зависимости от поставщиков и оптимизации затрат.
Книга сопровождается репозиторием с практическими примерами на Python, анализом реальных сценариев и решений.
@ai_machinelearning_big_data
#AI #ML #LLM #Book #Tutorial
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
Он предназначенный для преобразования PDF-документов в персонализированный аудиоконтент с использованием технологий генеративного ИИ.
Ключевые компоненты:
- Инструмент преобразования PDF в Markdown: Извлекает содержимое из PDF-файлов и конвертирует его в формат Markdown для дальнейшей обработки.
- Сервис создания монологов или диалогов: Обрабатывает Markdown-контент, обогащая или структурируя его для создания естественного аудиоконтента.
- Сервис преобразования текста в речь (TTS): Преобразует обработанный контент в высококачественную речь.
Преимущества использования:
- Персонализация: Возможность адаптации решения под специфические потребности организации, включая брендинг, аналитику, реальное время перевода или интерфейс цифрового человека для повышения вовлеченности.
- Конфиденциальность: Решение соответствует требованиям конфиденциальности на всех этапах обработки данных.
- Гибкость: Модульная структура позволяет добавлять дополнительные функции, соответствующие потребностям пользователей.
- Микросервисы NVIDIA NIM используются для развертывания и масштабирования моделей на GPU.
- Модели Llama 3.1 применяются для обработки и генерации текста.
- Langchain используется для обработки и интеграции данных.
- Docling применяется для парсинга документов.
- ElevenLabs предоставляет сервисы преобразования текста в речь.
Лицензирование:
Использование моделей в этом проекте регулируется NVIDIA AI Foundation Models Community License.
▪ Github: https://github.com/NVIDIA-AI-Blueprints/pdf-to-podcast
▪Project: build.nvidia.com/nvidia/pdf-to-podcast
@ai_machinelearning_big_data
#nim #tts #pdftopodcast
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
scGPT-spatial - расширенная версия модели scGPT в помощь ученым-биологам для анализа пространственной транскриптомики. Основная цель scGPT-spatial — интегрировать информацию о пространственной локализации клеток и их транскриптомных профилях с знаниями scGPT для расширения понимания организации тканей и взаимодействия клеток в микроокружении.
scGPT-spatial обучалась с с учётом пространственных координат на наборе данных SpatialHuman30M (30 миллионов клеток и спотов из 4 протоколов секвенирования: Visium, Visium HD, MERFISH и Xenium) и использует архитектуру MoE.
В тестах scGPT-spatial показала отличные результаты в задачах кластеризации клеточных типов, деконволюции спотов и импутации генной экспрессии. В экспериментах на интеграцию данных из нескольких слайдов и модальностей модель обошла методы PCA и Seurat v4, достигнув показателя AvgBIO 0.86.
В задаче деконволюции клеточных типов scGPT-spatial превзошла Tangram и Cell2location, со средним Macro F1 в 0.58, а медианный коэффициент корреляции Пирсона в импутации генной экспрессии составил значение 0.6.
Веса модели опубликованы в открытом доступе, а в репозитории проекта на Github - подробная инструкция по настройке окружения для scGPT и ipynb демо-ноутбук инференса.
@ai_machinelearning_big_data
#AI #ML #MedML #ScGPT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Классный сайт для тренировки навыков SQL.
На сайте размещены задачи, которые решаются через базу данных больницы.
Уровни сложности разные — от простых запросов с SELECT до по-настоящему сложных.
Берём на вооружение для практики!
https://www.sql-practice.com/
@machinelearning_interview
На сайте размещены задачи, которые решаются через базу данных больницы.
Уровни сложности разные — от простых запросов с SELECT до по-настоящему сложных.
Берём на вооружение для практики!
https://www.sql-practice.com/
@machinelearning_interview
🚀Яндекс представил YandexGPT 5 и впервые за 3 года выложил в опенсорс большую языковую модель
Основные детали:
• YandexGPT 5 Pro — мощная модель нового поколения, уже внедрена в чат с Алисой и доступна через API в Yandex Cloud.
• YandexGPT 5 Lite — 8B модель с контекстным окном 32k токенов, впервые за 3 года опубликована в открытом доступе. Выложена без финального этапа обучения и этических фильтров — идеально для исследований и кастомизации.
Модели открывают широкие возможности для автоматизации бизнес-процессов: от интеллектуальной обработки обращений в контакт-центрах (выделение ключевых моментов, категоризация, суммаризация для отчетов) до создания ИИ-ассистентов для умного поиска по базам знаний.
На сегодняшний день YandexGPT 5 Lite 8B Pretrain в ряде ключевых русскоязычных и англоязычных бенчмарков показывает результаты, превосходящие сопоставимые base-версии моделей Llama и Qwen.
◾️Хабр: https://habr.com/ru/companies/yandex/articles/885218/
◾️HF: https://huggingface.co/yandex/YandexGPT-5-Lite-8B-pretrain
@machinelearning_interview
Основные детали:
• YandexGPT 5 Pro — мощная модель нового поколения, уже внедрена в чат с Алисой и доступна через API в Yandex Cloud.
• YandexGPT 5 Lite — 8B модель с контекстным окном 32k токенов, впервые за 3 года опубликована в открытом доступе. Выложена без финального этапа обучения и этических фильтров — идеально для исследований и кастомизации.
Модели открывают широкие возможности для автоматизации бизнес-процессов: от интеллектуальной обработки обращений в контакт-центрах (выделение ключевых моментов, категоризация, суммаризация для отчетов) до создания ИИ-ассистентов для умного поиска по базам знаний.
На сегодняшний день YandexGPT 5 Lite 8B Pretrain в ряде ключевых русскоязычных и англоязычных бенчмарков показывает результаты, превосходящие сопоставимые base-версии моделей Llama и Qwen.
◾️Хабр: https://habr.com/ru/companies/yandex/articles/885218/
◾️HF: https://huggingface.co/yandex/YandexGPT-5-Lite-8B-pretrain
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
Проект написан на CUDA и рассчитан исключительно на использование тензорных ядер архитектуры NVIDIA Hopper, что уже само по себе делает его очень современным
В основе DeepGEMM лежит идея максимально эффективного выполнения операций умножения матриц с использованием 8-битной точности.
Для решения проблемы накопления в FP8 (которое может давать неточные результаты) разработчики внедрили двухуровневое накопление, которое использует возможности CUDA-ядра для повышения точности без потери производительности.
Что действительно радует – это минимализм кода.
✔ Ядро библиотеки представлено всего в одном ключевом модуле, состоящем примерно из 300 строк, что позволяет легко разобраться в его работе и даже внести собственные улучшения.
При этом все ядра компилируются «на лету» с помощью легковесного JIT-компилятора, так что нет долгого этапа сборки при установке.
DeepGEMM поддерживает разные режимы работы: обычные GEMM для плотных моделей, а также группированные операции для моделей типа Mix-of-Experts, где требуется обрабатывать данные в нескольких форматах – как в «континуальном», так и в «masked» виде. Это особенно актуально для современных решений в области глубокого обучения.
Оптимизации, заложенные в DeepGEMM, включают использование новых функций Hopper, таких как Tensor Memory Accelerator (TMA) для асинхронной передачи данных, а также тонкую настройку блоковых размеров и оптимизацию инструкций FFMA для лучшего перекрытия вычислений и загрузки данных. Результаты говорят сами за себя: производительность этой библиотеки на ряде тестовых примеров сравнима или даже превосходит решения, построенные на базе CUTLASS.
DeepGEMM – это лаконичный и эффективный инструмент, который может послужить отличной базой для исследований и практических разработок в области ускорения вычислений для глубокого обучения.
▪ Github
#ai #deepseek #opensource #DeepEP #OpenSourceWeek:
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM