🎉 Только что вышла DeepSeek-VL2! Новая модель vision-language нового поколения.
🤖 Deep SeekMo Search + динамическая обработка изображений
⚡ 3B/16B/27B размеры
🏆 Высокая производительность на всех бенчмарках
DeepSeek-VL2 - усовершенствованная серия VLM c Mixture-of-Experts (MoE), которая значительно превосходит DeepSeek-VL.
Модели семейства ориентированы на задачи визуальных ответов на вопросы, оптического распознавания символов, понимания документов/таблиц/схем и визуального обоснования.
DeepSeek-VL2 включает три основных модуля:
🟠 Визуальный энкодер SigLIP-SO400M-384, который использует динамическую стратегию разбиения изображения на фрагменты. Эта стратегия позволяет эффективно обрабатывать изображения высокого разрешения с различными соотношениями сторон.
🟠 VL-адаптер, преобразующий визуальные элементы в формат, понятный языковой модели. Адаптер также добавляет специальные маркеры, чтобы обозначить границы строк, фрагментов и миниатюр.
🟠 Языковая модель DeepSeek-MoE с механизмом MLA. MLA повышает эффективность обработки информации, сжимая kv-данные в компактный вектор. Это ускоряет обработку информации и увеличивает пропускную способность.
DeepSeek-VL2 обучается в три этапа: на первом этапе обучается MLP-соединитель, который связывает визуальный энкодер с языковой моделью, затем модель обучается на датасете из текста, изображений, аннотаций, QA и данных OCR и, в конце процесса, дообучается с учителем для улучшения ее способности понимать инструкции и вести диалог.
Модельная серия состоит из 3 вариантов c контекстом 4096:
🟢 DeepSeek-VL2-Tiny (1B активных параметром и 3.4В общих);
🟢 DeepSeek-VL2-Small (2.8B активных параметром и 16.1B общих);
🟢 DeepSeek-VL2 (4.5B активных параметром и 27.5B общих).
DeepSeek-VL2 была протестирована на задачах DocVQA, ChartQA, InfoVQA, TextVQA, MMBench и показала лучшие результаты по сравнению с другими моделями MoE.
DeepSeek-VL2 эффективно использует архитектуру MoE и превосходит другие модели с аналогичным количеством активных параметров.
💡 По-прежнему полностью открытый исходный код!
💾 Hugging Face: huggingface.co/deepseek-ai
🖥 Github: https://github.com/deepseek-ai/DeepSeek-VL2
@data_analysis_ml
🤖 Deep SeekMo Search + динамическая обработка изображений
⚡ 3B/16B/27B размеры
🏆 Высокая производительность на всех бенчмарках
DeepSeek-VL2 - усовершенствованная серия VLM c Mixture-of-Experts (MoE), которая значительно превосходит DeepSeek-VL.
Модели семейства ориентированы на задачи визуальных ответов на вопросы, оптического распознавания символов, понимания документов/таблиц/схем и визуального обоснования.
DeepSeek-VL2 включает три основных модуля:
DeepSeek-VL2 обучается в три этапа: на первом этапе обучается MLP-соединитель, который связывает визуальный энкодер с языковой моделью, затем модель обучается на датасете из текста, изображений, аннотаций, QA и данных OCR и, в конце процесса, дообучается с учителем для улучшения ее способности понимать инструкции и вести диалог.
Модельная серия состоит из 3 вариантов c контекстом 4096:
DeepSeek-VL2 была протестирована на задачах DocVQA, ChartQA, InfoVQA, TextVQA, MMBench и показала лучшие результаты по сравнению с другими моделями MoE.
DeepSeek-VL2 эффективно использует архитектуру MoE и превосходит другие модели с аналогичным количеством активных параметров.
💡 По-прежнему полностью открытый исходный код!
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍4🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
👉Gaze-LLE: новый фреймворк на базе трансформеров, для трекинга глаз.
Под капотом DINO v2 encoder.
▪Cтатья arxiv.org/pdf/2412.09586
▪Github https://github.com/fkryan/gazelle
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9❤6🔥3😁2
Media is too big
VIEW IN TELEGRAM
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍20❤7🔥6
⚡️Легкий способ получать свежие обновления и следить за трендами в разработке на вашем языке. Находите свой стек и подписывайтесь:
МАШИННОЕ ОБУЧЕНИЕ: t.iss.one/ai_machinelearning_big_data
C++ t.iss.one/cpluspluc
Python: t.iss.one/pythonl
Linux: t.iss.one/linuxacademiya
Хакинг: t.iss.one/linuxkalii
Devops: t.iss.one/DevOPSitsec
Data Science: t.iss.one/datascienceiot
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/javatg
Базы данных: t.iss.one/sqlhub
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Docker: t.iss.one/DevopsDocker
Golang: t.iss.one/Golang_google
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
Собеседования МЛ: t.iss.one/machinelearning_interview
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
Haskell: t.iss.one/haskell_tg
💼 Папка с вакансиями: t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy
😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://t.iss.one/addlist/BkskQciUW_FhNjEy
МАШИННОЕ ОБУЧЕНИЕ: t.iss.one/ai_machinelearning_big_data
C++ t.iss.one/cpluspluc
Python: t.iss.one/pythonl
Linux: t.iss.one/linuxacademiya
Хакинг: t.iss.one/linuxkalii
Devops: t.iss.one/DevOPSitsec
Data Science: t.iss.one/datascienceiot
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/javatg
Базы данных: t.iss.one/sqlhub
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Docker: t.iss.one/DevopsDocker
Golang: t.iss.one/Golang_google
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
Собеседования МЛ: t.iss.one/machinelearning_interview
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
Haskell: t.iss.one/haskell_tg
💼 Папка с вакансиями: t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy
😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://t.iss.one/addlist/BkskQciUW_FhNjEy
❤5👍2🔥1
Media is too big
VIEW IN TELEGRAM
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8❤7👍4👌2
This media is not supported in your browser
VIEW IN TELEGRAM
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤3
⚡️ Google представили Veo 2
• Качество выходного видео достигает 4K — результат просто потрясающий.
• Нейросеть генерирует видео длиной до 10 секунд, хотя разработчики рекомендуют ограничиться 8 секундами.
• Есть незначительные проблемы с динамикой, но специалисты из DeepMind обещают оперативно их устранить.
• Вскоре нейросеть сможет использовать изображения и даже другие видеоролики в качестве референсов.
Согласно внутренним тестам Google, пользователям больше нравятся генерации Veo, чем SORA, в 58,8% случаев. Видео действительно впечатляют (особенно примеры с помидорами, спагетти и картами). Некоторые из этих роликов созданы пользователями, и при использовании тех же промтов результаты в SORA оказываются менее качественными.
https://deepmind.google/technologies/veo/veo-2/
@data_analysis_ml
• Качество выходного видео достигает 4K — результат просто потрясающий.
• Нейросеть генерирует видео длиной до 10 секунд, хотя разработчики рекомендуют ограничиться 8 секундами.
• Есть незначительные проблемы с динамикой, но специалисты из DeepMind обещают оперативно их устранить.
• Вскоре нейросеть сможет использовать изображения и даже другие видеоролики в качестве референсов.
Согласно внутренним тестам Google, пользователям больше нравятся генерации Veo, чем SORA, в 58,8% случаев. Видео действительно впечатляют (особенно примеры с помидорами, спагетти и картами). Некоторые из этих роликов созданы пользователями, и при использовании тех же промтов результаты в SORA оказываются менее качественными.
https://deepmind.google/technologies/veo/veo-2/
@data_analysis_ml
👍10🔥6❤3
Forwarded from Machinelearning
Институт технологических инноваций Абу-Даби представил семейство моделей Falcon 3 с расширенными возможностями в областях науки, математики и программирования.
Модели Falcon 3 основаны на трансформерах, совместимы с архитектурой Llama поддерживает до 32К токенов контекста (кроме 1B с контекстом 8К). Все модели используют функцию активации SwiGLU с размером словаря 131K токенов (65K для Mamba-7B версии).
Falcon3-7B-Base была масштабирована до 10 млрд. параметров путем дублирования избыточных слоев и последующего обучения на 2 трлн. токенов. Это позволило модели Falcon3-10B-Base достичь высоких результатов в задачах zero-shot и few-shot среди моделей с менее чем 13В параметров.
Для создания компактных моделей Falcon3-1B Base и Falcon3-3B Base использовались методы обрезки и дистилляции знаний на основе около 100 ГБ высококачественных данных.
Модель Falcon3-Mamba-7B-Base была усовершенствована путем обучения на дополнительных 1,5 трлн. токенов, что привело к созданию Falcon3-Mamba-7B-Base с улучшенными способностями к рассуждению и в математических задачах.
В бенчмарках задач математики Falcon3-10B-Base достигает 22,9 на MATH-Lvl5 и 83,0 на GSM8K, а в задачах программирования набирает 73,8 на MBPP.
Инструктивные версии моделей также показывают высокие результаты, при этом Falcon3-7B-Instruct и Falcon3-10B-Instruct превосходят аналогичные модели до 13 млрд. параметров.
⚠️ В январе 2025 года планируется выпуск моделей семейства Falcon3 с расширенными мультимодальными возможностями: поддержка изображений, видео и аудио, а также полный технический отчет с описанием методик.
@ai_machinelearning_big_data
#AI #ML #LLM #Falcon3
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11❤5🔥2
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11👍6🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍5🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
📌 Инсайды о Machine Learning и Data Science
Ловите свежий подкаст с руководителем ШАДа Алексеем Толстиковым, который вышел на канале Виктора Кантора
🔗 Что делает ML- и DS-специалистов конкурентоспособными
🔗 Могут ли в этих сферах закрепиться люди из совершенно других областей
🔗 Можно ли освоить Data Science самостоятельно
🔗 Почему глубокого знания математики и алгоритмов недостаточно для успешной работы
🔗 Как джуну найти работу
🔗 Как поступить в ШАД и справиться с учебой там
@data_analysis_ml
Ловите свежий подкаст с руководителем ШАДа Алексеем Толстиковым, который вышел на канале Виктора Кантора
🔗 Что делает ML- и DS-специалистов конкурентоспособными
🔗 Могут ли в этих сферах закрепиться люди из совершенно других областей
🔗 Можно ли освоить Data Science самостоятельно
🔗 Почему глубокого знания математики и алгоритмов недостаточно для успешной работы
🔗 Как джуну найти работу
🔗 Как поступить в ШАД и справиться с учебой там
@data_analysis_ml
👍10❤5