Neural Networks | Нейронные сети
11.7K subscribers
767 photos
170 videos
170 files
9.42K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
Forwarded from Machinelearning
🌟 MiniCPM-V 4.5: компактная модель, которая бьет гигантов в мультимодальном ИИ.

Проект OpenBMB выпустил MiniCPM-V 4.5, мультимодальную модель на основе Qwen3-8B и SigLIP2-400M для распознавания изображений, серий изображений и видео, которая может работать на мобильных устройствах на более чем 30 языках.

OpenBMB - некоммерческое подразделение китайской технологической компании ModelBest, под патронажем Университета Цинхуа.

Среди инвесторов материнской ModelBest - Habo (Huawei), Primavera Capital Group и государственный Shenzhen Guozhong Venture Capital Management.


🟡Киллер-фича модели - эффективная работа с видео.

Благодаря унифицированному 3D-Resampler модель сжимает видео в 96 раз: шесть кадров разрешением 448x448 преобразуются всего в 64 токена, тогда как большинству MLLM для этого потребовалось бы 1536 токенов.

Это позволяет обрабатывать видео с частотой кадров до 10 FPS и длинные ролики без роста вычислительных затрат, что подтверждается топовыми результатами на наборах Video-MME, LVBench и MLVU.

Архитектура LLaVA-UHD позволяет модели работать с изображениями до 1,8 мегапикселей и любым соотношением сторон, используя в 4 раза меньше визуальных токенов.

Модель предлагает гибкий режим работы: быстрый ризонинг для повседневных задач и глубокий для сложных сценариев, переключаемый по требованию.

При общем объеме в 8 млрд. параметров, MiniCPM-V 4.5 набирает 77.0 баллов по комплексному бенчу OpenCompass. Этот результат не просто улучшает предыдущие версии, модель превосходит GPT-4o-latest и Gemini-2.0 Pro, обходит открытую Qwen2.5-VL с 72 миллиардами параметров и устанавливает новый стандарт для общего MLLM на OmniDocBench.

🟡С инференсом тоже нет проблем.

Доступны варианты для CPU через llama.cpp и ollama, есть квантованные версии в форматах int4, GGUF и AWQ, поддержка бэкендов SGLang и vLLM, возможность дообучения через Transformers и LLaMA-Factory, а также WebUI и оптимизированное iOS-приложение.

▶️ Чтобы было проще разобраться во всех вариантах запуска, разработчики заботливо подготовили подробный cookbook.


📌Лицензирование: MiniCPM Model License.


🟡Модель
🟡Demo
🟡Сообщество в Discord
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #MMLM #MiniCPM #OpenBMB
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🌪️ ИИ-модель Google предсказала траекторию самого сильного шторма Атлантики в этом году

> «Внутренние тесты показывают, что прогнозы нашей модели по траектории и интенсивности циклона столь же точны или даже точнее, чем современные физические методы», — сообщили в компании.

📊 По точности прогноза траектории модель Google обошла не только «официальный» прогноз Национального центра по изучению ураганов (NHC), но и несколько физических моделей — как глобальных, так и специализированных под предсказание ураганов.

#ИИ #Google #Погода #Климат
This media is not supported in your browser
VIEW IN TELEGRAM
📈 Vibe coding: чат-приложение на MiniCPM-V 4.5 в anycoder

Чем хороша модель:
- 8B параметров - лёг
кая для локального инференса.
- Средний балл 77.0 на OpenCompass - сводная оценка по 8 популярным бенчмаркам.
- По этим тестам обгоняет ряд проприетарных моделей уровня GPT-4o-latest и Gemini-2.0 Pro, а также сильный опенсорс Qwen2.5-VL 72B в задачах vision-language.
- Фактически самый результативный MLLM до 30B параметров.

Что соберём за сессию:
1) Мини-API для инференса - роут /chat с приемом текста и изображения.
2) Ультралёгкий фронт в anycoder - поле ввода, загрузка картинки, предпросмотр.
3) Набор промпт-темплейтов - описание изображения, OCR-вопросы, разбор скриншотов кода.

Где модель особенно заходит:
- Разбор скринов UI и PDF с таблицами.
- Вопросы по диаграммам и графикам.
- Помощь по коду по фотографиям экрана.

https://huggingface.co/spaces/akhaliq/MiniCPM-V-4_5
Please open Telegram to view this post
VIEW IN TELEGRAM
📊 Исследователи AI VK выложили в открытый доступ VK-LSVD — датасет коротких видео для рекомендательных систем.

🤝 VK-LSVD содержит 40 млрд обезличенных взаимодействий 10 млн пользователей с 20 млн коротких видео за январь–июнь 2025. Включены лайки, дизлайки, шеры, длительность просмотров и контекст воспроизведения.

⚡️ Датасет даёт возможность формировать объем выборки под задачи конкретного исследования и доступные ресурсы команд. Это делает VK-LSVD инструментом, с помощью которого можно проверять гипотезы и строить более точные рекомендательные модели на актуальных данных. Доступен на Hugging Face.
Forwarded from Machinelearning
🌟 Google Labs запустила инструмент для структурированной оценки языковых моделей.

Stax - экспериментальный инструмент для разработчиков, который предлагает замену неформальному «вайб-тестингу» больших языковых моделей на структурированный, основанный на данных подход.

Stax оценивает модели на кастомных или готовых автоматизированных оценщиках, фокусируясь на метриках: беглость ответа, безопасность, задержка и процент успешного прохождения ручной проверки.

Есть дашборд для сравнения результатов разных моделей с визуальными индикаторами производительности.

Ключевые возможности: быстрые и повторяемые оценки, настройка метрик под конкретные продукты и сквозной рабочий процесс для экспериментов от прототипа до продакшена.

Инструмент должен помочь разработчикам принимать обоснованные решения при выборе и развертывании моделей.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🌍🚀 Многоязычная модель перевода Hunyuan-MT

Hunyuan-MT — это мощная модель перевода, поддерживающая 33 языка, включая редкие языки Китая. Она включает в себя как базовую модель Hunyuan-MT-7B, так и ансамблевую модель Hunyuan-MT-Chimera, обеспечивая высокое качество перевода и выдающиеся результаты на международных конкурсах.

🚀Основные моменты:
- Первое место в 30 из 31 категории на WMT25.
- Лидер по производительности среди моделей аналогичного масштаба.
- Первая открытая ансамблевая модель перевода.
- Комплексная структура обучения для достижения SOTA результатов.

📌 GitHub: https://github.com/Tencent-Hunyuan/Hunyuan-MT

#python
Forwarded from AI VK Hub
Media is too big
VIEW IN TELEGRAM
🔹 Показываем, как прошла первая встреча AI VK & Pro

Собрали всю RecSys-тусовку: говорили о будущем рекомендаций, технологиях глубокого понимания контента и не только. Ну и, конечно, было много нетворкинга.

Музыка, диджей-сеты, игры, в том числе не обошли стороной турнир по су-е-фа.

🔹 Полное видео с отчётом можно посмотреть здесь.

#aivk #aivkpro
Please open Telegram to view this post
VIEW IN TELEGRAM
⚖️ NEWS: Суд поддержал xAI против бывшего инженера

Федеральный судья ввёл временный запрет для Xuechen Li, который недавно ушёл из xAI и устроился в OpenAI.

📌 Что значит решение суда:

Li нельзя работать в OpenAI над генеративным ИИ.

Ему нельзя обсуждать темы генеративного ИИ с сотрудниками OpenAI.

Запрет будет действовать, пока xAI не убедится, что у него не осталось их конфиденциальных данных.

🗓 Следующий этап: слушание 7 октября 2025 года, где решат, продлевать ли запрет на более долгий срок.

👉 История о том, как компании теперь воюют не только моделями, но и за людей и их знания.
🧠 Прогноз сооснователя DeepMind Шейна Легга

Ещё 16 лет назад он предсказал:

В течение 10–20 лет организация SIAI (ныне MIRI, основанная Элиезером Юдковски) поднимет осведомлённость о рисках AGI.

По мере прогресса в ИИ эти предупреждения будут восприниматься всё серьёзнее.

С 2011 года Легг стабильно указывает 2028 год как медианную дату наступления AGI — то есть 50% шанс появления к этому времени.

https://vetta.org/2009/08/funding-safe-agi/
Forwarded from Machinelearning
🚀 Команда Qwen представила Qwen3-Max-Preview (Instruct) — свою крупнейшую модель на сегодняшний день, с более чем 1 триллионом параметров

По бенчмаркам Qwen3-Max-Preview опережает предыдущий флагман Qwen3-235B-A22B-2507.

Внутренние тесты и первые отзывы пользователей говорят о том, что модель стала сильнее в диалогах, агентных задачах, следовании инструкциям и обладает более широкими знаниями.

Qwen обещают очень скоро выпустить ещё что-то интересное.

Qwen3-Max-Preview уже доступна в Qwen Chat и через Alibaba Cloud API.

🟢Qwen Chat: https://chat.qwen.ai
🟢Alibaba Cloud API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-max-preview

@ai_machinelearning_big_data


#AI #Qwen3 #LLM #AlibabaCloud #QwenChat
Please open Telegram to view this post
VIEW IN TELEGRAM
🌍 Битва за ИИ-вычисления: 🇺🇸 США против 🇨🇳 Китая

🇺🇸 США
На сегодня именно США контролируют большую часть мировой мощности для обучения ИИ. Nvidia и её софт-экосистема (CUDA, PyTorch, Triton) остаются эталоном и формируют глобальный стандарт.

🇨🇳 Китай
Инвестиции в AI-инфраструктуру в 2025 году могут достичь $98 млрд (+48% к 2024):
- $56 млрд — государственные программы
- $24 млрд — ведущие интернет-гиганты

Но превратить такие вложения в сопоставимую с США «тренировочную мощь» мешают экспортные ограничения и технологический разрыв.

Ставка на свои чипы
Китай усиливает упор на собственные ускорители, особенно для инференса. Huawei в 2025 году начнёт массовые поставки Ascend 910C — сборки из двух кристаллов 910B.

🔑 Почему США впереди
- Аппаратное превосходство: даже урезанный для экспорта Nvidia H20 опережает Huawei Ascend 910B по памяти и пропускной способности — критическим параметрам для обучения больших моделей.
- Софт-разрыв: зрелость Nvidia-стека позволяет выжимать максимум из «железа», тогда как Huawei из-за сырого ПО теряет эффективность даже при неплохих характеристиках.

📌 Итог: Китай вкладывает рекордные суммы и наращивает мощности, но США сохраняют лидерство благодаря связке топ-железа и зрелого ПО. Китайские решения пригодны для инференса, но по обучению крупнейших моделей разрыв пока очевиден.

#AI #Compute #Geopolitics #Nvidia #Huawei
🎨🚀 Nano Banana Hackathon Kit

Официальный стартовый набор для участия в 48-часовом конкурсе от Google DeepMind. Используйте уникальные возможности Gemini API для создания инновационных приложений, которые изменят взаимодействие с визуальным контентом.

🚀Основные моменты:
- Доступ к API Gemini 2.5 для создания изображений.
- Призы на сумму более $400,000.
- Поддержка от партнеров, включая ElevenLabs и fal.ai.
- Ресурсы и примеры кода для быстрого старта.
- Участие в конкурсе с видео-презентацией вашего проекта.

📌 GitHub: https://github.com/google-gemini/nano-banana-hackathon-kit

#python