🌪️ ИИ-модель Google предсказала траекторию самого сильного шторма Атлантики в этом году
> «Внутренние тесты показывают, что прогнозы нашей модели по траектории и интенсивности циклона столь же точны или даже точнее, чем современные физические методы», — сообщили в компании.
📊 По точности прогноза траектории модель Google обошла не только «официальный» прогноз Национального центра по изучению ураганов (NHC), но и несколько физических моделей — как глобальных, так и специализированных под предсказание ураганов.
#ИИ #Google #Погода #Климат
> «Внутренние тесты показывают, что прогнозы нашей модели по траектории и интенсивности циклона столь же точны или даже точнее, чем современные физические методы», — сообщили в компании.
📊 По точности прогноза траектории модель Google обошла не только «официальный» прогноз Национального центра по изучению ураганов (NHC), но и несколько физических моделей — как глобальных, так и специализированных под предсказание ураганов.
#ИИ #Google #Погода #Климат
This media is not supported in your browser
VIEW IN TELEGRAM
Чем хороша модель:
- 8B параметров - лёгкая для локального инференса.
- Средний балл 77.0 на OpenCompass - сводная оценка по 8 популярным бенчмаркам.
- По этим тестам обгоняет ряд проприетарных моделей уровня GPT-4o-latest и Gemini-2.0 Pro, а также сильный опенсорс Qwen2.5-VL 72B в задачах vision-language.
- Фактически самый результативный MLLM до 30B параметров.
Что соберём за сессию:
1) Мини-API для инференса - роут /chat с приемом текста и изображения.
2) Ультралёгкий фронт в anycoder - поле ввода, загрузка картинки, предпросмотр.
3) Набор промпт-темплейтов - описание изображения, OCR-вопросы, разбор скриншотов кода.
Где модель особенно заходит:
- Разбор скринов UI и PDF с таблицами.
- Вопросы по диаграммам и графикам.
- Помощь по коду по фотографиям экрана.
https://huggingface.co/spaces/akhaliq/MiniCPM-V-4_5
Please open Telegram to view this post
VIEW IN TELEGRAM
📊 Исследователи AI VK выложили в открытый доступ VK-LSVD — датасет коротких видео для рекомендательных систем.
🤝 VK-LSVD содержит 40 млрд обезличенных взаимодействий 10 млн пользователей с 20 млн коротких видео за январь–июнь 2025. Включены лайки, дизлайки, шеры, длительность просмотров и контекст воспроизведения.
⚡️ Датасет даёт возможность формировать объем выборки под задачи конкретного исследования и доступные ресурсы команд. Это делает VK-LSVD инструментом, с помощью которого можно проверять гипотезы и строить более точные рекомендательные модели на актуальных данных. Доступен на Hugging Face.
🤝 VK-LSVD содержит 40 млрд обезличенных взаимодействий 10 млн пользователей с 20 млн коротких видео за январь–июнь 2025. Включены лайки, дизлайки, шеры, длительность просмотров и контекст воспроизведения.
⚡️ Датасет даёт возможность формировать объем выборки под задачи конкретного исследования и доступные ресурсы команд. Это делает VK-LSVD инструментом, с помощью которого можно проверять гипотезы и строить более точные рекомендательные модели на актуальных данных. Доступен на Hugging Face.
Telegram
AI VK Hub
Датасет VK-LSVD (Large Short-Video Dataset) для развития рекомендательных систем
Сейчас в открытом доступе не так много больших открытых датасетов, на базе которых инженеры и ученые могут обучать и оценивать модели. Для построения точных рекомендательных…
Сейчас в открытом доступе не так много больших открытых датасетов, на базе которых инженеры и ученые могут обучать и оценивать модели. Для построения точных рекомендательных…
Forwarded from Machinelearning
Stax - экспериментальный инструмент для разработчиков, который предлагает замену неформальному «вайб-тестингу» больших языковых моделей на структурированный, основанный на данных подход.
Stax оценивает модели на кастомных или готовых автоматизированных оценщиках, фокусируясь на метриках: беглость ответа, безопасность, задержка и процент успешного прохождения ручной проверки.
Есть дашборд для сравнения результатов разных моделей с визуальными индикаторами производительности.
Ключевые возможности: быстрые и повторяемые оценки, настройка метрик под конкретные продукты и сквозной рабочий процесс для экспериментов от прототипа до продакшена.
Инструмент должен помочь разработчикам принимать обоснованные решения при выборе и развертывании моделей.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🌍🚀 Многоязычная модель перевода Hunyuan-MT
Hunyuan-MT — это мощная модель перевода, поддерживающая 33 языка, включая редкие языки Китая. Она включает в себя как базовую модель Hunyuan-MT-7B, так и ансамблевую модель Hunyuan-MT-Chimera, обеспечивая высокое качество перевода и выдающиеся результаты на международных конкурсах.
🚀Основные моменты:
- Первое место в 30 из 31 категории на WMT25.
- Лидер по производительности среди моделей аналогичного масштаба.
- Первая открытая ансамблевая модель перевода.
- Комплексная структура обучения для достижения SOTA результатов.
📌 GitHub: https://github.com/Tencent-Hunyuan/Hunyuan-MT
#python
Hunyuan-MT — это мощная модель перевода, поддерживающая 33 языка, включая редкие языки Китая. Она включает в себя как базовую модель Hunyuan-MT-7B, так и ансамблевую модель Hunyuan-MT-Chimera, обеспечивая высокое качество перевода и выдающиеся результаты на международных конкурсах.
🚀Основные моменты:
- Первое место в 30 из 31 категории на WMT25.
- Лидер по производительности среди моделей аналогичного масштаба.
- Первая открытая ансамблевая модель перевода.
- Комплексная структура обучения для достижения SOTA результатов.
📌 GitHub: https://github.com/Tencent-Hunyuan/Hunyuan-MT
#python
GitHub
GitHub - Tencent-Hunyuan/Hunyuan-MT
Contribute to Tencent-Hunyuan/Hunyuan-MT development by creating an account on GitHub.
Forwarded from AI VK Hub
Media is too big
VIEW IN TELEGRAM
Собрали всю RecSys-тусовку: говорили о будущем рекомендаций, технологиях глубокого понимания контента и не только. Ну и, конечно, было много нетворкинга.
Музыка, диджей-сеты, игры, в том числе не обошли стороной турнир по су-е-фа.
#aivk #aivkpro
Please open Telegram to view this post
VIEW IN TELEGRAM
⚖️ NEWS: Суд поддержал xAI против бывшего инженера
Федеральный судья ввёл временный запрет для Xuechen Li, который недавно ушёл из xAI и устроился в OpenAI.
📌 Что значит решение суда:
Li нельзя работать в OpenAI над генеративным ИИ.
Ему нельзя обсуждать темы генеративного ИИ с сотрудниками OpenAI.
Запрет будет действовать, пока xAI не убедится, что у него не осталось их конфиденциальных данных.
🗓 Следующий этап: слушание 7 октября 2025 года, где решат, продлевать ли запрет на более долгий срок.
👉 История о том, как компании теперь воюют не только моделями, но и за людей и их знания.
Федеральный судья ввёл временный запрет для Xuechen Li, который недавно ушёл из xAI и устроился в OpenAI.
📌 Что значит решение суда:
Li нельзя работать в OpenAI над генеративным ИИ.
Ему нельзя обсуждать темы генеративного ИИ с сотрудниками OpenAI.
Запрет будет действовать, пока xAI не убедится, что у него не осталось их конфиденциальных данных.
🗓 Следующий этап: слушание 7 октября 2025 года, где решат, продлевать ли запрет на более долгий срок.
👉 История о том, как компании теперь воюют не только моделями, но и за людей и их знания.
🧠 Прогноз сооснователя DeepMind Шейна Легга
Ещё 16 лет назад он предсказал:
В течение 10–20 лет организация SIAI (ныне MIRI, основанная Элиезером Юдковски) поднимет осведомлённость о рисках AGI.
По мере прогресса в ИИ эти предупреждения будут восприниматься всё серьёзнее.
С 2011 года Легг стабильно указывает 2028 год как медианную дату наступления AGI — то есть 50% шанс появления к этому времени.
https://vetta.org/2009/08/funding-safe-agi/
Ещё 16 лет назад он предсказал:
В течение 10–20 лет организация SIAI (ныне MIRI, основанная Элиезером Юдковски) поднимет осведомлённость о рисках AGI.
По мере прогресса в ИИ эти предупреждения будут восприниматься всё серьёзнее.
С 2011 года Легг стабильно указывает 2028 год как медианную дату наступления AGI — то есть 50% шанс появления к этому времени.
https://vetta.org/2009/08/funding-safe-agi/
Forwarded from Machinelearning
По бенчмаркам Qwen3-Max-Preview опережает предыдущий флагман Qwen3-235B-A22B-2507.
Внутренние тесты и первые отзывы пользователей говорят о том, что модель стала сильнее в диалогах, агентных задачах, следовании инструкциям и обладает более широкими знаниями.
Qwen обещают очень скоро выпустить ещё что-то интересное.
Qwen3-Max-Preview уже доступна в Qwen Chat и через Alibaba Cloud API.
@ai_machinelearning_big_data
#AI #Qwen3 #LLM #AlibabaCloud #QwenChat
Please open Telegram to view this post
VIEW IN TELEGRAM
🌍 Битва за ИИ-вычисления: 🇺🇸 США против 🇨🇳 Китая
🇺🇸 США
На сегодня именно США контролируют большую часть мировой мощности для обучения ИИ. Nvidia и её софт-экосистема (CUDA, PyTorch, Triton) остаются эталоном и формируют глобальный стандарт.
🇨🇳 Китай
Инвестиции в AI-инфраструктуру в 2025 году могут достичь $98 млрд (+48% к 2024):
- $56 млрд — государственные программы
- $24 млрд — ведущие интернет-гиганты
Но превратить такие вложения в сопоставимую с США «тренировочную мощь» мешают экспортные ограничения и технологический разрыв.
⚡ Ставка на свои чипы
Китай усиливает упор на собственные ускорители, особенно для инференса. Huawei в 2025 году начнёт массовые поставки Ascend 910C — сборки из двух кристаллов 910B.
🔑 Почему США впереди
- Аппаратное превосходство: даже урезанный для экспорта Nvidia H20 опережает Huawei Ascend 910B по памяти и пропускной способности — критическим параметрам для обучения больших моделей.
- Софт-разрыв: зрелость Nvidia-стека позволяет выжимать максимум из «железа», тогда как Huawei из-за сырого ПО теряет эффективность даже при неплохих характеристиках.
📌 Итог: Китай вкладывает рекордные суммы и наращивает мощности, но США сохраняют лидерство благодаря связке топ-железа и зрелого ПО. Китайские решения пригодны для инференса, но по обучению крупнейших моделей разрыв пока очевиден.
#AI #Compute #Geopolitics #Nvidia #Huawei
🇺🇸 США
На сегодня именно США контролируют большую часть мировой мощности для обучения ИИ. Nvidia и её софт-экосистема (CUDA, PyTorch, Triton) остаются эталоном и формируют глобальный стандарт.
🇨🇳 Китай
Инвестиции в AI-инфраструктуру в 2025 году могут достичь $98 млрд (+48% к 2024):
- $56 млрд — государственные программы
- $24 млрд — ведущие интернет-гиганты
Но превратить такие вложения в сопоставимую с США «тренировочную мощь» мешают экспортные ограничения и технологический разрыв.
⚡ Ставка на свои чипы
Китай усиливает упор на собственные ускорители, особенно для инференса. Huawei в 2025 году начнёт массовые поставки Ascend 910C — сборки из двух кристаллов 910B.
🔑 Почему США впереди
- Аппаратное превосходство: даже урезанный для экспорта Nvidia H20 опережает Huawei Ascend 910B по памяти и пропускной способности — критическим параметрам для обучения больших моделей.
- Софт-разрыв: зрелость Nvidia-стека позволяет выжимать максимум из «железа», тогда как Huawei из-за сырого ПО теряет эффективность даже при неплохих характеристиках.
📌 Итог: Китай вкладывает рекордные суммы и наращивает мощности, но США сохраняют лидерство благодаря связке топ-железа и зрелого ПО. Китайские решения пригодны для инференса, но по обучению крупнейших моделей разрыв пока очевиден.
#AI #Compute #Geopolitics #Nvidia #Huawei
🎨🚀 Nano Banana Hackathon Kit
Официальный стартовый набор для участия в 48-часовом конкурсе от Google DeepMind. Используйте уникальные возможности Gemini API для создания инновационных приложений, которые изменят взаимодействие с визуальным контентом.
🚀Основные моменты:
- Доступ к API Gemini 2.5 для создания изображений.
- Призы на сумму более $400,000.
- Поддержка от партнеров, включая ElevenLabs и fal.ai.
- Ресурсы и примеры кода для быстрого старта.
- Участие в конкурсе с видео-презентацией вашего проекта.
📌 GitHub: https://github.com/google-gemini/nano-banana-hackathon-kit
#python
Официальный стартовый набор для участия в 48-часовом конкурсе от Google DeepMind. Используйте уникальные возможности Gemini API для создания инновационных приложений, которые изменят взаимодействие с визуальным контентом.
🚀Основные моменты:
- Доступ к API Gemini 2.5 для создания изображений.
- Призы на сумму более $400,000.
- Поддержка от партнеров, включая ElevenLabs и fal.ai.
- Ресурсы и примеры кода для быстрого старта.
- Участие в конкурсе с видео-презентацией вашего проекта.
📌 GitHub: https://github.com/google-gemini/nano-banana-hackathon-kit
#python
GitHub
GitHub - google-gemini/nano-banana-hackathon-kit: 🍌 The official starter kit for the Nano Banana Hackathon. Clone this repo to…
🍌 The official starter kit for the Nano Banana Hackathon. Clone this repo to get building fast! - google-gemini/nano-banana-hackathon-kit
🤖 Будущее за SLM, а не LLM? NVIDIA делает ставку на маленькие модели
Агенты в реальных сценариях выполняют ограниченный набор рутинных задач.
Для этого большие языковые модели избыточны - как суперкомпьютер для решения задач по школьной математике.
📌 Логика NVIDIA:
- Малые языковые модели (**SLM**) уже отлично справляются с простыми и повторяющимися задачами
- Экономия 10–30x за счёт правильного размера модели
- Для сложных рассуждений всё ещё можно подключить крупные LLM
Итог: будущее агентов - в гибридной схеме, где малые модели берут на себя повседневку, а большие включаются только тогда, когда действительно нужно.
Статья: arxiv.org/abs/2506.02153
@ai_machinelearning_big_data
#nvidia #slm #llm #aiagents
Агенты в реальных сценариях выполняют ограниченный набор рутинных задач.
Для этого большие языковые модели избыточны - как суперкомпьютер для решения задач по школьной математике.
📌 Логика NVIDIA:
- Малые языковые модели (**SLM**) уже отлично справляются с простыми и повторяющимися задачами
- Экономия 10–30x за счёт правильного размера модели
- Для сложных рассуждений всё ещё можно подключить крупные LLM
Итог: будущее агентов - в гибридной схеме, где малые модели берут на себя повседневку, а большие включаются только тогда, когда действительно нужно.
Статья: arxiv.org/abs/2506.02153
@ai_machinelearning_big_data
#nvidia #slm #llm #aiagents
Forwarded from Machinelearning
Теперь каждый чип будет заточен под конкретный этап LLM-инференса.
Инференс делится на два шага:
- Prefill - первая стадия. Требует огромной вычислительной мощности, но почти не использует память.
- Decode - вторая стадия. Наоборот, сильно нагружает память, но вычислений нужно меньше.
Раньше, например, R200 объединял в одном GPU и мощные вычислительные блоки, и много памяти. В итоге это было дорого и неэффективно:
- при Prefill простаивает память,
- при Decode — простаивают вычислительные блоки.
- Rubin CPX - оптимизирован для Prefill
• 20 PFLOPS вычислений
• 128 GB GDDR7
• 2 TB/s пропускная способность
- R200 — GPU под Decode
• 288 GB HBM4
• 20.5 TB/s памяти
📆 Планы компании:
- **2024–2025**-— линейка Blackwell (B200, GB300): рост вычислений и памяти.
- 2026–2027 - Rubin разделится:
• VR200 — для Decode (максимум HBM).
• CPX — для Prefill (много вычислений, дешёвая память).
- 2027 — VR300 Ultra: 66.7 PFLOPS и 1024 GB HBM4E.
Nvidia перестраивает линейку так, чтобы каждый GPU работал максимально эффективно именно под свой этап инференса.
#Nvidia #GPU #AI #Blackwell #Rubin #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
🛡️ Secure AI Agents at Runtime with Docker
AI-агенты открывают огромные возможности, но вместе с ними приходят и новые риски — особенно когда агент начинает выполнять код, а не просто его генерировать.
Docker предлагает практики и инструменты, чтобы сделать запуск таких агентов безопасным.
🔍 Основные угрозы
- Случайное удаление или изменение данных
- Уязвимости в Dockerfile или скриптах инфраструктуры
- Утечка секретов и несанкционированные вызовы API
- Неправильные конфигурации, которые могут открыть систему наружу
🔧 Как защититься с Docker
1. Hardened контейнеры — запуск в изоляции, минимум прав (seccomp, drop capabilities)
2. Сканирование образов — Docker Scout проверяет CVE и устаревшие пакеты
3. Runtime политики — блокировка нежелательных операций: запись файлов, сетевые вызовы, доступы
4. Наблюдение и логирование — мониторинг действий агента и анализ инцидентов
⚠️ Пример из практики
Агент сгенерировал конфигурацию Kubernetes, которая по умолчанию открывала внутренний сервис наружу.
CI этого не заметил. Если бы работали runtime-политики и изолированный контейнер, проблему поймали бы сразу.
✅ Вывод: защита должна быть и при сборке, и при выполнении.
С Docker вы можете запускать AI-агентов безопасно, не жертвуя скоростью разработки.
🔗 Подробнее: https://www.docker.com/blog/secure-ai-agents-runtime-security
AI-агенты открывают огромные возможности, но вместе с ними приходят и новые риски — особенно когда агент начинает выполнять код, а не просто его генерировать.
Docker предлагает практики и инструменты, чтобы сделать запуск таких агентов безопасным.
🔍 Основные угрозы
- Случайное удаление или изменение данных
- Уязвимости в Dockerfile или скриптах инфраструктуры
- Утечка секретов и несанкционированные вызовы API
- Неправильные конфигурации, которые могут открыть систему наружу
🔧 Как защититься с Docker
1. Hardened контейнеры — запуск в изоляции, минимум прав (seccomp, drop capabilities)
2. Сканирование образов — Docker Scout проверяет CVE и устаревшие пакеты
3. Runtime политики — блокировка нежелательных операций: запись файлов, сетевые вызовы, доступы
4. Наблюдение и логирование — мониторинг действий агента и анализ инцидентов
⚠️ Пример из практики
Агент сгенерировал конфигурацию Kubernetes, которая по умолчанию открывала внутренний сервис наружу.
CI этого не заметил. Если бы работали runtime-политики и изолированный контейнер, проблему поймали бы сразу.
✅ Вывод: защита должна быть и при сборке, и при выполнении.
С Docker вы можете запускать AI-агентов безопасно, не жертвуя скоростью разработки.
🔗 Подробнее: https://www.docker.com/blog/secure-ai-agents-runtime-security
Forwarded from Machinelearning
Эти нейронные клеточные автоматы (Neural Cellular Automata) способны самособираться в заданные формы и даже восстанавливаться после повреждений.
В *Quanta Magazine* рассказали о том, как учёные научились обучать искусственные "клетки" собираться в заданные формы. Это похоже на игру «Жизнь» (*Game of Life*), но наоборот.
🧩 Что такое Game of Life?
Это простая компьютерная модель: есть сетка из клеток, у каждой клетки всего два состояния — «жива» или «мертва». Жизнь клетки зависит от соседей (например, если вокруг слишком много соседей, клетка умирает).
Обычно мы задаём правила и просто смотрим, что получится.
А теперь учёные сделали наоборот: сначала задаём цель (например, фигуру), а потом подбираем правила так, чтобы клетки сами в неё собрались.
⚙️ Что изменили учёные?
1. Непрерывные состояния - клетка не просто «вкл/выкл», а может быть наполовину активна. Это как лампочка с плавным регулятором яркости.
2. Скрытые переменные - у каждой клетки есть «внутренние параметры», которые влияют на её поведение. Представь, что у клетки есть «настроение» или «память», которое не видно исследователю напрямую.
3. Асинхронное обновление — клетки меняются в случайное время, а не все сразу. Это ближе к реальной жизни, где всё развивается не идеально синхронно.
💡 Зачем это нужно?
- Восстановление после повреждений: если часть фигуры «сломать», клетки могут достроить её заново.
- Децентрализация: нет главного управляющего - каждая клетка действует локально, но вместе они формируют систему.
- Устойчивость к шуму: клетки учатся справляться с хаосом и случайностями, а не просто повторяют выученный рисунок.
- Пока это работает для картинок и форм, но не для сложных живых организмов.
- Чтобы система умела «регенерировать», её нужно специально тренировать.
- Перенести эту идею в настоящие биологические клетки или роботов сложно — там много физических ограничений.
- Медицина - модели самовосстановления тканей.
- Робототехника - рой роботов, которые без команды сверху сами собираются в нужную конструкцию.
- Материалы будущего — «умные» кирпичики или детали, которые сами подстраиваются под окружение.
- Новые вычислительные системы - компьютеры без центрального процессора, где решения рождаются распределённо.
Учёные показали, что нейронные клеточные автоматы можно рассматривать как модель эволюции: геном не задаёт форму напрямую, а запускает процесс её построения, что делает системы гибкими и адаптивными.
Главное отличие от природы в том, что эволюция не имеет цели, а автоматы обучают под задачу.
Эти модели предлагают новый тип вычислений: каждая клетка взаимодействует только с соседями, что делает архитектуру распределённой и потенциально энергоэффективной.
Уже есть впечатляющие результаты — от распознавания цифр и умножения матриц до решения задач вроде IQ-тестов и управления роями роботов, которые начинают вести себя как единый организм.
В итоге работы Мордвинцева соединяют биологию, компьютеры и робототехнику, возвращая к идее, что жизнь и вычисления — две стороны одного процесса.
@ai_machinelearning_big_data
#evolution #machinelearning #neuralnetworks #biology
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🕶 Цукерберг представил новые ИИ-очки Ray-Ban Display AI Glasses .
Очки должны поступить в продажу в конце сентября по цене 799 долларов.
По задумке, это почти что «очки Тони Старка»:
- дисплей с разрешением 600х600 пикселей
- встроенные микрофоны, камеры и динамики
- управление через голос или жесты с помощью ЭМГ-браслета
- экран сбоку: не мешает обзору и остаётся невидимым для окружающих
Идея проста — пользователь задаёт очкам команды, а они выводят информацию на дисплей или озвучивают её.
Выглядит впечатляюще, но во время публичного анонса произошёл конфуз: очки у Марка Цукерберга и его команды прямо на сцене начали лагать и не заработали должным образом.
Для премьеры устройства такого уровня — довольно заметный фейл.
Акции компании сразу же поползли вниз.
🟠 Анонс
@neural
Очки должны поступить в продажу в конце сентября по цене 799 долларов.
По задумке, это почти что «очки Тони Старка»:
- дисплей с разрешением 600х600 пикселей
- встроенные микрофоны, камеры и динамики
- управление через голос или жесты с помощью ЭМГ-браслета
- экран сбоку: не мешает обзору и остаётся невидимым для окружающих
Идея проста — пользователь задаёт очкам команды, а они выводят информацию на дисплей или озвучивают её.
Выглядит впечатляюще, но во время публичного анонса произошёл конфуз: очки у Марка Цукерберга и его команды прямо на сцене начали лагать и не заработали должным образом.
Для премьеры устройства такого уровня — довольно заметный фейл.
Акции компании сразу же поползли вниз.
@neural
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM