Технозаметки Малышева
5.55K subscribers
2.79K photos
928 videos
38 files
3.07K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Blackwell: NVIDIA выпускает монстра с 72-мя GPU в одной стойке

CoreWeave запустил первые облачные инстансы на базе NVIDIA GB200 NVL72.
Система объединяет 72 GPU Blackwell и 36 CPU Grace с жидкостным охлаждением.
Ключевые преимущества: в 30 раз быстрее инференс LLM, в 4 раза ускоряет обучение, 25-кратный прирост производительности при той же мощности.
Технические особенности: NVLink 5.0, поддержка FP4, сеть Quantum-2 InfiniBand (400 Гб/с на GPU).
Масштабируемость до 110,000 GPU с пропускной способностью 130 ТБ/с в одном домене.

Вот бы на нём Doom запустить. :)

#NVIDIA #Blackwell #CoreWeave
-------
@tsingular
👍8👾3
Законы масштабирования ИИ от NVIDIA

Pretraining Scaling:
Больше параметров
Больше данных
Больше вычислительной мощности
= Лучше результат

Именно отсюда растут модели на триллионы параметров и MoE (Mixture of Experts) архитектуры.

Post-training Scaling:
Fine-tuning на специфических задачах
Дистилляция (большая модель учит маленькую)
RLHF/RLAIF для коррекции на обратной связи от человека или ИИ
Best-of-n sampling для улучшения выходных данных

Неожиданный факт: на пост-тренинг производных моделей уходит в 30 раз больше вычислений, чем на тренировку базовой! 🤯

Test-time Scaling (он же Long/Deep Thinking) - горячий тренд:
Модель не выдаёт ответ сразу, а "размышляет"
На сложных задачах может думать минутами или часами
Потребляет в 100 раз больше ресурсов по сравнению с обычным инференсом
Использует chain-of-thought prompting и поиск по дереву решений

Технические детали:
Chain-of-thought: разбивает сложные проблемы на простые шаги

Majority voting: генерирует несколько ответов и выбирает самый частый

Search: исследует дерево возможных решений

Что дальше?
Уже появились первые модели с упором на reasoning:

OpenAI o1-mini и o3-mini
DeepSeek R1
Gemini 2.0 Flash Thinking

Индустрия делает серьёзную ставку на "думающие" модели - но это требует космических вычислительных ресурсов.

Нужно больше золота, милорд! :)

#NVIDIA #ScalingLaws #Computing
———
@tsingular
👍7
🚀 NVIDIA открывает NVAQC - центр ускорения квантовых вычислений

18 марта на GTC 2025 компания объявила о запуске NVIDIA Accelerated Quantum Research Center (NVAQC) в Бостоне – центра, который займётся оптимизацией квантовых вычислений.

Главная фишка NVAQC – 576 GPU NVIDIA Blackwell в составе системы GB200 NVL72 с сетевой платформой NVIDIA Quantum-2 InfiniBand. По сути, гибрид классического суперкомпьютера и квантовых процессоров.

Почему это важно?
Квантовые компьютеры страдают от шума – взаимодействия кубитов с окружающей средой, что приводит к ошибкам в вычислениях. Традиционное решение – квантовая коррекция ошибок, но это требует:
1. Тонны физических кубитов для создания одного логического кубита
2. Сверхбыстрой классической обработки для декодирования и исправления ошибок

NVAQC решает именно второй пункт – использует ИИ и параллельные вычислений для ускорения декодирования.

Команда партнёров NVIDIA, которые уже работают в проекте:
- Quantinuum (интеграция H1 QPU с CUDA-Q)
- QuEra (поиск улучшенных кодов коррекции ошибок)
- Quantum Machines (создание контроллеров для интерфейса между квантовыми процессорами и GB200)
- Академические партнёры из Гарварда и MIT

Демократизация квантовой физики:
Самое интересное – единая платформа CUDA-Q, которая позволит разработчикам создавать гибридные квантово-классические приложения, не вдаваясь в квантовую физику.

NVIDIA очевидно строит экосистему для "квантового дня Х":
- CUDA-Q как основной интерфейс для разработчиков
- CUDA-QX – набор библиотек для ускорения исследований
- DGX Quantum – референсная архитектура для интеграции квантового и классического железа
- cuQuantum – библиотеки для симуляции квантовых схем

Практический эффект обещают через 5-10 лет. Будем надеяться AGI этот процесс ускорит.

#NVIDIA #QuantumComputing #NVAQC
———
@tsingular
👍7🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
🔬 Nvidia GTC 2025: Новые архитектуры GPU и AI-модели для роботов

На конференции GTC 2025 NVidia представила несколько интересных технических новинок:

Дорожная карта GPU архитектур
Компания анонсировала сразу несколько поколений GPU архитектур:
- Blackwell Ultra — выйдет во второй половине 2025 года, улучшенная версия текущей архитектуры Blackwell с повышенной производительностью для AI-задач
- Vera Rubin — релиз во второй половине 2026 года, будет включать десятки терабайт памяти и кастомный CPU от Nvidia под названием Vera
- Rubin Ultra — запланирован на вторую половину 2027 года, будет представлять собой четыре GPU в одном корпусе

Интересно, что на фоне этих анонсов акции Nvidia упали на 4% — видимо, инвесторы ожидали чего-то более неожиданного. Тем более, что большая часть информации уже была слита до конференции.

AI и робототехника
- Groot N1 — открытая AI-фундаментальная модель для гуманоидных роботов с "двойной системной архитектурой" для "быстрого и медленного мышления". Модель обучена на синтетических и реальных данных.

- Newton Physics Engine — физический движок, разработанный совместно с Disney Research и Google DeepMind для симуляции движений роботов в реальных условиях. Disney планирует использовать его для своих развлекательных роботов, включая BDX-дроидов из "Звездных войн".

"Персональные AI-суперкомпьютеры"
Два новых устройства для разработчиков и предприятий:
- DGX Spark (ранее Project Digits) — компактная система размером с Mac mini, способная выполнять 1 000 триллионов операций в секунду. Поставки начнутся в ближайшее время.

- DGX Station — более мощная рабочая станция для предприятий (Nvidia’s GB300 Grace Blackwell Ultra Desktop Superchip с 784GB памяти) - поставки начнутся летом.
Вот это интересно - по сути коробка чисто под DeepSeek R1 (или к лету там уже R2 выйдет)

Партнерства с бизнес-контекстом
- General Motors — расширение сотрудничества в трех направлениях: AI для производства, AI для проектирования и симуляции автомобилей, и AI для автономного вождения (Super Cruise).
- TSMC — разработка кремниевой фотоники для датацентров, что позволит сэкономить мегаватты энергии.

Программное обеспечение для AI
- Nvidia Dynamo — операционная система для "AI-фабрик", позволяющая компаниям настраивать дата-центры под AI-нагрузки.
- Nvidia Llama Nemotron Reasoning — модель рассуждений, которая, по заявлениям, превосходит DeepSeek R1 по точности и скорости.

Ну, очевидно, вышли на плато. Никаких революций. Чисто эволюционный рост. Так? ;)

#Nvidia #GTC2025
———
@tsingular
👍5😁3
Forwarded from Machinelearning
🌟 NVIDIA добавила нативную поддержку Python в CUDA.

Python уже несколько лет уверенно лидирует среди языков программирования, а теперь стал ещё ближе к железу. На GTC 2025 NVIDIA объявила о полноценной интеграции Python в свой CUDA-стек.

Это значит, что писать код для GPU можно будет напрямую на Python — без погружения в C++ или Fortran. Как подчеркнул Стивен Джонс, архитектор CUDA, цель — сделать инструмент естественным для Python-разработчиков: «Это не перевод синтаксиса C на Python. Все должно работать так, как привыкли разработчики».

Раньше CUDA требовала глубокого понимания низкоуровневых языков и это здорово ограничивало аудиторию. Сейчас, когда Python стал стандартом в ML и DS, NVIDIA открывает двери для миллионов программистов. По данным The Futurum Group, в 2023 году CUDA использовали 4 миллиона человек — теперь их число может резко вырасти.

Техническая часть такая же обширная, как и ожидания этого события профессиональным сообществом.

🟢Во-первых, появилась библиотека cuPyNumeric — аналог NumPy, который переносит вычисления с CPU на GPU буквально заменой импорта.

🟢Во-вторых, CUDA Core переосмыслен для Python: здесь сделан упор на JIT-компиляцию и минимизацию зависимостей.

🟢В-третьих, добавлены инструменты для профилирования и анализа кода, а ускоренные C++-библиотеки теперь доступны из Python без потерь в производительности.

Но главное — новый подход к параллельным вычислениям. Вместо ручного управления потоками, как в C++, NVIDIA предлагает модель CuTile, которая оперирует массивами, а не отдельными элементами. Это упрощает отладку и делает код читаемым, не жертвуя скоростью. По сути, разработчики получают высокоуровневую абстракцию, скрывающую сложности железа, но сохраняющую гибкость.

Пока CuTile доступен только для Python, но в планах — расширение для C++. Это часть стратегии NVIDIA по поддержке новых языков: Rust и Julia уже на походе.

Python-сообщество уже может экспериментировать — например, интегрировать CUDA-ядра в PyTorch или вызывать привычные библиотеки. Теперь даже те, кто никогда не писал на C++, смогут использовать всю мощь GPU — осталось проверить, как это скажется на скорости создания прекрасных LLM светлого будущего.

🔜 Посмотреть полную презентацию на GTC 2025


@ai_machinelearning_big_data

#AI #ML #Python #CUDA #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍3🆒1
Forwarded from Machinelearning
🌟 Cемейство гибридных моделей Nemotron-H от NVIDIA.

NVIDIA выпустила новое семейство языковых моделей Nemotron-H, сочетающих архитектуры Mamba и Transformer. Эти гибриды обещают до 3х ускорения инференса по сравнению с чистыми Transformer-моделями аналогичного размера (Qwen или Llama).

Семейство поддерживает английский, немецкий, испанский, французский, итальянский, корейский, португальский, русский, японский и китайский языки.

Основной фокус Nemotron-H — баланс между эффективностью и интеллектом: даже при меньшем числе параметров (47–56 млрд.) модели демонстрируют точность, близкую к DeepSeek-V3-671B.

Особенность Nemotron-H — использование FP8 для претрейна. 56B-версию обучали на 20 трлн. токенов с квантованием тензоров «на лету», а сжатую в FP4 модель c 47B можно запускать на потребительской RTX 5090 с поддержкой контекста до 1 млн. токенов. Правда, пришлось пожертвовать частью слоев самовнимания — их заменили на более легкие Mamba-блоки, чтобы ускорить генерацию.

NVIDIA не стала тренировать компактные версии модели с нуля. Вместо этого использовали дистилляцию: 47B-модель получили из 56B, удалив половину «тяжелых» слоев и дообучив на 63 млрд токенов. Результат — почти та же точность, но на 1.2x быстрее.

В бенчмарках Nemotron-H обходит конкурентов в математике и коде: на GSM8k 56B-версия дает 93.7% против 90.9% у Qwen-72B. А 8B-модель, хоть и уступает в MMLU, вырывается вперёд в HumanEval+ (56.1%) — ожидаемо, с учетом ее instruct-оптимизации.

Пока модели доступны на HF как базовые, но NVIDIA обещает добавить инструктивные и мультимодальные версии.

▶️В опенсорсный релиз были выпушены чекпоинты с контекстом 8 тыс. токенов:

🟢Nemotron-H-56B-Base-8K

🟢Nemotron-H-47B-Base-8K

🟢Nemotron-H-8B-Base-8K


📌 Лицензирование: NVIDIA Internal Scientific Research and Development Model License.


🟡Страница проекта
🟡Коллекция на HF
🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #LLM #NemotronH #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31
Интересно.
Что если Запад останется без видеокарт?

Официально подтверждено, что имела место встреча мэра Шанхая и главы NVIDIA.

KS

#Китай #NVidia
------
@tsingular
🤔5
NVIDIA – серьёзный игрок рынка ИБ в области ИИ

NVIDIA собрала уже значительный стэк инструментов, которые позволяют обеспечить комплексный подход к безопасности агентных AI-систем, которые в отличие от стандартных моделей не просто анализируют данные, но принимают автономные решения и действуют в реальном времени.

Основные вызовы безопасности агентных AI
Агентные AI-системы могут:
• Самостоятельно взаимодействовать с инструментами и средами
• Генерировать выходные данные, запускающие цепочки процессов
• Обрабатывать конфиденциальные данные в реальном времени

Инструменты защиты от NVIDIA:

1. Red Teaming и предварительное тестирование
Для теста до запуска системы в продакшн:
• Garak — сканер уязвимостей LLM, который симулирует атаки на агентов путем проверки на устойчивость к:
• Инъекциям в промпты
• Неправильному использованию инструментов
• Ошибкам в логике рассуждений
Например: тестирование на способность агентов восстанавливаться после сбоев и противостоять манипулятивным атакам.

2. Защита во время исполнения (Runtime Guardrails)
Обеспечение контроля границ поведения во время работы агента:
NVIDIA NeMo Guardrails — ПО для определения, развертывания и быстрого обновления правил поведения AI-агентов.
Например: Компании Amdocs, Cerence AI и Palo Alto Networks уже используют NeMo Guardrails для обеспечения безопасного взаимодействия с агентами.

3. Конфиденциальные вычисления (Confidential Computing)
Защищают данные во время их обработки:
NVIDIA Confidential Computing — защита данных "во время использования" (data in use). Доступно у провайдеров Google Cloud и Microsoft Azure
Например: EQTYLab разработала на этой базе криптографическую систему сертификатов, обеспечивающую соответствие AI-агентов нормативным требованиям во время работы.

4. DOCA Argus — фреймворк для мониторинга угроз в реальном времени
Ускоряет обнаружение угроз:
• Работает на платформе NVIDIA BlueField
• Обеспечивает обнаружение угроз в 1000 раз быстрее традиционных решений
• Не требует установки агентов на хост
Техническое преимущество: Использует форензику памяти для мониторинга угроз в реальном времени, оставаясь невидимым для атакующих.

5. Защита инфраструктуры агентных систем
NVIDIA BlueField DPU с DOCA Argus — изолирует угрозы на уровне инфраструктуры
• Protected PCIe — защищает до восьми GPU, позволяя масштабировать рабочие нагрузки
Реальный кейс: Cisco и NVIDIA создали архитектуру Secure AI Factory, встраивающую безопасность на каждом уровне AI-фабрики.

Контейнерная безопасность:
NVIDIA так же разработала Blueprint для анализа CVE (Common Vulnerabilities and Exposures) с использованием генеративного AI:
• Сокращает время анализа уязвимостей с дней до секунд
• Использует NVIDIA NIM microservices и Morpheus
• LLM делает разбор и автоматический анализа рисков CVE

Процесс анализа:
1. Входные данные — результаты сканирования безопасности контейнера
2. Система собирает информацию из репозиториев кода, документации и публичных баз данных
3. LLM-агент анализирует каждый пункт из сгенерированного чеклиста
4. По итогам формируется отчет с аргументированным статусом VEX (Vulnerability Exploitability eXchange)

По итогу ИБ стэк Nvidia уже может перекрыть значительное количество задач ИБ подразделения или из коробки или через интеграцию с ведущими ИБ вендорами.

#NVIDIA #AgenticAI #Cybersecurity #AI #безопасность
------
@tsingular
🔥6👍3
🌐 ОАЭ и США запускают крупнейший за пределами Америки 5-гигаваттный AI-кампус

При участии президента ОАЭ Шейха Мохаммеда бин Заида Аль Нахайяна и президента США Дональда Трампа в Абу-Даби представлен первый этап нового 5-гигаваттного AI-кампуса — крупнейшего подобного комплекса за пределами США.

📊 Ключевые технические параметры:
Мощность: 5 ГВт вычислительной инфраструктуры для дата-центров с ИИ
Площадь: 25,9 кв. км (10 кв. миль) в эмирате Абу-Даби
Оператор: G42 (национальный AI-лидер в ОАЭ) в партнерстве с американскими компаниями
Масштаб: По оценке Rand Corporation, кампус сможет поддерживать до 2,5 миллиона NVIDIA B200 — больше, чем все другие крупные инфраструктурные проекты ИИ
Чипы: Согласовано разрешение на импорт 500 000 самых передовых чипов NVIDIA ежегодно начиная с 2025 года

⚡️ Энергетическая инфраструктура:
Комплекс будет использовать атомную, солнечную и газовую энергию для минимизации выбросов углерода
Интегрированный подход к энергоснабжению обеспечит устойчивость вычислительной инфраструктуры

🔒 Безопасность и контроль:
Реализованы строгие меры для предотвращения утечки технологий
Совместное американо-эмиратское управление протоколами "Знай своего клиента" (KYC)
Вычислительные ресурсы зарезервированы исключительно для американских гиперскейлеров и авторизованных облачных провайдеров
США сохраняют контроль, поскольку американские компании будут управлять дата-центрами

🌍 Стратегическое значение:
- Доступ к вычислительным ресурсам для почти половины населения мира, находящегося в радиусе 3200 км от ОАЭ
- Снижение задержки в обработке данных для Африки, Европы и Азии
- Создание научного парка для продвижения инноваций в области ИИ
- Расширение влияния американских технологий на Ближнем Востоке

💼 Параллельные инициативы:
- Qualcomm открывает Глобальный инженерный центр в Абу-Даби с фокусом на ИИ, дата-центры и промышленный IoT
- Amazon Web Services запускает Sovereign Cloud Launchpad с ожидаемым вкладом $181 млрд в цифровую экономику ОАЭ к 2033 году
Соглашение предусматривает инвестиции ОАЭ в создание американских дата-центров аналогичного масштаба

🔄 Похожие инициативы в регионе:
- Саудовская Аравия запустила HUMAIN — государственную AI-компанию под председательством наследного принца Мохаммеда бин Салмана
- Сотрудничество между AMD и саудовской HUMAIN с инвестициями до $10 млрд в инфраструктуру ИИ с развертыванием 500 МВт вычислительных мощностей
- Франция и ОАЭ также заключили соглашение о совместном проекте по строительству 1-гигаваттного дата-центра для ИИ во Франции (инвестиции €30-50 млрд)

Этот проект закрепляет позицию ОАЭ в качестве регионального технологического хаба, продолжая стратегию страны по внедрению ИИ, начатую с назначения первого в мире федерального министра искусственного интеллекта в 2017 году и создания Университета искусственного интеллекта имени Мохаммеда бин Заида в 2019 году.

#AI #технологии #ОАЭ #датацентры #G42 #NVIDIA
———
@tsingular
7👍2🤔21🔥1
NVIDIA запустила крупнейший в мире квантовый суперкомпьютер

Nvidia совместно с японским Национальным институтом передовых промышленных наук и технологий (AIST) объявила о запуске ABCI-Q — крупнейшего в мире исследовательского суперкомпьютера, ориентированного на гибридные квантово-классические вычисления. Этот шаг знаменует открытие Глобального исследовательского центра по бизнес-технологиям квантового ИИ (G-QuAT).

Техническая мощь ABCI-Q:
🧠 Сердце системы: Более 2020 тензорных графических процессоров Nvidia H100.

🔗 Связующее звено: Высокопроизводительная сеть Nvidia Quantum-2 InfiniBand.

💻 Программная основа: Открытая платформа Nvidia CUDA-Q для симуляции и интеграции квантовых процессоров.

얽 Гибридный подход: Интеграция с различными кубитными технологиями:
Сверхпроводящие кубиты от Fujitsu.
Нейтрально-атомные процессоры от QuEra.
Фотонные процессоры от OptQC.

Ключевые цели проекта:
Преодоление барьеров:
Ускорение исследований в области квантовой коррекции ошибок — критически важного аспекта для создания отказоустойчивых квантовых компьютеров.

Практическое применение: Разработка и тестирование реальных квантовых и гибридных алгоритмов для решения задач в медицине, энергетике, финансах и других отраслях.

Создание экосистемы: Предоставление исследователям мощного инструмента для экспериментов и продвижения квантовых технологий от теории к практике.

Перспективы: Запуск ABCI-Q — это значительный шаг к созданию практически полезных квантовых вычислительных систем. Интеграция передовых GPU Nvidia с разнообразными квантовыми процессорами позволяет исследовать сильные стороны различных кубитных модальностей и разрабатывать гибридные алгоритмы, сочетающие мощь классических суперкомпьютеров с потенциалом квантовых вычислений.

Акцент на CUDA-Q подчеркивает стремление Nvidia создать единую программную среду для сложного гетерогенного компьютинга.

Этот проект не только усиливает позиции Японии в глобальной квантовой гонке, но и демонстрирует стратегию Nvidia по глубокой интеграции своих ИИ-технологий в нарождающуюся квантовую индустрию.

Успех ABCI-Q может существенно приблизить эру, когда квантовые компьютеры начнут решать задачи, недоступные современным суперкомпьютерам.

#QuantumComputing #NVIDIA #Supercomputing
———
@tsingular
🔥5👍32
Oracle закупит чипы Nvidia на $40 млрд для ИИ-центра в Техасе

Oracle планирует потратить около $40 млрд на покупку чипов Nvidia для нового масштабного дата-центра OpenAI в Техасе.

Центр в городе Абилин станет первым американским объектом проекта "Stargate". После завершения строительства в следующем году он обеспечит 1,2 гигаватта вычислительной мощности, войдя в число крупнейших в мире.

Oracle собирается приобрести около 400 тысяч новейших чипов GB200 от Nvidia и сдавать вычислительные мощности в аренду OpenAI. Проект финансируется займами от JPMorgan на общую сумму $9,6 млрд.

Этот шаг поможет OpenAI снизить зависимость от Microsoft, которая до сих пор была основным поставщиком облачных вычислений. Ранее в этом году компании договорились завершить эксклюзивное партнерство.

При этом дата-центр в СА будет получать 500К таких же видеокарт ежегодно в течение 5 лет.
Получается не дотягивают, но, конечно, тоже внушает.
Пора уже список что ли этих дата-центров-миллионников по видеокартам составлять.

#Oracle #Nvidia #Stargate #OpenAI
———
@tsingular
🔥6👍21
Media is too big
VIEW IN TELEGRAM
Очень понравился ролик NVidia по платформе Omniverse.

Он, конечно, рекламный, но позволяет в целом оценить где и в каких областях сейчас возможно применить ИИ за счет использования цифровых двойников и в целом систем виртальной симуляции с учетом законов физического мира.
В том числе физики, химии и биологии.

Прототип реалистичной Матрицы будущего.
Матрицы, которая, кстати, уже, как видно из ролика, населена роботами.
В которой они учатся взаимодействовать с физическим миром до того как выходят на завод или в поле.

#NVidia #Omniverse #showreel
———
@tsingular
🔥13🤔21
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Глава NVIDIA Дженсен Хуанг признал немыслимое:

🇨🇳 Китайские ИИ-компании стали по-настоящему сильными.
🇺🇸 Санкции США провалились.
💥 Чипы Huawei уже сравнимы с NVIDIA H200.

И это только начало.

«Китай раньше давал нам 95% выручки. Теперь — лишь 50%.»
«Половина ИИ-учёных мира — в Китае.»
«Они закрывают разрыв и растут экспоненциально.»

🗣️ А вот что Хуанг говорит прямо:

«Я надеюсь, что все ИИ-разработчики будут строить решения на американском технологическом стеке.»

Развивайтесь сколько хотите — но на наших чипах, под нашим контролем.

Но Китай отвечает:
Мы строим не просто модели. Мы строим технологический суверенитет.

🇺🇸🇨🇳 Санкции, которые ускорили то, что хотели остановить

Все крупнейшие китайские технокомпании сейчас отказываются от чипов Nvidia и переходят на собственные ИИ-процессоры.
Не по желанию — по необходимости. Причина? Экспортные ограничения США.

🎯 А теперь главное:
Изначальная цель этих санкций была не дать Китаю развить своё чипостроение.
А получилось наоборот — вся страна, крупнейший рынок микросхем в мире, переходит на китайские чипы.
Всё, чтобы не зависеть от США.

📉 Иронично, но факт:
Если бы США не сделали ничего, Китай развивал бы отрасль медленно, хаотично, с оглядкой на рынок.
И американские компании (включая ту же Nvidia) продолжали бы доминировать.

А теперь — нет.

@ai_machinelearning_big_data

#news #ai #ml #NVIDIA #usa #china
👍30🫡84🆒4🔥2👌1
NVIDIA запустила AI Blueprint для определения финансового мошенничества

Потери от мошенничества с кредитными картами могут достичь $403 миллиардов в следующее десятилетие. NVIDIA представила новое AI-решение для борьбы с этой проблемой.

Новый AI Blueprint использует ускоренную обработку данных и графовые нейросети для выявления скрытых паттернов мошенничества. Система анализирует связи между транзакциями, пользователями и устройствами.

Компании, использующие машинное обучение, показывают до 40% улучшения точности детекции мошенничества. American Express и Capital One уже применяют AI-технологии для защиты клиентов.

Решение доступно на Amazon Web Services, скоро появится на платформах Dell Technologies и Hewlett Packard Enterprise.

#FraudDetection #NVIDIA #FinTech #антифрод
———
@tsingular
4🔥211
Forwarded from Machinelearning
✔️ Llama Nemotron Nano VL от NVIDIA — один из лучших OCR инструментов для работы с документами.

Мультимодальная модель от NVIDIA уверенно занимает первое место на OCRBench v2, показав лучшую точность парсинга документов среди всех моделей.

📄 Что это такое:
Llama Nemotron Nano VL — лёгкая vision-language модель для интеллектуальной обработки документов (IDP), которая:
• разбирает PDF
• вытаскивает таблицы
• парсит графики и диаграммы
• работает на одной GPU

🔍 Заточена под:
– Вопрос-ответ по документам
– Извлечение таблиц
– Анализ графиков
– Понимание диаграмм и дешбордов

🧠 Под капотом — vision-энкодер C-RADIO v2 (distilled multi-teacher трансформер), который справляется даже с визуальным шумом и высоким разрешением.

📊 OCRBench v2 — крупнейший двухъязычный бенчмарк для визуального анализа текста, и именно NVIDIA Nano VL показывает лучший результат.

🟡Hf
🟡 Подробнее

@ai_machinelearning_big_data

#Nemotron #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
722🔥1
NVIDIA выпустила Cosmos Predict-2 для беспилотных авто

NVIDIA представила новую модель Cosmos Predict-2 для генерации синтетических данных беспилотных автомобилей. Модель умеет создавать многоракурсное видео из одной камеры и лучше понимает контекст.

Платформу уже используют Oxa, Plus и Uber для масштабирования разработки автономных систем.

Также анонсирован микросервис Cosmos Transfer и интеграция с симулятором CARLA, который имеет более 150 тысяч разработчиков.

Модель обучена на 20 тысячах часов реальной езды и показывает улучшенную производительность в сложных условиях вроде тумана и дождя.

#AutonomousVehicles #SyntheticData #NVIDIA
------
@tsingular
👍21
OpenAI переходит с чипов NVIDIA на Google TPU

По данным The Information, OpenAI начала использовать тензорные процессоры Google TPU вместо GPU NVIDIA для работы ChatGPT и других AI-продуктов.

Основная причина — снижение операционных расходов. Высокие цены и дефицит GPU от NVIDIA открывают возможности для альтернативных решений.

Google активно предлагает свои TPU облачным провайдерам, что может серьезно ударить по почти монопольному положению NVIDIA в сфере высокопроизводительных AI-чипов.

Интересно, что Apple тоже использовала Google TPU для обучения Apple Intelligence, что показывает растущую популярность альтернативы чипам NVIDIA.

#OpenAI #GoogleTPU #NVIDIA
------
@tsingular
1👍961
NVIDIA выпустила семейство OpenReasoning-Nemotron для решения сложных задач

Четыре модели размером от 1.5B до 32B параметров специально обучены для математики, программирования и естественных наук. Основаны на Qwen2.5 и дообучены на 5 миллионах ответов от DeepSeek R1.

Главная особенность — режим GenSelect, который запускает несколько параллельных генераций и выбирает лучшее решение. В этом режиме 32B модель превосходит O3 (High) на математических и кодовых бенчмарках.

Интересно, что модели обучались только на математических задачах, но способности автоматически перенеслись на код и науку. Все модели доступны под лицензией CC-BY-4.0 для коммерческого и исследовательского использования.

#NVIDIA #reasoning #opensource
------
@tsingular
👍42🔥1