AWS и NVIDIA анонсировали сразу несколько новых совместно разработанных решений для генеративного ИИ. Основным анонсом формально является появление ИИ-облака DGX Cloud в инфраструктуре AWS, вот только облако это отличается от немногочисленных представленных ранее платформ DGX Cloud тем, что оно первом получило гибридные суперчипах GH200 (Grace Hoppper), причём в необычной конфигурации.
#aws #облако #hardware #gh200 #h200 #dgxcloud #ускоритель #ии #суперкомпьютер
#servernews @servernewsru
https://servernews.ru/1096645/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#aws #облако #hardware #gh200 #h200 #dgxcloud #ускоритель #ии #суперкомпьютер
#servernews @servernewsru
https://servernews.ru/1096645/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
NVIDIA анонсировала суперускоритель GH200 NVL32 и очередной самый мощный в мире ИИ-суперкомпьютер Project Ceiba
AWS и NVIDIA анонсировали сразу несколько новых совместно разработанных решений для генеративного ИИ. Основным анонсом формально является появление ИИ-облака DGX Cloud в инфраструктуре AWS, вот только облако это отличается от немногочисленных представленных…
Компания ASRock Rack на конференции GTC 2024 анонсировала свои самые мощные серверы для обучения ИИ-моделей — системы 6U8X-EGS2 NVIDIA H100 и 6U8X-EGS2 NVIDIA H200. Кроме того, дебютировали решения с поддержкой новейших ускорителей NVIDIA Blackwell.
#hardware #asrockrack #gtc2024 #nvidia #сервер #gpu #h100 #h200 #ии #hpc #gb200
#servernews @servernewsru
https://servernews.ru/1101961/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #asrockrack #gtc2024 #nvidia #сервер #gpu #h100 #h200 #ии #hpc #gb200
#servernews @servernewsru
https://servernews.ru/1101961/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
ASRock Rack представила серверы с поддержкой ускорителей NVIDIA Blackwell и Hopper
Компания ASRock Rack на конференции GTC 2024 анонсировала свои самые мощные серверы для обучения ИИ-моделей — системы 6U8X-EGS2 NVIDIA H100 и 6U8X-EGS2 NVIDIA H200. Кроме того, дебютировали решения с поддержкой новейших ускорителей NVIDIA Blackwell.
Компания Supermicro анонсировала вычислительные кластеры SuperCluster с ускорителями NVIDIA, предназначенные для обработки наиболее ресурсоёмких приложений ИИ и обучения больших языковых моделей (LLM). Дебютировали системы, оснащённые жидкостным и воздушным охлаждением.
#hardware #supermicro #nvidia #h100 #h200 #ии #сервер #кластер
#servernews @servernewsru
https://servernews.ru/1102176/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #supermicro #nvidia #h100 #h200 #ии #сервер #кластер
#servernews @servernewsru
https://servernews.ru/1102176/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Supermicro представила ИИ-системы SuperCluster с ускорителями NVIDIA H100/H200 и суперчипами GH200
Компания Supermicro анонсировала вычислительные кластеры SuperCluster с ускорителями NVIDIA, предназначенные для обработки наиболее ресурсоёмких приложений ИИ и обучения больших языковых моделей (LLM). Дебютировали системы, оснащённые жидкостным и воздушным…
Компания NVIDIA опубликовала новые, ещё более впечатляющие результаты в области работы с большими языковыми моделями (LLM) в бенчмарке MLPerf Inference 4.0. За прошедшие полгода и без того высокие результаты, демонстрируемые архитектурой Hopper в инференс-сценариях, удалось улучшить практически втрое. Столь внушительный результат достигнут благодаря как аппаратным улучшениям в ускорителях H200, так и программным оптимизациям.
#software #nvidia #mlperf #ии #инференс #h200 #бенчмарк
#servernews @servernewsru
https://servernews.ru/1102371/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#software #nvidia #mlperf #ии #инференс #h200 #бенчмарк
#servernews @servernewsru
https://servernews.ru/1102371/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Новый бенчмарк — новый рекорд: NVIDIA подтвердила лидерские позиции в MLPerf Inference
Компания NVIDIA опубликовала новые, ещё более впечатляющие результаты в области работы с большими языковыми моделями (LLM) в бенчмарке MLPerf Inference 4.0. За прошедшие полгода и без того высокие результаты, демонстрируемые архитектурой Hopper в инференс…
Компания Supermicro анонсировала новые серверы для задач ИИ и НРС. Дебютировали системы высокой плотности с жидкостным охлаждением, а также устройства, оборудованные высокопроизводительными ускорителями AMD, Intel и NVIDIA.
#hardware #supermicro #amd #instinct #intel #habana #nvidia #h100 #h200 #сервер #ии #isc2024
#servernews @servernewsru
https://servernews.ru/1104679/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #supermicro #amd #instinct #intel #habana #nvidia #h100 #h200 #сервер #ии #isc2024
#servernews @servernewsru
https://servernews.ru/1104679/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Supermicro представила ИИ-серверы на базе Intel Gaudi3 и AMD Instinct MI300X
Компания Supermicro анонсировала новые серверы для задач ИИ и НРС. Дебютировали системы высокой плотности с жидкостным охлаждением, а также устройства, оборудованные высокопроизводительными ускорителями AMD, Intel и NVIDIA.
Вычислительные платформы NVIDIA снова продемонстрировали высокую производительность, на этот раз в свежих тестах MLPerf Training v4.0. Так, суперкомпьютер NVIDIA EOS-DFW более чем утроил свою производительность в LLM-тесте на базе GPT-3 175B по сравнению с прошлогодним результатом.
#nvidia #ии #mlperf #software #h200 #h100 #бенчмарк
#servernews @servernewsru
https://servernews.ru/1106360/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#nvidia #ии #mlperf #software #h200 #h100 #бенчмарк
#servernews @servernewsru
https://servernews.ru/1106360/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Уже рутина: NVIDIA снова улучшила результаты в ИИ-бенчмарке MLPerf Training
Вычислительные платформы NVIDIA снова продемонстрировали высокую производительность, на этот раз в свежих тестах MLPerf Training v4.0. Так, суперкомпьютер NVIDIA EOS-DFW более чем утроил свою производительность в LLM-тесте на базе GPT-3 175B по сравнению…