Китайский стартап DeepSeek наделал много шума в Кремниевой долине, анонсировав «рассуждающую» ИИ-модель DeepSeek R1 c 671 млрд параметров. Утверждается, что при её обучении были задействованы только 2048 ИИ-ускорителей NVIDIA H800, а затраты на данные работы составили около $6 млн. Это бросило вызов многим западным конкурентам, таким как OpenAI, а акции ряда крупных ИИ-компаний начали падать в цене. Однако, как сообщает ресурс SemiAnalysis, фактические расходы DeepSeek на создание ИИ-инфраструктуры и обучение нейросетей могут быть гораздо выше.
#hardware #deepseek #nvidia #ии #ускоритель #кластер #китай #разработка #llm
#servernews @servernewsru
https://servernews.ru/1117640/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #deepseek #nvidia #ии #ускоритель #кластер #китай #разработка #llm
#servernews @servernewsru
https://servernews.ru/1117640/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Реальные затраты DeepSeek на создание ИИ-моделей на порядки выше заявленных, но достижений компании это не умаляет
Китайский стартап DeepSeek наделал много шума в Кремниевой долине, анонсировав «рассуждающую» ИИ-модель DeepSeek R1 c 671 млрд параметров. Утверждается, что при её обучении были задействованы только 2048 ИИ-ускорителей NVIDIA H800, а затраты на данные работы…