Южнокорейский стартап Rebellions представила на днях план развития своих ИИ-ускорителей. Как сообщает Business Korea, компания ускорит выпуск ИИ-чипов нового поколения, которые получат 4-нм модули памяти HBM3e производства Samsung. Samsung же будет отвечать за объединение чипов и HBM в одной упаковке.
#hardware #ускоритель #южнаякорея #rebellions #ии #samsung #инференс
#servernews @servernewsru
https://servernews.ru/1110055/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #ускоритель #южнаякорея #rebellions #ии #samsung #инференс
#servernews @servernewsru
https://servernews.ru/1110055/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
ИИ-ускорители Rebellions Rebel Quad получат 144 Гбайт памяти Samsung HBM3e
Южнокорейский стартап Rebellions представила на днях план развития своих ИИ-ускорителей. Как сообщает Business Korea, компания ускорит выпуск ИИ-чипов нового поколения, которые получат 4-нм модули памяти HBM3e производства Samsung. Samsung же будет отвечать…
NVIDIA анонсировала NVIDIA NIM Agent Blueprints, каталог предварительно обученных, настраиваемых программных решений, предоставляющий разработчикам набор инструментов для создания и развёртывания приложений генеративного ИИ для типовых вариантов использования, таких как аватары для обслуживания клиентов, RAG, виртуальный скрининг для разработки лекарственных препаратов и т.д.
#nvidia #ии #software #автоматизация #llm #инференс #контейнеризация #разработка
#servernews @servernewsru
https://servernews.ru/1110075/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#nvidia #ии #software #автоматизация #llm #инференс #контейнеризация #разработка
#servernews @servernewsru
https://servernews.ru/1110075/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
NVIDIA представила шаблоны ИИ-приложений NIM Agent Blueprints для типовых бизнес-задач
NVIDIA анонсировала NIM Agent Blueprints, каталог предварительно обученных, настраиваемых программных решений, предоставляющий разработчикам набор инструментов для создания и развёртывания приложений генеративного ИИ для типовых вариантов использования, таких…
NVIDIA сообщила, что её платформы показали самые высокие результаты во всех тестах производительности уровня ЦОД в бенчмарке MLPerf Inference v4.1, где впервые дебютировал ускоритель семейства Blackwell.
#nvidia #mlperf #бенчмарк #ии #инференс #software
#servernews @servernewsru
https://servernews.ru/1110141/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#nvidia #mlperf #бенчмарк #ии #инференс #software
#servernews @servernewsru
https://servernews.ru/1110141/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
NVIDIA вновь показала лидирующие результаты в ИИ-бенчмарке MLPerf Inference
NVIDIA сообщила, что её платформы показали самые высокие результаты во всех тестах производительности уровня ЦОД в бенчмарке MLPerf Inference v4.1, где впервые дебютировал ускоритель семейства Blackwell.
Компании Intel и IBM намерены активно сотрудничать в сфере облачных ИИ-решений. По данным HPC Wire, доступ к ускорителям Intel Gaudi 3 будет предоставляться в облаке IBM Cloud с начала 2025 года. Сотрудничество обеспечит и поддержку Gaudi 3 ИИ-платформой IBM Watsonx. IBM Cloud станет первым поставщиком облачных услуг, принявшим на вооружение Gaudi 3 как для гибридных, так и для локальных сред.
#ibm #intel #ускоритель #облако #ibmcloud #watsonx #hardware #habana #инференс
#servernews @servernewsru
https://servernews.ru/1110231/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#ibm #intel #ускоритель #облако #ibmcloud #watsonx #hardware #habana #инференс
#servernews @servernewsru
https://servernews.ru/1110231/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
ИИ-ускорители Intel Gaudi 3 дебютируют в облаке IBM Cloud
Компании Intel и IBM намерены активно сотрудничать в сфере облачных ИИ-решений. По данным HPC Wire, доступ к ускорителям Intel Gaudi 3 будет предоставляться в облаке IBM Cloud с начала 2025 года. Сотрудничество обеспечит и поддержку Gaudi 3 ИИ-платформой…
Вместе с процессорами Telum II для систем z17 компания IBM представила и собственные ускорители Spyre, ещё больше расширяющие возможности будущих мейнфреймов в области обработки ИИ-нагрузок. Они станут дополнением к встроенным в Telum ИИ-блокам.
#hardware #ibm #ии #ускоритель #мейнфрейм #инференс #pciexpress50 #z17
#servernews @servernewsru
https://servernews.ru/1110080/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #ibm #ии #ускоритель #мейнфрейм #инференс #pciexpress50 #z17
#servernews @servernewsru
https://servernews.ru/1110080/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Новые мейнфреймы IBM z получат ИИ-ускорители Spyre
Вместе с процессорами Telum II для систем z17 компания IBM представила и собственные ускорители Spyre, ещё больше расширяющие возможности будущих мейнфреймов в области обработки ИИ-нагрузок. Они станут дополнением к встроенным в Telum ИИ-блокам.
Американский стартап Cerebras Systems, занимающийся разработкой чипов для систем машинного обучения и других ресурсоёмких задач, объявил о запуске, как утверждается, самой производительной в мире ИИ-платформы для инференса — Cerebras Inference. Ожидается, что она составит серьёзную конкуренцию решениям на основе ускорителей NVIDIA.
#cerebras #ии #инференс #облако #software
#servernews @servernewsru
https://servernews.ru/1110276/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#cerebras #ии #инференс #облако #software
#servernews @servernewsru
https://servernews.ru/1110276/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Cerebras Systems запустила «самую мощную в мире» ИИ-платформу для инференса
Американский стартап Cerebras Systems, занимающийся разработкой чипов для систем машинного обучения и других ресурсоёмких задач, объявил о запуске, как утверждается, самой производительной в мире ИИ-платформы для инференса — Cerebras Inference. Ожидается…
Компания SambaNova Systems объявила о запуске облачного сервиса SambaNova Cloud: утверждается, что на сегодняшний день это самая быстрая в мире платформа для ИИ-инференса. Она ориентирована на работу с большими языковыми моделями Llama 3.1 405B и Llama 3.1 70B, насчитывающими соответственно 405 и 70 млрд параметров.
#hardware #sambanovasystems #облако #ии #инференс #llm
#servernews @servernewsru
https://servernews.ru/1110773/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #sambanovasystems #облако #ии #инференс #llm
#servernews @servernewsru
https://servernews.ru/1110773/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
SambaNova запустила «самую быструю в мире» облачную платформу для ИИ-инференса
Компания SambaNova Systems объявила о запуске облачного сервиса SambaNova Cloud: утверждается, что на сегодняшний день это самая быстрая в мире платформа для ИИ-инференса. Она ориентирована на работу с большими языковыми моделями Llama 3.1 405B и Llama 3.1…
Стартап SiMa.ai анонсировал специализированные изделия Modalix — «системы на чипе» с функциями машинного обучения (MLSoC), спроектированные для обработки ИИ-задач на периферии. Эти решения предназначены для дронов, робототехники, умных камер видеонаблюдения, медицинского диагностического оборудования, edge-серверов и пр.
#hardware #sima #ии #инференс #ускоритель #периферийныевычисления
#servernews @servernewsru
https://servernews.ru/1110841/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #sima #ии #инференс #ускоритель #периферийныевычисления
#servernews @servernewsru
https://servernews.ru/1110841/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
SiMa.ai представила чипы Modalix для мультимодальных рабочих нагрузок ИИ на периферии
Стартап SiMa.ai анонсировал специализированные изделия Modalix — «системы на чипе» с функциями машинного обучения (MLSoC), спроектированные для обработки ИИ-задач на периферии. Эти решения предназначены для дронов, робототехники, умных камер видеонаблюдения…
Qualcomm, по сообщению Phoronix, планирует выпустить ускорители Cloud AI 80 (AIC080) для ИИ-задач. Информация о них появилась на сайте самого разработчика, а также в драйверах Linux. Речь идёт об «урезанных» версиях изделий Cloud AI 100, уже доступных на рынке.
#hardware #qualcomm #ускоритель #ии #инференс
#servernews @servernewsru
https://servernews.ru/1112037/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #qualcomm #ускоритель #ии #инференс
#servernews @servernewsru
https://servernews.ru/1112037/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Qualcomm готовит «урезанные» ИИ-ускорители Cloud AI 80
Qualcomm, по сообщению Phoronix, планирует выпустить ускорители Cloud AI 80 (AIC080) для ИИ-задач. Информация о них появилась на сайте самого разработчика, а также в драйверах Linux. Речь идёт об «урезанных» версиях изделий Cloud AI 100, уже доступных на…
Российский провайдер сервисов IT-инфраструктуры Selectel приступил к бета-тестированию инференс-платформы собственной разработки, которая позволит упростить запуск ML-моделей в промышленную эксплуатацию и ускорить их работу. Как сообщается на сайте провайдера, с помощью нового сервиса можно всего за несколько минут развернуть готовую модель на вычислительных мощностях провайдера без привлечения разработчиков.
#selectel #инференс #ии #россия #software #облако #nvidia #kubernetes
#servernews @servernewsru
https://servernews.ru/1112268/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#selectel #инференс #ии #россия #software #облако #nvidia #kubernetes
#servernews @servernewsru
https://servernews.ru/1112268/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Selectel запустил бета-тестирование собственной инференс-платформы для ускорения запуска ИИ-моделей
Российский провайдер сервисов IT-инфраструктуры Selectel приступил к бета-тестированию инференс-платформы собственной разработки, которая позволит упростить запуск ML-моделей в промышленную эксплуатацию и ускорить их работу. Как сообщается на сайте провайдера…
Американский стартап Cerebras Systems, специализирующийся на разработке ИИ-ускорителей, объявил о самом масштабном обновлении ИИ-платформы Cerebras Inference с момента её запуска. Производительность системы поднялась примерно в три раза.
#software #cerebras #инференс #облако #ии
#servernews @servernewsru
https://servernews.ru/1113107/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#software #cerebras #инференс #облако #ии
#servernews @servernewsru
https://servernews.ru/1113107/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Cerebras втрое повысила производительность своей инференс-платформы
Американский стартап Cerebras Systems, специализирующийся на разработке ИИ-ускорителей, объявил о самом масштабном обновлении ИИ-платформы Cerebras Inference с момента её запуска. Производительность системы поднялась примерно в три раза.
Компания OpenAI, по информации Reuters, разрабатывает собственные чипы для обработки ИИ-задач. Партнёром в рамках данного проекта выступает Broadcom, а организовать производство изделий планируется на мощностях TSMC ориентировочно в 2026 году.
#hardware #openai #amd #broadcom #tsmc #ии #ускоритель #instinct #mi300 #инференс #microsoftazure
#servernews @servernewsru
https://servernews.ru/1113232/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #openai #amd #broadcom #tsmc #ии #ускоритель #instinct #mi300 #инференс #microsoftazure
#servernews @servernewsru
https://servernews.ru/1113232/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
OpenAI разрабатывает собственные ИИ-чипы совместно с Broadcom и TSMC, а пока задействует AMD Instinct MI300X
Компания OpenAI, по информации Reuters, разрабатывает собственные чипы для обработки ИИ-задач. Партнёром в рамках данного проекта выступает Broadcom, а организовать производство изделий планируется на мощностях TSMC ориентировочно в 2026 году.
Компания больше не желает продавать другим доступ к ускорителям для обучения моделей, сделав ставку на инференс
#microsoft #финансы #microsoftazure #software #ии #инференс #дефицит #облако #цод
#servernews @servernewsru
https://servernews.ru/1113407/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#microsoft #финансы #microsoftazure #software #ии #инференс #дефицит #облако #цод
#servernews @servernewsru
https://servernews.ru/1113407/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Microsoft не хватает ресурсов для обслуживания ИИ, но компания готова и далее вкладываться в ЦОД, хотя инвесторам это не по нраву
Компания больше не желает продавать другим доступ к ускорителям для обучения моделей, сделав ставку на инференс
Сеульский стартап FuriosaAI, основанный в 2017 году, анонсировал в августе 2024 года ИИ-ускорители RNGD для гиперскейлеров и других корпоративных клиентов. Недавно компания начала тестирование новинки и рассылку образцов некоторым потенциальным клиентам, включая LG AI Research и Aramco, сообщает DigiTimes.
#hardware #furiosaai #ускоритель #южнаякорея #ии #инференс
#servernews @servernewsru
https://servernews.ru/1115506/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #furiosaai #ускоритель #южнаякорея #ии #инференс
#servernews @servernewsru
https://servernews.ru/1115506/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Южнокорейская FuriosaAI включается в ИИ-гонку с собственным ускорителем RNGD
Сеульский стартап FuriosaAI, основанный в 2017 году, анонсировал в августе 2024 года ИИ-ускорители RNGD для гиперскейлеров и других корпоративных клиентов. Недавно компания начала тестирование новинки и рассылку образцов некоторым потенциальным клиентам,…
NVIDIA выпустила новые ускорители GB300 и B300 всего через шесть месяцев после выхода GB200 и B200. И это не минорное обновление, как может показаться на первый взгляд — появление (G)B300 приведёт к серьёзной трансформации отрасли, особенно с учётом значительных улучшений в инференсе «размышляющих» моделей и обучении, пишет SemiAnalysis. При этом с переходом на B300 вся цепочка поставок меняется, и от этого кто-то выиграет, а кто-то проиграет.
#nvidia #hardware #ии #ускоритель #инференс #b300 #gb300
#servernews @servernewsru
https://servernews.ru/1115991/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#nvidia #hardware #ии #ускоритель #инференс #b300 #gb300
#servernews @servernewsru
https://servernews.ru/1115991/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Дороже, но втрое эффективнее: NVIDIA готовит ускорители GB300 с 288 Гбайт HBM3E и TDP 1,4 кВт
NVIDIA выпустила новые ускорители GB300 и B300 всего через шесть месяцев после выхода GB200 и B200. И это не минорное обновление, как может показаться на первый взгляд — появление (G)B300 приведёт к серьёзной трансформации отрасли, особенно с учётом значительных…
Qualcomm Technologies анонсировала Qualcomm AI On-Prem Appliance Solution — компактное энергоэффективное аппаратное решение для локальной обработки рабочих нагрузок инференса и компьютерного зрения. Также компания представила готовый к использованию набор ИИ-приложений, библиотек, моделей и агентов Qualcomm Cloud AI Inference Suite, способный работать и на периферии, в облаках.
#qualcomm #hardware #ии #инференс #сервер
#servernews @servernewsru
https://servernews.ru/1116283/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#qualcomm #hardware #ии #инференс #сервер
#servernews @servernewsru
https://servernews.ru/1116283/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Qualcomm представила энергоэффективные ИИ-микросерверы AI On-Prem Appliance Solution
Qualcomm Technologies анонсировала Qualcomm AI On-Prem Appliance Solution — компактное энергоэффективное аппаратное решение для локальной обработки рабочих нагрузок инференса и компьютерного зрения. Также компания представила готовый к использованию набор…
Стартап d-Matrix создал ИИ-ускоритель Corsair, оптимизированный для быстрого пакетного инференса больших языковых моделей (LLM). Архитектура ускорителя основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости порядка 150 Тбайт/с. Новинка, по словам компании, отличается производительностью и энергоэффективностью, пишет EE Times. Массовое производство Corsair начнётся во II квартале. Среди инвесторов d-Matrix — Microsoft, Nautilus Venture Partners, Entrada Ventures и SK hynix.
#dmatrix #hardware #ии #ускоритель #asic #инференс #inmemory #riscv
#servernews @servernewsru
https://servernews.ru/1116718/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#dmatrix #hardware #ии #ускоритель #asic #инференс #inmemory #riscv
#servernews @servernewsru
https://servernews.ru/1116718/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
SRAM, да и только: d-Matrix готовит ИИ-ускоритель Corsair
Стартап d-Matrix создал ИИ-ускоритель Corsair, оптимизированный для быстрого пакетного инференса больших языковых моделей (LLM). Архитектура ускорителя основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости порядка…
Хотя на китайском рынке ИИ-ускорителей по-прежнему доминирует NVIDIA, Huawei намерена отнять у неё значительную его долю. Для этого китайский разработчик намерен помочь китайским ИИ-компаниям внедрять чипы собственного производства для инференса, сообщает The Financial Times. Для обучения ИИ-моделей китайские производители в массе своей применяют чипы NVIDIA. Huawei пока не готова заменить продукты NVIDIA в этом деле из-за ряда технических проблем, в том числе из-за проблем с интерконнектом ускорителей при работе с крупными моделями.
#hardware #ии #ускоритель #huawei #китай #инференс #разработка #cuda #ascend #импортозамещение
#servernews @servernewsru
https://servernews.ru/1117057/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #ии #ускоритель #huawei #китай #инференс #разработка #cuda #ascend #импортозамещение
#servernews @servernewsru
https://servernews.ru/1117057/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Ускорители Ascend не готовы состязаться с чипами NVIDIA в деле обучения ИИ, но за эффективность инференса Huawei будет бороться…
Хотя на китайском рынке ИИ-ускорителей по-прежнему доминирует NVIDIA, Huawei намерена отнять у неё значительную его долю. Для этого китайский разработчик намерен помочь китайским ИИ-компаниям внедрять чипы собственного производства для инференса, сообщает…
ИИ-компания Nebius B.V. (бывшая Yandex N.V.) анонсировала обновление платформы «инференс как услуга» для разработчиков. В частности, добавлены новые open source модели, предназначенные для преобразования текста в изображение, сообщает Silicon Angle. В скором времени в сервисе появятся модели для преобразования текста в видео.
#software #ии #nebius #облако #инференс #llm #opensource
#servernews @servernewsru
https://servernews.ru/1117151/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#software #ии #nebius #облако #инференс #llm #opensource
#servernews @servernewsru
https://servernews.ru/1117151/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
В Nebius AI Studio появились открытые ИИ-модели для преобразования текста в изображение
ИИ-компания Nebius B.V. (бывшая Yandex N.V.) анонсировала обновление платформы «инференс как услуга» для разработчиков. В частности, добавлены новые open source модели, предназначенные для преобразования текста в изображение, сообщает Silicon Angle. В скором…
Экс-гендиректор Intel Пэт Гелсингер, по сообщению TrendForce, стал инвестором британского стартапа Fractile.ai, который специализируется на разработках в области ИИ. Сумма, которую предоставил бывший глава Intel на развитие этой компании, не раскрывается.
#hardware #ии #инвестиции #финансы #инференс #ускоритель #inmemory
#servernews @servernewsru
https://servernews.ru/1117235/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #ии #инвестиции #финансы #инференс #ускоритель #inmemory
#servernews @servernewsru
https://servernews.ru/1117235/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Бывший гендиректор Intel Пэт Гелсингер инвестировал средства в ИИ-стартап Fractile
Экс-гендиректор Intel Пэт Гелсингер, по сообщению TrendForce, стал инвестором британского стартапа Fractile.ai, который специализируется на разработках в области ИИ. Сумма, которую предоставил бывший глава Intel на развитие этой компании, не раскрывается.