ServerNews
2.15K subscribers
2 photos
12.3K links
ServerNews.ru — проект портала 3DNews.ru, посвященный корпоративным и SMB-решениям, а также HPC. Основная аудитория: системные и сетевые администраторы, технические директора и IT-специалисты как сегмента SMB, так крупных предприятий и организаций.
Download Telegram
Российский провайдер сервисов IT-инфраструктуры Selectel приступил к бета-тестированию инференс-платформы собственной разработки, которая позволит упростить запуск ML-моделей в промышленную эксплуатацию и ускорить их работу. Как сообщается на сайте провайдера, с помощью нового сервиса можно всего за несколько минут развернуть готовую модель на вычислительных мощностях провайдера без привлечения разработчиков.
#selectel #инференс #ии #россия #software #облако #nvidia #kubernetes
#servernews @servernewsru

https://servernews.ru/1112268/?utm_source=nova&utm_medium=tg&utm_campaign=sn
NVIDIA выпустила новые ускорители GB300 и B300 всего через шесть месяцев после выхода GB200 и B200. И это не минорное обновление, как может показаться на первый взгляд — появление (G)B300 приведёт к серьёзной трансформации отрасли, особенно с учётом значительных улучшений в инференсе «размышляющих» моделей и обучении, пишет SemiAnalysis. При этом с переходом на B300 вся цепочка поставок меняется, и от этого кто-то выиграет, а кто-то проиграет.
#nvidia #hardware #ии #ускоритель #инференс #b300 #gb300
#servernews @servernewsru

https://servernews.ru/1115991/?utm_source=nova&utm_medium=tg&utm_campaign=sn
Qualcomm Technologies анонсировала Qualcomm AI On-Prem Appliance Solution — компактное энергоэффективное аппаратное решение для локальной обработки рабочих нагрузок инференса и компьютерного зрения. Также компания представила готовый к использованию набор ИИ-приложений, библиотек, моделей и агентов Qualcomm Cloud AI Inference Suite, способный работать и на периферии, в облаках.
#qualcomm #hardware #ии #инференс #сервер
#servernews @servernewsru

https://servernews.ru/1116283/?utm_source=nova&utm_medium=tg&utm_campaign=sn
Стартап d-Matrix создал ИИ-ускоритель Corsair, оптимизированный для быстрого пакетного инференса больших языковых моделей (LLM). Архитектура ускорителя основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости порядка 150 Тбайт/с. Новинка, по словам компании, отличается производительностью и энергоэффективностью, пишет EE Times. Массовое производство Corsair начнётся во II квартале. Среди инвесторов d-Matrix — Microsoft, Nautilus Venture Partners, Entrada Ventures и SK hynix.
#dmatrix #hardware #ии #ускоритель #asic #инференс #inmemory #riscv
#servernews @servernewsru

https://servernews.ru/1116718/?utm_source=nova&utm_medium=tg&utm_campaign=sn