Китай погружает данные на дно: строительство подводного центра
Подводный центр данных обладает производительностью 6 миллионов ПК.
Проект направлен на экономию 122 миллионов кВт·ч электричества и земли под десять футбольных полей.
Строится у берегов Саньи, состоит из водонепроницаемых и высокопроизводительных блоков.
Ожидаемая энергоэффективность на 40-60% выше, нежели у сухопутных аналогов, благодаря морской воде для охлаждения.
Главные инвесторы: правительство Саньи и Комиссия Хайнаня, участие принимают Offshore Oil Engineering и HiCloud.
Китай расширяет сеть энергоэффективных подводных центров данных по всей стране.
Экономим электричество и место. Заодно защита от наземных апокалипсисов.
#China #UnderwaterDataCenter #EnergyEfficiency
Подводный центр данных обладает производительностью 6 миллионов ПК.
Проект направлен на экономию 122 миллионов кВт·ч электричества и земли под десять футбольных полей.
Строится у берегов Саньи, состоит из водонепроницаемых и высокопроизводительных блоков.
Ожидаемая энергоэффективность на 40-60% выше, нежели у сухопутных аналогов, благодаря морской воде для охлаждения.
Главные инвесторы: правительство Саньи и Комиссия Хайнаня, участие принимают Offshore Oil Engineering и HiCloud.
Китай расширяет сеть энергоэффективных подводных центров данных по всей стране.
Экономим электричество и место. Заодно защита от наземных апокалипсисов.
#China #UnderwaterDataCenter #EnergyEfficiency
⚡1
ИИ модели без умножения матриц значительно снижают энергопотребление
Учёные разработали метод создания крупных языковых моделей без умножения матриц на основе предыдущей работы BitNet.
Новый подход снижает энергопотребление и повышает эффективность ИИ-систем.
Модель с 2,7 млрд параметров показывает производительность, сравнимую с обычными LLM.
Демонстрация: 1,3 млрд параметров на скорости 23,8 токенов/сек на GPU и FPGA-чипе.
При этом энергопотребление FPGA-чипа - всего 13 Вт!!!
Технология делает LLM доступнее для устройств с ограниченными ресурсами.
Суть инновации заключается в использование только тернарных значений (-1, 0, 1) вместо чисел с плавающей запятой и замену механизма внимания на более простую и эффективную единицу MLGRU.
#MatrixMultiplication #EnergyEfficiency #LanguageModels
-------
@tsingular
Учёные разработали метод создания крупных языковых моделей без умножения матриц на основе предыдущей работы BitNet.
Новый подход снижает энергопотребление и повышает эффективность ИИ-систем.
Модель с 2,7 млрд параметров показывает производительность, сравнимую с обычными LLM.
Демонстрация: 1,3 млрд параметров на скорости 23,8 токенов/сек на GPU и FPGA-чипе.
При этом энергопотребление FPGA-чипа - всего 13 Вт!!!
Технология делает LLM доступнее для устройств с ограниченными ресурсами.
Суть инновации заключается в использование только тернарных значений (-1, 0, 1) вместо чисел с плавающей запятой и замену механизма внимания на более простую и эффективную единицу MLGRU.
#MatrixMultiplication #EnergyEfficiency #LanguageModels
-------
@tsingular
Китайские учёные создали AI-модель по образцу человеческого мозга
Исследователи из Поднебесной разработали нейросеть, приближающую по эффективности энергоёмкие на сегодняшний день ИИ-системы к мозгу человека.
Использована математическая модель Ходжкина — Хаксли, впервые описанная в 1952 году неврологами Аланом Ходжкиным и Эндрю Хаксли, для создания нейронной сети, которая эффективно воспроизводила возможности более крупной и простой модели в меньшей, внутренне сложной структуре.
Инновационный подход удвоил скорость обработки и сократил использование памяти в четыре раза при сохранении производительности.
Результаты подтверждают эффективность модели внутренней сложности для решения комплексных задач.
Похоже, если покопать старые учебники, можно снизить энтропию ИИ и перерасход электричества.
А то Майкрософт уже на датацентры тратит больше, чем некоторые государства.
#NeuralNetworks #China #EnergyEfficiency
-------
@tsingular
Исследователи из Поднебесной разработали нейросеть, приближающую по эффективности энергоёмкие на сегодняшний день ИИ-системы к мозгу человека.
Использована математическая модель Ходжкина — Хаксли, впервые описанная в 1952 году неврологами Аланом Ходжкиным и Эндрю Хаксли, для создания нейронной сети, которая эффективно воспроизводила возможности более крупной и простой модели в меньшей, внутренне сложной структуре.
Инновационный подход удвоил скорость обработки и сократил использование памяти в четыре раза при сохранении производительности.
Результаты подтверждают эффективность модели внутренней сложности для решения комплексных задач.
Похоже, если покопать старые учебники, можно снизить энтропию ИИ и перерасход электричества.
А то Майкрософт уже на датацентры тратит больше, чем некоторые государства.
#NeuralNetworks #China #EnergyEfficiency
-------
@tsingular
1👍24🤔4
NVIDIA: оптимизирует энергоэффективность ИИ решений
На саммите NVIDIA AI представлены достижения в области энергоэффективности и ИИ-решений:
• Платформа Blackwell снизила энергопотребление в 2000 раз за десятилетие.
• Ускорение вычислений сократило использование энергии для генерации токенов в 100 000 раз.
ИИ разработки:
• Библиотеки CUDA поддерживают 4000+ ускоренных приложений.
• Разработка агентного ИИ для автономного рассуждения и действий.
• Партнерства в здравоохранении, климатическом моделировании и космических исследованиях.
• NIM Agent Blueprint - усиление кибербезопасности.
• Платформа Earth 2 для анализа климата.
Обучено 600 000+ специалистов через Институт ИИ.
#NVIDIA #Blackwell #EnergyEfficiency
-------
@tsingular
На саммите NVIDIA AI представлены достижения в области энергоэффективности и ИИ-решений:
• Платформа Blackwell снизила энергопотребление в 2000 раз за десятилетие.
• Ускорение вычислений сократило использование энергии для генерации токенов в 100 000 раз.
ИИ разработки:
• Библиотеки CUDA поддерживают 4000+ ускоренных приложений.
• Разработка агентного ИИ для автономного рассуждения и действий.
• Партнерства в здравоохранении, климатическом моделировании и космических исследованиях.
• NIM Agent Blueprint - усиление кибербезопасности.
• Платформа Earth 2 для анализа климата.
Обучено 600 000+ специалистов через Институт ИИ.
#NVIDIA #Blackwell #EnergyEfficiency
-------
@tsingular
✍2