Forwarded from Техно
Media is too big
VIEW IN TELEGRAM
Habr Articles | #AI
Please open Telegram to view this post
VIEW IN TELEGRAM
Стрим Валерия Бабушкина про LLM, приглашен инженер из Deep Mind - создатель Gemini и Игорь - See All
Оптимизация коммуникаций и уменьшение сетевых нагрузок являются важными для эффективности тренировки больших моделей.
Техники распределенного обучения, такие как шардинг и разбиение на части, способствуют снижению сетевой нагрузки.
Другим серьезным вызовом является надежность оборудования; для снижения отказов используются методы, такие как понижение напряжения (undervolting) и сокращение частоты.
Также отмечается растущее использование ускорителей глубокого обучения, например TPU, для тренировки моделей большого масштаба.
Синхронизация градиентов и передача данных являются критическими компонентами распределенного обучения, а использование кодов коррекции ошибок обеспечивает целостность данных.
Вопросы настройки гиперпараметров остаются сложными, и для решения этой проблемы предлагается тренировка меньших моделей для предсказания производительности более крупных.
#DeepLearning #AIInfrastructure #DistributedTraining
Оптимизация коммуникаций и уменьшение сетевых нагрузок являются важными для эффективности тренировки больших моделей.
Техники распределенного обучения, такие как шардинг и разбиение на части, способствуют снижению сетевой нагрузки.
Другим серьезным вызовом является надежность оборудования; для снижения отказов используются методы, такие как понижение напряжения (undervolting) и сокращение частоты.
Также отмечается растущее использование ускорителей глубокого обучения, например TPU, для тренировки моделей большого масштаба.
Синхронизация градиентов и передача данных являются критическими компонентами распределенного обучения, а использование кодов коррекции ошибок обеспечивает целостность данных.
Вопросы настройки гиперпараметров остаются сложными, и для решения этой проблемы предлагается тренировка меньших моделей для предсказания производительности более крупных.
#DeepLearning #AIInfrastructure #DistributedTraining
NexusRaven-V2-13B: Революция в автогенерации кода
NexusRaven-V2-13B - новая модель для автогенерации вызовов функций.
Способность к созданию простых и сложных конструкций, включая вложенные и параллельные вызовы.
Модель предоставляет детальные объяснения созданных функций.
Работает с функциями, не знакомыми модели во время обучения.
Доступна для коммерческого использования без ограничений.
Для работы требуется список python-функций с аргументами и комментариями.
Возможность применения условий остановки для создания вызовов без объяснений.
Весь код и инструкции доступны на GitHub модели.
Открытая модель под вызов функций.
По описанию обходит GPT-4 но нужно проверять
#NexusRaven #AutoGeneration #Python
NexusRaven-V2-13B - новая модель для автогенерации вызовов функций.
Способность к созданию простых и сложных конструкций, включая вложенные и параллельные вызовы.
Модель предоставляет детальные объяснения созданных функций.
Работает с функциями, не знакомыми модели во время обучения.
Доступна для коммерческого использования без ограничений.
Для работы требуется список python-функций с аргументами и комментариями.
Возможность применения условий остановки для создания вызовов без объяснений.
Весь код и инструкции доступны на GitHub модели.
Открытая модель под вызов функций.
По описанию обходит GPT-4 но нужно проверять
#NexusRaven #AutoGeneration #Python
Microsoft Research анонсировала инновационные языковые модели Phi-2
Microsoft Research представила новое поколение языковых моделей серии Phi.
Модель Phi-1, с параметрами в 1.3 млрд., показала отличные результаты в программировании на Python.
Phi-1.5, имея такое же число параметров, соперничает с моделями, параметры которых превышают ее в 5 раз.
Phi-2 с 2.7 млрд. параметров решает сложные задачи, опережая модели в 25 раз крупнее ее.
Инновации в масштабировании и курировании данных сильно улучшили производительность Phi-2.
14 дней на 96 GPU потребовалось для обучения Phi-2.
По сравнению с открытыми моделями, Phi-2 лучше справляется с токсичностью и предвзятостью.
Превзошла модели Mistral и Llama-2, обходит Google Gemini Nano 2, несмотря на меньший размер.
Тестирование Phi-2 проходило с использованием внутренних сетов данных и задач от Microsoft.
Эволюция в сторону уменьшения размера при повышении качества - выглядит многообещающе.
#MicrosoftResearch #Phi2 #AI
Microsoft Research представила новое поколение языковых моделей серии Phi.
Модель Phi-1, с параметрами в 1.3 млрд., показала отличные результаты в программировании на Python.
Phi-1.5, имея такое же число параметров, соперничает с моделями, параметры которых превышают ее в 5 раз.
Phi-2 с 2.7 млрд. параметров решает сложные задачи, опережая модели в 25 раз крупнее ее.
Инновации в масштабировании и курировании данных сильно улучшили производительность Phi-2.
14 дней на 96 GPU потребовалось для обучения Phi-2.
По сравнению с открытыми моделями, Phi-2 лучше справляется с токсичностью и предвзятостью.
Превзошла модели Mistral и Llama-2, обходит Google Gemini Nano 2, несмотря на меньший размер.
Тестирование Phi-2 проходило с использованием внутренних сетов данных и задач от Microsoft.
Эволюция в сторону уменьшения размера при повышении качества - выглядит многообещающе.
#MicrosoftResearch #Phi2 #AI
👍1
Forwarded from 42 секунды
Коммерсантъ: Россияне стали втрое активнее пользоваться нейросетями
– В России за год резко возрос интерес к нейросетям
– Мобильный трафик ИИ-сервисов за год вырос втрое
– Исследование проведено экспертами Yota на базе big data
– Самой популярной оказалась нейросеть «Шедеврум»
– За 6 мес. он вдвое обогняет второе место по трафику
– На 2-м месте по популярности находится Kandinsky
– С января он вырос в 2,5 раза по потреблению трафика
– Тройку самых популярных нейросетей замыкает Mubert
– Основные пользователи нейросетей – 36-45 лет (32%)
– Дальше идут 26-35 лет (31%) и абоненты 46-55 лет (18%)
– Активнее всего популярность они набируют у зумеров
– В 2023 число пользователей (14-21 год) выросло в 11 раз
@ftsec x 300.ya.ru
– В России за год резко возрос интерес к нейросетям
– Мобильный трафик ИИ-сервисов за год вырос втрое
– Исследование проведено экспертами Yota на базе big data
– Самой популярной оказалась нейросеть «Шедеврум»
– За 6 мес. он вдвое обогняет второе место по трафику
– На 2-м месте по популярности находится Kandinsky
– С января он вырос в 2,5 раза по потреблению трафика
– Тройку самых популярных нейросетей замыкает Mubert
– Основные пользователи нейросетей – 36-45 лет (32%)
– Дальше идут 26-35 лет (31%) и абоненты 46-55 лет (18%)
– Активнее всего популярность они набируют у зумеров
– В 2023 число пользователей (14-21 год) выросло в 11 раз
@ftsec x 300.ya.ru
Forwarded from Точка сингулярности💥
This media is not supported in your browser
VIEW IN TELEGRAM
🧬 К нам в руки заплыла уникальная штуковина: самая мощная модель рисования с открытым исходным кодом!
PowerPaint позволяет накладывать краски, удалять и увеличивать изображения - и все это одним щелчком и с помощью всего одной развернутой модели! Смотреть здесь.
🧩 #КаталогНейросетей
PowerPaint позволяет накладывать краски, удалять и увеличивать изображения - и все это одним щелчком и с помощью всего одной развернутой модели! Смотреть здесь.
🧩 #КаталогНейросетей
ИИ-революция в математике: новый этап открытий
LLM использовали для математических открытий.
Метод 'FunSearch' сочетает LLM с оценщиком для решения сложных задач.
Превосходит существующие решения по важным математическим проблемам.
Найдены новые эвристики для алгоритмической проблемы упаковки предметов.
FunSearch ищет программы для решения задач, а не прямые решения.
Обнаруженные программы высоко интерпретируемы и применимы в реальных задачах.
Первые математические открытия, достигнутые с помощью LLM.
ИИ способен на настоящие научные прорывы в математике!
#Открытия #Математика #FunSearch
LLM использовали для математических открытий.
Метод 'FunSearch' сочетает LLM с оценщиком для решения сложных задач.
Превосходит существующие решения по важным математическим проблемам.
Найдены новые эвристики для алгоритмической проблемы упаковки предметов.
FunSearch ищет программы для решения задач, а не прямые решения.
Обнаруженные программы высоко интерпретируемы и применимы в реальных задачах.
Первые математические открытия, достигнутые с помощью LLM.
ИИ способен на настоящие научные прорывы в математике!
#Открытия #Математика #FunSearch
Nature
Mathematical discoveries from program search with large language models
Nature - FunSearch makes discoveries in established open problems using large language models by searching for programs describing how to solve a problem, rather than what the solution is.
Amazon Q: проблемы с конфиденциальностью и точностью
Сотрудники Amazon обеспокоены новым ИИ-чатботом Q из-за утечек и 'галлюцинаций'.
Проект Q столкнулся с критическими ошибками: раскрытие внутренней информации компании.
Инцидент отмечен как 'sev 2', требует срочного реагирования инженеров.
Amazon инвестировала в разработку ИИ, включая $4 миллиарда в Anthropic.
На AWS re:Invent Q был анонсирован как корпоративный аналог ChatGPT.
Стоимость Q будет ниже конкурентов - Microsoft и Google.
Amazon обещает учесть отзывы сотрудников в дальнейшей настройке Q.
Внутрикорпоративные документы выявили риск неправильных ответов Q, угрожающих безопасности.
Чатбот доступен в предварительной версии, используется для вопросов по AWS, редактирования кода.
Как-то кучно фальстарты пошли.
#Amazon #AI #Q
Сотрудники Amazon обеспокоены новым ИИ-чатботом Q из-за утечек и 'галлюцинаций'.
Проект Q столкнулся с критическими ошибками: раскрытие внутренней информации компании.
Инцидент отмечен как 'sev 2', требует срочного реагирования инженеров.
Amazon инвестировала в разработку ИИ, включая $4 миллиарда в Anthropic.
На AWS re:Invent Q был анонсирован как корпоративный аналог ChatGPT.
Стоимость Q будет ниже конкурентов - Microsoft и Google.
Amazon обещает учесть отзывы сотрудников в дальнейшей настройке Q.
Внутрикорпоративные документы выявили риск неправильных ответов Q, угрожающих безопасности.
Чатбот доступен в предварительной версии, используется для вопросов по AWS, редактирования кода.
Как-то кучно фальстарты пошли.
#Amazon #AI #Q
😢1
Intel атакует рынок с новым AI-чипом Gaudi3
Intel представил AI-чип Gaudi3 для конкуренции с Nvidia и AMD.
Запуск чипа Gaudi3 запланирован на 2024 год.
Компания также анонсировала Core Ultra chips для усиленных ноутбуков и ПК.
Новые процессоры Xeon пятого поколения облегчат серверные процессы.
Специализированные NPU в чипах обеспечат повышенную скорость AI-приложений.
Процессоры Xeon оптимизированы для инференса AI, снижая энергопотребление.
Intel стремится догнать лидера по производству чипов - TSMC, к 2026 году.
Новая продукция Intel может переманить клиентов, использующих продукцию Nvidia.
Intel пытается подвинуть NVidia.
#Intel #Gaudi3 #AI
Intel представил AI-чип Gaudi3 для конкуренции с Nvidia и AMD.
Запуск чипа Gaudi3 запланирован на 2024 год.
Компания также анонсировала Core Ultra chips для усиленных ноутбуков и ПК.
Новые процессоры Xeon пятого поколения облегчат серверные процессы.
Специализированные NPU в чипах обеспечат повышенную скорость AI-приложений.
Процессоры Xeon оптимизированы для инференса AI, снижая энергопотребление.
Intel стремится догнать лидера по производству чипов - TSMC, к 2026 году.
Новая продукция Intel может переманить клиентов, использующих продукцию Nvidia.
Intel пытается подвинуть NVidia.
#Intel #Gaudi3 #AI
Китайский стартап 01.AI планирует привлечь до $200 миллионов инвестиций.
Компания оценивается в $1 миллиард и завоевывает интерес в сфере больших языковых моделей (LLM).
Предоставление публичного доступа к своим LLM может стать новым шагом для нескольких китайских ИИ компаний.
Сотрудничество 01.AI с Alibaba Cloud направлено на обучение и развёртывание моделей.
OpenAI выразила опасения относительно публичных LLM, указывая на потенциальные угрозы.
Alibaba Cloud запустила собственную открытую LLM, превосходящую модель GPT-4.
Рост запросов на ИИ технологии наблюдается во многих отраслях и среди программистов.
Открыли бы уже Алибабу ИИ для внешнего рынка.
#01AI #AlibabaCloud #China
Компания оценивается в $1 миллиард и завоевывает интерес в сфере больших языковых моделей (LLM).
Предоставление публичного доступа к своим LLM может стать новым шагом для нескольких китайских ИИ компаний.
Сотрудничество 01.AI с Alibaba Cloud направлено на обучение и развёртывание моделей.
OpenAI выразила опасения относительно публичных LLM, указывая на потенциальные угрозы.
Alibaba Cloud запустила собственную открытую LLM, превосходящую модель GPT-4.
Рост запросов на ИИ технологии наблюдается во многих отраслях и среди программистов.
Открыли бы уже Алибабу ИИ для внешнего рынка.
#01AI #AlibabaCloud #China
👏1
Google ускоряет здравоохранение с AI-моделями MedLM
MedLM — это линейка AI-моделей, специально адаптированная под нужды здравоохранения.
Представлены две модели: одна для сложных задач, вторая - оптимизированная для масштабирования.
Разработка моделей опиралась на потребности клиентов, такие как ответы на медицинские вопросы и составление резюме обследования.
MedLM успешно внедрен в практику компаниями HCA Healthcare, Augmedix и другими.
Модель помогает врачам в срочном составлении медицинских записей и ускоряет разработку лекарств.
Цель MedLM — использование генеративного AI для улучшения доступности и качества лечения.
Искусственный интеллект на страже вашего здоровья!
Но станут ли люди здоровее в итоге, вот вопрос.
А то, в иллюзии, что теперь лечить можно все, пустятся во все тяжкие и получится игра с нулевой суммой.
#Google #MedLM #HealthcareAI
MedLM — это линейка AI-моделей, специально адаптированная под нужды здравоохранения.
Представлены две модели: одна для сложных задач, вторая - оптимизированная для масштабирования.
Разработка моделей опиралась на потребности клиентов, такие как ответы на медицинские вопросы и составление резюме обследования.
MedLM успешно внедрен в практику компаниями HCA Healthcare, Augmedix и другими.
Модель помогает врачам в срочном составлении медицинских записей и ускоряет разработку лекарств.
Цель MedLM — использование генеративного AI для улучшения доступности и качества лечения.
Искусственный интеллект на страже вашего здоровья!
Но станут ли люди здоровее в итоге, вот вопрос.
А то, в иллюзии, что теперь лечить можно все, пустятся во все тяжкие и получится игра с нулевой суммой.
#Google #MedLM #HealthcareAI
Forwarded from Salute AI (Alexander Gavrilov)
API ⚡️ GigaChat ⚡️ PRO
Самая сильная продакшн-модель для русского языка с 29 миллиардами параметров, доступная каждому разработчику.
Преимущества GigaChat Pro:
🟢 более точные ответы на вопросы
▪️ улучшенное редактирование текстов
🟢 высокое качество суммаризации
▪️ бизнес: до конца января Pro доступен по стоимости версии Lite — всего 20 копеек за 1000 токенов.
🟢 независимые разработчики могут попробовать GigaChat Pro в рамках freemium-тарифа.
Команда экспертов SberDevices поделилась подробностями нашего пайплайна для pretraining’а, рассказала о работе с данными и технических деталях GigaChat Pro в свежей статье на Хабр🖥
😎 API / Документация / GigaChain(SDK) / WEB / BOT
P.S. Подпишитесь на канал💬 Salute AI, чтобы быть в курсе важных новостей от SberDevices.
#GigaChat #API #LLM #GigaChatPro
Самая сильная продакшн-модель для русского языка с 29 миллиардами параметров, доступная каждому разработчику.
Преимущества GigaChat Pro:
Результаты Side-By-Side:
(50%) GigaChatPro vs (50%) ChatGPT
(62%) GigaChatPro vs (38%) YandexGPT
Команда экспертов SberDevices поделилась подробностями нашего пайплайна для pretraining’а, рассказала о работе с данными и технических деталях GigaChat Pro в свежей статье на Хабр
P.S. Подпишитесь на канал
#GigaChat #API #LLM #GigaChatPro
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Озвучка текста от RunwayML!
Утечки с частной презентации из Discord channel for Creative Partners
"text-to-speech" позволяет генерировать закадровый голос и диалоги на несколько разных голосов, и все это в рамках Runway".
EleventLabs нервно закуривает в облаке.
И это очень круто по трем причинам.
1. Только что писал, что для нового нормального кино с 4-секундным монтажом будет очень важен нарратив, озвучка того, что вам сгенерит ИИ в виде сценариев.
2. Коль скоро это авторы GEN-2 (ну и Stable Diffusion, что греха таить), то интеграция в их продукты будет просто киллер-фичей.
3. И я ожидаю, что следующим шагом будет липсинк. Wav2Lip почил в бозе 3 года назад и нормальных решений пока не видно.
https://help.runwayml.com/hc/en-us/articles/23859696734611-Runway-Text-to-Speech-tool
Утечки с частной презентации из Discord channel for Creative Partners
"text-to-speech" позволяет генерировать закадровый голос и диалоги на несколько разных голосов, и все это в рамках Runway".
EleventLabs нервно закуривает в облаке.
И это очень круто по трем причинам.
1. Только что писал, что для нового нормального кино с 4-секундным монтажом будет очень важен нарратив, озвучка того, что вам сгенерит ИИ в виде сценариев.
2. Коль скоро это авторы GEN-2 (ну и Stable Diffusion, что греха таить), то интеграция в их продукты будет просто киллер-фичей.
3. И я ожидаю, что следующим шагом будет липсинк. Wav2Lip почил в бозе 3 года назад и нормальных решений пока не видно.
https://help.runwayml.com/hc/en-us/articles/23859696734611-Runway-Text-to-Speech-tool
This media is not supported in your browser
VIEW IN TELEGRAM
Невероятный трейлер Назад в будущее 4 от KH Studio.
Полностью сделан на нейронках.
Думаю к концу 2024 начнут выходить полнометражные фильмы.
Голливуд.. какой Голливуд? Там куда мы летим, Голливуд не нужен!
#backtothefuture #movies
Полностью сделан на нейронках.
Думаю к концу 2024 начнут выходить полнометражные фильмы.
Голливуд.. какой Голливуд? Там куда мы летим, Голливуд не нужен!
#backtothefuture #movies
NSA запускает центр безопасности искусственного интеллекта
NSA открывает Центр безопасности ИИ для противодействия угрозам, связанным с искусственным интеллектом.
Местоположение: Центр кибербезопасности NSA в Вашингтоне.
Задача: защита от уязвимостей ИИ и угроз международного масштаба.
Особенность AI Security: охрана жизненного цикла ИИ, в том числе данных, моделей и машинного обучения.
Центр будет сотрудничать с промышленностью, академическими кругами и разведслужбами.
ИИ для безопасности, безопасность для ИИ, ИИ для безопасности систем безопасности для ИИ ...
#NSA #AISecurity #Cybersecurity
NSA открывает Центр безопасности ИИ для противодействия угрозам, связанным с искусственным интеллектом.
Местоположение: Центр кибербезопасности NSA в Вашингтоне.
Задача: защита от уязвимостей ИИ и угроз международного масштаба.
Особенность AI Security: охрана жизненного цикла ИИ, в том числе данных, моделей и машинного обучения.
Центр будет сотрудничать с промышленностью, академическими кругами и разведслужбами.
ИИ для безопасности, безопасность для ИИ, ИИ для безопасности систем безопасности для ИИ ...
#NSA #AISecurity #Cybersecurity
Каталог ИИ на любой случай
Еще один онлайн каталог ИИ-решений для любых областей.
10 тысяч нейронок на все случаи жизни.
Ну нужен уже каталог каталогов что ли.
#ИИ #каталог
Еще один онлайн каталог ИИ-решений для любых областей.
10 тысяч нейронок на все случаи жизни.
Ну нужен уже каталог каталогов что ли.
#ИИ #каталог
There's An AI For That
There's An AI For That® - Browse AI Tools For Any Task
The #1 website for AI tools. Used by 60 million people to find the right tool for any task or use case.
Forwarded from Kali Novskaya (Tatiana Shavrina)
🌸Все данные для тестов LLM скомпрометированы? 🌸
#nlp #про_nlp #nlp_papers
Часто можно услышать критику о том, что результатам оценки LLM не стоит доверять, так как многие бенчмарки и датасеты уже давно лежат на гитхабе, а значит, наверняка попали в обучение моделей.
Как надежно тестировать языковые модели, если у нас часто нет доступа к их обучающим данным, а некоторые так и полностью от нас закрыты? Что, если данные были скомпрометированы?
Авторы Alpaca представили новый метод, позволяющий оценить риск утечки (контаминации) датасета, т.е. его ненамеренное/намеренное попадание в обучающую выборку у языковых моделей.
Идея простая: будем считать, что модель "запоминает" задания и ответы на них в той же последовательности, как они идут в датасете. Давайте проверим, сможем ли мы установить статистически значимую разницу в качестве решений задачи, если будем показывать моделям набор тестов задачи в том порядке, как он идут в самом датасете, или же в перемешанном порядке.
Спойлер:да, можем.
Искусственный эксперимент, при котором небольшой модели (1.4 млрд параметров) при обучении на Википедии "подкладывают" тестовые сеты различных датасетов — один раз, десять раз и т.д. — показывает, что при 10 и более копиях теста в обучении разница в качестве решения устанавливается достаточно надежно, и можно с уверенностью сказать, что можель опирается на запоминание, а не на обобщение или другие "возникающие" интеллектуальные способности.
Авторы протестировали несколько LLM (LLaMA2-7B, Mistral-7B, Pythia-1.4B, GPT-2 XL, BioMedLM) на публичных датасетах — и некоторые из них оказались действительно скомпрометированы. Например, Arc challenge точно попал в обучение Mistral, да еще и 10+ раз!
Выводы:
🟣 Мы уже можем тестировать языковые модели, в том числе доступные только по API, на "честность" решения самых разных задач, а также можем проверять, не меняется ли картина во времени.
🟣 Реальную сложность представляет обнаружение утечки теста, когда он попал в обучение всего один раз (не удается стат значимо установить разницу в качестве решений)
🟣 Нас может ждать глобальный и регулярный пересмотр подхода к тестированию моделей, так как открытые ответы регулярно выкладываются на открытые площадки и, соответственно, компрометируются. Оценка LLM должна быть привязана ко времени?
🟣 Остается проверить так все модели OpenAI?
🟣 Статья: Proving Test Set Contamination in Black Box Language Models link
#nlp #про_nlp #nlp_papers
Часто можно услышать критику о том, что результатам оценки LLM не стоит доверять, так как многие бенчмарки и датасеты уже давно лежат на гитхабе, а значит, наверняка попали в обучение моделей.
Как надежно тестировать языковые модели, если у нас часто нет доступа к их обучающим данным, а некоторые так и полностью от нас закрыты? Что, если данные были скомпрометированы?
Авторы Alpaca представили новый метод, позволяющий оценить риск утечки (контаминации) датасета, т.е. его ненамеренное/намеренное попадание в обучающую выборку у языковых моделей.
Идея простая: будем считать, что модель "запоминает" задания и ответы на них в той же последовательности, как они идут в датасете. Давайте проверим, сможем ли мы установить статистически значимую разницу в качестве решений задачи, если будем показывать моделям набор тестов задачи в том порядке, как он идут в самом датасете, или же в перемешанном порядке.
Спойлер:
Искусственный эксперимент, при котором небольшой модели (1.4 млрд параметров) при обучении на Википедии "подкладывают" тестовые сеты различных датасетов — один раз, десять раз и т.д. — показывает, что при 10 и более копиях теста в обучении разница в качестве решения устанавливается достаточно надежно, и можно с уверенностью сказать, что можель опирается на запоминание, а не на обобщение или другие "возникающие" интеллектуальные способности.
Авторы протестировали несколько LLM (LLaMA2-7B, Mistral-7B, Pythia-1.4B, GPT-2 XL, BioMedLM) на публичных датасетах — и некоторые из них оказались действительно скомпрометированы. Например, Arc challenge точно попал в обучение Mistral, да еще и 10+ раз!
Выводы:
Please open Telegram to view this post
VIEW IN TELEGRAM
Китай запустил самый мощный суперкомпьютер на отечественных процессорах
Китай тихо ввёл в строй Tianhe Xingyi — суперкомпьютер эксафлопсного класса.
Основан на процессорах FeiTeng MT3000, разработанных в Китае на архитектуре Arm.
Достигает пиковой мощности в 1,7 ExaFLOPS, обгоняя нынешнего лидера рейтинга Top500.
Детали о характеристиках и энергоэффективности процессоров пока не раскрыты.
Китай уклоняется от передачи информации в Top500, оставляя технические подробности в секрете.
Гонка технологий продолжается, и Китай шагнул вперёд.
#Китай #суперкомпьютер #TianheXingyi
Китай тихо ввёл в строй Tianhe Xingyi — суперкомпьютер эксафлопсного класса.
Основан на процессорах FeiTeng MT3000, разработанных в Китае на архитектуре Arm.
Достигает пиковой мощности в 1,7 ExaFLOPS, обгоняя нынешнего лидера рейтинга Top500.
Детали о характеристиках и энергоэффективности процессоров пока не раскрыты.
Китай уклоняется от передачи информации в Top500, оставляя технические подробности в секрете.
Гонка технологий продолжается, и Китай шагнул вперёд.
#Китай #суперкомпьютер #TianheXingyi