Microsoft Research анонсировала инновационные языковые модели Phi-2
Microsoft Research представила новое поколение языковых моделей серии Phi.
Модель Phi-1, с параметрами в 1.3 млрд., показала отличные результаты в программировании на Python.
Phi-1.5, имея такое же число параметров, соперничает с моделями, параметры которых превышают ее в 5 раз.
Phi-2 с 2.7 млрд. параметров решает сложные задачи, опережая модели в 25 раз крупнее ее.
Инновации в масштабировании и курировании данных сильно улучшили производительность Phi-2.
14 дней на 96 GPU потребовалось для обучения Phi-2.
По сравнению с открытыми моделями, Phi-2 лучше справляется с токсичностью и предвзятостью.
Превзошла модели Mistral и Llama-2, обходит Google Gemini Nano 2, несмотря на меньший размер.
Тестирование Phi-2 проходило с использованием внутренних сетов данных и задач от Microsoft.
Эволюция в сторону уменьшения размера при повышении качества - выглядит многообещающе.
#MicrosoftResearch #Phi2 #AI
Microsoft Research представила новое поколение языковых моделей серии Phi.
Модель Phi-1, с параметрами в 1.3 млрд., показала отличные результаты в программировании на Python.
Phi-1.5, имея такое же число параметров, соперничает с моделями, параметры которых превышают ее в 5 раз.
Phi-2 с 2.7 млрд. параметров решает сложные задачи, опережая модели в 25 раз крупнее ее.
Инновации в масштабировании и курировании данных сильно улучшили производительность Phi-2.
14 дней на 96 GPU потребовалось для обучения Phi-2.
По сравнению с открытыми моделями, Phi-2 лучше справляется с токсичностью и предвзятостью.
Превзошла модели Mistral и Llama-2, обходит Google Gemini Nano 2, несмотря на меньший размер.
Тестирование Phi-2 проходило с использованием внутренних сетов данных и задач от Microsoft.
Эволюция в сторону уменьшения размера при повышении качества - выглядит многообещающе.
#MicrosoftResearch #Phi2 #AI
👍1
Forwarded from 42 секунды
Коммерсантъ: Россияне стали втрое активнее пользоваться нейросетями
– В России за год резко возрос интерес к нейросетям
– Мобильный трафик ИИ-сервисов за год вырос втрое
– Исследование проведено экспертами Yota на базе big data
– Самой популярной оказалась нейросеть «Шедеврум»
– За 6 мес. он вдвое обогняет второе место по трафику
– На 2-м месте по популярности находится Kandinsky
– С января он вырос в 2,5 раза по потреблению трафика
– Тройку самых популярных нейросетей замыкает Mubert
– Основные пользователи нейросетей – 36-45 лет (32%)
– Дальше идут 26-35 лет (31%) и абоненты 46-55 лет (18%)
– Активнее всего популярность они набируют у зумеров
– В 2023 число пользователей (14-21 год) выросло в 11 раз
@ftsec x 300.ya.ru
– В России за год резко возрос интерес к нейросетям
– Мобильный трафик ИИ-сервисов за год вырос втрое
– Исследование проведено экспертами Yota на базе big data
– Самой популярной оказалась нейросеть «Шедеврум»
– За 6 мес. он вдвое обогняет второе место по трафику
– На 2-м месте по популярности находится Kandinsky
– С января он вырос в 2,5 раза по потреблению трафика
– Тройку самых популярных нейросетей замыкает Mubert
– Основные пользователи нейросетей – 36-45 лет (32%)
– Дальше идут 26-35 лет (31%) и абоненты 46-55 лет (18%)
– Активнее всего популярность они набируют у зумеров
– В 2023 число пользователей (14-21 год) выросло в 11 раз
@ftsec x 300.ya.ru
Forwarded from Точка сингулярности💥
This media is not supported in your browser
VIEW IN TELEGRAM
🧬 К нам в руки заплыла уникальная штуковина: самая мощная модель рисования с открытым исходным кодом!
PowerPaint позволяет накладывать краски, удалять и увеличивать изображения - и все это одним щелчком и с помощью всего одной развернутой модели! Смотреть здесь.
🧩 #КаталогНейросетей
PowerPaint позволяет накладывать краски, удалять и увеличивать изображения - и все это одним щелчком и с помощью всего одной развернутой модели! Смотреть здесь.
🧩 #КаталогНейросетей
ИИ-революция в математике: новый этап открытий
LLM использовали для математических открытий.
Метод 'FunSearch' сочетает LLM с оценщиком для решения сложных задач.
Превосходит существующие решения по важным математическим проблемам.
Найдены новые эвристики для алгоритмической проблемы упаковки предметов.
FunSearch ищет программы для решения задач, а не прямые решения.
Обнаруженные программы высоко интерпретируемы и применимы в реальных задачах.
Первые математические открытия, достигнутые с помощью LLM.
ИИ способен на настоящие научные прорывы в математике!
#Открытия #Математика #FunSearch
LLM использовали для математических открытий.
Метод 'FunSearch' сочетает LLM с оценщиком для решения сложных задач.
Превосходит существующие решения по важным математическим проблемам.
Найдены новые эвристики для алгоритмической проблемы упаковки предметов.
FunSearch ищет программы для решения задач, а не прямые решения.
Обнаруженные программы высоко интерпретируемы и применимы в реальных задачах.
Первые математические открытия, достигнутые с помощью LLM.
ИИ способен на настоящие научные прорывы в математике!
#Открытия #Математика #FunSearch
Nature
Mathematical discoveries from program search with large language models
Nature - FunSearch makes discoveries in established open problems using large language models by searching for programs describing how to solve a problem, rather than what the solution is.
Amazon Q: проблемы с конфиденциальностью и точностью
Сотрудники Amazon обеспокоены новым ИИ-чатботом Q из-за утечек и 'галлюцинаций'.
Проект Q столкнулся с критическими ошибками: раскрытие внутренней информации компании.
Инцидент отмечен как 'sev 2', требует срочного реагирования инженеров.
Amazon инвестировала в разработку ИИ, включая $4 миллиарда в Anthropic.
На AWS re:Invent Q был анонсирован как корпоративный аналог ChatGPT.
Стоимость Q будет ниже конкурентов - Microsoft и Google.
Amazon обещает учесть отзывы сотрудников в дальнейшей настройке Q.
Внутрикорпоративные документы выявили риск неправильных ответов Q, угрожающих безопасности.
Чатбот доступен в предварительной версии, используется для вопросов по AWS, редактирования кода.
Как-то кучно фальстарты пошли.
#Amazon #AI #Q
Сотрудники Amazon обеспокоены новым ИИ-чатботом Q из-за утечек и 'галлюцинаций'.
Проект Q столкнулся с критическими ошибками: раскрытие внутренней информации компании.
Инцидент отмечен как 'sev 2', требует срочного реагирования инженеров.
Amazon инвестировала в разработку ИИ, включая $4 миллиарда в Anthropic.
На AWS re:Invent Q был анонсирован как корпоративный аналог ChatGPT.
Стоимость Q будет ниже конкурентов - Microsoft и Google.
Amazon обещает учесть отзывы сотрудников в дальнейшей настройке Q.
Внутрикорпоративные документы выявили риск неправильных ответов Q, угрожающих безопасности.
Чатбот доступен в предварительной версии, используется для вопросов по AWS, редактирования кода.
Как-то кучно фальстарты пошли.
#Amazon #AI #Q
😢1
Intel атакует рынок с новым AI-чипом Gaudi3
Intel представил AI-чип Gaudi3 для конкуренции с Nvidia и AMD.
Запуск чипа Gaudi3 запланирован на 2024 год.
Компания также анонсировала Core Ultra chips для усиленных ноутбуков и ПК.
Новые процессоры Xeon пятого поколения облегчат серверные процессы.
Специализированные NPU в чипах обеспечат повышенную скорость AI-приложений.
Процессоры Xeon оптимизированы для инференса AI, снижая энергопотребление.
Intel стремится догнать лидера по производству чипов - TSMC, к 2026 году.
Новая продукция Intel может переманить клиентов, использующих продукцию Nvidia.
Intel пытается подвинуть NVidia.
#Intel #Gaudi3 #AI
Intel представил AI-чип Gaudi3 для конкуренции с Nvidia и AMD.
Запуск чипа Gaudi3 запланирован на 2024 год.
Компания также анонсировала Core Ultra chips для усиленных ноутбуков и ПК.
Новые процессоры Xeon пятого поколения облегчат серверные процессы.
Специализированные NPU в чипах обеспечат повышенную скорость AI-приложений.
Процессоры Xeon оптимизированы для инференса AI, снижая энергопотребление.
Intel стремится догнать лидера по производству чипов - TSMC, к 2026 году.
Новая продукция Intel может переманить клиентов, использующих продукцию Nvidia.
Intel пытается подвинуть NVidia.
#Intel #Gaudi3 #AI
Китайский стартап 01.AI планирует привлечь до $200 миллионов инвестиций.
Компания оценивается в $1 миллиард и завоевывает интерес в сфере больших языковых моделей (LLM).
Предоставление публичного доступа к своим LLM может стать новым шагом для нескольких китайских ИИ компаний.
Сотрудничество 01.AI с Alibaba Cloud направлено на обучение и развёртывание моделей.
OpenAI выразила опасения относительно публичных LLM, указывая на потенциальные угрозы.
Alibaba Cloud запустила собственную открытую LLM, превосходящую модель GPT-4.
Рост запросов на ИИ технологии наблюдается во многих отраслях и среди программистов.
Открыли бы уже Алибабу ИИ для внешнего рынка.
#01AI #AlibabaCloud #China
Компания оценивается в $1 миллиард и завоевывает интерес в сфере больших языковых моделей (LLM).
Предоставление публичного доступа к своим LLM может стать новым шагом для нескольких китайских ИИ компаний.
Сотрудничество 01.AI с Alibaba Cloud направлено на обучение и развёртывание моделей.
OpenAI выразила опасения относительно публичных LLM, указывая на потенциальные угрозы.
Alibaba Cloud запустила собственную открытую LLM, превосходящую модель GPT-4.
Рост запросов на ИИ технологии наблюдается во многих отраслях и среди программистов.
Открыли бы уже Алибабу ИИ для внешнего рынка.
#01AI #AlibabaCloud #China
👏1
Google ускоряет здравоохранение с AI-моделями MedLM
MedLM — это линейка AI-моделей, специально адаптированная под нужды здравоохранения.
Представлены две модели: одна для сложных задач, вторая - оптимизированная для масштабирования.
Разработка моделей опиралась на потребности клиентов, такие как ответы на медицинские вопросы и составление резюме обследования.
MedLM успешно внедрен в практику компаниями HCA Healthcare, Augmedix и другими.
Модель помогает врачам в срочном составлении медицинских записей и ускоряет разработку лекарств.
Цель MedLM — использование генеративного AI для улучшения доступности и качества лечения.
Искусственный интеллект на страже вашего здоровья!
Но станут ли люди здоровее в итоге, вот вопрос.
А то, в иллюзии, что теперь лечить можно все, пустятся во все тяжкие и получится игра с нулевой суммой.
#Google #MedLM #HealthcareAI
MedLM — это линейка AI-моделей, специально адаптированная под нужды здравоохранения.
Представлены две модели: одна для сложных задач, вторая - оптимизированная для масштабирования.
Разработка моделей опиралась на потребности клиентов, такие как ответы на медицинские вопросы и составление резюме обследования.
MedLM успешно внедрен в практику компаниями HCA Healthcare, Augmedix и другими.
Модель помогает врачам в срочном составлении медицинских записей и ускоряет разработку лекарств.
Цель MedLM — использование генеративного AI для улучшения доступности и качества лечения.
Искусственный интеллект на страже вашего здоровья!
Но станут ли люди здоровее в итоге, вот вопрос.
А то, в иллюзии, что теперь лечить можно все, пустятся во все тяжкие и получится игра с нулевой суммой.
#Google #MedLM #HealthcareAI
Forwarded from Salute AI (Alexander Gavrilov)
API ⚡️ GigaChat ⚡️ PRO
Самая сильная продакшн-модель для русского языка с 29 миллиардами параметров, доступная каждому разработчику.
Преимущества GigaChat Pro:
🟢 более точные ответы на вопросы
▪️ улучшенное редактирование текстов
🟢 высокое качество суммаризации
▪️ бизнес: до конца января Pro доступен по стоимости версии Lite — всего 20 копеек за 1000 токенов.
🟢 независимые разработчики могут попробовать GigaChat Pro в рамках freemium-тарифа.
Команда экспертов SberDevices поделилась подробностями нашего пайплайна для pretraining’а, рассказала о работе с данными и технических деталях GigaChat Pro в свежей статье на Хабр🖥
😎 API / Документация / GigaChain(SDK) / WEB / BOT
P.S. Подпишитесь на канал💬 Salute AI, чтобы быть в курсе важных новостей от SberDevices.
#GigaChat #API #LLM #GigaChatPro
Самая сильная продакшн-модель для русского языка с 29 миллиардами параметров, доступная каждому разработчику.
Преимущества GigaChat Pro:
Результаты Side-By-Side:
(50%) GigaChatPro vs (50%) ChatGPT
(62%) GigaChatPro vs (38%) YandexGPT
Команда экспертов SberDevices поделилась подробностями нашего пайплайна для pretraining’а, рассказала о работе с данными и технических деталях GigaChat Pro в свежей статье на Хабр
P.S. Подпишитесь на канал
#GigaChat #API #LLM #GigaChatPro
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Озвучка текста от RunwayML!
Утечки с частной презентации из Discord channel for Creative Partners
"text-to-speech" позволяет генерировать закадровый голос и диалоги на несколько разных голосов, и все это в рамках Runway".
EleventLabs нервно закуривает в облаке.
И это очень круто по трем причинам.
1. Только что писал, что для нового нормального кино с 4-секундным монтажом будет очень важен нарратив, озвучка того, что вам сгенерит ИИ в виде сценариев.
2. Коль скоро это авторы GEN-2 (ну и Stable Diffusion, что греха таить), то интеграция в их продукты будет просто киллер-фичей.
3. И я ожидаю, что следующим шагом будет липсинк. Wav2Lip почил в бозе 3 года назад и нормальных решений пока не видно.
https://help.runwayml.com/hc/en-us/articles/23859696734611-Runway-Text-to-Speech-tool
Утечки с частной презентации из Discord channel for Creative Partners
"text-to-speech" позволяет генерировать закадровый голос и диалоги на несколько разных голосов, и все это в рамках Runway".
EleventLabs нервно закуривает в облаке.
И это очень круто по трем причинам.
1. Только что писал, что для нового нормального кино с 4-секундным монтажом будет очень важен нарратив, озвучка того, что вам сгенерит ИИ в виде сценариев.
2. Коль скоро это авторы GEN-2 (ну и Stable Diffusion, что греха таить), то интеграция в их продукты будет просто киллер-фичей.
3. И я ожидаю, что следующим шагом будет липсинк. Wav2Lip почил в бозе 3 года назад и нормальных решений пока не видно.
https://help.runwayml.com/hc/en-us/articles/23859696734611-Runway-Text-to-Speech-tool
This media is not supported in your browser
VIEW IN TELEGRAM
Невероятный трейлер Назад в будущее 4 от KH Studio.
Полностью сделан на нейронках.
Думаю к концу 2024 начнут выходить полнометражные фильмы.
Голливуд.. какой Голливуд? Там куда мы летим, Голливуд не нужен!
#backtothefuture #movies
Полностью сделан на нейронках.
Думаю к концу 2024 начнут выходить полнометражные фильмы.
Голливуд.. какой Голливуд? Там куда мы летим, Голливуд не нужен!
#backtothefuture #movies
NSA запускает центр безопасности искусственного интеллекта
NSA открывает Центр безопасности ИИ для противодействия угрозам, связанным с искусственным интеллектом.
Местоположение: Центр кибербезопасности NSA в Вашингтоне.
Задача: защита от уязвимостей ИИ и угроз международного масштаба.
Особенность AI Security: охрана жизненного цикла ИИ, в том числе данных, моделей и машинного обучения.
Центр будет сотрудничать с промышленностью, академическими кругами и разведслужбами.
ИИ для безопасности, безопасность для ИИ, ИИ для безопасности систем безопасности для ИИ ...
#NSA #AISecurity #Cybersecurity
NSA открывает Центр безопасности ИИ для противодействия угрозам, связанным с искусственным интеллектом.
Местоположение: Центр кибербезопасности NSA в Вашингтоне.
Задача: защита от уязвимостей ИИ и угроз международного масштаба.
Особенность AI Security: охрана жизненного цикла ИИ, в том числе данных, моделей и машинного обучения.
Центр будет сотрудничать с промышленностью, академическими кругами и разведслужбами.
ИИ для безопасности, безопасность для ИИ, ИИ для безопасности систем безопасности для ИИ ...
#NSA #AISecurity #Cybersecurity
Каталог ИИ на любой случай
Еще один онлайн каталог ИИ-решений для любых областей.
10 тысяч нейронок на все случаи жизни.
Ну нужен уже каталог каталогов что ли.
#ИИ #каталог
Еще один онлайн каталог ИИ-решений для любых областей.
10 тысяч нейронок на все случаи жизни.
Ну нужен уже каталог каталогов что ли.
#ИИ #каталог
There's An AI For That
There's An AI For That® - Browse AI Tools For Any Task
The #1 website for AI tools. Used by 60 million people to find the right tool for any task or use case.
Forwarded from Kali Novskaya (Tatiana Shavrina)
🌸Все данные для тестов LLM скомпрометированы? 🌸
#nlp #про_nlp #nlp_papers
Часто можно услышать критику о том, что результатам оценки LLM не стоит доверять, так как многие бенчмарки и датасеты уже давно лежат на гитхабе, а значит, наверняка попали в обучение моделей.
Как надежно тестировать языковые модели, если у нас часто нет доступа к их обучающим данным, а некоторые так и полностью от нас закрыты? Что, если данные были скомпрометированы?
Авторы Alpaca представили новый метод, позволяющий оценить риск утечки (контаминации) датасета, т.е. его ненамеренное/намеренное попадание в обучающую выборку у языковых моделей.
Идея простая: будем считать, что модель "запоминает" задания и ответы на них в той же последовательности, как они идут в датасете. Давайте проверим, сможем ли мы установить статистически значимую разницу в качестве решений задачи, если будем показывать моделям набор тестов задачи в том порядке, как он идут в самом датасете, или же в перемешанном порядке.
Спойлер:да, можем.
Искусственный эксперимент, при котором небольшой модели (1.4 млрд параметров) при обучении на Википедии "подкладывают" тестовые сеты различных датасетов — один раз, десять раз и т.д. — показывает, что при 10 и более копиях теста в обучении разница в качестве решения устанавливается достаточно надежно, и можно с уверенностью сказать, что можель опирается на запоминание, а не на обобщение или другие "возникающие" интеллектуальные способности.
Авторы протестировали несколько LLM (LLaMA2-7B, Mistral-7B, Pythia-1.4B, GPT-2 XL, BioMedLM) на публичных датасетах — и некоторые из них оказались действительно скомпрометированы. Например, Arc challenge точно попал в обучение Mistral, да еще и 10+ раз!
Выводы:
🟣 Мы уже можем тестировать языковые модели, в том числе доступные только по API, на "честность" решения самых разных задач, а также можем проверять, не меняется ли картина во времени.
🟣 Реальную сложность представляет обнаружение утечки теста, когда он попал в обучение всего один раз (не удается стат значимо установить разницу в качестве решений)
🟣 Нас может ждать глобальный и регулярный пересмотр подхода к тестированию моделей, так как открытые ответы регулярно выкладываются на открытые площадки и, соответственно, компрометируются. Оценка LLM должна быть привязана ко времени?
🟣 Остается проверить так все модели OpenAI?
🟣 Статья: Proving Test Set Contamination in Black Box Language Models link
#nlp #про_nlp #nlp_papers
Часто можно услышать критику о том, что результатам оценки LLM не стоит доверять, так как многие бенчмарки и датасеты уже давно лежат на гитхабе, а значит, наверняка попали в обучение моделей.
Как надежно тестировать языковые модели, если у нас часто нет доступа к их обучающим данным, а некоторые так и полностью от нас закрыты? Что, если данные были скомпрометированы?
Авторы Alpaca представили новый метод, позволяющий оценить риск утечки (контаминации) датасета, т.е. его ненамеренное/намеренное попадание в обучающую выборку у языковых моделей.
Идея простая: будем считать, что модель "запоминает" задания и ответы на них в той же последовательности, как они идут в датасете. Давайте проверим, сможем ли мы установить статистически значимую разницу в качестве решений задачи, если будем показывать моделям набор тестов задачи в том порядке, как он идут в самом датасете, или же в перемешанном порядке.
Спойлер:
Искусственный эксперимент, при котором небольшой модели (1.4 млрд параметров) при обучении на Википедии "подкладывают" тестовые сеты различных датасетов — один раз, десять раз и т.д. — показывает, что при 10 и более копиях теста в обучении разница в качестве решения устанавливается достаточно надежно, и можно с уверенностью сказать, что можель опирается на запоминание, а не на обобщение или другие "возникающие" интеллектуальные способности.
Авторы протестировали несколько LLM (LLaMA2-7B, Mistral-7B, Pythia-1.4B, GPT-2 XL, BioMedLM) на публичных датасетах — и некоторые из них оказались действительно скомпрометированы. Например, Arc challenge точно попал в обучение Mistral, да еще и 10+ раз!
Выводы:
Please open Telegram to view this post
VIEW IN TELEGRAM
Китай запустил самый мощный суперкомпьютер на отечественных процессорах
Китай тихо ввёл в строй Tianhe Xingyi — суперкомпьютер эксафлопсного класса.
Основан на процессорах FeiTeng MT3000, разработанных в Китае на архитектуре Arm.
Достигает пиковой мощности в 1,7 ExaFLOPS, обгоняя нынешнего лидера рейтинга Top500.
Детали о характеристиках и энергоэффективности процессоров пока не раскрыты.
Китай уклоняется от передачи информации в Top500, оставляя технические подробности в секрете.
Гонка технологий продолжается, и Китай шагнул вперёд.
#Китай #суперкомпьютер #TianheXingyi
Китай тихо ввёл в строй Tianhe Xingyi — суперкомпьютер эксафлопсного класса.
Основан на процессорах FeiTeng MT3000, разработанных в Китае на архитектуре Arm.
Достигает пиковой мощности в 1,7 ExaFLOPS, обгоняя нынешнего лидера рейтинга Top500.
Детали о характеристиках и энергоэффективности процессоров пока не раскрыты.
Китай уклоняется от передачи информации в Top500, оставляя технические подробности в секрете.
Гонка технологий продолжается, и Китай шагнул вперёд.
#Китай #суперкомпьютер #TianheXingyi
Интересная статистика от Stackoverflow по использованию ИИ.
1. для ответов на общие вопросы
2. для непосредственно написания кода
и в целом про ИИ
#stackoverflow #developers
1. для ответов на общие вопросы
2. для непосредственно написания кода
и в целом про ИИ
#stackoverflow #developers
Stable Zero123 - новая эра создания 3D из 2D в Stability AI
Stability AI анонсировала модель Stable Zero123 для создания трехмерных объектов из одного изображения.
Качество генерации 3D моделей существенно превосходит предшественницу Zero123-XL.
Определение угла съемки повышает точность и реалистичность результатов.
Тщательный отбор в обучающем наборе данных привел к более качественной генерации объектов.
Скорость обучения увеличена в 40 раз благодаря оптимизациям и загрузчику данных для больших партий.
Доступность: модель можно скачать с Hugging Face для исследований и некоммерческого использования.
Упрощение создания 3D с помощью подхода SDS и Stable Zero123, обеспечивает текстурирование сеток.
Важно: модель предназначена исключительно для исследований, коммерческое применение не подразумевается.
3D революция ближе, чем кажется.
#StabilityAI #StableZero123 #3DGeneration
Stability AI анонсировала модель Stable Zero123 для создания трехмерных объектов из одного изображения.
Качество генерации 3D моделей существенно превосходит предшественницу Zero123-XL.
Определение угла съемки повышает точность и реалистичность результатов.
Тщательный отбор в обучающем наборе данных привел к более качественной генерации объектов.
Скорость обучения увеличена в 40 раз благодаря оптимизациям и загрузчику данных для больших партий.
Доступность: модель можно скачать с Hugging Face для исследований и некоммерческого использования.
Упрощение создания 3D с помощью подхода SDS и Stable Zero123, обеспечивает текстурирование сеток.
Важно: модель предназначена исключительно для исследований, коммерческое применение не подразумевается.
3D революция ближе, чем кажется.
#StabilityAI #StableZero123 #3DGeneration
Началось обучение супермодели AuroraGPT c 1 триллионом параметров
Аргоннский национальный лабораторный комплекс (ANL) запустил обучение модели AuroraGPT.
Используется мощь суперкомпьютера Aurora, предлагающего свыше полуэксафлопс перерабатывающей способности.
Тренировка модели AuroraGPT пока охватывает 256 узлов, план по масштабированию до 10 000 узлов.
Модель предназначена для научных исследований в биологии, онкологии, климатологии.
В сотрудничестве с Intel, ANL углубляется в создание наукоёмких ИИ в мировом масштабе.
Стоимость проекта AuroraGPT составляет около 500 миллионов долларов.
2024 - будет год сверх-больших LLMок.
#AuroraGPT #ANL #Intel
Аргоннский национальный лабораторный комплекс (ANL) запустил обучение модели AuroraGPT.
Используется мощь суперкомпьютера Aurora, предлагающего свыше полуэксафлопс перерабатывающей способности.
Тренировка модели AuroraGPT пока охватывает 256 узлов, план по масштабированию до 10 000 узлов.
Модель предназначена для научных исследований в биологии, онкологии, климатологии.
В сотрудничестве с Intel, ANL углубляется в создание наукоёмких ИИ в мировом масштабе.
Стоимость проекта AuroraGPT составляет около 500 миллионов долларов.
2024 - будет год сверх-больших LLMок.
#AuroraGPT #ANL #Intel
👍2