Конкурент ChatGPT от Alibaba будет встроен во все продукты корпорации
В первую очередь чат-бот, получивший название Tongyi Qianwen, будет интегрирован в платформу для корпоративного общения и разработки DingTalk и в Tmall Genie — IoT-решение для умного дома.
Модель имеет 10 трлн параметров и будет поддерживать китайский и английский языки. Ее конкретные применения пока не раскрываются; вероятнее всего, она будет использоваться для голосовых ассистентов.
Корпорация готовится открыть доступ к Tongyi Qianwen для корпоративных клиентов, чтобы те смогли начать бета-тесты и исследовать модель на предмет встраивания в собственные продукты. Расценки на подключение к Tongyi Qianwen сторонних разработчиков пока не раскрываются.
Ожидается, что модель выйдет на рынок в 2024 году.
#чатбот #Китай #Alibaba #loT
https://mpost.io/alibabas-tongyi-qianwen-chatgpts-rival-will-have-10-trillion-parameters/
В первую очередь чат-бот, получивший название Tongyi Qianwen, будет интегрирован в платформу для корпоративного общения и разработки DingTalk и в Tmall Genie — IoT-решение для умного дома.
Модель имеет 10 трлн параметров и будет поддерживать китайский и английский языки. Ее конкретные применения пока не раскрываются; вероятнее всего, она будет использоваться для голосовых ассистентов.
Корпорация готовится открыть доступ к Tongyi Qianwen для корпоративных клиентов, чтобы те смогли начать бета-тесты и исследовать модель на предмет встраивания в собственные продукты. Расценки на подключение к Tongyi Qianwen сторонних разработчиков пока не раскрываются.
Ожидается, что модель выйдет на рынок в 2024 году.
#чатбот #Китай #Alibaba #loT
https://mpost.io/alibabas-tongyi-qianwen-chatgpts-rival-will-have-10-trillion-parameters/
Metaverse Post
Alibaba's Tongyi Qianwen, ChatGPT's rival, will have 10 trillion parameters
Alibaba's Tongyi Qianwen is a ChatGPT rival and will be integrated across the company's businesses in the "near future." They are committed to making
Alibaba запускает открытую ИИ-модель для конкуренции с Llama 2
Опубликован исходный код двух больших языковых моделей (LLM), названных Qwen-7B и Qwen-7B-Chat, причем каждая из них имеет 7 миллиардов параметров.
Alibaba заявила, что их цель — помочь малому и среднему бизнесу начать использовать ИИ. Это первый случай, когда крупная китайская технологическая компания открыла свою LLM.
Стоит отметить, что в прошлом месяце Meta* представила аналогичную модель с открытым исходным кодом под названием Llama 2, что вызвало фурор.
Некоторые аналитики считают, что LLM с открытым исходным кодом могут свести на нет текущее доминирование на рынке OpenAI с ChatGPT и Google с Bard за счет отсутствия платы за использование.
#ИИ #Alibaba #LLM
https://www.reuters.com/technology/alibaba-unveils-open-sourced-ai-model-similar-metas-llama-2-2023-08-03/
*признана экстремистской на территории РФ
Опубликован исходный код двух больших языковых моделей (LLM), названных Qwen-7B и Qwen-7B-Chat, причем каждая из них имеет 7 миллиардов параметров.
Alibaba заявила, что их цель — помочь малому и среднему бизнесу начать использовать ИИ. Это первый случай, когда крупная китайская технологическая компания открыла свою LLM.
Стоит отметить, что в прошлом месяце Meta* представила аналогичную модель с открытым исходным кодом под названием Llama 2, что вызвало фурор.
Некоторые аналитики считают, что LLM с открытым исходным кодом могут свести на нет текущее доминирование на рынке OpenAI с ChatGPT и Google с Bard за счет отсутствия платы за использование.
#ИИ #Alibaba #LLM
https://www.reuters.com/technology/alibaba-unveils-open-sourced-ai-model-similar-metas-llama-2-2023-08-03/
*признана экстремистской на территории РФ
Alibaba Cloud запускает ИИ-модель, которая может понимать изображения и вести сложные диалоги
Компания представила две языковые модели, работающие с английским и китайским языками, — Qwen Large Vision Language Model (Qwen-VL) и версию, адаптированную для диалогов — Qween-VLChat.
Разработки будут иметь открытый исходный код — исследователи и компании смогут использовать их для создания собственных приложений, что позволит сэкономить время и деньги.
Представленные языковые модели не ограничиваются пониманием текстовых сообщений: Qwen-VL способна воспринимать и понимать текст и изображения. Qwen-VL-Chat, в свою очередь, может сравнивать несколько изображений, отвечать на серии вопросов по картинкам и писать по ним истории. К примеру, пользователь может спросить ИИ о местоположении магазина по фото его вывески, и получить точный ответ.
Разработку ведёт Alibaba Cloud, и, хотя модели не приносят лицензионных отчислений, компания получит приток новых пользователей на свою облачную платформу — а их нужно как можно больше, поскольку Alibaba Cloud готовится к выходу на биржу.
#Alibaba #ИИ
https://www.alibabacloud.com/blog/alibaba-cloud-launches-open-source-models-that-understand-images_600319
Компания представила две языковые модели, работающие с английским и китайским языками, — Qwen Large Vision Language Model (Qwen-VL) и версию, адаптированную для диалогов — Qween-VLChat.
Разработки будут иметь открытый исходный код — исследователи и компании смогут использовать их для создания собственных приложений, что позволит сэкономить время и деньги.
Представленные языковые модели не ограничиваются пониманием текстовых сообщений: Qwen-VL способна воспринимать и понимать текст и изображения. Qwen-VL-Chat, в свою очередь, может сравнивать несколько изображений, отвечать на серии вопросов по картинкам и писать по ним истории. К примеру, пользователь может спросить ИИ о местоположении магазина по фото его вывески, и получить точный ответ.
Разработку ведёт Alibaba Cloud, и, хотя модели не приносят лицензионных отчислений, компания получит приток новых пользователей на свою облачную платформу — а их нужно как можно больше, поскольку Alibaba Cloud готовится к выходу на биржу.
#Alibaba #ИИ
https://www.alibabacloud.com/blog/alibaba-cloud-launches-open-source-models-that-understand-images_600319
Alibaba Cloud Community
Alibaba Cloud Launches Open-Source Models that Understand Images
Alibaba Cloud is releasing two open-source large vision language models with image and textual comprehension capabilities.