ChatGPT стал работать хуже?
Пользователи ChatGPT жалуются, что модель стала вдруг «ленивее» и «тупее».
"Нынешний GPT4 разочаровывает", - пишет в Twitter разработчик, использующий GPT-4 для помощи в написании функций для сайта. "Это как ездить на Ferrari в течение месяца, а потом вдруг он превращается в потрепанный старый пикап. Я не уверен, что хочу за него платить».
Часто пользователи сталкиваются с нарушением логики в ответах, ростом количества ошибок, проблемами с выполнением инструкций, упущенными скобками в базовом программном коде и запоминанием только последних сообщений.
Никто не понимает, что происходит, но эксперты Insider полагают, что OpenAI дробит свою сеть на несколько мелких. Такой подход называется Mixture of Experts, или MOE. Небольшие экспертные модели обучаются на своих задачах и предметных областях, то есть может быть GPT-4, специализирующаяся на биологии, физике, химии и т.д. Когда пользователь GPT-4 задает вопрос, новая система будет знать, какой экспертной модели послать этот запрос. Новая система может решить на всякий случай послать запрос двум или более экспертным моделям, а затем объединить полученные результаты.
Это существенно снизит нагрузку на основной ИИ, которую не придется вынимать каждый раз данные из огромного массива.
Так что нынешняя «лень» генеративного ИИ скорее всего временная.
Источник: Нецифровая экономика
#ИИ #генеративныйИИ #ChatGPT
Пользователи ChatGPT жалуются, что модель стала вдруг «ленивее» и «тупее».
"Нынешний GPT4 разочаровывает", - пишет в Twitter разработчик, использующий GPT-4 для помощи в написании функций для сайта. "Это как ездить на Ferrari в течение месяца, а потом вдруг он превращается в потрепанный старый пикап. Я не уверен, что хочу за него платить».
Часто пользователи сталкиваются с нарушением логики в ответах, ростом количества ошибок, проблемами с выполнением инструкций, упущенными скобками в базовом программном коде и запоминанием только последних сообщений.
Никто не понимает, что происходит, но эксперты Insider полагают, что OpenAI дробит свою сеть на несколько мелких. Такой подход называется Mixture of Experts, или MOE. Небольшие экспертные модели обучаются на своих задачах и предметных областях, то есть может быть GPT-4, специализирующаяся на биологии, физике, химии и т.д. Когда пользователь GPT-4 задает вопрос, новая система будет знать, какой экспертной модели послать этот запрос. Новая система может решить на всякий случай послать запрос двум или более экспертным моделям, а затем объединить полученные результаты.
Это существенно снизит нагрузку на основной ИИ, которую не придется вынимать каждый раз данные из огромного массива.
Так что нынешняя «лень» генеративного ИИ скорее всего временная.
Источник: Нецифровая экономика
#ИИ #генеративныйИИ #ChatGPT