Цифровая медицина и соревнование с ИИ в человечности
В связи с взрывным ростом возможностей ИИ и изменением рынка труда, вызванным новыми возможностями ИИ стал часто возникать чисто философский вопрос – а в каких профессиях действительно ощущается «недостаточк человечности» у ИИ.
Попалось мне на глаза одно занятное исследование на эту тему.
Может ли ИИ-ассистент ChatGPT давать ответы на вопросы пациентов, качество и эмпатия которых сопоставимы с теми, что написаны врачами?
Ответы ChatGPT были предпочтительнее, чем ответы врачей, и были оценены значительно выше как по качеству, так и по сочувствию. Я не увидел в статье прямого указания на оценку правильности советов, однако используется две метрики “качество предоставленной информации” и «эмпатия и ощущение заботы и поддержки».
Первая из них как кажется, косвенно должна это учитывать. Эту метрику выводили доктора и они бы наверняка указали на конкретные ошибки.
ChatGPT по предложенным метрикам показал гораздо более высокие результаты, оценщики предпочли ответ чат-бота ответам реальных докторов с Reddit в 78,6% случаев. А ещё гораздо чаще ответы куда более эмпатичны.
Качество ответов чат-бота также выше, чем ответов врачей. Средняя оценка ответов чат-ботов была 4.13 (по 5-ти бальной шкале), в то время как в среднем ответы в тредах были оценены в 3.26. Детали можно найти на картинке. Ну и для интересующихся - статистическая значимость достигается везде 😔
Интересный момент… Вообще многие общавшиеся с чат GPT отмечали что он намного более эмпатичен и интеллигентен (терпелив). Пользователи ценят это.
И тут можно говорить о том, что человечность как раз и подразумевает раздражительность, эмоциональную нестабильность и … отсутствие эмпатии. Заставляет задуматься.
Кстати цифровые среды уже сейчас активно применяются в больницах для психологической адаптации и релакса. Помогает пациентам бороться с тревогой.
Подробнее в дзен
#ai #philosophy #edupeople
В связи с взрывным ростом возможностей ИИ и изменением рынка труда, вызванным новыми возможностями ИИ стал часто возникать чисто философский вопрос – а в каких профессиях действительно ощущается «недостаточк человечности» у ИИ.
Попалось мне на глаза одно занятное исследование на эту тему.
Может ли ИИ-ассистент ChatGPT давать ответы на вопросы пациентов, качество и эмпатия которых сопоставимы с теми, что написаны врачами?
Ответы ChatGPT были предпочтительнее, чем ответы врачей, и были оценены значительно выше как по качеству, так и по сочувствию. Я не увидел в статье прямого указания на оценку правильности советов, однако используется две метрики “качество предоставленной информации” и «эмпатия и ощущение заботы и поддержки».
Первая из них как кажется, косвенно должна это учитывать. Эту метрику выводили доктора и они бы наверняка указали на конкретные ошибки.
ChatGPT по предложенным метрикам показал гораздо более высокие результаты, оценщики предпочли ответ чат-бота ответам реальных докторов с Reddit в 78,6% случаев. А ещё гораздо чаще ответы куда более эмпатичны.
Качество ответов чат-бота также выше, чем ответов врачей. Средняя оценка ответов чат-ботов была 4.13 (по 5-ти бальной шкале), в то время как в среднем ответы в тредах были оценены в 3.26. Детали можно найти на картинке. Ну и для интересующихся - статистическая значимость достигается везде 😔
Интересный момент… Вообще многие общавшиеся с чат GPT отмечали что он намного более эмпатичен и интеллигентен (терпелив). Пользователи ценят это.
И тут можно говорить о том, что человечность как раз и подразумевает раздражительность, эмоциональную нестабильность и … отсутствие эмпатии. Заставляет задуматься.
Кстати цифровые среды уже сейчас активно применяются в больницах для психологической адаптации и релакса. Помогает пациентам бороться с тревогой.
Подробнее в дзен
#ai #philosophy #edupeople