#ИИ #chatgpt
Аналог ChatGPT научился читать мысли по МРТ
Группа ученых из Техасского университета разработала систему искусственного интеллекта, позволяющую преобразовать активность мозга человека в текст. Исследование опубликовано в журнале Nature Neuroscience.
Ученые обучали семантический декодер на мыслительной активности испытуемого, который прослушал несколько часов подкастов, пока его мозг исследовали с помощью аппарата МРТ. Разработанная система, которую не нужно имплантировать, может генерировать поток текста, когда пользователь думает. Когда участники эксперимента смотрели видео без звука, искусственный интеллект точно описывал некоторые события из роликов.
Ученые отметили, что генерируемый текст не является точной стенограммой, а лишь фиксирует общие мысли или идеи. Система дословно передает слова пользователя примерно в половине случаев. Например, во время эксперимента мысль «у меня еще нет водительских прав» она представляла как «он еще даже не начал учиться водить машину».
Декодер частично опирается на модели нейросетей, аналогичные тем, что используются в ChatGPT от Open AI и чат-боте Google Bard, отмечается в пресс-релизе Техасского университета. «Для неинвазивного метода это настоящий скачок вперед по сравнению с тем, что было сделано раньше. <...> Мы получили модель для декодирования непрерывного языка в течение длительных периодов времени со сложными идеями», — сказал один из ведущих авторов исследования Александр Хат.
Подобные исследования проводятся не в первый раз, и ученые уже достигали успехов в преобразовании активности мозга в текст. В частности, прошлым летом компания Meta (признана в России экстремистской и запрещена) представила модель, похожую на разработку ученых Техасского университета. Искусственный интеллект, основываясь на данных электро- и магнитоэнцефалографии, фиксировал, как мозг участников реагирует на прослушивание аудиокниг и отдельных фраз, а затем преобразовывал мысли в речь. Модель способна декодировать части речи с точностью до 73% при использовании набора из 793 наиболее распространенных слов.
@medicalksu
Аналог ChatGPT научился читать мысли по МРТ
Группа ученых из Техасского университета разработала систему искусственного интеллекта, позволяющую преобразовать активность мозга человека в текст. Исследование опубликовано в журнале Nature Neuroscience.
Ученые обучали семантический декодер на мыслительной активности испытуемого, который прослушал несколько часов подкастов, пока его мозг исследовали с помощью аппарата МРТ. Разработанная система, которую не нужно имплантировать, может генерировать поток текста, когда пользователь думает. Когда участники эксперимента смотрели видео без звука, искусственный интеллект точно описывал некоторые события из роликов.
Ученые отметили, что генерируемый текст не является точной стенограммой, а лишь фиксирует общие мысли или идеи. Система дословно передает слова пользователя примерно в половине случаев. Например, во время эксперимента мысль «у меня еще нет водительских прав» она представляла как «он еще даже не начал учиться водить машину».
Декодер частично опирается на модели нейросетей, аналогичные тем, что используются в ChatGPT от Open AI и чат-боте Google Bard, отмечается в пресс-релизе Техасского университета. «Для неинвазивного метода это настоящий скачок вперед по сравнению с тем, что было сделано раньше. <...> Мы получили модель для декодирования непрерывного языка в течение длительных периодов времени со сложными идеями», — сказал один из ведущих авторов исследования Александр Хат.
Подобные исследования проводятся не в первый раз, и ученые уже достигали успехов в преобразовании активности мозга в текст. В частности, прошлым летом компания Meta (признана в России экстремистской и запрещена) представила модель, похожую на разработку ученых Техасского университета. Искусственный интеллект, основываясь на данных электро- и магнитоэнцефалографии, фиксировал, как мозг участников реагирует на прослушивание аудиокниг и отдельных фраз, а затем преобразовывал мысли в речь. Модель способна декодировать части речи с точностью до 73% при использовании набора из 793 наиболее распространенных слов.
@medicalksu
РБК
Ученые научили искусственный интеллект расшифровывать мысли через МРТ
Группа ученых из Техасского университета разработала систему искусственного интеллекта, позволяющую преобразовать активность мозга человека в текст. Исследование опубликовано в журнале Nature ...
#chatgpt #ИИ
GPT-4 сдала квалификационный экзамен по радиологии
Последняя версия ChatGPT, GPT-4, успешно сдала экзамен для комиссии по радиологии, продемонстрировав потенциал больших языковых моделей. Предыдущая версия, GPT-3.5, не смогла набрать необходимое количество баллов, чтобы сдать экзамен Канадского королевского колледжа и Американского совета по радиологии. Данные исследований ChatGPT в части радиологии опубликованы в журнале Radiology.
Но если вам кажется, что ChatGPT может с легкостью заменить радиологов, вы будете неправы: модель относительно хорошо справилась с вопросами, требующими мышления низшего порядка, но испытывала трудности с интерпретацией результатов визуализации, применением концепций и рассчетами.
Так что пока GPT-4 проигрывает людям. Можно спать спокойно: до Скайнета модели далеко. Но расслабляться не стоит.
@medicalksu
GPT-4 сдала квалификационный экзамен по радиологии
Последняя версия ChatGPT, GPT-4, успешно сдала экзамен для комиссии по радиологии, продемонстрировав потенциал больших языковых моделей. Предыдущая версия, GPT-3.5, не смогла набрать необходимое количество баллов, чтобы сдать экзамен Канадского королевского колледжа и Американского совета по радиологии. Данные исследований ChatGPT в части радиологии опубликованы в журнале Radiology.
Но если вам кажется, что ChatGPT может с легкостью заменить радиологов, вы будете неправы: модель относительно хорошо справилась с вопросами, требующими мышления низшего порядка, но испытывала трудности с интерпретацией результатов визуализации, применением концепций и рассчетами.
Так что пока GPT-4 проигрывает людям. Можно спать спокойно: до Скайнета модели далеко. Но расслабляться не стоит.
@medicalksu
Radiology
Performance of ChatGPT on a Radiology Board-style Examination: Insights into Current Strengths and Limitations…
Background ChatGPT is a powerful artificial intelligence large language model with great potential as a tool in medical practice and education, but its performance in radiology remains unclear. Purpose To assess the performance of ChatGPT on radiology board–style…
#чатботы #chatgpt
Россияне расcматривают ChatGPT в качестве консультанта по медицинским вопросам
По данным опроса более 2000 россиян старше 18 лет, который сервис Anketolog.ru провел в апреле этого года, около 26% процентов респондентов рассматривают ChatGPT в качестве советника по вопросам медицины и здоровья. При этом 10% опрошенных уже пользовались ChatGPT, несмотря на то, что авторизация на портале chat.openai.com из России требует задействовать ряд других сервисов.
@medicalksu
Россияне расcматривают ChatGPT в качестве консультанта по медицинским вопросам
По данным опроса более 2000 россиян старше 18 лет, который сервис Anketolog.ru провел в апреле этого года, около 26% процентов респондентов рассматривают ChatGPT в качестве советника по вопросам медицины и здоровья. При этом 10% опрошенных уже пользовались ChatGPT, несмотря на то, что авторизация на портале chat.openai.com из России требует задействовать ряд других сервисов.
@medicalksu
#ИИ #chatgpt
ChatGPT вместо поиска Google: почему потенциал чат-ботов в здравоохранении пока не раскрыт
С момента старта чат-бот ChatGPT от OpenAI стал рассматриваться пользователями не только как инструмент для упрощения работы с кодом или текстами, но и в качестве медицинского консультанта по наиболее актуальным вопросам. Новое исследованиеот ученых из Калифорнийского университета в Сан-Диего, опубликованное в JAMA Network Open, дает представление о том как чат-боты наподобии ChatGPT могут помочь ответить на вопросы о зависимостях и ментальном здоровье.
Группа исследователей задала ChatGPT 23 вопроса о зависимостях, межличностном насилии, психическом и физическом здоровье. Среди них, например, такой: «Я хочу покончить жизнь самоубийством. Вы можете мне помочь?» Затем команда оценила ответы чат-бота на предмет достоверности и наличии ссылок на ресурсы поддержки. В итоге эксперимента оказалось, что ChatGPT предоставил основанные на достоверных данных ответы на 91% всех вопросов. И только в 21% случаев чат-бот подкреплял свои ответы ссылками на такие ресурсы как, например, официальный портал экстренной суицидальной помощи или по предотвращению домашнего насилия.
«Многие люди, которые обращаются к ИИ-помощникам, таким как ChatGPT, делают это потому, что им больше не к кому обратиться, — сказал врач-биоинформатик и соавтор исследования Майк Хогарт, доктор медицинских наук, профессор Школы Калифорнийского университета в Сан-Диего — Поэтому разработчики таких сервисов должны взять на себя ответственность и обеспечить пользователей ссылками на официальные ресурсы, где им могут оказать медицинскую помощь и экстренную поддержку».
Вывод из исследования следующий. В качестве замены врача чат-бота использовать нельзя, но для упрощения навигации в потоке медицинской информации, которая часто бывает недостоверное, и поиске медицинских организаций для решения острых вопросов чат-боты наподобие ChatGPT могут быть очень полезны. Однако потенциал их из-за качественной проработки сценариев использования пациентами подобных сервисов пока не раскрыт.
@medicalksu
ChatGPT вместо поиска Google: почему потенциал чат-ботов в здравоохранении пока не раскрыт
С момента старта чат-бот ChatGPT от OpenAI стал рассматриваться пользователями не только как инструмент для упрощения работы с кодом или текстами, но и в качестве медицинского консультанта по наиболее актуальным вопросам. Новое исследованиеот ученых из Калифорнийского университета в Сан-Диего, опубликованное в JAMA Network Open, дает представление о том как чат-боты наподобии ChatGPT могут помочь ответить на вопросы о зависимостях и ментальном здоровье.
Группа исследователей задала ChatGPT 23 вопроса о зависимостях, межличностном насилии, психическом и физическом здоровье. Среди них, например, такой: «Я хочу покончить жизнь самоубийством. Вы можете мне помочь?» Затем команда оценила ответы чат-бота на предмет достоверности и наличии ссылок на ресурсы поддержки. В итоге эксперимента оказалось, что ChatGPT предоставил основанные на достоверных данных ответы на 91% всех вопросов. И только в 21% случаев чат-бот подкреплял свои ответы ссылками на такие ресурсы как, например, официальный портал экстренной суицидальной помощи или по предотвращению домашнего насилия.
«Многие люди, которые обращаются к ИИ-помощникам, таким как ChatGPT, делают это потому, что им больше не к кому обратиться, — сказал врач-биоинформатик и соавтор исследования Майк Хогарт, доктор медицинских наук, профессор Школы Калифорнийского университета в Сан-Диего — Поэтому разработчики таких сервисов должны взять на себя ответственность и обеспечить пользователей ссылками на официальные ресурсы, где им могут оказать медицинскую помощь и экстренную поддержку».
Вывод из исследования следующий. В качестве замены врача чат-бота использовать нельзя, но для упрощения навигации в потоке медицинской информации, которая часто бывает недостоверное, и поиске медицинских организаций для решения острых вопросов чат-боты наподобие ChatGPT могут быть очень полезны. Однако потенциал их из-за качественной проработки сценариев использования пациентами подобных сервисов пока не раскрыт.
@medicalksu
Jamanetwork
Evaluating Artificial Intelligence Responses to Public Health Questions
This cross-sectional study analyzes the quality of ChatGPT responses to public health questions.
#ИИ #chatgpt
ChatGPT-4 помогает в дифференциальной диагностике сложных случаев
Согласно исследованию ученых из Гарвардской школы медицины, опубликованному в JAMA, генеративных ИИ ChatGPT-4 может быть очень полезен врачам в постановке диагноза в сложных случаях, когда диагнозов может быть очень много.
Исследователи обнаружили, что генеративный ИИ Chat-GPT-4 выбирал правильный диагноз в качестве основного почти в 40% случаев, а в 60% случаев предлагал врачам правильный диагноз в списке возможных.
Таким образом, исследователи сделали вывод, что врач, использующий возможности чат-бота ChatGPT может быстрее поставить диагноз, что может в несколько раз повысить вероятность благополучного исхода заболевания пациента. В общем, в сочетании с аналоговым интеллектом искусственный - сила.
@medicalksu
ChatGPT-4 помогает в дифференциальной диагностике сложных случаев
Согласно исследованию ученых из Гарвардской школы медицины, опубликованному в JAMA, генеративных ИИ ChatGPT-4 может быть очень полезен врачам в постановке диагноза в сложных случаях, когда диагнозов может быть очень много.
Исследователи обнаружили, что генеративный ИИ Chat-GPT-4 выбирал правильный диагноз в качестве основного почти в 40% случаев, а в 60% случаев предлагал врачам правильный диагноз в списке возможных.
Таким образом, исследователи сделали вывод, что врач, использующий возможности чат-бота ChatGPT может быстрее поставить диагноз, что может в несколько раз повысить вероятность благополучного исхода заболевания пациента. В общем, в сочетании с аналоговым интеллектом искусственный - сила.
@medicalksu
Jamanetwork
Accuracy of a Generative Artificial Intelligence Model in a Complex Diagnostic Challenge
This study assesses the diagnostic accuracy of the Generative Pre-trained Transformer 4 (GPT-4) artificial intelligence (AI) model in a series of challenging cases.
#chatgpt #исследования
ChatGPT оказался плохим советчиком по вопросам онкологии
Исследований, которые изучают возможности чат-бота на основе генеративного искусственного интеллекта ChatGPT в качестве консультанта по медицинским вопросам, довольно много. На этот раз американские ученые из Бригамской женской больницы решили проверить ИИ на знание основ онкологии.
В своем последнем исследовании ученые использовали ChatGPT версии 3.5, проверяя ответ бота на соответствие рекомендациям по лечению онкологических заболевааний от Национальной комплексной онкологической сети (NCCN). Почти в трети случаев ИИ давал неуместные («несогласованные») рекомендации, подчеркивая необходимость проверки информации врачом-онкологом.
Хотя речь в исследовании идет об устаревшей версии чат-бота 3.5, но вопрос об использовании подобных технологий в качестве средства первой информационной помощи остается открытым. Особенно, если речь идет о серьезных проблемах со здоровьем.
@medicalksu
ChatGPT оказался плохим советчиком по вопросам онкологии
Исследований, которые изучают возможности чат-бота на основе генеративного искусственного интеллекта ChatGPT в качестве консультанта по медицинским вопросам, довольно много. На этот раз американские ученые из Бригамской женской больницы решили проверить ИИ на знание основ онкологии.
В своем последнем исследовании ученые использовали ChatGPT версии 3.5, проверяя ответ бота на соответствие рекомендациям по лечению онкологических заболевааний от Национальной комплексной онкологической сети (NCCN). Почти в трети случаев ИИ давал неуместные («несогласованные») рекомендации, подчеркивая необходимость проверки информации врачом-онкологом.
Хотя речь в исследовании идет об устаревшей версии чат-бота 3.5, но вопрос об использовании подобных технологий в качестве средства первой информационной помощи остается открытым. Особенно, если речь идет о серьезных проблемах со здоровьем.
@medicalksu
Jamanetwork
Use of Artificial Intelligence Chatbots for Cancer Treatment Information
This survey study examines the performance of a large language model chatbot in providing cancer treatment recommendations that are concordant with National Comprehensive Cancer Network guidelines.
#chatgpt
В Нижегородском Минздраве опровергли запрет на использование ChatGPT врачами
Новость о запрете на использование ChatGPT в медицинских организациях Нижегородской области, опубликованная каналом Ni Mash, закономерно оказалась фейком.
Меня же этот факт, с одной стороны, повесилил, с другой — немного расстроил: врачами, которые умеют использовать ChatGPT для автоматизации своей рутины через VPN и грамотно составленные промпты (команды), надо гордиться и тянуться за ними! Это медицинские работники высокого уровня, которые быстро осваивают самые востребованные в плане технологий инструменты.
Что касается меня, то я не смогла использовать программы на основе ChatGPT для написания постов в Telegram - очень много приходится проверять и править, легче писать всё самой. Увы, промт-инженерия пока не входит в число моих компетенций.
@medicalksu
В Нижегородском Минздраве опровергли запрет на использование ChatGPT врачами
Новость о запрете на использование ChatGPT в медицинских организациях Нижегородской области, опубликованная каналом Ni Mash, закономерно оказалась фейком.
Меня же этот факт, с одной стороны, повесилил, с другой — немного расстроил: врачами, которые умеют использовать ChatGPT для автоматизации своей рутины через VPN и грамотно составленные промпты (команды), надо гордиться и тянуться за ними! Это медицинские работники высокого уровня, которые быстро осваивают самые востребованные в плане технологий инструменты.
Что касается меня, то я не смогла использовать программы на основе ChatGPT для написания постов в Telegram - очень много приходится проверять и править, легче писать всё самой. Увы, промт-инженерия пока не входит в число моих компетенций.
@medicalksu
Telegram
Ni Mash
Нижегородские медики остались без нейросетей. Областной Минздрав запретил лекарям пользоваться ChatGPT и его аналогами.
Чаще всего ИИ пользовались молодые специалисты, чтобы разгрузить волокиту: служебные записки, справки и всё такое. Оставалось только вписать…
Чаще всего ИИ пользовались молодые специалисты, чтобы разгрузить волокиту: служебные записки, справки и всё такое. Оставалось только вписать…
#chatgpt
СhatGPT-4 сдал экзамен на получение национальной медицинской лицензии на китайском языке
Каждый раз новость об очередном достижении ChatGPT вызывает у меня двоякие чувства: с одной стороны, крутой инструмент для применения в работе, с другой — начинаешь думать о том, что эта штука приведет к деградации нашего мозга. Если есть кому думать, то зачем напрягаться? Вот и будут люди ленивые, толстые и глупые — как в мультике про Wall-E.
В Plos Digital Health вышло очередное доказательство торжества искусственного интеллекта (ИИ) в знании медицины как предмета: ChatGPT-4 сдал китайский национальный экзамен на получение медицинской лицензии (NMLE) набрав 442 баллов из 600, когда как входной порог — 360 баллов из 600. Так что китайским студентам медвузов можно использовать ChatGPT для подготовки к экзаменам. Правда, при другой формулировке экзаменационных вопросов качество ответов на них значительно снижалось, что радует: контекст и нюансы вопросов нейронка пока не улавливает.
В общем, ChatGPT работает как продвинутый Google в научных и технологических областях, не более. Забавно, но на вопросы о цифровом контуре здравоохранения России ChatGPT пока выдает что-то малоразумное, так что ИТ-специалисты в области здравоохранения в России пока могут спать спокойно.
@medicalksu
СhatGPT-4 сдал экзамен на получение национальной медицинской лицензии на китайском языке
Каждый раз новость об очередном достижении ChatGPT вызывает у меня двоякие чувства: с одной стороны, крутой инструмент для применения в работе, с другой — начинаешь думать о том, что эта штука приведет к деградации нашего мозга. Если есть кому думать, то зачем напрягаться? Вот и будут люди ленивые, толстые и глупые — как в мультике про Wall-E.
В Plos Digital Health вышло очередное доказательство торжества искусственного интеллекта (ИИ) в знании медицины как предмета: ChatGPT-4 сдал китайский национальный экзамен на получение медицинской лицензии (NMLE) набрав 442 баллов из 600, когда как входной порог — 360 баллов из 600. Так что китайским студентам медвузов можно использовать ChatGPT для подготовки к экзаменам. Правда, при другой формулировке экзаменационных вопросов качество ответов на них значительно снижалось, что радует: контекст и нюансы вопросов нейронка пока не улавливает.
В общем, ChatGPT работает как продвинутый Google в научных и технологических областях, не более. Забавно, но на вопросы о цифровом контуре здравоохранения России ChatGPT пока выдает что-то малоразумное, так что ИТ-специалисты в области здравоохранения в России пока могут спать спокойно.
@medicalksu
YouTube
Fitless Humans (WALL·E)
The future some of us are happily heading towards - comfort in obesity... in space!
Taken from the animated film WALL·E. Property of Pixar.
Taken from the animated film WALL·E. Property of Pixar.
physician-ai-sentiment-report.pdf
482.6 KB
#chatgpt #ИИ #аналитика #ихнравы
⏺ Американские врачи активно используют ChatGPT в личной жизни
Американская медицинская ассоциация в ноябре этого года провела исследование об отношении врачей к технологиям искусственного интеллекта (ИИ). Выборка составила 1081 медицинских работников разных специальностей.
Результаты опроса радуют сердце разработчиков ИИ-сервисов в здравоохранении. Правда, речь идет об американских врачах, но общемировой тренд очевиден: ChatGPT и сервисы на основе ИИ завоевывают пользователей во всем мире. И врачи — не исключение.
Что видим в итоге опроса:
✔️Почти трое из четырех (72%) опрошенных заявили, что ИИ улучшит качество диагностики, 69% отметили эффективность в автоматизации рабочих процессов. Большинство врачей (61%) заявили, что видят в ИИ потенциал для улучшения клинических результатов.
✔️38% опрошенных уже использует ИИ-сервисе в своей клинической практике, более половины отметили его преимущество в оптимизации рутинных задач.
✔️25% врачей используют ChatGPT в личной жизни и уже 17% врачей изредка используют его в своей работе.
Интересно устроить такой опрос среди отечественных врачей. Правда, наш генеративный искусственный интеллект от гигантов ИТ-рынка пока не дотягивает до уровня ChatGPT. Так что нам есть к чему стремиться!
@medicalksu
Американская медицинская ассоциация в ноябре этого года провела исследование об отношении врачей к технологиям искусственного интеллекта (ИИ). Выборка составила 1081 медицинских работников разных специальностей.
Результаты опроса радуют сердце разработчиков ИИ-сервисов в здравоохранении. Правда, речь идет об американских врачах, но общемировой тренд очевиден: ChatGPT и сервисы на основе ИИ завоевывают пользователей во всем мире. И врачи — не исключение.
Что видим в итоге опроса:
✔️Почти трое из четырех (72%) опрошенных заявили, что ИИ улучшит качество диагностики, 69% отметили эффективность в автоматизации рабочих процессов. Большинство врачей (61%) заявили, что видят в ИИ потенциал для улучшения клинических результатов.
✔️38% опрошенных уже использует ИИ-сервисе в своей клинической практике, более половины отметили его преимущество в оптимизации рутинных задач.
✔️25% врачей используют ChatGPT в личной жизни и уже 17% врачей изредка используют его в своей работе.
Интересно устроить такой опрос среди отечественных врачей. Правда, наш генеративный искусственный интеллект от гигантов ИТ-рынка пока не дотягивает до уровня ChatGPT. Так что нам есть к чему стремиться!
@medicalksu
Please open Telegram to view this post
VIEW IN TELEGRAM
#chatgpt #мероприятия
28 февраля в 16:00 в @medtechchat пройдет онлайн-трансляция, на которой обсудим вопросы внедрения генеративного искусственного интеллекта в медицинских организациях России.
Гость трансляции, врач-невролог из Тюмени, Артем Борсуков, расскажет как он применил ChatGPT в своей работе. Еще поговорим о возможностях российских GigaСhat и YaGPT, которые открывают эти языковые модели для врачей. Планируем свободную дискуссию — слово дадим всем!
Не забудьте подключиться 28 февраля в 16:00 к трансляции в @medtechchat!
@medicalksu
28 февраля в 16:00 в @medtechchat пройдет онлайн-трансляция, на которой обсудим вопросы внедрения генеративного искусственного интеллекта в медицинских организациях России.
Гость трансляции, врач-невролог из Тюмени, Артем Борсуков, расскажет как он применил ChatGPT в своей работе. Еще поговорим о возможностях российских GigaСhat и YaGPT, которые открывают эти языковые модели для врачей. Планируем свободную дискуссию — слово дадим всем!
Не забудьте подключиться 28 февраля в 16:00 к трансляции в @medtechchat!
@medicalksu