Врачи Онтарио призывают обращаться к медицинским работникам, а не только к ChatGPT

ChatGPT и аналогичные инструменты искусственного интеллекта иногда могут точно отвечать на вопросы пациентов, но канадские медицинские исследователи предупреждают, что информацию необходимо тщательно проверять, прежде чем предпринимать какие-либо действия на основании увиденного.
Рекомендации исследователей прозвучали после того, как на этой неделе Медицинская ассоциация Онтарио (OMA) провела пресс-конференцию, на которой обсуждались самодельные источники информации — от поисковых систем и социальных сетей до чат-ботов — и их влияние, а также то, что пациенты могут сделать вместо этого.
По словам доктора Валери Примо, психиатра из Норт-Бэй, которая руководит стационарными и общественными программами по психическому здоровью и борьбе с зависимостями, важно предупредить людей уже сейчас, поскольку пациенты все чаще обращаются к инструментам ИИ.
Чат-боты дают убедительные и сочувственные результаты — но информация может быть ложной .
«У меня есть пациенты, которые обращаются к ChatGPT за советом и возможностью поговорить», — сказал Примо. «Поэтому я предвижу, что эта проблема будет сталкиваться и дальше, и если мы не решим её сейчас и не поможем людям справиться с ней , им придётся нелегко».
Доктор Дэвид Д'Суза, радиоонколог из Лондона, Онтарио, который руководит клиническими исследованиями методов лечения рака на основе изображений, сказал, что в зависимости от того, как пациенты прерывают то, что им сообщает ИИ, они могут отложить традиционное лечение.
«Пациент обратился ко мне с вопросом, стоит ли ему подождать несколько лет, прежде чем начать лечение диагностированного рака, поскольку он верит, что ИИ сможет адаптировать методы лечения рака под каждого пациента», — рассказал Д’Суза журналистам. «Мне пришлось убеждать его, почему ему следует начать лечение сейчас».
Учитывая, что потребители будут использовать эти инструменты, президент OMA д-р Зайнаб Абдуррахман посоветовала, если в сообщении говорится, что «врачи скрывают это от вас», проверить веб-сайты соответствующих специализированных групп, например, провинциальных ассоциаций по лечению онкологических заболеваний, чтобы убедиться, что они подтверждают эту информацию.
Абдуррахман, который также является клиническим иммунологом и аллергологом, предупредил, что фейковая реклама , в том числе изображения, созданные искусственным интеллектом, также может вводить пациентов в заблуждение.
Из-за утраты нюансов на результаты ИИ становится сложнее полагатьсяНесмотря на развитие технологий, современные чат-боты регулярно отвечают на вопросы о здоровье, предоставляя ложную информацию, котораякажется достоверной .
Водном из исследований доктор Бенджамин Чин-Йи, доцент кафедры патологии и лабораторной медицины Западного университета, и его соавторы загрузили около 5000 аннотаций медицинской и научной литературы в большие языковые модели ИИ, включая ChatGPT, и запросили аннотации.
Они обнаружили, что три четверти версий ИИ пропускали ключевые части тщательно охраняемых заявлений.
Например, в журнальной статье может быть сказано, что препарат эффективен только для определенной группы пациентов, тогда как в резюме эта ключевая деталь упускается, говорит Чин-Йи, который также является гематологом.

«Проблема заключается в том, что если этот нюанс в деталях будет утерян, это может ввести в заблуждение практикующих врачей, которые попытаются использовать эти знания для улучшения своей клинической практики».
Чин-Йи отметил, что ИИ — это активно развивающаяся область исследований, которая быстро меняется, появляются новые модели, более похожие на человеческие и удобные для пользователя. Однако опора только на эти инструменты может иметь свои недостатки.
Аналогичным образом Дэвид Чен, студент-медик из Университета Торонто, сравнил результаты, предоставленные чат-ботами на 200 вопросов о раке с форума Reddit, с ответами, предоставленными онкологами.
«Мы были удивлены, обнаружив, что эти чат-боты способны работать на уровне, близком к уровню человеческих экспертов, основываясь на оценке качества, эмпатии и читаемости, проведенной нашей врачебной командой», — сказал Чэнь.
Однако экспериментальные результаты могут не отражать того, что происходит в реальном мире.
«Без медицинского контроля сложно на 100% доверять некоторым результатам работы этих генеративных технологий», — сказал Чэнь, добавив, что вопросы конфиденциальности, безопасности и доверия пациентов до сих пор не были полностью изучены.

Генеративные технологии искусственного интеллекта, такие как чат-боты, основаны на методах сопоставления шаблонов, которые выдают наиболее вероятный ответ на заданный вопрос, основываясь на информации, на которой они были обучены. Однако в медицине маловероятные диагнозы также могут быть важны, и их не следует исключать.
Кроме того, чат-боты могут галлюцинировать — выдавать результаты, которые кажутся убедительными, но на самом деле неверны, выдуманы, бессмысленны или неуместны.
«Также были опубликованы исследования, которые показали, что частота галлюцинаций у этих чат-ботов может превышать 20 процентов», — сказал Чэнь, что может сделать результаты «клинически ошибочными».

Весной кардиолог Эрик Топол, профессор и исполнительный вице-президент исследовательского центра Scripps в Сан-Диего, Калифорния, опубликовал книгу « Суперэгеры: подход к долголетию, основанный на фактических данных» , в которой рассматривалось влияние ИИ на продолжительность жизни и качество жизни.
«Есть много хороших историй, есть и плохих», — сказал Тополь о пациентах, использующих чат-ботов. «Систематическая оценка и осмысленная оценка для публичного использования не проводились».
Тополь сказал, что советует людям консультироваться с несколькими чат-ботами и проверять достоверность получаемой информации. Он также посоветовал запрашивать ссылки на медицинскую литературу, отметив, что иногда они не соответствуют действительности и требуют проверки.
По словам Топола, в идеале следовало бы провести реальное тестирование ответов чат-бота, включающее отслеживание результатов тестов, поставленных диагнозов и результатов для тех, кто использовал ИИ-ресурсы, и тех, кто этого не делал. Однако технологические компании вряд ли будут участвовать, поскольку каждая из них не выиграет, добавил он.
«Теперь мир другой, и вернуться назад во времени невозможно», — сказал Тополь о разумном использовании инструментов.
cbc.ca