Parlez aux professionnels de la santé, pas seulement à ChatGPT, exhortent les médecins de l'Ontario

ChatGPT et d’autres outils d’intelligence artificielle similaires peuvent parfois répondre avec précision aux questions des patients, mais les chercheurs médicaux canadiens avertissent que les informations doivent être soigneusement vérifiées avant d’agir en fonction de ce que vous voyez.
Les conseils des chercheurs interviennent alors que l'Association médicale de l'Ontario (OMA) a organisé une conférence de presse cette semaine, discutant des sources d'information DIY - des moteurs de recherche aux médias sociaux en passant par les chatbots - et de leurs impacts, ainsi que de ce que les patients peuvent faire à la place.
Il est important d'avertir les gens dès maintenant, a déclaré la Dre Valérie Primeau, psychiatre de North Bay qui dirige des programmes hospitaliers et communautaires pour la santé mentale et les dépendances, car les patients se tournent de plus en plus vers les outils d'IA.
Les chatbots donnent des résultats convaincants et empathiques , mais les informations peuvent être fausses .
« J'ai maintenant des patients qui consultent ChatGPT pour obtenir des conseils et discuter », a déclaré Primeau. « Je prévois donc que ce problème perdurera, et si nous ne le réglons pas maintenant et n'aidons pas les gens à s'y retrouver , ils auront des difficultés. »
Le Dr David D'Souza, radio-oncologue à London, en Ontario, qui dirige la recherche clinique sur les traitements du cancer basés sur l'imagerie, a déclaré que selon la façon dont les patients interrompent ce que l'IA leur dit, ils pourraient reporter les traitements conventionnels.
« Un patient est venu me voir pour me demander s'il devait attendre quelques années avant de se faire traiter pour son cancer diagnostiqué, car il pense que l'IA permettra de personnaliser les traitements contre le cancer pour les patients », a déclaré D'Souza aux journalistes. « J'ai dû le convaincre de suivre un traitement maintenant. »
Étant donné que les consommateurs utiliseront ces outils, la présidente de l'OMA, la Dre Zainab Abdurrahman, a conseillé que si un message indique que « les médecins vous ont caché cela », elle suggère de vérifier les sites Web des groupes de spécialistes concernés, tels que les associations provinciales de soins contre le cancer, pour voir s'ils le confirment.
Les fausses publicités , y compris les images générées par l'IA, peuvent également induire les patients en erreur, a averti Abdurrahman, qui est également immunologiste clinicien et allergologue.
La perte de nuances rend les résultats de l'IA plus difficiles à utiliserAlors que la technologie progresse, les chatbots d’aujourd’hui répondent systématiquement aux questions de santé avec de fausses informations quisemblent faire autorité .
Dansune étude , le Dr Benjamin Chin-Yee, professeur adjoint au département de pathologie et de médecine de laboratoire de l'Université Western, et ses co-auteurs ont introduit près de 5 000 résumés de littérature médicale et scientifique dans des modèles de langage à grande échelle d'IA, dont ChatGPT, et ont demandé des résumés.
Ils ont découvert que les trois quarts des versions de l’IA omettaient des parties clés de déclarations soigneusement protégées.
Par exemple, l'article de journal pourrait indiquer qu'un médicament n'est efficace que chez un certain groupe de patients, tandis que le résumé omet ce détail clé, a déclaré Chin-Yee, qui est également hématologue.

« Le problème est que lorsque cette nuance de détail est perdue, cela peut être trompeur pour les praticiens qui tentent d’utiliser ces connaissances pour influencer leur pratique clinique. »
Chin-Yee a déclaré que l’IA est un domaine de recherche actif qui évolue rapidement, avec de nouveaux modèles plus proches de l’humain et plus conviviaux, mais il peut y avoir des inconvénients à s’appuyer uniquement sur ces outils.
De même, David Chen, étudiant en médecine à l’Université de Toronto, a comparé les résultats fournis par des chatbots à 200 questions sur le cancer posées sur un forum Reddit avec les réponses fournies par des oncologues.
« Nous avons été surpris de constater que ces chatbots étaient capables d'atteindre des niveaux de compétence quasi-humains, sur la base de l'évaluation de la qualité, de l'empathie et de la lisibilité par notre équipe de médecins », a déclaré Chen.
Mais les résultats expérimentaux peuvent ne pas refléter ce qui se passe dans le monde réel.
« Sans surveillance médicale, il est difficile de faire confiance à 100 % à certains résultats de ces technologies génératives », a déclaré Chen, ajoutant que les préoccupations concernant la confidentialité, la sécurité et la confiance des patients n'ont pas encore été pleinement explorées.

Les technologies d'IA générative comme les chatbots reposent sur des technologies de correspondance de modèles qui fournissent le résultat le plus probable à une question donnée, en fonction des informations sur lesquelles elles ont été entraînées. En médecine, cependant, les diagnostics improbables peuvent également être importants et ne doivent pas être exclus.
De plus, les chatbots peuvent avoir des hallucinations : produire des résultats qui semblent convaincants mais qui sont incorrects, inventés, absurdes ou non pertinents.
« Il y a également eu des études de recherche qui ont été publiées et qui suggèrent que les taux d'hallucinations de ces chatbots peuvent atteindre plus de 20 % », a déclaré Chen, ce qui pourrait rendre le résultat « cliniquement erroné ».

Au printemps, le cardiologue Eric Topol, professeur et vice-président exécutif de Scripps Research à San Diego, en Californie, a publié un livre, Superagers: An Evidence-Based Approach to Longevity , qui examine l'impact de l'IA sur la longévité et la qualité de vie.
« Il y a beaucoup d'anecdotes positives, mais aussi négatives », a déclaré Topol à propos des patients utilisant des chatbots. « L'utilisation de ces outils n'a pas encore été évaluée de manière systématique et pertinente pour le grand public. »
Topol conseille de consulter plusieurs chatbots et de vérifier la fiabilité des informations obtenues. Il suggère également de demander des citations de la littérature médicale, précisant que celles-ci sont parfois fictives et doivent être vérifiées.
Idéalement, Topol a déclaré qu'il faudrait tester en conditions réelles les réponses des chatbots auprès de dizaines de milliers de personnes, afin de suivre les tests effectués, les diagnostics posés et les résultats pour ceux qui ont utilisé des sources d'IA et ceux qui ne l'ont pas fait. Mais il est peu probable que les entreprises technologiques participent, car elles n'y gagneraient pas toutes, a-t-il ajouté.
« C’est un monde différent maintenant et on ne peut pas revenir en arrière », a déclaré Topol à propos de l’utilisation judicieuse des outils.
cbc.ca