Tıbbi sorularınız için ChatGPT mi kullanıyorsunuz? Bu neden henüz iyi bir fikir değil?
%3Aformat(jpeg)%3Abackground_color(fff)%2Fhttps%253A%252F%252Fwww.metronieuws.nl%252Fwp-content%252Fuploads%252F2024%252F09%252FANP-473901592.jpg&w=1280&q=100)
ChatGPT geleceğin doktoru mu? Bu soru son yıllarda giderek daha sık gündeme geliyor. Ancak Amerika Birleşik Devletleri'ndeki bir durum, ChatGPT'nin bu alanda her zaman en iyi dostunuz olmadığını gösteriyor. Bir adam, bir yapay zeka robotunun beslenmesinden tuzu nasıl çıkaracağı konusunda tavsiye vermesinin ardından nadir görülen bir rahatsızlık geliştirdi.
2023 yılında, Google'ın yapay zeka destekli bir tıbbi sohbet robotu, zorlu bir ABD tıp sınavını geçti. Google araştırmacıları, programa USMLE çoktan seçmeli sınavını uygulattı. Med-PaLM %67,6 puan aldı, bu da programın sınavı geçtiği anlamına geliyordu. Yazarlar o dönemde, "Med-PaLM cesaret verici bir performans sergiliyor, ancak hekimlerin gerisinde kalmaya devam ediyor" diye yazmışlardı.
Amerika Birleşik Devletleri'nde yayınlanan bir tıp dergisi olan Annals of Internal Medicine , ChatGPT'nin tıbbi yardım olarak kullanımının nadir görülen bir duruma yol açtığı bir durumu anlatıyor. 60 yaşındaki adam, sofra tuzunun (sodyum klorür) olumsuz etkileri hakkında bir şeyler okumuş ve yapay zeka robotuna bunu beslenmesinden nasıl çıkarabileceğini sormuş. ChatGPT daha sonra klorürün, 20. yüzyılın başlarında hala sakinleştirici olarak kullanılan sodyum bromür ile değiştirilebileceğini önermiş.
Adam üç ay boyunca sodyum bromür kullandıktan sonra acil servise gitti. Orada, komşusunun kendisini zehirlediğini iddia etti. Aşırı susama, uykusuzluk ve sivilce gibi semptomlar yaşadı. Daha sonra sorunun sodyum bromürden kaynaklandığı ortaya çıktı. Sonuç olarak adam, bromür zehirlenmesi olarak da bilinen bromizm hastalığına yakalandı.
Washington Üniversitesi'ne bağlı yazarlar, "Bu vaka, yapay zeka (YZ) kullanımının önlenebilir olumsuz sağlık sonuçlarının gelişimine nasıl katkıda bulunabileceğini gösteriyor," diye yazıyor. Adamın sohbetine erişimleri olmasa da, klorürün hangi maddeyle değiştirilebileceğini sorduklarında, bromürden bahseden bir yanıt aldılar. "Yanıtta bağlamın önemli olduğu belirtilse de, bir tıp uzmanının varsayacağı gibi belirli bir sağlık uyarısı veya neden bilmek istediğimiz sorulmadı."
ChatGPT ve diğer yapay zeka sistemlerinin "bilimsel yanlışlıklara yol açabileceğini, sonuçları eleştirel bir şekilde tartışma yeteneğinden yoksun olabileceğini ve nihayetinde yanlış bilginin yayılmasını körükleyebileceğini" akılda tutmanın önemli olduğunu savunuyorlar. Yazarlar, ChatGPT'yi "bilim insanları ile akademi dışındaki kesimler arasındaki uçurumu kapatma potansiyeli yüksek bir araç" olarak görüyor, ancak bilgilerin bağlamından koparılma riskine dikkat çekiyorlar. Böyle bir durumda bir tıp uzmanının sodyum bromürden bahsetmesi "çok düşük bir ihtimal". "Sağlık hizmeti sağlayıcıları, hastalarının sağlık bilgilerine nereden eriştiğine dikkat etmelidir."
ChatGPT ile sohbet etmenin başka riskleri de var. Örneğin, bazı kişiler botu kişisel terapist olarak kullanıyor. Yapay zeka büyük bir empatiyle yanıt veriyor, bu yüzden şaşırtıcı değil, ancak gerçek sorunları olan kişilerde ruh sağlığının kötüleşmesine yol açabilir. Örneğin, işini kaybeden, depresyona giren bir adam ChatGPT'ye New York'taki en yüksek köprüleri sordu. Sıradan bir terapist hemen müdahale ederdi; ChatGPT ise derli toplu bir liste sunuyor.
Cinsel sorular bile riskli görünüyor . İngiliz araştırmaları, birçok gencin ChatGPT'yi bir cinsel eğitim yöntemi olarak kullandığını gösteriyor. Ancak uzmanlara göre, ChatGPT'nin verdiği cevapların nereden geldiğini bilmek zor. Bu da botun yanlış cevap verebileceği veya tamamen istenmeyen bir şey önerebileceği anlamına geliyor.
Mavi-yeşil algler ve bakteriler: Su kalitesi düşük yüzme alanlarının sayısı giderek artıyor
Metro Holland