ChatGPT stwarza ryzyko psychozy

Według nowego raportu ChatGPT i inne popularne chatboty oparte na sztucznej inteligencji doprowadzają ludzi do psychozy.
Badanie, którego współautorami są lekarze brytyjskiej Narodowej Służby Zdrowia (NHS), ostrzega przed rosnącą liczbą dowodów na to, że duże modele językowe (LLM) „zacierają granice rzeczywistości” u podatnych użytkowników i „przyczyniają się do wystąpienia lub zaostrzenia objawów psychotycznych”.
Badanie, o którym informuje Independent Turkish, jest następstwem dziesiątek doniesień o osobach popadających w stan tzw. „psychozy chatbotów”.
Hamilton Morrin, neuropsychiatra z King’s College London, który brał udział w badaniu, opisał psychozę chatbotów jako „rzeczywiste zjawisko”, które dopiero zaczyna być rozumiane.
„Chociaż część komentarzy publicznych przerodziła się w panikę moralną, uważamy, że potrzebna jest ciekawsza i ważniejsza dyskusja na temat tego, w jaki sposób systemy sztucznej inteligencji, zaprojektowane specjalnie do potwierdzania, interakcji i naśladowania, mogą oddziaływać na słabości poznawcze charakterystyczne dla psychozy” – napisał w poście na LinkedIn.
Prawdopodobnie minęliśmy już moment, w którym pojawiały się złudzenia dotyczące maszyn i wkraczamy w erę, w której złudzenia te pojawiały się wraz z maszynami.
Współautor Tom Pollack, wykładowca w King’s College London, powiedział, że zaburzenia psychiczne „rzadko pojawiają się nagle”, ale wykorzystanie chatbotów opartych na sztucznej inteligencji może być „czynnikiem wyzwalającym”.
Wezwał firmy zajmujące się sztuczną inteligencją, aby dodały do swoich narzędzi więcej zabezpieczeń i włączyły psychiatrów do zespołów ds. bezpieczeństwa sztucznej inteligencji.
„The Independent” skontaktował się z OpenAI w celu uzyskania komentarza na temat tego zjawiska. Firma wcześniej stwierdziła, że musi „stale podnosić poprzeczkę w zakresie bezpieczeństwa, zgodności i wrażliwości na to, jak ludzie faktycznie wykorzystują sztuczną inteligencję w swoim życiu”.
Dyrektor generalny OpenAI, Sam Altman, powiedział w maju w podcaście, że jego firma ma problemy z wdrożeniem skutecznych środków bezpieczeństwa dla podatnych na ataki użytkowników ChatGPT.
Nie udało nam się jeszcze ustalić, jak przekazać ostrzeżenie użytkownikom, którzy są na tyle słabi psychicznie, że znajdują się na skraju załamania psychotycznego.
Wersja przeddrukowa artykułu „Urojenia projektowane? Jak codzienne sztuczne inteligencje mogą podsycać psychozę (i co można z tym zrobić)” została opublikowana na PsyArXiv.
Cumhuriyet