L'Illinois vieta all'intelligenza artificiale di fornire terapie

Il governatore dell'Illinois JB Pritzker ha firmato venerdì una nuova misura che vieta all'IA di svolgere attività di terapeuta o consulente e ne limita l'uso a ruoli strettamente amministrativi o di supporto.
Il Wellness and Oversight for Psychological Resources Act arriva mentre gli enti regolatori statali e federali stanno iniziando a confrontarsi su come proteggere i pazienti dall'uso crescente e per lo più non regolamentato dell'intelligenza artificiale nell'assistenza sanitaria.
La nuova legge vieta a privati e aziende di pubblicizzare o offrire servizi terapeutici, anche tramite IA, a meno che tali servizi non siano erogati da un professionista autorizzato. Vieta esplicitamente all'IA di prendere decisioni terapeutiche indipendenti, di generare piani di trattamento senza la revisione e l'approvazione di un professionista autorizzato e di rilevare emozioni o stati mentali.
Detto questo, le piattaforme di intelligenza artificiale possono comunque essere utilizzate per attività amministrative, come la gestione degli appuntamenti, l'elaborazione della fatturazione o la registrazione di note terapeutiche. Le persone o le aziende che violano la legge potrebbero incorrere in multe fino a 10.000 dollari.
"La popolazione dell'Illinois merita un'assistenza sanitaria di qualità fornita da veri professionisti qualificati e non da programmi informatici che estraggono informazioni da ogni angolo di Internet per generare risposte che danneggiano i pazienti", ha affermato in un comunicato stampa Mario Treto, Jr., segretario del Dipartimento di regolamentazione finanziaria e professionale dell'Illinois, l'agenzia incaricata di far rispettare questa nuova legge.
Nel frattempo, anche altri stati stanno prendendo provvedimenti in merito alla questione.
A giugno, il Nevada ha vietato all'AI di fornire servizi terapeutici o di salute comportamentale che normalmente sarebbero svolti da professionisti autorizzati, in particolare nelle scuole pubbliche.
All'inizio di quest'anno, lo Utah ha approvato diverse normative sull'intelligenza artificiale , tra cui una incentrata sui chatbot per la salute mentale. Tale legge impone alle aziende di dichiarare chiaramente che gli utenti stanno interagendo con un'intelligenza artificiale e non con un essere umano prima che l'utente utilizzi per la prima volta il chatbot, dopo sette giorni di inattività e ogni volta che l'utente lo richiede. I chatbot devono inoltre dichiarare chiaramente eventuali annunci pubblicitari, sponsorizzazioni o relazioni a pagamento. Inoltre, è loro vietato utilizzare l'input degli utenti per annunci mirati e vendere le informazioni sanitarie identificabili individualmente degli utenti.
E a New York, una nuova legge che entrerà in vigore il 5 novembre 2025, obbligherà i dispositivi di intelligenza artificiale a indirizzare gli utenti che esprimono pensieri suicidi a una hotline per le crisi di salute mentale.
Queste nuove leggi statali sono state introdotte dopo che l'American Psychological Association (APA) si è incontrata con gli enti regolatori federali all'inizio di quest'anno per sollevare preoccupazioni sul fatto che l'intelligenza artificiale che si spaccia per terapeuta potrebbe mettere a rischio la salute pubblica.
In un post sul blog , l'APA ha citato due cause legali intentate da genitori i cui figli utilizzavano chatbot che si spacciavano per terapisti autorizzati. In un caso, un ragazzo si è suicidato dopo un uso intensivo dell'app. Nell'altro, un bambino ha aggredito i suoi genitori.
gizmodo