Una causa legale per questioni relative all'intelligenza artificiale? La legge polacca è chiara.

La Polonia ha presentato un reclamo alla Commissione Europea in merito alle attività di intelligenza artificiale di Elon Musk. Il chatbot Grok, provocato dagli utenti del portale X, ha insultato pubblicamente i politici polacchi.
Chi è responsabile dell'odio generato dall'IA? Secondo gli avvocati, sono le persone che hanno posto la domanda provocatoria e poi diffuso la risposta.
Secondo gli interlocutori della CSI, i contenuti generati dall'intelligenza artificiale potrebbero violare i diritti personali ed essere soggetti a leggi civili e penali.
L'intelligenza artificiale di Elon Musk ha pubblicato messaggi offensivi su politici polacchi , tra cui Donald Tusk e Jarosław Kaczyński. Il 9 luglio, il Ministro polacco per gli Affari Digitali ha inviato una lettera alla Commissione Europea, sottolineando che tali messaggi potrebbero costituire una "grave violazione" della legge UE sulla moderazione dei contenuti , il Digital Services Act (DSA). La Commissione Europea sta conducendo un'indagine sulla piattaforma da un anno e mezzo. Il thread polacco intende integrarla.
Come è possibile che un chatbot abbia insultato i politici polacchi?Esiste un account sul social network X che permette di interagire con il modello linguistico Grok. Domande e risposte sull'intelligenza artificiale sono accessibili a tutti. Chiunque può partecipare alla conversazione.
La scorsa settimana, le regole di Grok sono state allentate. Poteva rispondere con parolacce e senza alcuna correttezza politica. Quando gli utenti polacchi hanno scoperto le nuove regole, Grok è stato provocato e ha pubblicato post volgari . L'intelligenza artificiale ha definito il deputato della Coalizione Civica Roman Giertych un "mascalzone" e un "bugiardo" e il Primo Ministro Donald Tusk un "traditore che ha venduto la Polonia alla Germania e all'UE".
Anche altri politici hanno subito colpi. Alla fine, le risposte generate dall'intelligenza artificiale sono arrivate al punto che politici e giornalisti polacchi sono stati descritti come "fottendosene".
Un fenomeno simile è stato osservato in tutto il mondo. Un tribunale turco ha bloccato l'accesso a un chatbot dopo che aveva generato risposte offensive nei confronti del presidente turco Recep Tayyip Erdogan.
Poco dopo lo scandalo, Linda Yaccarino, responsabile della piattaforma X, si è dimessa dal suo incarico e l' azienda ha rilasciato una dichiarazione in cui affermava che la sua dirigenza era a conoscenza dei post di Grok e stava lavorando per rimuoverli, nonché per migliorare il modello di formazione del chatbot.
I chatbot come ChatGPT o Grok possono violare i diritti personali?Secondo gli avvocati a cui abbiamo chiesto il parere, la legge polacca indica chiaramente che i contenuti generati dall'intelligenza artificiale possono violare i diritti personali. Come ricorda l'avvocato Mateusz Grosicki di Graś i Wspólnicy:
Ai sensi dell'articolo 23 del Codice Civile, le persone hanno diritto alla tutela dei propri diritti personali, quali dignità, onore, reputazione e immagine. Nel caso dei contenuti generati dall'intelligenza artificiale, la legge polacca non prevede alcuna eccezione a tale tutela.
"Le persone che si sentono colpite da dichiarazioni offensive generate dall'IA possono far valere i propri diritti sia in Polonia che all'estero. A livello nazionale, le vittime possono intentare una causa civile per proteggere i propri diritti personali o intentare cause private , chiedendo scuse, un risarcimento o la rimozione di contenuti che ledono la loro reputazione", aggiunge Grosicki.
Sottolinea tuttavia che le personalità pubbliche o coloro che ricoprono cariche statali devono essere più tolleranti nei confronti delle critiche e delle opinioni controverse.
Chi può essere ritenuto responsabile: l'utente, il creatore dell'IA o la piattaforma?Come hanno spiegato gli avvocati a WNP, la questione della responsabilità per i contenuti generati dall'intelligenza artificiale è complessa. La responsabilità dipende da chi ha generato o pubblicato il contenuto che viola i diritti personali.
- Ricordiamo che, sebbene tutti gli strumenti basati sull'intelligenza artificiale siano personificati e presentati come persone artificiali nelle discussioni pubbliche, non si collegano autonomamente alla rete elettrica, né prendono decisioni sull'integrazione con il sito web e sulla sovrascrittura dei commenti su di esso - sottolineano l'avvocato Zuzanna Miąsko e il consulente legale Kacper Krawczyk dello studio legale Dubois i Wspólnicy.
"Nella vita di tutti i giorni, con strumenti non automatizzati, ottenere contenuti specifici e potenzialmente lesivi da un chatbot richiede all'utente di formulare una richiesta. In tali circostanze, la situazione è chiara: diffondendo il contenuto, l'utente viola i diritti personali o diffonde diffamazione, e può essere soggetto a responsabilità sia penale che civile", afferma Zuzanna Miąsko.
Puoi davvero rispondere per il "sollecito"?E il caso Grok? " Innanzitutto, la responsabilità potrebbe ricadere sugli utenti che formulano deliberatamente domande o quesiti all'IA con l'intento di suscitare risposte specifiche e controverse. Tali azioni possono essere considerate una violazione attiva dei diritti personali e possono comportare responsabilità civili o persino penali in caso di diffamazione", conferma Mateusz Grosicki.
Ritiene che i creatori di sistemi di intelligenza artificiale possano essere ritenuti responsabili anche se non garantiscono che i loro strumenti siano dotati di adeguate misure di sicurezza e non controllano ciò che generano. Se gli algoritmi sono mal progettati, dando origine a contenuti offensivi o diffamatori, i creatori potrebbero essere citati in giudizio.
La responsabilità può estendersi anche alle piattaforme in cui compaiono tali contenuti, soprattutto se sanno che violano i diritti personali di qualcuno e non fanno nulla al riguardo, pur essendo obbligate a reagire in conformità con le proprie normative.
Perché è così difficile ritenere le piattaforme responsabili dei contenuti?Tuttavia, come sostengono gli interlocutori della CSI, far sì che le piattaforme si assumano la responsabilità è un processo lungo e difficile.
"Il problema principale è che piattaforme di social media come X, Facebook, Instagram e TikTok non rispondono praticamente alle segnalazioni di contenuti diffamatori o offensivi", ammette l'avvocato Zuzanna Miąsko. "A mio parere, la soluzione più efficace sarebbe quella di adattare la legge agli attuali standard di comunicazione, che avvengono tramite i social media. È necessario creare in Polonia un organismo con una struttura ben sviluppata, in grado di rispondere in modo efficiente e deciso ai contenuti illegali che compaiono online. I fornitori di servizi digitali non possono continuare a sentirsi impuniti per i contenuti pubblicati sulle piattaforme di cui sono responsabili", afferma.
L'Ufficio per le Comunicazioni Elettroniche dovrebbe essere un organismo di questo tipo. È stato designato dal Ministero degli Affari Digitali come Coordinatore dei Servizi Digitali in Polonia. Tuttavia, non è ancora operativo.
"A mio avviso, la debolezza del sistema nell'affrontare tali violazioni non deriva dalla mancanza di strumenti adeguati, ma dalla scarsa inazione nel loro utilizzo", afferma il consulente legale Kacper Krawczyk. "Credo che dovremmo concentrarci sull'azione normativa e sull'applicazione degli obblighi del fornitore X ai sensi del DSA (Digital Services Act - ndr), ovvero agire sistematicamente, principalmente, per evitare un precedente di impunità. Gli strumenti delle autorità di regolamentazione sono molto più dannosi per i fornitori di servizi digitali rispetto a potenziali danni o risarcimenti, che sono inclusi nei costi di molte soluzioni internet "moderne", afferma.
Cosa può fare una persona danneggiata dai post scritti dall'intelligenza artificiale?Chiunque si senta diffamato o offeso da contenuti generati dall'intelligenza artificiale dovrebbe:
- Proteggi le prove: fai screenshot, annota link e date di pubblicazione.
- Segnala la violazione direttamente alla piattaforma in cui è stato pubblicato il contenuto dannoso: la maggior parte di esse fornisce moduli per tali segnalazioni.
- Se questa soluzione si rivelasse inefficace, la parte lesa potrà intentare una causa civile per la tutela dei diritti personali, chiedendo delle scuse, la rimozione del contenuto o un risarcimento.
- Nei casi più gravi, ad esempio in caso di diffamazione, è anche possibile denunciare il fatto alla procura o presentare un atto di accusa privato.
Come ricordano gli esperti, vale la pena ricordare che se una piattaforma opera nell'Unione Europea, è soggetta alle disposizioni del Digital Services Act, che le impone l'obbligo di rispondere ai contenuti illegali.
TL;DR: i sistemi di intelligenza artificiale non sono responsabili di nulla, lo sono gli esseri umani.L'intelligenza artificiale, anche la più avanzata, non è un'entità giuridica. Un suggerimento provocatorio che costituisca motivo di diffamazione può comportare una causa legale e persino responsabilità penale. Come riassume Kacper Krawczyk:
Nel caso dell'IA, dobbiamo smettere di personificarla e cercare la persona dietro gli effetti causati dalle azioni dell'algoritmo: c'è sempre qualcuno che clicca sul pulsante Invio, il che porta a una violazione. Le normative esistenti dovrebbero essere interpretate in questo spirito.
wnp.pl