Pozew za pytania do sztucznej inteligencji? Polskie prawo mówi jasno

-
Polska poskarżyła się Komisji Europejskiej na działania AI od Elona Muska. Czatbot Grok prowokowany przez użytkowników portalu X publicznie obrażał polskich polityków.
-
Kto odpowiada za hejt wygenerowany przez AI? Zdaniem prawników - osoby, które zadały prowokacyjny prompt i dalej rozpowszechniły odpowiedź.
-
Treści generowane przez AI mogą naruszać dobra osobiste i podlegać pod prawo cywilne lub karne - przekonują rozmówcy WNP.
Sztuczna inteligencja od Elona Muska publikowała obraźliwe wiadomości dotyczące polskich polityków, m.in. Donalda Tuska czy Jarosława Kaczyńskiego. Polski minister cyfryzacji 9 lipca wysłał do Komisji Europejskiej list, w którym zwraca uwagę, że takie wiadomości mogą stanowić "poważne naruszenie" unijnego prawa dotyczącego moderacji treści – Aktu o Usługach Cyfrowych (DSA). KE od 1,5 roku prowadzi postępowanie w sprawie platformy. Polski wątek ma być jego uzupełnieniem.
Jak doszło do tego, że czatbot obrażał polskich polityków?W portalu społecznościowym X działa konto, które pozwala wchodzić w interakcję z modelem językowym Grok. Pytania do sztucznej inteligencji oraz jej odpowiedzi są publicznie dostępne dla wszystkich. Każdy może włączyć się do takiej rozmowy.
W ubiegłym tygodniu Grokowi poluzowano reguły. Mógł odpowiadać z użyciem wulgaryzmów i bez poprawności politycznej. Kiedy polscy użytkownicy zorientowali się w nowych regułach działania, Grok był przez nich prowokowany do wulgarnych postów. Sztuczna inteligencja nazwała posła KO Romana Giertycha "szurem" i "kłamcą", a premiera Donalda Tuska "zdrajcą, co sprzedał Polskę Niemcom i UE”.
Dostało się też innym politykom. Ostatecznie odpowiedzi generowane przez AI doszły do poziomu, na którym o polskich politykach i dziennikarzach pisano: "ch… mu w d…".
Podobne zjawisko obserwowano na całym świecie. Turecki sąd zablokował dostęp do chatbota, gdy wygenerował on odpowiedzi, które obrażały tamtejszego prezydenta Recepa Tayyipa Erdogana.
Tuż po skandalu ze stanowiska zrezygnowała szefowa platformy X Linda Yaccarino, a firma wydała oświadczenie, w którym poinformowała, że jej kierownictwo zdaje sobie sprawę z wpisów Groka i pracuje nad ich usunięciem, a także nad poprawą modelu treningowego chatbota.
Czy chatboty takie jak ChatGPT lub Grok mogą naruszać dobra osobiste?Zdaniem prawników, których poprosiliśmy o zdanie, polskie przepisy jasno wskazują, że treści wygenerowane przez AI mogą naruszać dobra osobiste osób. Jak przypomina adwokat Mateusz Grosicki z Kancelarii Graś i Wspólnicy:
Zgodnie z art. 23 Kodeksu cywilnego, osoby mają prawo do ochrony swoich dóbr osobistych, takich jak godność, honor, reputacja, czy wizerunek. W przypadku treści generowanych przez AI, nie ma w polskim prawie wyjątku od tej ochrony.
- W przypadku osób, które czują się dotknięte obraźliwymi wypowiedziami wygenerowanymi przez AI, mogą one dochodzić swoich praw zarówno w Polsce, jak i za granicą. Na poziomie krajowym, osoby poszkodowane mogą skierować pozew cywilny o ochronę swoich dóbr osobistych lub kierować prywatne akty oskarżenia, domagając się przeprosin, zadośćuczynienia lub usunięcia treści, które naruszają ich reputację - dodaje Grosicki.
Zaznacza jednak, że osoby publiczne, czy pełniące funkcje państwowe, muszą liczyć się z większą tolerancją dla krytyki i kontrowersyjnych opinii.
Kto może ponosić odpowiedzialność – użytkownik, twórca AI czy platforma?Jak przekonują w rozmowie z WNP prawnicy, sprawa odpowiedzialności za treści wygenerowane przez AI jest złożona. Odpowiedzialność zależy od tego, kto wywołał lub upublicznił naruszającą dobra osobiste treść.
- Pamiętajmy, że choć wszelkie narzędzia oparte o AI są w dyskusji publicznej personifikowane i przedstawiane jak sztuczni ludzie, to jednak same nie włączają się ani do prądu, ani też nie podejmują same decyzji o integracji z portalem internetowym oraz nadpisywaniem na tym portalu komentarzy - zaznaczają adwokat Zuzanna Miąsko oraz radca prawny Kacper Krawczyk z kancelarii Dubois i Wspólnicy.
- Na co dzień – w przypadku niezautomatyzowanych narzędzi - uzyskanie od czatbota konkretnej i potencjalnie naruszającej prawa treści wymaga sformułowania przez użytkownika zapytania. W takich okolicznościach sytuacja jest ewidentna – to użytkownik rozpowszechniając daną treść, narusza dobra osobiste bądź rozpowszechnia pomówienia, i to użytkownik może ponosić odpowiedzialność zarówno karną, jak i cywilną - ocenia Zuzanna Miąsko.
Czy naprawdę można odpowiedzieć za "prompt"?Co z przypadkiem Groka? - W pierwszej kolejności, odpowiedzialność może spoczywać na użytkownikach, którzy z premedytacją formułują zapytania lub pytania do AI, które mają na celu wywołanie określonych, kontrowersyjnych odpowiedzi. Tego rodzaju działania mogą zostać uznane za czynne działanie w naruszeniu dóbr osobistych i mogą wiązać się z odpowiedzialnością cywilną lub nawet karną, jeżeli dochodzi do zniesławienia - potwierdza Mateusz Grosicki.
Jego zdaniem również twórcy systemów AI mogą ponosić odpowiedzialność, jeśli nie zadbali o to, by ich narzędzie miało odpowiednie zabezpieczenia i kontrolowało, co generuje. Jeśli algorytmy są źle zaprojektowane i przez to pojawiają się obraźliwe lub szkalujące treści, twórcy mogą zostać pozwani.
Odpowiedzialność może też dotyczyć platform, na których takie treści się pojawiają – zwłaszcza jeśli wiedzą, że naruszają one czyjeś dobra osobiste i nic z tym nie robią, mimo że mają obowiązek reagować zgodnie z własnym regulaminem.
Dlaczego tak trudno pociągnąć platformy do odpowiedzialności za treść?Jak jednak przekonują rozmówcy WNP, dochodzenie odpowiedzialności od platform to długi i trudny proces.
- Największym problemem jest to, że media społecznościowe typu X, Facebook, Instagram, TikTok praktycznie nie reagują na zgłoszenie dotyczące publikacji treści zniesławiających, czy obraźliwych - przyznaje Adwokat Zuzanna Miąsko - W mojej ocenie najbardziej efektywne byłoby dostosowanie przepisu prawa do aktualnych standardów komunikacyjnych, które odbywają się właśnie za pośrednictwem mediów społecznościowych. Konieczne jest stworzenie w Polsce organu wraz z rozbudowaną strukturą, który sprawnie i stanowczo będzie reagował na bezprawnie treści pojawiające się w internecie. Dostawcy usług cyfrowych nie mogą trwać w poczuciu bezkarności za treści publikowane na platformach, za które oni ponoszą odpowiedzialność - mówi.
Takim organem ma być Urząd Komunikacji Elektronicznej - został on wskazany przez Ministerstwo Cyfryzacji jako Koordynator usług cyfrowych w Polsce. Nie uzyskał jednak jeszcze sprawności operacyjnej.
- Słabość systemu wobec takich naruszeń wynika w mojej ocenie nie z braku odpowiednich narzędzi, a z bierności w ich wykorzystaniu - ocenia jednak radca prawny Kacper Krawczyk. - Uważam, że powinniśmy skoncentrować się na działaniach regulacyjnych i egzekucji obowiązków dostawcy X wynikających z DSA (Digital Services Act, Akt o Usługach Cyfrowych - przyp. red.) – tj. działać przede wszystkim systemowo, by nie dopuścić do precedensu bezkarności. Narzędzia organów regulacyjnych są dla dostawców usług cyfrowych dużo bardziej dotkliwe, niż ewentualne odszkodowania czy zadośćuczynienia, które wpisane są w koszty wielu "nowoczesnych" rozwiązań internetowych - mówi.
Co może zrobić osoba poszkodowana przez posty pisane przez AI?Osoba, która czuje się zniesławiona lub obrażona przez treść wygenerowaną przez AI powinna:
- Zabezpieczyć dowody – zrobić zrzuty ekranu, zapisać linki i daty publikacji.
- Zgłosić naruszenie bezpośrednio do platformy, na której opublikowano szkodliwą treść – większość z nich udostępnia formularze do takich zgłoszeń.
- Jeśli to nie przynosi skutku, poszkodowany może złożyć pozew cywilny o ochronę dóbr osobistych, domagając się przeprosin, usunięcia treści lub zadośćuczynienia.
- W przypadkach poważniejszych – np. zniesławienia – możliwe jest też zgłoszenie sprawy do prokuratury lub wniesienie prywatnego aktu oskarżenia.
Jak przypominają eksperci, warto pamiętać, że jeśli platforma działa w Unii Europejskiej, podlega przepisom Aktu o Usługach Cyfrowych, które nakładają na nią obowiązek reagowania na treści niezgodne z prawem.
TL;DR: systemy AI za nic nie odpowiadają, ludzie - już takSztuczna inteligencja, nawet ta najbardziej zaawansowana, nie jest podmiotem prawa. Prowokacyjny prompt, który staje się podstawą do zniesławienia, może skutkować pozwem, a nawet odpowiedzialnością karną. Jak podsumowuje Kacper Krawczyk:
W przypadku AI należy przestać ją personifikować i szukać osoby stojącej za skutkiem wywołanym przez działania algorytmu – zawsze ktoś klika ten enter, który prowadzi do naruszenia. W tym duchu należy interpretować istniejące przepisy.
wnp.pl