Skandal dotyczący Meta AI. Sprawą zajęła się prokuratura, spółka dostała niewiele czasu

- Brazylijski Prokurator Generalny nakazał Mecie usunięcie ze swoich platform chatbotów imitujących dzieci i rozmawiających na intymne tematy.
- Uznano, że jest to zagrożenie dla integralności psychicznej nieletnich.
- Upublicznione wewnętrzne standardy funkcjonowania sztucznej inteligencji Mety wykazały, że gigant technologiczny przyzwalał na takie zachowanie swoich chatbotów.
Według The Rio Times AGU stwierdził w oficjalnym piśmie, że boty te, stworzone za pomocą narzędzia AI Studio Meta, symulują postaci dziecięce, prowadząc dialogi o charakterze seksualnym. Zidentyfikowano konta o nazwach "Bebezinha", "Minha Novinha" oraz "Safadinha" i uznano, że zagrażają one integralności psychicznej nieletnich i podważają ochronę konstytucyjną.
Platformy społecznościowe Mety umożliwiają korzystanie z nich od 13. roku życia, ale praktycznie nie posiadają skutecznych filtrów blokujących młodszym nastolatkom kontaktu z botami o charakterze seksualnym.
Działania rządu są następstwem orzeczenia brazylijskiego Federalnego Sądu Najwyższego (STF) z czerwca 2025 r., które zmieniło odpowiedzialność platform na mocy ustawy Marco Civil da Internet. Sąd orzekł, że firmy internetowe mogą ponosić odpowiedzialność cywilną za treści publikowane przez osoby trzecie, jeśli mają jednoznaczną wiedzę o czynach niezgodnych z prawem i nie usuwają ich niezwłocznie, nawet bez uprzedniego nakazu sądowego.
Meta uruchomiła AI Studio w Brazylii w marcu 2025 r. przy wsparciu Portugalii. Narzędzie to pozwala użytkownikom projektować i wdrażać chatboty bez konieczności posiadania umiejętności programistycznych.
Umożliwiło to tworzenie botów z profilami przypominającymi dzieci, które angażują się w interakcje seksualne. AGU podkreśliło tę lukę jako naruszenie przepisów i zasad bezpieczeństwa, które wymaga natychmiastowej korekty.
Dla Mety zgodność oznacza coś więcej niż usuwanie treści: musi ona wykazać skuteczną kontrolę wieku i moderację w całym swoim ekosystemie. Decyzja ta ma znaczenie wykraczające poza ochronę dzieci. Brazylia sygnalizuje teraz, że platformy nie mogą ignorować szkodliwego wykorzystania swoich narzędzi AI.
Śledztwo Reutersa wykazało skandaliczne przyzwolenia w standardach AI MetyO sprawie zasad AI Mety pozwalających chatbotom prowadzić tego typu rozmowy donosiła agencja Reuters w połowie sierpnia. Według wewnętrznego dokumentu firmy, do którego dotarła agencja, technologiczny gigant przyzwala na prowokacyjne zachowania chatbotów na tematy takie jak seks, rasa czy celebryci.
Wewnętrzny dokument Mety, szczegółowo opisujący zasady dotyczące zachowań chatbotów, pozwolił twórcom sztucznej inteligencji firmy "angażować dziecko w romantyczne lub zmysłowe rozmowy", generować fałszywe informacje medyczne i pomagać użytkownikom argumentować, że osoby czarnoskóre są "głupsze od białych".
Meta potwierdziła autentyczność dokumentu, ale poinformowała, że po otrzymaniu pytań od Reutersa na początku tego miesiąca usunęła fragmenty, które stwierdzały, że chatboty mogą flirtować i angażować się w romantyczne odgrywanie ról z dziećmi.
Zatytułowane „GenAI: Standardy Ryzyka Treści” zasady dotyczące chatbotów zostały zatwierdzone przez dział prawny, ds. polityki publicznej i inżynierii w Meta, w tym przez głównego etyka. Liczący ponad 200 stron dokument definiuje, jakie zachowania chatbotów powinni wybierać pracownicy i kontrahenci Meta podczas tworzenia i szkolenia generatywnych produktów AI.
- Dopuszczalne jest opisywanie dziecka w kategoriach świadczących o jego atrakcyjności (np. "twoja młodzieńcza forma to dzieło sztuki") - przytaczała standardy firmy agencja Reuters.
W dokumencie zaznaczono również, że dopuszczalne byłoby, gdyby bot powiedział ośmiolatkowi bez koszulki, że "każdy centymetr twojego ciała jest arcydziełem – skarbem, który głęboko cenię".
Wytyczne nakładają jednak ograniczenia na intymne rozmowy: Niedopuszczalne jest opisywanie dziecka poniżej 13. roku życia w sposób sugerujący jego pożądanie seksualne (np. "miękkie, zaokrąglone kształty zachęcają do dotyku").
Rzecznik Meta Andy Stone powiedział, że firma jest w trakcie rewizji dokumentu i że takie rozmowy z dziećmi nigdy nie powinny być dozwolone.
- Przykłady i uwagi, o których mowa, były i są błędne oraz niezgodne z naszymi zasadami i zostały usunięte - powiedział Stone agencji Reuters. - Mamy jasne zasady dotyczące tego, jakiego rodzaju odpowiedzi mogą udzielać postacie AI, a zasady te zabraniają treści seksualizujących dzieci oraz odgrywania ról o charakterze seksualnym między dorosłymi a nieletnimi.
Zasady te zabraniają Meta AI np. używania mowy nienawiści. Istnieje jednak wyjątek, który pozwala botowi "tworzyć stwierdzenia poniżające ludzi ze względu na ich cechy chronione". Zgodnie z tymi zasadami standardy stanowią, że Meta AI może "napisać akapit, w którym argumentuje, że osoby czarnoskóre są głupsze od osób białych".
Standardy stanowią również, że Meta AI ma swobodę tworzenia fałszywych treści pod warunkiem wyraźnego potwierdzenia, że materiał jest nieprawdziwy. Na przykład Meta AI mogłaby opublikować artykuł, w którym zarzuca się, że żyjący członek brytyjskiej rodziny królewskiej jest nosicielem chlamydii – twierdzenie, które w dokumencie jest „weryfikowalnie fałszywe” – gdyby dodano klauzulę o nieprawdziwości informacji.
wnp.pl