Zastanów się dwa razy, zanim powiesz ChatGPT swój sekret

Wiele osób korzystających obecnie z narzędzi AI wykorzystuje je jako doradców i terapeutów. Sam Altman, dyrektor generalny OpenAI, wydał ważne ostrzeżenie, stwierdzając, że osobiste rozmowy z AI nie są prawnie uznawane za poufne . Według Altmana wielu użytkowników, zwłaszcza ChatGPT , korzysta z nich jako terapeutów, coachów życiowych lub konsultantów. Jednak te rozmowy nie podlegają poufności w kontekście poradnictwa medycznego, prawnego lub psychologicznego.
W podcaście „This Past Weekend” Altman stwierdził, że ramy prawne w tym obszarze nie zostały jeszcze ustanowione i że prywatne rozmowy ze sztuczną inteligencją mogą być udostępniane na podstawie nakazu sądowego. „Ludzie mówią ChatGPT o najbardziej osobistych sprawach w swoim życiu” – powiedział Altman. „Ale w przeciwieństwie do rozmów, które można dziś prowadzić z terapeutą czy prawnikiem, te rozmowy nie są prawnie chronione” – dodał, podkreślając, że stwarza to istotną lukę w prywatności.
Oświadczenia te wpisują się w trwającą batalię prawną OpenAI z NYT. Firma zaskarżyła nakaz sądowy nakazujący powszechne przechowywanie czatów użytkowników. Altman stwierdził, że firmy mogą spotkać się ze zwiększonym ryzykiem żądania ujawnienia danych użytkowników w toku postępowań sądowych, co stanowi poważne zagrożenie dla zaufania użytkowników.
Fakt, że OpenAI jest teraz zobowiązane do przechowywania danych użytkowników spoza grona klientów korporacyjnych (ChatGPT Enterprise), pokazuje szeroki zakres tej debaty. Altman powiedział również, że użytkownicy powinni rozważyć te wątpliwości prawne przed skorzystaniem z ChatGPT.
Słowa Altmana wyraźnie pokazują, jak bardzo kwestie bezpieczeństwa danych osobowych i prywatności użytkowników zeszły na dalszy plan w czasach, gdy sztuczna inteligencja coraz głębiej integruje się z naszym życiem.
milliyet