Le PDG d'OpenAI met en garde les utilisateurs de GPT Chat : tout ce que vous dites à l'IA pourrait être utilisé contre vous.

Avez-vous déjà fait part de vos problèmes à Chat GPT ? Avez-vous demandé des diagnostics, des solutions ou des conseils ? Soyez plus prudent avec ce que vous dites à cette intelligence artificielle, car cela pourrait être utilisé contre vous et porter atteinte à votre vie privée. C’est l’avertissement lancé par Sam Altman, PDG d’OpenAI, l’entreprise qui a créé cet outil.
Sam Altman, PDG d'OpenAI, a averti que les conversations des chatbots ne sont pas protégées par le privilège juridique qui garantit la confidentialité entre le patient et le thérapeute ou le client et l'avocat.

L'IA a été utilisée comme coach ou thérapeute. Photo : iStock
Lors d'une interview pour le podcast « This Past Weekend », Altman, a lancé un avertissement clé aux millions d'utilisateurs qui interagissent quotidiennement avec ChatGPT : ce qui est dit dans ces conversations n'est peut-être pas aussi privé que beaucoup le croient.
Le danger de tout dire à une IA « Les gens parlent des choses les plus intimes de leur vie avec ChatGPT […]. Ils l'utilisent comme s'il s'agissait d'un thérapeute ou d'un coach de vie », a déclaré le PDG. Il a toutefois averti que ces interactions ne sont pas protégées par la confidentialité, contrairement à celles entre un médecin et son patient ou un avocat et son client.
« Si vous parlez de ces questions à un thérapeute, à un avocat ou à un médecin, il existe un privilège juridique : il y a la confidentialité médecin-patient, une confidentialité juridique », a- t-il expliqué.

Le cadre juridique ne couvre pas la confidentialité dans ChatGPT. Photo : iStock
Le dirigeant a expliqué que, contrairement aux professions qui disposent d'un cadre juridique pour protéger les informations sensibles, les conversations avec des outils d'intelligence artificielle ne bénéficient pas encore de cette protection. « Nous n'avons pas encore résolu ce problème avec ChatGPT », a-t-il reconnu.
Altman a également noté que cette faille pourrait avoir de graves conséquences.
Conversations non protégées par la loi Si un utilisateur fait l’objet de poursuites judiciaires, les autorités compétentes pourraient facilement demander l’accès aux journaux de discussion et les utiliser comme preuve, car il n’existe aucun cadre juridique protégeant ces discussions alimentées par l’IA, que des millions de personnes dans le monde utilisent.

Le PDG d'OpenAI a appelé à un débat urgent sur l'application des lois sur la protection de la vie privée. Photo : iStock
« Si vous discutez de vos sujets les plus sensibles avec ChatGPT et qu'il y a ensuite des poursuites judiciaires, ils pourraient nous obliger à divulguer les conversations. Et je pense que ce serait une catastrophe », a-t-il déclaré. Altaman a également souligné la nécessité pour cette intelligence artificielle d'avoir la même compréhension de la confidentialité des conversations qu'un thérapeute et de son secret professionnel.
Face à cette situation, le PDG d’OpenAI a appelé à un débat urgent sur la manière dont les lois sur la confidentialité devraient être appliquées à l’ère de l’intelligence artificielle.
Maria Paula Rodriguez Rozo
DERNIÈRES NOUVELLES ÉDITORIAL
eltiempo