Il avait peur de l'intelligence artificielle qu'il avait créée : les confessions du PDG de Chatgpt, Sam Altman, qui vous empêcheront de dormir la nuit !

Le PDG d'OpenAI, Sam Altman, a admis avoir été horrifié par un moment qu'il a vécu lors du test du modèle d'intelligence artificielle de nouvelle génération, qui devrait être GPT-5.
Altman a comparé la rapidité et l'avancée incontrôlée de la technologie à l'anxiété historique ressentie par les physiciens du Projet Manhattan qui ont développé la bombe atomique, en déclarant : « Il y a eu un moment qui m'a vraiment ému. Cela m'a rappelé le Projet Manhattan. »
L’inquiétude d’Altman a relancé le débat mondial sur la question de savoir si l’intelligence artificielle est en train de devenir incontrôlable.
La vitesse alarmante du GPT-5Ce qui a tant impressionné Sam Altman, ce n’est pas seulement la puissance du nouveau modèle, mais aussi sa vitesse d’avancement.
« Il y a quelque chose dans ce système qui le rend vraiment rapide. Cela me rend nerveux », a déclaré Altman, soulignant que la technologie a atteint une vitesse qui dépasse la capacité humaine à comprendre et à gérer.
GPT-5, dont le lancement est prévu début août et dont les tests internes sont presque terminés, se révèle étonnamment agile et autonome dans certaines tâches.
« Il n'y a plus personne pour arrêter ça »Au cœur des préoccupations d'Altman réside le vide réglementaire qui entoure cette technologie. « Plus personne ne peut l'arrêter », a résumé le PDG, soulignant que le rythme de développement de l'IA dépasse largement les exigences réglementaires.
Il a comparé l’absence d’organisme de réglementation international, de normes de sécurité et de limites éthiques à une « course sans pilote ».
L’une des déclarations les plus frappantes d’Altman résume la situation :
« Il n'y a pas un seul adulte dans la salle qui dit : "Ok, arrêtons tout. Arrêtons ça." » Ces mots révèlent l'impuissance même des leaders du secteur face à une technologie dont ils ne savent pas vraiment où elle va.
Ce n’est pas le modèle qui est dangereux, c’est la distribution non géréeAltman ne prétend pas que GPT-5 soit intrinsèquement dangereux. Cependant, il met clairement en garde contre le danger potentiel du déploiement de cette technologie en cas de mauvaise gestion. Étant donné que GPT-4 peut créer des hallucinations convaincantes, se faire passer pour des humains et générer du code malveillant, le potentiel de la prochaine version suscite une curiosité et une inquiétude légitimes.
« Un peu de peur est une bonne chose », répète Altman, et avec cet aveu sincère, il pose en réalité au monde entier cette question : avons-nous encore le temps de réfléchir à la façon dont nous façonnons cette technologie, ou sommes-nous condamnés à accompagner passivement un pouvoir que nous ne pouvons plus gérer ?
SÖZCÜ