Er hatte Angst vor der künstlichen Intelligenz, die er geschaffen hatte: Geständnisse von Chatgpt-CEO Sam Altman, die Sie nachts wach halten werden!

OpenAI-CEO Sam Altman gab zu, dass er über einen Moment entsetzt war, den er beim Testen des künstlichen Intelligenzmodells der nächsten Generation erlebte, bei dem es sich voraussichtlich um GPT-5 handeln wird.
Altman verglich die Geschwindigkeit und den unkontrollierten Fortschritt der Technologie mit der historischen Angst, die die Physiker des Manhattan-Projekts erlebten, die die Atombombe entwickelten, und sagte: „Es gab einen Moment, der mich wirklich bewegt hat. Er erinnerte mich an das Manhattan-Projekt.“
Altmans Besorgnis hat die weltweite Debatte darüber, ob die künstliche Intelligenz außer Kontrolle gerät, neu entfacht.
Die alarmierende Geschwindigkeit von GPT-5Was Sam Altman so beeindruckte, war nicht nur die Leistungsfähigkeit des neuen Modells, sondern auch die Geschwindigkeit seiner Weiterentwicklung.
„Dieses System hat etwas, das es wirklich schnell macht. Das macht mich nervös“, sagte Altman und wies darauf hin, dass die Technologie eine Geschwindigkeit erreicht habe, die die menschliche Fähigkeit, sie zu verstehen und zu bewältigen, übersteige.
GPT-5, dessen Start für Anfang August geplant ist und dessen interne Tests fast abgeschlossen sind, soll bei bestimmten Aufgaben überraschend agil und autonom sein.
„Es gibt niemanden mehr, der das stoppen kann“Altmans Hauptsorgen liegen im regulatorischen Vakuum, das die Technologie umgibt. „Es gibt niemanden mehr, der sie stoppen kann“, fasste der CEO zusammen und betonte, dass die KI-Entwicklung die regulatorischen Anforderungen bei weitem überhole.
Er verglich das Fehlen einer internationalen Regulierungsbehörde, von Sicherheitsstandards und ethischen Grenzen mit einem „Rennen ohne Piloten“.
Eine der treffendsten Aussagen Altmans fasste die Situation zusammen:
„Kein Erwachsener im Raum sagt: ‚Okay, lasst uns alles stoppen. Lasst uns damit aufhören.‘“ Diese Worte offenbaren die Hilflosigkeit selbst der Branchenführer angesichts einer Technologie, von der sie nicht genau wissen, wohin sie sich entwickelt.
Nicht das Modell ist gefährlich, sondern die unkontrollierte VerteilungAltman behauptet nicht, dass GPT-5 grundsätzlich gefährlich sei. Er warnt jedoch ausdrücklich davor, dass der Einsatz dieser Technologie bei unsachgemäßer Handhabung gefährlich sein könnte. Angesichts der Tatsache, dass GPT-4 überzeugende Halluzinationen erzeugen, sich als Mensch ausgeben und Schadcode generieren kann, ist das Potenzial der nächsten Version Anlass zu berechtigter Neugier und Besorgnis.
„Ein bisschen Angst ist eine gute Sache“, wiederholt Altman, und mit diesem aufrichtigen Eingeständnis stellt er der ganzen Welt eigentlich die Frage: Haben wir noch Zeit, über die Gestaltung dieser Technologie nachzudenken, oder sind wir dazu verdammt, einer Macht passiv zu folgen, die wir nicht mehr beherrschen können?
SÖZCÜ