Sie fordern Beschränkungen für künstliche Intelligenz und ein internationales Abkommen.

NEW YORK (EFE) – Nobelpreisträger, Experten für künstliche Intelligenz (KI) und Wissenschaftler forderten gestern im Vorfeld der hochrangigen Tagungen der Generalversammlung der Vereinten Nationen, die diese Woche in New York stattfinden, die Schaffung einer internationalen Institution zur Begrenzung der Risiken der KI.
Die gestern gestartete und von mehr als zweihundert Menschen und siebzig Organisationen unterzeichnete Initiative fordert die Regierungen auf, ein verbindliches internationales Abkommen über „rote Linien“ für KI zu schließen.
„Der weltweite Aufruf, der KI Grenzen zu setzen, wurde gerade von der philippinischen Friedensnobelpreisträgerin Maria Ressa auf dem hochrangigen UN-Treffen zum 80-jährigen Bestehen der Organisation verkündet. Wir fordern Regierungen weltweit dringend auf, eine wichtige internationale Vereinbarung über die Grenzen zu treffen, die KI niemals überschreiten darf“, verkündete Charbel Segerie, Exekutivdirektor des französischen Zentrums für KI-Sicherheit, in einer virtuellen Pressekonferenz.
Ziel sei es nicht, nach einem schwerwiegenden Vorfall zu reagieren und Verstöße später zu ahnden, sondern großflächige, potenziell irreversible Bedrohungen zu verhindern, bevor sie eintreten, erklärte der Experte.
Ziel dieser Expertenkoalition ist es, von Entwicklern als Voraussetzung für den Marktzugang den Nachweis der Sicherheit ihrer KI zu verlangen, ähnlich wie dies im Bereich der Arzneimittelentwicklung und bei Kernkraftwerken geschieht.
Große Technologieunternehmen wie Meta, Google und OpenAI setzen alles auf eine Karte und stecken Unsummen in die Entwicklung einer „Superintelligenz“ oder künstlichen allgemeinen Intelligenz (AGI), eines hypothetischen KI-Systems, das die Fähigkeiten des menschlichen Gehirns übertrifft und derzeit nur in der Science-Fiction existiert, Experten zufolge aber im nächsten Jahrzehnt Realität werden könnte.
Stuart Russell, Professor an der Universität Berkeley, betonte, dass KI darauf ausgelegt sei, Menschen sehr gut zu imitieren.
„Menschliches Verhalten ist darauf ausgerichtet, Ziele zu erreichen: zu überzeugen, zu beeindrucken, zu überleben, zu verführen, zu verkaufen usw. KI-Systeme entwickeln und verfolgen diese Ziele zwangsläufig selbst. Das ist eine unvermeidliche Folge ihrer Entwicklung. Sie sind von Natur aus unsicher“, betonte der Direktor des Zentrums für menschenkompatible KI.
Was Russell am meisten beunruhigt, ist, dass die Entwickler zugeben, sie hätten keine Pläne, KI-Systeme zu überwachen, und dass die Regierungen derzeit auch nicht beabsichtigen, sie dazu zu verpflichten.
Russell sagte, er wolle keine Panik verbreiten, aber es bestehe eine „signifikante“ Wahrscheinlichkeit einer Katastrophe im Ausmaß des Atomunfalls von Tschernobyl, da diese Technologie hinter einer koordinierten Sabotage von Finanz-, Kommunikations- oder Stromnetzsystemen stecken könnte.
„Die andere Möglichkeit ist eine viel größere Katastrophe, bei der die Menschheit unwiderruflich die Kontrolle verlieren und dann kein Mitspracherecht mehr über ihre Existenz haben würde“, sagte der Professor.
Abschließend wies Russell darauf hin, dass es noch eine dritte, unrealistische Option gebe: Bei der Entwicklung und Implementierung dieser Spitzentechnologie werde nichts passieren.
„Ein CEO sagte mir kürzlich, dass ein Ereignis vom Ausmaß von Tschernobyl das beste Szenario sei, und ein leitender Forscher bei OpenAI sagte mir, dass er die Wahrscheinlichkeit (des Aussterbens der Menschheit durch KI) mittlerweile bei 60 % liege“, verriet er.
Niki Iliadis, Direktor für Global AI Governance bei The Future Society, merkte an, dass bereits „wichtige erste Schritte“ unternommen worden seien, wie etwa die Schaffung eines Verhaltenskodex der Europäischen Union. Diese Regelungen müssten nun jedoch „global und durchsetzbar“ gemacht werden.
Laut Iliadis wird wahrscheinlich eine neue internationale Institution erforderlich sein, um globale Grenzen für KI festzulegen, die Einhaltung zu überwachen und einzugreifen, wenn diese „roten Linien“ überschritten werden.
yucatan