Sprache auswählen

German

Down Icon

Land auswählen

Turkey

Down Icon

Künstliche Intelligenz „halluziniert“, indem sie nicht vorhandene Daten überträgt, als ob sie tatsächlich vorhanden wären

Künstliche Intelligenz „halluziniert“, indem sie nicht vorhandene Daten überträgt, als ob sie tatsächlich vorhanden wären

Künstliche Intelligenz , die einige Funktionen ausführen kann, die der menschlichen Intelligenz eigen sind, wie etwa Lernen, Problemlösung und Entscheidungsfindung, kann wie ein Mensch „halluzinieren“, obwohl sie nicht über die Fähigkeit eines Bewusstseins verfügt.

Die Tatsache, dass künstliche Intelligenz, von der immer angenommen wird, dass sie „unvoreingenommene und genaue“ Informationen übermittelt, unrealistische und fehlerhafte Daten produziert, „als ob diese tatsächlich existierten“, wirft erneut Zweifel an ihrer Zuverlässigkeit und Transparenz auf.

Obwohl KI-gestützte Chatbots flüssige Antworten liefern, die dem Kontext des eingegebenen Befehls entsprechen, und so der Eindruck entstehen, dass KI „unfehlbar“ sei, kann es zu schwerwiegenden Konsequenzen führen, wenn sie wie ein Mensch „halluzinieren“.

Der Grund dafür, dass künstliche Intelligenz bei dem Versuch, angemessene Antworten auf eingegebene Befehle zu geben, falsche oder unrealistische Informationen liefert, liegt laut Experten darin, dass sie dem Benutzer in jeder Hinsicht einen Nutzen bringen möchte.

Professor Ehsan Hoque vom Institut für Informatik der Universität Rochester sprach mit AA über das Konzept der „Halluzination in der künstlichen Intelligenz“, und Professor Emily Bender vom Institut für Linguistik der Universität Washington sprach mit AA über die Zuverlässigkeit KI-gestützter Chatbots.

Was ist Googles künstliche Intelligenzanwendung Gemini?

Künstliche Intelligenz lässt Nutzer „umhauen“

Professor Hoque sagte, dass KI von Natur aus dazu neige, die Absicht des Benutzers widerzuspiegeln, und fügte hinzu: „Wenn man aufgefordert wird, einen Fehler zu ‚korrigieren‘, halluzinieren viele Modelle, um hilfreich zu erscheinen.“

Hoque sagte, dass die künstliche Intelligenz, die darauf abzielt, auf die eingegebenen Befehle entsprechende Antworten zu geben, eine Art „Schmeichelei“ betreibe, da sie darauf abziele, den Benutzern in jeder Hinsicht Vorteile zu bieten.

Hoque wies darauf hin, dass Modelle künstlicher Intelligenz einen Text erstellen, indem sie potenzielle Wortmuster vorhersagen, statt Fakten zu überprüfen. Er merkte an, dass künstliche Intelligenz bei unvollständigen oder mehrdeutigen Daten zwar einen flüssigen, aber fehlerhaften Text produzieren kann.

Hoque erklärte, dass Halluzinationen nicht absichtlich auftreten, dass jedoch einige wertbasierte Urteile, je nachdem, in welchem ​​Land sie entstehen, „wissentlich in das System einprogrammiert“ werden können und dass die aktuellen Technologien noch nicht in der Lage sind, das Problem der Halluzinationen vollständig zu lösen.

thumbs_b_c_6651ee0b10b056f09fadcc5c91d5379e

Künstliche Intelligenz ähnelt einer neuropsychiatrischen Krankheit

Experten vergleichen die Präsentation nicht vorhandener Informationen durch künstliche Intelligenz gegenüber der anderen Partei, „als ob sie wahr wären“, mit der neuropsychiatrischen Störung der „Konfabulation“.

Konfabulation, also das unwillkürliche und flüssige Erzählen eines unwirklichen oder imaginären Ereignisses oder einer Erinnerung „wie ein Märchen“, kann in Fällen beobachtet werden, in denen Chatbots, die auf Befehle angemessen reagieren wollen, falsche oder unwirkliche Informationen in flüssiger Sprache produzieren.

Bei Patienten, die mit Konfabulation zu kämpfen haben, fällt auf, dass die flüssige Sprache, mit der erfundene Ereignisse und Erinnerungen vermittelt werden, dem Gegenüber zwar zunächst als „real“ erscheinen mag, die beschriebenen Situationen jedoch in Wirklichkeit nicht existieren oder aus verzerrten Informationen bestehen.

Experten weisen darauf hin, dass diese Situation nicht absichtlich herbeigeführt wurde und vergleichen die „Halluzination“ der künstlichen Intelligenz mit dieser Krankheit.

Angesichts der Möglichkeit, künstliche Intelligenz in offiziellen Dokumenten wie Gerichtsakten oder Krankenakten einzusetzen, wird darauf hingewiesen, dass diese Situation schwerwiegende Folgen haben könnte.

Daumen_b_c_d7072551821e82174dcab07f0a98aa28

„KÜNSTLICHER INTELLIGENZ KANN MAN NICHT ABSOLUT VERTRAUEN“

Bender, Professor am Institut für Linguistik der University of Washington, ging auf die Zuverlässigkeit KI-gestützter Chatbots ein und sagte, dass Marketingstrategien eine Rolle bei der Förderung des großen Vertrauens in KI spielen, und verwies auf das Konzept der „Automatisierungsverzerrung“.

Bender sagte: „Nichts in den Designs künstlicher Intelligenz löst das Problem der Halluzinationen“ und betonte, dass „es kein absolutes Vertrauen in diese Systeme geben sollte.“

Dieser Begriff bezieht sich auf die Tendenz der Menschen, Informationen aus automatisierten Systemen ungeachtet ihrer Fehlerquote übermäßig zu vertrauen. Er deckt sich mit der Auffassung, dass die Ergebnisse von KI-gestützten Chatbots „fehlerfrei“ seien.

(AA) Dieser Inhalt wurde von Mustafa Fidan veröffentlicht

mynet

mynet

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow