Hilft KI Schülern, weniger zu lernen? MIT-Studie zeigt neuronale Auswirkungen des Einsatzes künstlicher Intelligenz auf Schüler

In den letzten Jahren, mit der zunehmenden Verbreitung künstlicher Intelligenz (KI) im Alltag, wurden zahlreiche Studien durchgeführt, um die Auswirkungen dieser Technologie speziell auf Wissenschaft und Bildung zu untersuchen. Erstmals gelang es jedoch einer Studie, die Auswirkungen des Einsatzes dieser Tools auf die Gehirnaktivität im Bildungskontext direkt zu messen.
Dabei handelt es sich um eine von Nataliya Kosmyna vom MIT Media Lab (einem der bedeutendsten Forschungslabore am Massachusetts Institute of Technology – MIT) durchgeführte Untersuchung, die die kognitiven Kosten der Verwendung umfangreicher Sprachmodelle oder LLM (künstliche Intelligenzen wie ChatGPT) im Bildungskontext ermitteln sollte, insbesondere bei einer der grundlegendsten akademischen Aktivitäten: dem Schreiben eines Essays.
Die Ergebnisse waren mehr als aufschlussreich, obwohl der Wissenschaftler darauf besteht, dass diese Forschungsrichtung fortgesetzt werden muss. Es wurde deutlich, dass der Einsatz künstlicher Intelligenz beim Schreiben von Aufsätzen weniger Gehirnaktivität erfordert.
Um zu diesem Schluss zu gelangen, wurde im Rahmen der Studie versucht, die kognitive Belastung von 54 Studenten großer Universitäten im Raum Boston (MIT, Harvard, Wellesley College, Tufts und Northeastern) beim Verfassen eines Essays zu messen, unabhängig davon, ob sie dabei durch Technologie unterstützt wurden oder nicht.
Daher wurden sie in drei Gruppen aufgeteilt: Die erste würde ihren Aufsatz mit Hilfe von LLM (insbesondere ChatGPT) fertigstellen, die zweite würde sich ausschließlich auf Suchmaschinen ohne künstliche Intelligenz verlassen (Google-Suche und ähnliche Plattformen) und die dritte wurde „Brain Only“ genannt, da sie über keinerlei technologische Unterstützung verfügte.

Die Universität ist für ihre akademischen Programme bekannt. Foto: iStock
Insgesamt gab es drei Sitzungen, in denen die Teilnehmer dieselbe Aufgabe bearbeiteten, sowie eine zusätzliche Sitzung, in der die LLM-Gruppe auf die Verwendung von Technologie verzichtete und die Personen der Brain Only-Gruppe durch künstliche Intelligenz unterstützt wurden.
„ Wir haben Elektroenzephalographie (EEG) verwendet, um die Gehirnaktivität der Teilnehmer aufzuzeichnen und so ihr kognitives Engagement und ihre kognitive Belastung zu beurteilen. Außerdem haben wir die neuronalen Aktivierungen während der Aufsatzaufgabe besser verstanden“, erklärte Kosmyna.
Die Ergebnisse waren eindeutig: Die Gehirnkonnektivität nahm mit zunehmender externer Technologieunterstützung systematisch ab. Diejenigen, die LLM-Unterstützung erhielten, zeigten insgesamt die schwächste neuronale Kopplung. Dies zeigte sich in einer geringeren Aktivierung und Konnektivität in Gehirnnetzwerken, die mit dem Arbeitsgedächtnis, der semantischen Integration und der exekutiven Kontrolle verbunden sind.
Dies steht im Gegensatz zu den Ergebnissen der Brain Only-Gruppe, die sich durch stärkere und weitreichendere neuronale Netzwerke auszeichnete, insbesondere in den sogenannten Alpha- und Theta-Bändern, die am engsten mit Fähigkeiten wie Kreativität, Gedächtnis und der Fähigkeit zur anhaltenden Konzentration verbunden sind.
Darüber hinaus zeigten diejenigen, die zunächst von ChatGPT unterstützt wurden und dann ihren Aufsatz ohne technische Hilfe fertigstellen mussten, während der letzten Sitzung, in der die Rollen getauscht wurden, größere Schwierigkeiten bei der Aufgabe und wiesen darüber hinaus eine schwächere neuronale Konnektivität sowie eine geringere Aktivierung der Alpha-, Beta- und Theta-Netzwerke auf.
Im Gegensatz dazu zeigten diejenigen, die bei der Einwirkung von KI nur ihr Gehirn nutzten , „eine größere Gedächtniskapazität und eine Reaktivierung der okzipito-parietalen und präfrontalen Knoten, was wahrscheinlich die visuelle Verarbeitung begünstigt.“
So wurden unter anderem folgende Daten ermittelt: 83 Prozent der Teilnehmer der KI-Gruppe zeigten eine deutlich eingeschränktere Fähigkeit, Sätze oder Argumente aus ihren eigenen Aufsätzen zu zitieren, verglichen mit 11 Prozent der Teilnehmer der Brain-Only-Gruppe, was auf Gedächtnisschwierigkeiten hindeutet. Darüber hinaus konnte keiner der Teilnehmer, die ChatGPT nutzten, seinen Aufsatz in der ersten Sitzung korrekt zitieren, während dieser Prozentsatz in den anderen Gruppen bei nahezu 100 Prozent lag.
„Diese Tools bieten zwar beispiellose Möglichkeiten, das Lernen und den Zugang zu Informationen zu verbessern, doch ihre potenziellen Auswirkungen auf die kognitive Entwicklung, das kritische Denken und die intellektuelle Unabhängigkeit erfordern eine sorgfältige Prüfung und weitere Forschung“, heißt es in der Studie.

Dieser künstlichen Intelligenz wird Belästigung vorgeworfen. Foto: iStock
Die Studie maß nicht nur die Gehirnaktivität der Teilnehmer, sondern wertete auch das Endergebnis aus. So berichtete die LLM-Gruppe in den Interviews nur ein geringes Maß an Eigenverantwortung für die Essays. Mit anderen Worten: Diese Gruppe von Studierenden fühlte sich nicht mit dem Essay verbunden, den sie gerade mithilfe von KI geschrieben hatten.
Im Gegensatz dazu waren die Teilnehmer der Brain-Only-Gruppe nicht nur in der Lage, ihre eigenen Texte zu identifizieren, sondern sie auch als ihre eigenen zu identifizieren und die darin zum Ausdruck gebrachten Argumente als Teil ihrer persönlichen Überlegungen hervorzuheben.
Nach Fertigstellung der Aufsätze wurden die Studierenden zu ihrer Leistung befragt. ChatGPT-Nutzer nannten die Rechtschreib- und Grammatikhilfe des Tools als Vorteil, äußerten aber auch ethische Bedenken und sogar Schuldgefühle bei der Nutzung dieser Tools. Viele gaben zu, die Technologie nicht nur als Unterstützung zu nutzen, sondern auch ganze Absätze und Ideen zu kopieren und einzufügen, ohne sie noch einmal durchzugehen.
Die Forscher des MIT Media Lab ließen die Aufsätze auch von erfahrenen Lehrern bewerten. Im Bericht heißt es: „Diese Aufsätze sind zwar grammatikalisch und strukturell einwandfrei, es fehlt ihnen jedoch an persönlicher Nuance und sie wirken maschinengeschrieben.“
Ebenso behaupteten die Lehrer, dass die Ergebnisse der KI-gestützten Texte weniger einfallsreich und kreativ seien und eine homogene Struktur aufwiesen, nicht nur in Bezug auf die Grammatik, sondern auch in Aspekten wie Wortschatz und Argumentationsstruktur, was zu Wiederholungen führe.

Er hat die Büros neu strukturiert und leitet direkt ein 50-köpfiges Team für das Unternehmen. Foto: ISTOCK
Das MIT Media Lab ist nicht nur auf das Verständnis der intellektuellen und ethischen Prozesse angewiesen, die hinter der Nutzung künstlicher Intelligenz in der Wissenschaft stehen, sondern warnt auch davor, dass die Folgen dieser Ergebnisse verheerend sein könnten.
Forscher sprechen mittlerweile von einer „kognitiven Schuld“, da sie davon überzeugt sind, dass die Übertragung mentaler Prozesse, die früher von Menschen erledigt wurden, an die Technologie zu einem erheblichen Rückgang des kritischen Denkens beitragen, eine passive Haltung bei den Menschen erzeugen und wichtige Fähigkeiten wie das autonome Lernen einschränken kann, das nicht nur in der Wissenschaft, sondern auch im Alltag von entscheidender Bedeutung ist.
„Was beim Einsatz von KI passiert, ähnelt dem, was frühere Forschungen als ‚Google-Effekt‘ bezeichneten: Menschen können sich zwar an die Quelle einer Information erinnern, aber nicht an den Inhalt. Mit Tools wie ChatGPT wird dies noch schwieriger, da diese Technologien Ergebnisse sofort und in einfacher Sprache liefern. Das kann dazu führen, dass Menschen aufhören, Quellen zu hinterfragen, von weiterer Recherche abgehalten werden und der persönliche Wissensaufbau gefährdet wird“, so das Fazit der Studie.
eltiempo