Wie Sie, ich und wir alle zu einer Datenwolke werden – und das ist nicht gut.

In Zusammenarbeit mit dem Magazin FCW Cultura Científica der Conrado Wessel Foundation präsentiert The Conversation Brasil eine Artikelserie über die Auswirkungen sozialer Medien auf die Gesellschaft. Im folgenden Text erklärt Professor Marcelo Soares , Spezialist für Digital- und Datenjournalismus, wie soziale Medien Nutzerdaten auf mehreren Ebenen sammeln und verarbeiten, ohne Transparenz zu zeigen und Kriterien und Algorithmen zu verbergen. Dies erschwert die Kontrolle und fördert die Verbreitung von Fehlinformationen. Die Logik des Engagements priorisiert emotionale und kontroverse Inhalte und schafft personalisierte Blasen, die Nutzer isolieren und sie zum Extremismus verleiten können.
Acht von zehn Internetnutzern in Brasilien nutzen soziale Medien regelmäßig, wie aus Daten des brasilianischen Informations- und Koordinationszentrums (NIC.Br) aus dem Jahr 2024 hervorgeht. Beim Surfen sammeln soziale Medien still und leise weit mehr Informationen, als wir bewusst preisgeben.
Diese Daten werden in mehreren Schichten gesammelt. Die „nullte“ Schicht entspricht den von uns eingegebenen Basisinformationen – Name, Alter, Interessen und unser Kontaktnetzwerk. Von dieser Basis aus überwachen die anderen Schichten ein Universum an Verhaltensdaten. Netzwerke beobachten, was wir liken, teilen, kommentieren, ansehen und wie viel Zeit wir mit einem Beitrag oder Video verbringen. Diese Muster werden statistisch mit denen anderer Nutzer verglichen und daraus abgeleitet, wem unsere Vorlieben, Wünsche und sogar Aspekte unserer Persönlichkeit ähneln.
Der dänische Medienberater Thomas Baekdal nennt dies „Erstordnungsdaten“. Sie werden von Plattformen erstellt, die alles, was sie aus unseren Aktivitäten extrahieren, verfeinern und daraus Rückschlüsse darauf ziehen können, was unsere Geldbörsen öffnet. Diese Daten werden in Profilen organisiert, die automatisch in Auktionen, die in Mikrosekunden stattfinden, an Werbetreibende verkauft werden.
Sie müssen nicht hundertprozentig richtig liegen; wenn sie es falsch machen, können wir schlimmstenfalls eine Anzeige ignorieren. Die zweite Ebene ist daher die Geschäftsbeziehung der Plattformen mit Werbetreibenden auf Grundlage unserer Daten. Basierend auf allem, was sie über uns wissen und was sie daraus schlussfolgern, erstellen die Plattformen hochdetaillierte Profile. Sie müssen nicht unbedingt wissen, wer Sie sind, aber sie wissen: Wenn sie Ihren Geschmack und das richtige Timing treffen, könnten Sie ein Video ansehen, auf eine Anzeige klicken oder etwas kaufen. Es ist ein bisschen Demografie, ein bisschen Psychografik und ein bisschen List.
Von Dritten bereitgestellte CookiesEs gibt noch eine dritte Ebene: Drittanbieter-Cookies, die noch invasiver sind als Plattform-Cookies. Über sie werden Sie von Werbung von einer Website zur nächsten verfolgt. Cookies sind kleine Dateien, die Websites in Ihrem Browser ablegen, wenn Sie eine Seite besuchen. Sie dienen dazu, Sie bei Ihrem nächsten Besuch wiederzuerkennen und dienen als eine Art Logbuch für alles, was Sie auf der Website getan haben.
Sie können von der Website selbst stammen: Wenn Sie auf eine Nachrichtenseite zurückkehren, erscheinen die Links, die Sie bereits angeklickt haben, violett statt blau. Im lukrativen Geschäft mit Drittanbieter-Cookies können Cookies, die von der von Ihnen besuchten Website auf Ihrem Computer abgelegt werden, von Werbenetzwerken stammen, die auch auf anderen Websites vorhanden sind. Diese Netzwerke haben keine direkte Verbindung zu Ihnen, sondern zu den von Ihnen besuchten Websites. Wenn beispielsweise dasselbe Cookie-Unternehmen eine Nachrichtenseite und eine Food-Website überwacht, sieht es, wer beide besucht und wer nicht. Aus diesem Grund verwenden so viele Websites Pop-ups, in denen Sie um Erlaubnis zur Verwendung von Cookies gebeten werden: Wenn sie keine Drittanbieter-Cookies verwenden, besteht keine Notwendigkeit, um Erlaubnis zu fragen.
Diese Unternehmen sammeln Daten aus Ihrem Surfverhalten, um ein vermarktbares Profil von Ihnen zu erstellen. Auf einer höheren Ebene werden diese Daten verkauft und mit externen Datenbanken wie durchgesickerten Serasa-Daten, Unternehmensverlauf und sogar Gesundheitsdaten abgeglichen. So entstehen Datenhändler. Sie haben keine Verbindung zu Ihrer Internetnutzung oder den Websites, die Sie besucht haben. Diese Unternehmen stellen all dies zusammen, um komplette Profile zu verkaufen, die oft Name, CPF, Telefonnummer oder Namen von Verwandten enthalten. Dieser Markt fördert alles, von legitimer Werbung bis hin zu Betrug und Schwindel, sei es durch Werbung ( 84 % der Beschwerden über Anzeigen betreffen digitale Anzeigen ) oder auf direktem Wege. Leute, die beispielsweise auf WhatsApp betrügen, haben oft das Profil des Opfers samt Foto von einer Website gekauft, die dies anbietet .
Diejenigen, die diese Datenbanken nutzen, haben keine Ahnung, dass sie als Produkt vermarktet werden. Manche, die dies erkennen, erliegen der falschen Vorstellung, „alle unsere Daten sind bereits öffentlich“. Das ist ein Trugschluss: In diesen schwerwiegenderen Fällen wurden die Daten gestohlen oder unter falschen Voraussetzungen erlangt.
Insel der personalisierten ReizeDer direkteste Effekt ist, dass die Inhalte, die Sie in sozialen Medien sehen, nicht neutral sind. Plattformen sind daran interessiert, Sie so lange wie möglich auf ihren Plattformen zu halten, um Ihnen so mehr Werbung anzuzeigen. Sie sehen mehr Beiträge von den Freunden, mit denen Sie am meisten interagieren, nicht von denen, die Sie am meisten vermissen. Im Allgemeinen interagieren Sie mehr mit denen, die die Plattform häufiger nutzen und mehr Unsinn oder interessantere Dinge posten. Wenn es statt eines Freundes um ein Thema geht, zeigt Ihnen die Plattform die Themen an, die Ihr Interesse am meisten wecken – Likes und Shares.
Öffnet man YouTube in einem neu installierten Browser, ohne sich anzumelden, öffnet sich ein Paralleluniversum dessen, was Brasilien am meisten interessiert. Sobald die Plattform einen kennt, personalisiert sie alles, um einen dort zu halten. Je mehr Daten vergehen, desto mehr Daten sammelt sie, desto verführerischer wird sie und desto länger bleibt man dort. Dieser Teufelskreis ist teuflisch. Diese Logik wird mit der von Spielautomaten verglichen.
Der Infinite Feed ist eine solche Taktik. Die aggressivsten Plattformen „bestrafen“ Links auch. Facebook beispielsweise reduziert die Reichweite von Posts mit Links, weil sie die Nutzer von der Plattform vertreiben. Instagram erlaubt nicht einmal anklickbare Links in normalen Posts. Twitter, jetzt X, hat ebenfalls begonnen, nativen Inhalten den Vorzug zu geben. Ziel ist es, die Nutzer in der Blase zu halten, damit weiterhin Daten gesammelt und Anzeigen verkauft werden können. Laut der Autorin Shoshanna Zuboff verändern Plattformen das Nutzerverhalten, um es vorhersehbarer zu machen und ihr Angebot besser zu definieren. Das Problem ist, dass dadurch sehr geschlossene Blasen entstehen. Es ist ein System, das jeden von uns in eine Insel personalisierter Reize verwandelt.
Algorithmen, die zu extremen Ansätzen drängenPlattformen nutzen das Konzept der „Transparenz“ sehr flexibel. Es gibt zwar verbraucherorientierte Transparenz – die Möglichkeit zu sehen, in welche Anzeigenkategorien man gelangt ist –, aber diese ist schwer zugänglich, in den Einstellungen versteckt und vage formuliert. Die öffentliche Transparenz über die Funktionsweise von Plattformen wird systematisch abgebaut: Twitters API, die es Nutzern ermöglichte, zu recherchieren, wer mit wem über bestimmte Themen sprach, wurde mit dem Kauf durch Elon Musk im Jahr 2022 abgeschaltet. Diese Schließung, die eine exorbitante Gebühr erforderte, war der Sargnagel für diese Studien. Das bedeutet, dass wir die Möglichkeit verloren haben, Desinformation und Extremismus in Echtzeit zu überwachen und Forderungen nach Rechenschaftspflicht zu stellen.
In den letzten zehn Jahren haben soziale Medien den Zugang zu verlässlichen Informationen erschwert. Die Menschen haben die Gewohnheit verloren, sich direkt an die Nachrichtenmacher zu wenden und erwarten stattdessen von den Plattformen, dass sie ihnen das Wesentliche liefern. Dies schadet nicht nur dem Journalismus, sondern verstärkt auch den Mythos: „Wenn es wichtig ist, erreicht es mich schon“ – eine Vorstellung, die um 2012 entstand, als wir alle soziale Medien liebten. Doch was in den sozialen Medien am häufigsten kursiert, sind nicht die wesentlichen Informationen, sondern die am häufigsten angeklickten und emotional aufgeladenen.
Jonah Berger, Marketingprofessor an der University of Pennsylvania (USA) und Autor des Buches „Contagious: Why Things Catch On“, zeigt dies in seiner Studie deutlich. Emotional aufgeladene Nachrichten werden häufiger gelesen und geteilt und verbreiten sich eher viral, insbesondere wenn sie Wut auslösen. Diese anhaltende Mobilisierung hat politische, soziale und sogar zwischenmenschliche Folgen. Und natürlich priorisiert der Algorithmus diese Art von Inhalten, gerade weil sie fesselnd wirken. Der Algorithmus will nicht, dass man informiert wird, sondern dass man reagiert, indem man liket, teilt und kommentiert – solange dies alles innerhalb des geschlossenen Bereichs der Plattformen geschieht. Politisch gesehen führt dies zu einer asymmetrischen Demobilisierung und Mobilisierung.
Zeynep Tufekci , Professorin für Soziologie und Öffentlichkeitsarbeit an der Princeton University (USA), zeigte auf YouTube, dass dieses Modell einen Weg zum Extremismus bergen kann. Man sucht zunächst nach Videos über gesunde Ernährung, und wenn man den Empfehlungen der Plattform folgt, steigert sie den Ton allmählich, bis schließlich Verschwörungstheorien über Impfungen angezeigt werden. Der Algorithmus drängt einen zu den extremsten Inhalten zu diesem Thema, weil diese die Aufmerksamkeit am stärksten fesseln. Je mehr man den Vorschlägen des Algorithmus folgt, desto vorhersehbarer wird das eigene Verhalten und desto leichter kann man mit Werbung gezielt angesprochen werden. Selbst wenn die eigene Familie das nicht mehr ertragen kann.
Sprachliche FüllmaschinenKI ist in diesen Prozessen schon lange präsent, insbesondere in Form von maschinellem Lernen. Sie analysiert, was insgesamt angesehen, angeklickt und ignoriert wurde, vergleicht es und nutzt es, um vorherzusagen, was Menschen mit ähnlichem Geschmack als Nächstes sehen möchten. Dies gilt für soziale Medien, Netflix und alle Plattformen, die Inhalte empfehlen. Im schlimmsten Fall wählen Sie etwas anderes auf derselben Plattform aus – ein weiteres wichtiges Signal für sie – oder Sie schalten den Fernseher aus und gehen schlafen.
Mit generativer KI wird das Szenario noch komplexer. Menschen nutzen diese Modelle bereits, um Inhalte in großem Umfang zu produzieren – Videos, Bücher, Podcasts – die manchmal falsche Informationen enthalten. 2023 wurden zehn „Biografien“ von Claudia Goldin, der Wirtschaftsnobelpreisträgerin , am Tag nach der Bekanntgabe veröffentlicht, einige davon KI-generiert. Diese Modelle simulieren eine sehr überzeugende Sprache, die auf Wahrscheinlichkeitsbasis auf den Bildschirm gespritzt wird. Ich scherze, sie seien „linguistische Füllmaschinen“, die mit dem Selbstbewusstsein eines weißen Mannes mittleren Alters in einer Bar raten. Wer generative KI nutzt, ohne seine Ergebnisse gründlich zu überprüfen, verbreitet mit hoher Wahrscheinlichkeit weltweit Fehlinformationen. Wer die von den linguistischen Füllmaschinen generierten Ergebnisse hingegen gründlich prüft und korrigiert, läuft Gefahr, die gesamte Zeit zu verlieren, die er durch die Nutzung des digitalen Assistenten gewonnen hat. Oder sogar noch mehr.
Eine der dringendsten Anforderungen unserer Zeit besteht darin, Transparenz auf Plattformen zu gewährleisten: Sie müssen gezwungen werden, die Funktionsweise ihrer Algorithmen für Audits offenzulegen – damit wir wissen, wer was sieht, warum und wer für die Darstellung bezahlt hat – und Daten über Beiträge freizugeben. Genau das haben Bluesky oder das verstorbene Twitter getan, Facebook und Instagram hingegen nie. Ebenso unerlässlich ist die Regulierung von Influencern, deren Macht, Produkte, Ideen und sogar Wetten zu verkaufen, wie die CPI das Bets (Parlamentarische Untersuchung zu Wetten) zeigt, ohne klare Regulierung agierte und das während der Pandemie aufgebaute Vertrauen auf oft missbräuchliche Weise kommerziell ausnutzte. Dies erfordert Grenzen. Nur das Verständnis dieser Logik der Funktionsweise von Netzwerken und eine darauf basierende Gesetzgebung – nicht nur in der traditionellen Kommunikation – können diese Eskalation der Vulgarität eindämmen.
Gleichzeitig weisen einige soziale Netzwerke eine andere Dynamik auf. Bluesky beispielsweise verwendet keine viralen Algorithmen: Wer morgens postet, erreicht nur diejenigen, die zu dieser Zeit online sind, und Reposts sind notwendig, um die Reichweite zu erhöhen. Links werden nicht bestraft und kontroverse Inhalte werden nicht priorisiert, wodurch das Umfeld weniger toxisch bleibt. Mit Automoderationstools können Sie beleidigende Kommentare deaktivieren, Community-Listen folgen und Profile massenhaft blockieren. Mastodon hat ein noch offeneres Protokoll als Bluesky und ermöglicht deutlich flexiblere Moderationsmethoden. Viele hielten es jedoch für zu technisch, sodass es sich in Brasilien außerhalb eher technischer Communities nicht durchsetzen konnte.
Es besteht Hoffnung, aber sie hängt von uns ab: Wir müssen die Funktionsweise dieser Plattformen besser verstehen, Transparenz fordern, Regulierungsinitiativen unterstützen und ein gesünderes Umfeld für öffentliche Debatten schaffen. Viele kompetente Wissenschaftler forschen und schlagen Lösungsansätze vor – darunter die Forscher Letícia Cesarino ( UFSC ), Rosana Pinheiro Machado, Francisco Brito Cruz (Gründer von InternetLab und mittlerweile unabhängig), Rafael Evangelista ( Labjor/Unicamp ) und viele weitere kritische und technische Stimmen.
Soziale Medien prägen, was wir sehen, was wir denken und sogar wie wir uns verhalten. Wir können diese Macht nicht in den Händen von Unternehmen lassen, die käuflich sind oder den Schutz der Nutzer untergraben. Wir müssen gemeinsam darüber nachdenken, wie wir uns informieren, kommunizieren und unser Weltbild gestalten wollen. Wir müssen versuchen, uns schrittweise von der Abhängigkeit von den einzelnen „Big Tech“-Unternehmen zu lösen und nach Alternativen zu suchen. Diese Alternativen existieren zwar, aber sie verkaufen sich schlecht.
Noch wichtiger wäre es, sich öfter von den sozialen Medien abzukoppeln und sich persönlich zu unterhalten, ohne viral gehen oder von Werbung belästigt werden zu müssen. Das Offline-Leben gibt allem, was auf dem Bildschirm passiert, einen Sinn.
CartaCapital