Da Desinformation und Hass im Internet florieren, hat YouTube still und leise die Moderation von Inhalten geändert.

YouTube, die weltweit größte Videoplattform, scheint ihre Moderationsrichtlinien geändert zu haben, um mehr Inhalte, die gegen ihre eigenen Regeln verstoßen, online zu lassen.
Die Änderung erfolgte im Dezember still und leise, wie die New York Times berichtet. Sie hatte Schulungsunterlagen für Moderatoren geprüft, aus denen hervorgeht, dass ein Video online bleiben kann, wenn das anstößige Material nicht mehr als 50 Prozent der Videodauer ausmacht – das ist doppelt so viel wie vor den neuen Richtlinien.
YouTube, wo täglich 20 Millionen Videos hochgeladen werden, aktualisiert seine Richtlinien nach eigenen Angaben regelmäßig und hat eine „lange Tradition, Ausnahmen anzuwenden“, wenn dies dem öffentlichen Interesse dient oder wenn etwas in einem pädagogischen, dokumentarischen, wissenschaftlichen oder künstlerischen Kontext präsentiert wird.
„Diese Ausnahmen gelten für einen kleinen Teil der Videos auf YouTube, sind aber von entscheidender Bedeutung, um sicherzustellen, dass wichtige Inhalte weiterhin verfügbar bleiben“, sagte YouTube-Sprecherin Nicole Bell diese Woche in einer Erklärung gegenüber CBC News.
Doch in einer Zeit, in der die sozialen Medienplattformen mit Fehlinformationen und Verschwörungstheorien überschwemmt werden, gibt es die Sorge, dass YouTube nur noch mehr Menschen die Möglichkeit bietet, problematische oder schädliche Inhalte zu verbreiten – und damit Profit zu machen.
YouTube ist nicht allein. Meta, dem Facebook und Instagram gehören, hat Anfang des Jahres seine Inhaltsmoderation zurückgefahren, und Elon Musk entließ die Moderatoren von Twitter, als er die Plattform 2022 kaufte und sie in X umbenannte.
„Wir erleben gerade einen Wettlauf nach unten“, sagte Imran Ahmed, CEO des US-amerikanischen Center for Countering Digital Hate, gegenüber CBC News. „Wir werden ein Wachstum der Wirtschaft rund um Hass und Desinformation erleben.“

Das Ziel von YouTube bestehe darin, „die freie Meinungsäußerung zu schützen“, sagte Brooks in ihrer Erklärung und erläuterte, dass die Lockerung der Gemeinschaftsrichtlinien „die neuen Arten von Inhalten“ auf der Plattform widerspiegele.
Beispielsweise müsse ein langer Podcast, der nur einen kurzen Gewaltclip enthalte, möglicherweise nicht mehr entfernt werden, sagte sie.
Die Times berichtete am Montag, dass den YouTube-Mitarbeitern unter anderem ein Video vorgelegt wurde, in dem jemand während einer Diskussion über Anhörungen der Kabinettsmitglieder von US - Präsident Donald Trump einen abfälligen Begriff für Transgender verwendete, sowie ein weiteres Video, in dem falsche Informationen über COVID-19-Impfstoffe verbreitet wurden, die Menschen aber nicht direkt davon abgeraten wurden, sich impfen zu lassen.
Eine Plattform wie YouTube müsse bei der Moderation von Inhalten einige „wirklich sehr schwierige Entscheidungen“ treffen, sagt Matt Hatfield, Geschäftsführer der kanadischen Digital Rights Group OpenMedia.
Er ist davon überzeugt, dass die Plattformen das Problem ernst nehmen. Allerdings müsse ein Gleichgewicht gefunden werden zwischen der Entfernung schädlicher oder illegaler Inhalte, etwa von Darstellungen von Kindesmissbrauch oder eindeutiger Aufforderung zur Gewalt, und der Möglichkeit, Inhalte online zu lassen, selbst wenn diese für viele anstößig sind oder falsche Informationen enthalten.
Das Problem bestehe seiner Meinung nach darin, dass Social-Media-Plattformen auch „Umgebungen schaffen, die zu schlechtem Verhalten ermutigen“ – unter den Kreativen, die gerne die Grenzen des Akzeptablen überschreiten.
„Das Kernmodell dieser Plattformen besteht darin, Sie zum Klicken und Zuschauen zu bewegen, Sie dazu zu bringen, ein Video von jemandem auszuprobieren, den Sie noch nie zuvor gesehen haben, und dann bei dieser Person zu bleiben.“
Und das ist es, was Ahmed beunruhigt.
Er sagt, dass diese Unternehmen ihren Profit über die Online-Sicherheit stellen und dass sie keine Konsequenzen zu befürchten hätten, weil es keine Vorschriften gebe, die sie dazu zwingen würden, einzuschränken, was auf ihren Plattformen gepostet werden darf.
Er glaubt, dass die lockeren Richtlinien von YouTube nur noch mehr Menschen dazu ermutigen werden, diese auszunutzen.
Wie gut YouTube moderiertIn einem aktuellen Transparenzbericht gab YouTube an, dass es im ersten Quartal – also nach der gemeldeten Richtlinienänderung – fast 2,9 Millionen Kanäle mit mehr als 47 Millionen Videos wegen Verstößen gegen die Community-Richtlinien entfernt habe.
Die überwiegende Mehrheit dieser E-Mails, nämlich 81,8 Prozent, wurde als Spam eingestuft. Zu den weiteren Gründen zählten jedoch Gewalt, hasserfülltes oder beleidigendes Material sowie die Sicherheit von Kindern.
Laut Hatfield besteht ein öffentliches Interesse an der Entfernung solcher schädlichen Inhalte. Dies bedeute jedoch nicht, dass alle kontroversen oder anstößigen Inhalte entfernt werden müssten.
Er sagt jedoch, dass YouTube bei der Moderation von Inhalten Fehler mache und erklärt, dass es einzelne Videos in einer Art „Vakuum“ beurteile, ohne zu berücksichtigen, wie jeder einzelne Inhalt in einen größeren Kontext passt.
„Manche Inhalte können auf diese Weise nicht wirklich fair interpretiert werden.“
Regulierungen sind keine perfekte LösungAhmed ist der Ansicht, dass Unternehmen durch staatliche Regulierung für die Inhalte auf ihren Plattformen zur Verantwortung gezogen werden sollten.
Er verwies als Beispiel auf Kanadas umstrittenen, inzwischen gescheiterten Online Harms Act , auch bekannt als Bill C-63. Dieser sah höhere Strafen, neue Regulierungsbehörden und Änderungen an mehreren Gesetzen zur Bekämpfung von Online-Missbrauch vor. Der Gesetzentwurf scheiterte, als der ehemalige Premierminister Justin Trudeau seinen Rücktritt ankündigte und das Parlament im Januar vertagte. Ahmed hofft, dass die neue Regierung unter Premierminister Mark Carney ähnliche Gesetze erlassen wird.
Hatfield sagt, er habe mit Teilen dieses Gesetzes gutgetan, doch seine Gruppe habe sich letztlich dagegen ausgesprochen, nachdem es einige weitere Änderungen am Strafgesetzbuch und am Menschenrechtsgesetz mit sich gebracht habe, die seiner Aussage nach nichts mit den Plattformen zu tun hätten.
Er sagt, Gruppen wie OpenMedia hätten sich eine Strategie gewünscht, die sich mit Geschäftsmodellen befasst, die Benutzer dazu ermutigen, „legale, aber schreckliche“ Inhalte zu veröffentlichen und davon zu profitieren.
„Wir werden kein hassfreies Internet haben“, sagte er. „Wir können ein Internet haben, das die Verbreitung bestimmter Arten von Hass und Falschinformationen weniger profitabel macht.“

cbc.ca