Terwijl desinformatie en haat online welig tieren, heeft YouTube in stilte de manier waarop het content modereert veranderd

YouTube, het grootste videoplatform ter wereld, lijkt zijn moderatiebeleid te hebben gewijzigd, zodat er meer content online mag blijven die de eigen regels overtreedt.
Volgens The New York Times vond de verandering in december in alle stilte plaats. De krant bestudeerde de trainingsdocumenten voor moderators. Daarin stond dat een video online mocht blijven als het aanstootgevende materiaal niet meer dan 50 procent van de videoduur uitmaakte. Dat is twee keer zoveel als vóór de nieuwe richtlijnen.
YouTube, waar dagelijks 20 miljoen video's worden geüpload, zegt dat het zijn richtlijnen regelmatig bijwerkt en dat het een "al lang bestaande praktijk heeft van het toepassen van uitzonderingen" wanneer dat in het belang van het publiek is of wanneer iets in een educatieve, documentaire, wetenschappelijke of artistieke context wordt gepresenteerd.
"Deze uitzonderingen gelden voor een klein deel van de video's op YouTube, maar zijn van groot belang om ervoor te zorgen dat belangrijke content beschikbaar blijft", aldus Nicole Bell, woordvoerder van YouTube, deze week in een verklaring aan CBC News.
Maar in een tijd waarin sociale-mediaplatforms overspoeld worden met misinformatie en complottheorieën, bestaat de zorg dat YouTube alleen maar de deur opent voor meer mensen om problematische of schadelijke content te verspreiden – en daar winst mee te maken.
YouTube is niet de enige. Meta, eigenaar van Facebook en Instagram, heeft eerder dit jaar de moderatie van content teruggeschroefd, en Elon Musk ontsloeg de moderators van Twitter toen hij het platform in 2022 kocht en omdoopte tot X.
"We zien nu een race naar de bodem", vertelde Imran Ahmed, CEO van het Amerikaanse Center for Countering Digital Hate, aan CBC News. "Wat we gaan zien, is een economische groei rond haat en desinformatie."

Het doel van YouTube is "de vrijheid van meningsuiting te beschermen", aldus Brooks in haar verklaring. Ze legde uit dat de versoepeling van de communityrichtlijnen "de nieuwe soorten content" op het platform weerspiegelt.
Ze zei bijvoorbeeld dat een lange podcast met één kort fragment waarin geweld voorkomt, mogelijk niet meer verwijderd hoeft te worden.
De Times meldde maandag dat YouTube-medewerkers onder andere de volgende voorbeelden kregen voorgelegd: een video waarin iemand een denigrerende term gebruikte voor transgenders tijdens een discussie over hoorzittingen voor de kabinetsbenoemingen van de Amerikaanse president Donald Trump, en een andere video waarin onjuiste informatie werd gedeeld over COVID-19-vaccins, maar waarin mensen niet rechtstreeks werd opgeroepen zich niet te laten vaccineren.
Een platform als YouTube moet een aantal "echt heel moeilijke beslissingen" nemen bij het modereren van content, zegt Matt Hatfield, directeur van de Canadese digitale rechtenorganisatie OpenMedia.
Hij is ervan overtuigd dat platforms het probleem wel serieus nemen, maar hij zegt dat er een balans moet zijn tussen het verwijderen van schadelijke of illegale content, zoals materiaal dat kindermisbruik bevat of duidelijk aanzet tot geweld, en het toestaan dat content online blijft, ook al is deze voor veel mensen aanstootgevend of bevat deze onjuiste informatie.
Het probleem is volgens hem dat socialemediaplatformen ook "omgevingen creëren die slecht gedrag aanmoedigen" bij makers die graag de grens van het acceptabele bewandelen.
"De kern van deze platforms is om je te laten klikken, je te laten kijken, je een video te laten proberen van iemand die je nog nooit eerder hebt gezien en je vervolgens bij die persoon te laten blijven."
En dat is nou precies waar Ahmed zich zorgen over maakt.
Volgens hem is de winst van deze bedrijven belangrijker dan online veiligheid en worden ze niet geconfronteerd met consequenties, omdat er geen regelgeving is die hen dwingt om beperkingen op te leggen aan wat er op hun platforms mag worden geplaatst.
Hij is ervan overtuigd dat het soepele beleid van YouTube er alleen maar toe zal leiden dat meer mensen er misbruik van zullen maken.
Hoe goed YouTube modereertYouTube meldt in een recent transparantierapport dat het in het eerste kwartaal bijna 2,9 miljoen kanalen met meer dan 47 miljoen video's heeft verwijderd vanwege schendingen van de communityrichtlijnen. Dit was na de gemelde beleidswijziging.
Het overgrote deel daarvan, 81,8 procent, werd beschouwd als spam, maar andere redenen waren onder meer geweld, haatdragend of aanstootgevend materiaal en de veiligheid van kinderen.
Hatfield zegt dat er een algemeen belang is bij het verwijderen van dergelijke schadelijke content, maar dat betekent niet dat alle controversiële of aanstootgevende content moet verdwijnen.
Hij zegt echter dat YouTube fouten maakt bij het modereren van content. Volgens hem beoordeelt het bedrijf individuele video's in een soort 'vacuüm', zonder rekening te houden met hoe elk stukje content past in een bredere context.
"Sommige inhoud kan niet op die manier eerlijk worden geïnterpreteerd."
Regelgeving is geen perfecte oplossingVolgens Ahmed moeten bedrijven via overheidsregulering verantwoordelijk worden gehouden voor de content op hun platforms.
Hij wees als voorbeeld op de controversiële, maar inmiddels verworpen Canadese Online Harms Act , ook bekend als wetsvoorstel C-63. Deze wet stelde zwaardere straffen, nieuwe regelgevende instanties en wijzigingen in een aantal wetten voor om online misbruik aan te pakken. Het wetsvoorstel sneuvelde toen voormalig premier Justin Trudeau in januari zijn aftreden aankondigde en het parlement ontbond. Ahmed zegt te hopen dat de nieuwe regering onder leiding van premier Mark Carney soortgelijke wetgeving zal invoeren.
Hatfield zegt dat hij delen van de wet goed vond, maar zijn groep verzette zich er uiteindelijk tegen nadat er een aantal andere wijzigingen in het Wetboek van Strafrecht en de Wet op de Rechten van de Mens waren doorgevoerd die volgens hem niets met de platforms te maken hadden.
Volgens hem hadden groepen als OpenMedia graag een strategie gezien die zich richtte op bedrijfsmodellen die gebruikers aanmoedigen om 'legale maar vreselijke' content te posten en daar winst mee te maken.
"We krijgen geen haatvrij internet", zei hij. "We kunnen wel een internet hebben dat het minder rendabel maakt om bepaalde vormen van haat en desinformatie te verspreiden."

cbc.ca