Mening: Is Meta’s Veiligheidsregulatiesysteem Kapot?
Bijna elke inhoudscreator of actieve social media manager is recentelijk tegen hetzelfde probleem aangelopen bij het posten op Facebook of Instagram: een post of een account wordt verbannen, waarschijnlijk om de verkeerde redenen.
Deze irritante situatie is slechts een stukje van de puzzel van een complex probleem met het inhoudsregulatiesysteem van Meta. Hoewel Meta veel controlemiddelen lijkt te hebben – soms absurd – lijkt de kern van het probleem niet te worden opgelost.
In de afgelopen maanden heeft Meta talloze updates van zijn inhoudsrichtlijnen geïntroduceerd en strengere regels geïmplementeerd met als doel een gezondere online omgeving te creëren. Een van de gevolgen is dat veel bedrijven, uitgevers en gebruikersaccounts zijn verbannen, wat heeft geleid tot honderden klachten op fora, chatplatforms en sociale mediakanalen. Meerdere nieuwsuitgevers en merken zijn verwijderd van Meta’s platforms in bepaalde regio’s dit jaar, wat zorgen oproept bij bedrijfseigenaren, journalisten en contentmakers.
Ondanks de recente updates van Meta, die de indruk wekken van strengere moderatie en nauwlettender toezicht op de inhoud die op zijn platforms wordt gedeeld, blijven berichten gerelateerd aan drugs, zelfmoord, seksuele intimidatie, pesten, haatspraak, misbruik en nepnieuws door algoritmes glippen, waarbij ze kwetsbare gemeenschappen bereiken.
Ik kan niet anders dan me afvragen: Wat gebeurt er met Meta’s veiligheidsreguleringssysteem?
Accounts Verbannen Om de Verkeerde Redenen
Het begint allemaal met een soortgelijke boodschap: “Jouw Meta-account volgt onze regels niet.” Veel Facebook en Instagram gebruikers zijn verbannen of tijdelijk uit hun accounts gezet “voor het niet naleven” van Meta’s regels, zelfs wanneer ze geloven dat ze dat wel hebben gedaan.
Het is een situatie die we bij Wizcase hebben meegemaakt. Meta’s systeem markeerde relevante items als ongepast en liet de community manager een beroepsprocedure doorlopen en overheidsuitgegeven ID’s verstrekken.
Honderden gebruikers, community managers en accountmanagers hebben geklaagd op platformen zoals Reddit en andere forums, chats en sociale mediakanalen over soortgelijke situaties. In meerdere ongelukkige scenario’s verliezen gebruikers hun accounts en kunnen ze er niets aan doen, en ze krijgen zelfs geen uitleg.
“Het ondersteuningsteam van Facebook is vreselijk. Hoe vaak we hen ook alles vertellen of alles aan hen uitleggen, ze begrijpen het gewoon niet,” zei een gebruiker op Reddit in een discussie over geblokkeerde accounts. “Eén ding kan ik meteen zeggen: je krijgt je account niet hersteld, tenzij je honderdduizenden per dag uitgaf”, voegde een ander toe.
Dit probleem, hoewel het misschien alleen contentmakers lijkt te beïnvloeden, is slechts een klein deel van een grotere uitdaging.
Meta Tegen Rechtszaken
Al jaren investeert Meta in content moderatie en nieuwe strategieën om een veiliger platform voor gebruikers te creëren en zichzelf te beschermen tegen meer rechtszaken – de meest recente is van Keniaanse content moderators, die momenteel $1,6 miljard aan compensatie eisen voor massale ontslagen en voor het verontrustende materiaal waaraan ze werden blootgesteld tijdens het analyseren van content voor Facebook.
Het technologiebedrijf vertrouwt op derden om te helpen met contentregulaties en ontwikkelt tools om te herkennen wanneer content de platformregels overtreedt. Echter, deze maatregelen zijn niet voldoende geweest en de situatie is uit de hand gelopen, vooral onder minderjarige gebruikers.
In 2021 introduceerde Meta nieuwe beschermingsfuncties, maar dat weerhield de Senaat er niet van om Instagram en Facebook vorig jaar onder de platforms te scharen die als schadelijk voor kinderen worden beschouwd. De techreus werd geconfronteerd met een gezamenlijke rechtszaak aangespannen door 33 staten in de Verenigde Staten vanwege zijn manipulatieve en schadelijke algoritme.
Sinds januari heeft Meta updates gedeeld over nieuwe veiligheidscontrolehulpmiddelen. In juni verbeterde het bedrijf zijn anti-intimidatie hulpmiddel om tieners op Instagram te beschermen met een standaard “Close Friends” met een “Limits” functie zodat alleen echte vrienden en familie konden interacteren met de inhoud die door jonge gebruikers werd geplaatst.
Slechts een paar dagen geleden kondigde het bedrijf de nieuwe Tiener Accounts aan om tieners te beschermen en “ouders gerust te stellen dat tieners veilige ervaringen hebben”. Zou dit genoeg zijn om kinderen te beschermen? Wat met oudere gebruikers?
Een Onveilig Ecosysteem
Facebook, Instagram en WhatsApp worden nog steeds geplaagd door schadelijke inhoud die gebruikers van alle leeftijden, beroepen en sociale groepen raakt, en het zal waarschijnlijk niet snel worden opgelost.
Een studie uitgevoerd door het Center for Countering Digital Hate (CCDH) analyseerde meer dan 500 miljoen reacties op Instagram op de accounts van 10 vrouwelijke politici in de Verenigde Staten en onthulde dat Meta er niet in slaagde om 93% van deze reacties te verwijderen of er actie tegen te ondernemen.
De talrijke rechtszaken tegen Meta hebben letterlijk bewezen dat het bedrijf moeite heeft om gebruikers te beschermen tegen schadelijke inhoud, en ook makers, uitgevers en merken schaadt met oneerlijke filters en slecht geïmplementeerde veiligheidstools.
Natuurlijk is dit een complex en diepgaand probleem dat grondig aangepakt moet worden, maar misschien is het tijd om te accepteren dat Meta deze situatie niet aan kan. Pleister-oplossingen zullen een systeem dat fundamenteel gebroken is niet oplossen. Nu is de echte vraag: hoeveel meer gebruikers moeten er oneerlijk verbannen, misleid of gemanipuleerd worden voordat er echte verandering plaatsvindt?
Laat een reactie achter
Annuleer