Facebook worstelt met verantwoordelijkheid

Facebook gaat 3000 mensen extra inzetten op de controle van de geposte content. Daarnaast werkt het hard aan de ontwikkeling van software die terroristische posts en groeperingen sneller moet herkennen. En dan heeft het nog een derde uitdaging: de veiligheid waarborgen van de mensen die de controles uitvoeren.

Afgelopen vrijdag verschenen er twee indrukwekkende nieuwsberichten rond Facebook online. Het platform zelf meldde dat het zijn ‘schoonmaakpolitiemacht’ gaat uitbreiden met 3000 extra mensen (nu dragen wereldwijd 1000 mensen zorg voor het verwijderen van ongewenste content) en dat het bovendien werkt aan software om deze taak sneller en efficiënter te volbrengen.

Tegelijkertijd verscheen in de Engelse krant The Guardian een choquerend artikel over een veiligheidslek waardoor de huidige duizend ‘schoonmakers’ maandenlang traceerbaar zijn geweest voor de mensen wiens content ze verwijderen. Waaronder terroristen.

Het Guardian-verhaal wordt verteld door een Ierse staatsburger met  Irakese wortels, die als kind is gevlucht en enige jaren voor Facebooks politiecorps heeft gewerkt. Dankzij zijn kennis van het Arabisch werd hij geselecteerd voor een groep van veertig mensen die zich speciaal richt op terrorisme. Volgens de krant heeft hij een opleiding van twee weken gehad, verdiende hij 13 euro per uur, en werkte hij vanuit zijn eigen Facebook-account. Zijn taak was  om klachten van gebruikers te checken en, indien gegrond, de bijbehorende content te verwijderen.

Een half jaar geleden merkte hij dat zijn pagina werd bezocht door de terroristen wiens content hij verwijderde. Hoe wisten die zijn naam? Uit onderzoek bleek dat het systeem door een fout de actie + de naam van de actor vermeldde op de pagina van de gebruiker. Aangezien de voormalige vluchteling vanuit zijn eigen account opereerde, verscheen zijn naam dus op de pagina van de terroristische groepering.

Op de vlucht

De doodsbange man is naar Oost-Europa gevlucht, waar hij als een onderduiker heeft geleefd tot zijn geld op was en hij is teruggekeerd naar Dublin. Daar wacht hij nu, onder de antidepressiva, op het uur van de waarheid: het moment dat hem of zijn familie het hoofd wordt afgehakt. "Want als je uit een oorlogsgebied komt, weet je dat hiervoor mensen worden afgeslacht."

Volgens Facebook zijn nog vijf van de veertig profielen van terrorismeschoonmakers bekeken door terroristen. Ze hebben een alarminstallatie aangeboden gekregen voor hun woning, vervoer van huis naar kantoor, en psychologische ondersteuning. Naar aanleiding van het incident wordt bovendien gewerkt aan professionele accounts voor de schoonmaakpolitie. Veel te weinig, volgens de voormalige vluchteling, die eigenlijk een nieuw leven nodig heeft.

Wie bepaalt en controleert?

En intussen wordt de Facebook-politiemacht dus uitgebreid. Dit onder meer naar aanleiding van de Thaise man die zijn dochtertje vermoordde en de video uploadde op Facebook en Youtube. Op Facebook bleef deze 24 uur online staan; op Youtube slechts een kwartier. Een groot verschil, maar ja, hoe lang mag een platform er eigenlijk over doen om een choquerende video offline te halen? En wie bepaalt wat choquerend is?

Tot nu toe is hiervoor geen regelgeving. Facebook heeft zelf richtlijnen bedacht, maar er zijn geen algemene regels, noch een controlerende instantie. Facebook is dus, net als de andere social mediaplatforms, overgeleverd aan zijn eigen beoordelingsvermogen. Dat is een enorme verantwoordelijkheid. Veel te groot voor een bedrijf. Gelukkig dus maar dat Facebook en de andere social media steun zoeken bij elkaar en bij ‘overheden’. Wellicht dat ze samen kunnen komen tot een goed protocol.