Het etnische geweld in Myanmar is gruwelijk en het was "te langzaam" om de verspreiding van desinformatie en haatzaaiende uitlatingen op zijn platform te voorkomen, erkende Facebook donderdag..
De bekentenis kwam nadat een Reuters-onderzoek woensdag onthulde dat Facebook moeite heeft gehad om haatberichten over de minderheid Rohingya aan te pakken..
Dit komt door uitdagingen met onze rapportagetools, technische problemen met de weergave van lettertypen en een gebrek aan bekendheid met ons beleid. We investeren fors in kunstmatige intelligentie die proactief berichten kan markeren die onze regels overtreden,”Sara Su, productmanager bij Facebook, zei in een verklaring.
Volgens Facebook identificeerde het in het tweede kwartaal van 2018 proactief ongeveer 52 procent van de inhoud die het verwijderde wegens aanzetten tot haat in Myanmar..
Dit is gestegen van 13 procent in het laatste kwartaal van 2017 en is het resultaat van de investeringen die we hebben gedaan in zowel detectietechnologie als mensen.De combinatie hiervan helpt bij het vinden van mogelijk schendende inhoud en accounts en markeert deze voor beoordeling,”Zei Facebook.
Facebook zei vorige week proactief berichten te hebben geïdentificeerd die duidden op een dreiging van geloofwaardig geweld in Myanmar.
We verwijderden de berichten en markeerden ze bij maatschappelijke groeperingen om er zeker van te zijn dat ze op de hoogte waren van mogelijk geweld,”Zei de blogpost.
In mei riep een coalitie van activisten uit acht landen, waaronder India en Myanmar, Facebook op om een transparante en consistente benadering van moderatie in te voeren..
De coalitie eiste audits op het gebied van burgerrechten en politieke vooringenomenheid naar de rol van Facebook bij het aanzetten tot mensenrechtenschendingen, het verspreiden van verkeerde informatie en manipulatie van democratische processen in hun respectieve landen..
Naast India en Myanmar waren de andere landen die de activisten vertegenwoordigden Bangladesh, Sri Lanka, Vietnam, de Filippijnen, Syrië en Ethiopië..
Facebook zei dat het vanaf juni meer dan 60 Birmese taalexperts had die inhoud beoordeelden en dat er tegen het einde van dit jaar minstens 100 zullen zijn..
“Maar het is niet voldoende om meer recensenten toe te voegen, omdat we niet alleen op rapporten kunnen vertrouwen om slechte inhoud te vangen. Ingenieurs in het hele bedrijf bouwen AI-tools die ons helpen om beledigende berichten te identificeren, ”zei de socialemediagigant.
Niet alleen Myanmar, activisten in Sri Lanka hebben betoogd dat het gebrek aan lokale moderators - met name moderators die vloeiend de Singalese taal spreken die wordt gesproken door de boeddhistische meerderheid van het land - haatzaaiende uitlatingen op het platform had doen woekeren..
Facebook zei dat het samenwerkt met een netwerk van onafhankelijke organisaties om haatposten te identificeren.
We richten ons werk in eerste instantie op landen waar vals nieuws gevolgen heeft gehad voor leven of dood. Deze omvatten Sri Lanka, India, Kameroen en de Centraal-Afrikaanse Republiek, evenals Myanmar,”Zei het bedrijf.