Facebooks algoritmer främjade våldet mot rohingyafolket

By on 1 oktober, 2022
Foto: Amnesty International

Facebook-ägaren Metas farliga algoritmer och hänsynslösa jakt på vinst bidrog avsevärt till de grymheter som Myanmars militär begick mot rohingyafolket under 2017, säger Amnesty International i en ny rapport som publiceras i dag.

“The Social Atrocity: Meta and the right to remedy for the Rohingya” beskriver hur Meta undvek att agera trots kännedom om att algoritmerna eldade på spridningen av skadligt och fientligt innehåll mot rohingyafolket.

– Under 2017 blev hundratusentals rohingyer dödade, torterade, våldtagna och fördrivna som en del av den etniska rensning som Myanmars säkerhetsstyrkor bedrev. Under månaderna och åren som ledde fram till grymheterna bidrog Facebooks algoritmer till att intensifiera hatstormen mot rohingyafolket, vilket i sin tur bidrog till det det omfattande våldet, säger Agnès Callamard, generalsekreterare för Amnesty International.

– Medan Myanmars militär utsatte rohingyafolket för folkrättsbrott, profiterade Meta från den ekokammare av hat som skapades av hatspiralen i dess algoritmer.

– Meta måste hållas ansvarigt. Företaget har ett ansvar att tillhandahålla gottgörelse till dem som drabbats av de våldsamma konsekvenserna av deras vårdslösa agerande.

Sawyeddollah, en 21-årig rohingyaflykting, sa till Amnesty: “Jag såg många hemska saker på Facebook. Jag trodde bara att det var fel på människorna som lagt ut det… Sen insåg jag att det inte bara är dessa människor – de som postar – utan att Facebook också är ansvarigt. Facebook hjälper dem genom att inte hantera problemet på sin plattform.”

Rohingyafolket är en till största delen muslimsk etnisk minoritet baserad i norra delen av delstaten Rakhine. I augusti 2017 flydde över 700 000 rohingyer från Rakhine, efter att Myanmars säkerhetsstyrkor inlett en riktad kampanj med utbredda och systematiska mord, våldtäkter och mordbränder. Våldet följde efter årtionden av statsstödd diskriminering, förföljelse och förtryck av rohingyerna, som Amnesty menar utgör apartheid.

En ekokammare för kritik mot rohingyer

Meta använder system med algoritmer baserade på engagemang för att styra nyhetsflöde, rangordning av inlägg, rekommendationer och gruppfunktioner på Facebook, vilket formar vad som syns på plattformen. Utöver detta tjänar Meta på att Facebooks användare stannar på plattformen så länge som möjligt, eftersom de då kan sälja mer riktad annonsering. Exponeringen av provokativt innehåll – däribland sådant som främjar hat och uppviglar till våld, fientlighet och diskriminering – är ett effektivt sätt att hålla kvar användare på plattformen. Främjandet och förstärkningen av den här typen av innehåll är därmed avgörande för Facebooks affärsmodell, som bygger på kartläggning av användarna.

Under månaderna och åren före utbrottet av det etniska våldet mot rohingyerna fungerade Facebook som en ekokammare för kritiskt innehåll mot rohingyafolket i Myanmar. Aktörer med kopplingar till Myanmars militär och radikala buddhistiska nationalister fyllde plattformen med anti-muslimskt innehåll och postade desinformation som påstod att man stod inför ett muslimskt övertagande, och utmålade rohingyafolket som “inkräktare”.

I ett inlägg som delades fler än tusen gånger fanns en bild på en muslimsk människorättsförsvarare som beskrevs som en “nationell förrädare”. Bland kommentarerna till inlägget fanns hotfulla och rasistiska meddelanden, såsom “Han är muslim. Muslimer är hundar som måste skjutas”, och “Låt honom inte leva. Utrota hela hans ras. Klockan tickar.”

Innehåll som uppmanade till våld och diskriminering delades även från personer inom Myanmars militära och civila ledarskap. General Min Aung Hlaing, överbefälhavare inom militären, skrev på sin Facebooksida 2017: “Vi förkunnar öppet att vårt land, helt klart, inte har någon folkgrupp som heter rohingya”. Han tog senare makten i en kupp i februari 2021.

I juli 2022 slog Internationella domstolen (ICJ) i Haag fast att den har behörighet att gå vidare i fallet mot Myanmars regering enligt FN:s folkmordskonvention, baserat på landets behandling av rohingyafolket. Amnesty välkomnar detta viktiga steg mot att hålla Myanmars regering ansvarig och fortsätter att kräva att även ledande personer inom Myanmars militär ställs till svars för sin roll i brotten mot rohingyafolket.

2014 försökte Meta stödja ett initiativ för att motverka hat. Det kallades “Blomsterspråk” (ပန်းစကား) och innehöll en uppsättning dekaler som användare kunde dela som svar på innehåll som uppmanade till våld eller diskriminering, med meddelanden såsom “Tänk före du delar” eller “Orsaka inget våld”.

Däremot märkte aktivister snart att dekalerna fick oanade konsekvenser. Facebooks algoritmer tolkade användningen av dekalerna som ett tecken på att användarna uppskattade inläggen och började marknadsföra dem. Istället för att begränsa antalet människor som såg inläggen med hatiska budskap, gjorde dekalerna i själva verket inläggen mer synliga.

FN:s oberoende internationella undersökningskommission om Myanmar kom fram till att sociala medier spelat en “signifikant” roll för upptrappningen av våldet, i ett land där “internet är Facebook”.

Mohamed Showife, en rohingyaaktivist, sa: “Rohingyerna drömmer endast om att få leva på samma sätt som andra folk här i världen… men ni, Facebook, ni raserade vår dröm.”

Facebooks misslyckande att agera

Amnestys rapport beskriver hur Meta upprepade gånger underlåtit att genomföra en risk- och konsekvensanalys – så kallad ”human rights due diligence” (HRDD) – för att identifiera och motverka negativ inverkan på mänskliga rättigheter i sin verksamhet i Myanmar, trots att man har ett ansvar att göra det enligt internationella normer.

Interna undersökningar från 2012 visar att Meta redan då kände till att dess algoritmer kunde leda till allvarlig skada även utanför internet. Under 2016 konstaterade Metas egna undersökningar att “våra system för rekommendation [av innehåll] förvärrar problemet” med extremism.

Mellan 2012 och 2017 tog Meta emot ett flertal varningar och besök från lokala aktivister från civilsamhället som varnade för risken att företaget bidrog till extremt våld. Under 2014 blockerades Facebook tillfälligt av myndigheterna i Myanmar på grund av plattformens roll i ett utbrott av etniskt våld i Mandalay. Meta underlät upprepade gånger att lyssna på varningarna och misslyckades genomgående med att tillämpa sina egna regler för hatpropaganda.

Amnestys utredning omfattar ny analys av bevisen från “Facebook Papers” – en samling interna dokument som läcktes av visselblåsaren Frances Haugen.

I ett internt dokument från augusti 2019 skriver en anställd på Meta: “Vi har bevis från en rad olika källor om att hatretorik, splittrande politisk propaganda och desinformation på Facebook… påverkar samhällen runt om i världen. Vi har också övertygande bevis för att den grundläggande mekaniken i vår produkt, såsom viralitet, rekommendationer och optimeringen för engagemang, är ett viktigt orsak till varför dessa typer av innehåll florerar på plattformen.”

Meta måste betala

Tillsammans med rapporten lanserar Amnesty en ny kampanj som uppmanar Meta att gå med på rohingyafolkets krav på gottgörelse.

Rapporten kommer på femårsdagen för mordet på den välkända aktivisten Mohib Ullah, ordförande för Arakan Rohingya Society for Peace and Human Rights, som var ledande i arbetet för att utkräva ansvar från Meta.

Grupper som företräder rohingyaflyktingar har begärt att Meta ska kompensera genom att bidra med 1 miljon USA-dollar i finansiering till utbildningsprojekt i flyktinglägret i Cox’s Bazar, Bangladesh. Begäran utgör endast 0,002 procent av Metas vinster på 46,7 miljarder USA-dollar under 2021. I februari 2021 avslog dock Meta rohingyernas begäran, med budskapet att “Facebook engagerar sig inte direkt i filantropi.”

22-åriga Showkutara, en kvinnlig rohingyaaktivist, sa till Amnesty: “Facebook måste betala. Om de inte gör det kommer vi att gå till varje domstol i världen. Vi kommer aldrig att ge upp vår kamp.”

Det finns minst tre pågående rättsprocesser som rör ersättning från Meta till rohingyafolket. Civilrättsliga mål inleddes mot företaget i december 2021 i både Storbritannien och USA. Flera ungdomsorganisationer med rohingyaflyktingar har också lämnat in en anmälan mot Meta till Organisationen för ekonomiskt samarbete och utveckling (OECD) som nu hanteras av US OECD National Contact Point.

– Enligt internationella normer för mänskliga rättigheter har Meta ett ansvar att gottgöra och kompensera för den fruktansvärda skada som rohingyerna fick utstå och som Meta bidrog till. Slutsatserna i rapporten uppmärksammar att Meta riskerar att bidra till ytterligare allvarliga kränkningar av mänskliga rättigheter om företaget inte gör grundläggande förändringar av sin affärsmodell och sina algoritmer, säger Agnès Callamard.

– För att säkerställa att Metas historia med rohingyafolket inte upprepar sig runtom i världen, särskilt på platser där det pågår etniskt våld, finns ett skriande behov av snabba och omfattande reformer av företagets system som baseras på algoritmer för att förhindra övergrepp och öka transparens.

– Det är bara att konstatera att stater måste hjälpa till att skydda mänskliga rättigheter genom att utveckla och implementera effektiv lagstiftning för att tygla affärsmodeller som bygger på övervakning inom hela teknologisektorn. De stora digitala plattformarna har visat sig inkapabla att ta detta ansvar när enorma vinster står på spel.

Den 20 maj 2022 skickade Amnesty frågor till Meta om företagets agerande i anslutning till affärsverksamheten i Myanmar före och under det etniska våldet mot rohingyafolket 2017. Meta svarade att man inte kunde tillhandahålla någon information om perioden före 2017 eftersom företaget “för närvarande är inblandat i rättsprocesser som rör relaterade ärenden”.

Den 14 juni 2022 skrev Amnesty återigen till Meta för att ge företaget möjlighet att kommentera de anklagelser som publiceras i rapporten. Meta tackade då nej till att kommentera.

Världen | Myanmar
Örebronyheter

Källa: Amnesty International

You must be logged in to post a comment Login