Pressemitteilung Aktuell Äthiopien 31. Oktober 2023

Äthiopien: Metas Versagen befeuert Gewalt gegen Zivilbevölkerung in Tigray

Das Bild zeigt eine Illustration: Ein Bild mit Bilderrahmen in der Mitte, daneben Kerzen, davor der Schatten des "F", das für Facebook steht

In Äthiopien wurde der tigrayische Chemieprofessors Meareg Amare getötet, nachdem er am 3. November 2021 mittels Facebook-Posts ins Visier genommen wurde.

In einem neuen Bericht schildert Amnesty International, dass Hass-Posts nicht von Metas Plattformen entfernt wurden, sondern die algorithmischen Systeme von Facebook die Verbreitung von feindseligen Posts begünstigt haben. Meta hat Warnungen von Menschenrechtsexpert*innen ignoriert und so zu Menschenrechtsverletzungen gegen die tigrayische Bevölkerung beigetragen.

Der Facebook-Mutterkonzern Meta hat zu schwerwiegenden Menschenrechtsverletzungen gegen die Zivilbevölkerung in der nordäthiopischen Region Tigray beigetragen. Dies geht aus einem neuen Bericht von Amnesty International hervor.

Der Bericht A death sentence for my father: Meta’s contribution to human rights abuses in northern Ethiopia zeigt, dass Meta es erneut versäumt hat, Hass- und Gewaltposts aus dem Netz zu nehmen. Vor dem Hintergrund des bewaffneten Konflikts in Tigray von November 2020 bis November 2022 wurden zahlreiche Menschen zur Zielscheibe solcher Posts.

Lena Rohrbach, Expertin für Menschenrechte im digitalen Zeitalter bei Amnesty International in Deutschland, sagt: "Drei Jahre nach seinem vollständigen Versagen im Fall der Rohingya in Myanmar hat Meta durch seine Algorithmen und sein datenhungriges Geschäftsmodell erneut zu schweren Menschenrechtsverletzungen beigetragen. Vor dem Ausbruch des Konflikts in der Region Tigray ignorierte Meta Warnungen von Menschenrechtsorganisationen und dem eigenen Facebook-Aufsichtsrat. Selbst nach dem Beginn des Konflikts ergriff der Konzern keine Maßnahmen gegen die gewalttätigen und hasserfüllten Posts auf seinen Plattformen. Die massenhafte Verbreitung dieser Posts hat die angespannte Stimmung weiter aufgeheizt und zu Diskriminierung und Gewalt gegen die tigrayische Bevölkerung beigetragen."

Die Facebook-Plattform ist für viele Äthiopier*innen eine wichtige Informationsquelle, die als vertrauenswürdig eingestuft wird. Doch die Algorithmen von Facebook haben verheerende Auswirkungen auf die Menschenrechte. Die Recherchen von Amnesty International ergaben, dass die algorithmischen Systeme von Facebook die Verbreitung feindseliger Rhetorik gegen die tigrayische Bevölkerung begünstigten. Gleichzeitig waren die Moderationssysteme der Plattform nicht in der Lage, solche Inhalte zu erkennen und angemessen darauf zu reagieren.

Diese Versäumnisse trugen beispielsweise zur Vertreibung der regierungskritischen Journalistin Lucy Kassa und der Tötung des tigrayischen Chemieprofessors Meareg Amare bei. Lucy Kassa musste aus dem Land fliehen, nachdem ein Regierungsaccount sie auf Facebook mit einem Foto angeprangert hatte und die Postings viral gingen. Meareg Amare wurde von einer Gruppe von Männern getötet, nachdem er am 3. November 2021 mittels Facebook-Posts ins Visier genommen wurde.

Interne Dokumente von Meta, die von Amnesty International ausgewertet wurden, zeigen, dass der Konzern von den Unzulänglichkeiten seiner Schutzmaßnahmen in Äthiopien und den damit verbundenen Risiken wusste. Das Unternehmen selbst hat das Land als hochgradig gewaltgefährdet eingestuft. In einem internen Meta-Dokument aus dem Jahr 2020 wird gewarnt, "dass die derzeitigen Strategien zur Schadensbegrenzung nicht ausreichen", um die Verbreitung schädlicher Inhalte auf Facebook in Äthiopien zu stoppen. Der eigene Facebook-Aufsichtsrat hat Meta im Jahr 2021 empfohlen, eine unabhängige Menschenrechtsverträglichkeitsprüfung in Äthiopien durchzuführen.

Bei Meta sind die Algorithmen zur Gestaltung von Inhalten darauf ausgelegt, die Nutzer*innen so lange wie möglich auf der Plattform zu halten. Da verletzende, aufstachelnde und polarisierende Inhalte bei Nutzer*innen am meisten Aufmerksamkeit erregen, werden diese oft bevorzugt angezeigt. So stellt das Unternehmen eine anhaltende Gefahr für die Menschenrechte dar, insbesondere in Konfliktgebieten.

Von Amnesty International befragte Personen aus Metas "Trusted Flagger" Programm kamen zu dem Schluss, dass es wegen der langsamen Reaktionszeit und der Weigerung, gemeldete schädliche Inhalte zu löschen, aussichtlos ist, dem Unternehmen solche Inhalte überhaupt zu melden.

Lena Rohrbach sagt: "Auch Big-Tech-Unternehmen haben die Pflicht, die Menschenrechte zu achten. Wenn sie dies nicht tun, müssen sie für die von ihnen verursachten oder mitverantworteten Menschenrechtsverletzungen zur Rechenschaft gezogen werden."

Äthiopien ist mit einer weiteren Sicherheitskrise in der Amhara-Region konfrontiert. Meta muss nun dringend Maßnahmen ergreifen, um die von Facebook ausgehenden Gefahren in Äthiopien einzudämmen. Angesichts der Warnungen von UN-Ermittler*innen vor möglichen zukünftigen Gräueltaten sind solche Schritte von entscheidender Bedeutung.

Staaten müssen ihrer Verpflichtung zum Schutz der Menschenrechte nachkommen, indem sie Gesetze verabschieden und durchsetzen, um das Geschäftsmodell von Big Tech wirksam einzudämmen. Dazu gehört auch das Verbot gezielter Werbung auf der Grundlage invasiver Tracking-Praktiken.

Weitere Artikel