Kapitel 1 — Der Wut-Algorithmus

Wie Facebook Empörung zur Währung machte

Facebook verdient sein Geld mit Werbung. Werbung funktioniert nur, wenn Menschen lange auf der Plattform bleiben. Der Algorithmus hat deshalb eine einzige Aufgabe: die Verweildauer maximieren.

Das Problem dabei: Wut, Empörung und Angst halten Menschen länger am Bildschirm als Freude oder neutrale Informationen. Das ist keine Spekulation — es ist durch interne Facebook-Forschung und externe Wissenschaft belegt.

Die Emoji-Reaktionen: Fünfmal mehr für Wut

2016 führte Facebook die Emoji-Reaktionen ein: Liebe, Haha, Wow, Traurig, Wütend. Intern wurde festgelegt: Jede dieser Reaktionen zählte fünfmal mehr als ein einfaches „Gefällt mir" im Algorithmus.

Die Logik dahinter war nachvollziehbar: Wer eine Reaktion zeigt, ist emotional stärker dabei als jemand, der nur liked. Also zeigt der Algorithmus solche Posts mehr Menschen.

Aber Facebooks eigene Datenwissenschaftler stellten schnell fest: Posts, die wütende Reaktionen auslösten, enthielten überproportional häufig Fehlinformationen, Spam oder spaltende Inhalte. Ein interner Mitarbeiter fragte schon früh: „Führt die 5x-Gewichtung dazu, dass der News Feed mehr kontroverse als angenehme Inhalte zeigt?" Die interne Forschung antwortete: Ja.[1][2]

2016
Emoji-Reaktionen eingeführt. Wut-Reaktion zählt 5× so viel wie ein Like.
2017
Interne Forschung zeigt: Wut-Posts enthalten überproportional viele Falschinformationen.
2018
Gewichtung der Wut-Reaktion auf 4× gesenkt. Mechanismus zum Zurückstufen wutgetriebener Posts eingeführt.
2020
Alle Reaktionen auf 1,5× eines Likes gesenkt. Vier Jahre nach Einführung des Problems.

Metas eigene Worte: „Wir nutzen die Anziehungskraft des Gehirns auf Spaltung"

2018 erstellten Mitarbeiter von Facebooks eigenen Integrity-Teams eine Präsentation für die Unternehmensführung. Eine Folie enthielt folgenden Kernsatz:

„Our algorithms exploit the human brain's attraction to divisiveness. If left unchecked, Facebook will feed users more and more divisive content in an effort to gain user attention and increase time on the platform."

Interne Facebook-Präsentation, 2018 — zitiert nach Wall Street Journal / US-Kongress [4]

Auf Deutsch: „Unsere Algorithmen nutzen die Anziehungskraft des menschlichen Gehirns auf Spaltung. Wenn unkontrolliert, wird Facebook den Nutzern immer mehr spaltendes Material zeigen, um Aufmerksamkeit zu gewinnen und die Verweildauer zu erhöhen."

Das ist keine Aussage eines Kritikers. Das ist die Selbsteinschätzung von Facebooks eigenen Ingenieuren in einer Präsentation für ihre eigene Unternehmensführung.

⚠️

Was danach passierte: Zuckerberg und andere Führungskräfte legten die Forschung laut internen Dokumenten und Zeugenaussagen weitgehend beiseite. Vorgeschlagene Maßnahmen wurden abgelehnt oder so stark abgeschwächt, dass sie keinen Effekt hatten.[6]

Kapitel 2 — MSI und die Polarisierungsspirale

Der Umbau, der alles schlechter machte ↑ nach oben

Ende 2017 entschied Facebook, seinen News FeedNews FeedDer zentrale Inhalts-Stream auf Facebook – die Startseite, auf der Posts, Videos und Werbung erscheinen. Ein Algorithmus entscheidet, was du siehst und in welcher Reihenfolge. Nicht chronologisch, sondern optimiert auf maximale Verweildauer. grundlegend zu ändern. Der neue Leitwert: Meaningful Social InteractionsMSIFacebooks Algorithmus-Umbau 2018: Posts von Freunden sollten prominenter werden. In der Praxis bewirkte MSI das Gegenteil: Provozierende Inhalte bekamen mehr Reichweite, weil sie mehr Kommentare auslösten." (MSI) — also sinnvolle soziale Interaktionen. Posts von Freunden und Familie sollten prominenter werden, Inhalte von Medien und Unternehmen weniger. Zuckerberg begründete das öffentlich als Schritt hin zu einem „gesünderen" Facebook.

Was MSI in der Praxis bewirkte

Ein internes Memo von November 2018 stellte fest: Mehr negative Kommentare auf einem Post führten zu mehr Klicks auf diesen Post. Das galt nicht für Einzelfälle — das galt für mindestens 14 untersuchte große Seiten. Der Memo-Autor schrieb direkt:

„Ethische Fragen beiseite — empirisch sind die finanziellen Anreize, die unsere Algorithmen schaffen, nicht mit unserer Mission vereinbar."

Internes Facebook-Memo, November 2018 [3]

Ein weiteres Datenwissenschaftler-Memo von 2019 hielt fest: MSI hatte „ungesunde Nebeneffekte" bei politischen Inhalten. Politische Parteien in mehreren europäischen Ländern berichteten intern, dass sie seitdem „systematisch provokativen, qualitativ minderwertigen Inhalten" mehr Verbreitung geben mussten — weil sachliche, positive Posts kaum noch Reichweite bekamen.

In Polen berichtete das Social-Media-Team einer Partei, dass sich sein Content-Mix von 50/50 positiv/negativ auf 80 % negativ verschoben habe — nicht aus eigener Wahl, sondern weil der Algorithmus es so belohnte.[18]

Kapitel 3 — In die Radikalisierung empfohlen

64 % durch Facebooks eigene Empfehlungen ↑ nach oben

Der Algorithmus bestimmt nicht nur, welche Posts du siehst — er empfiehlt dir auch, welchen Gruppen du beitreten sollst. Und hier liegt ein besonders gut belegtes Problem.

Die 64-Prozent-Zahl

Bereits 2016 führte Facebook-Forscherin Monica Lee eine interne Studie durch — ausgelöst durch Bedenken über extremistische Gruppen in Deutschland. Das Ergebnis:

64 % aller Beitritte zu Extremistengruppen auf Facebook waren auf Facebooks eigene EmpfehlungswerkzeugeEmpfehlungsalgorithmusAutomatische Vorschläge wie „Gruppen, die du kennen solltest“ oder „Seiten, die dir gefallen könnten“. 64% aller Beitritte zu Extremistengruppen auf Facebook gingen auf diese Empfehlungen zurück. zurückzuführen. Die Funktionen „Gruppen, die du kennen solltest" und „Entdecken" leiteten Nutzer aktiv in extremistische Gruppen weiter.[7][8]

Facebook hat Menschen also nicht nur passiv mit Extremismus in Kontakt gebracht. Es hat sie aktiv dorthin empfohlen.

Das „Common Ground"-Projekt — und sein Ende

2017 startete Facebook das interne Projekt „Common Ground" — ein unternehmensweiter Versuch, die Plattform weniger spaltend zu machen. Teams entwickelten konkrete Maßnahmen: die Reichweite hyperaktiver extremer Nutzer begrenzen, polarisierende Inhalte klassifizieren und zurückstufen, ClickbaitClickbaitReißerische Überschriften oder Vorschaubilder, die bewusst neugierig machen und zum Klicken verleiten – der eigentliche Inhalt hält selten, was die Überschrift verspricht. Algorithmen belohnen Clickbait, weil es Klicks generiert. zu politischen Themen unterdrücken.

Was passierte: Joel Kaplan, Facebooks Vizepräsident für globale Öffentlichkeitsarbeit und früherer Stabschef unter US-Präsident George W. Bush, blockierte oder verwässerte die meisten Vorschläge. Sein Argument: Die Maßnahmen seien „bevormundend" und würden konservative Nutzer und Gruppen überproportional treffen — was politisch riskant sei.

Maßnahmen zur Reduktion polarisierender Inhalte wurden intern als „antigrowth" — also wachstumsfeindlich — eingestuft. Carlos Uribe, der das News Feed Integrity Team leitete, verließ Facebook und die Tech-Industrie innerhalb eines Jahres. Er bestätigte öffentlich, dass er das Unternehmen aus Frustration über die Entscheidungen der Führungsebene verlassen hatte.[4][6]

Kapitel 4 — Frances Haugen

Die Frau, die die Dokumente mitnahm ↑ nach oben

Frances Haugen ist Datenwissenschaftlerin. Sie arbeitete von 2019 bis Mai 2021 bei Facebook als Produktmanagerin im Civic Integrity TeamCivic IntegrityFacebooks internes Team für Demokratie, Wahlen und Desinformation. Entwickelte Schutzmaßnahmen gegen Manipulation – wurde nach der US-Wahl 2020 aufgelöst. Zwei Monate später: der Sturm auf das Kapitol am 6. Januar 2021. — dem Team, das sich um Demokratie, Wahlen und Desinformation kümmerte. Bevor sie zu Facebook kam, hatte sie schon bei Google, Pinterest und Yelp gearbeitet. Sie wählte Facebook gezielt, weil sie nach dem Verlust eines Freunds durch Verschwörungstheorien etwas gegen Online-DesinformationDesinformationAbsichtlich falsche oder irreführende Informationen, die gezielt verbreitet werden, um öffentliche Meinung zu manipulieren. Unterschied zu Misinformation: Desinformation ist bewusst falsch, Misinformation wird unwissentlich weitergegeben. tun wollte.

Was sie tat

Haugen kopierte tausende interne Facebook-Dokumente und übergab sie zuerst dem Wall Street Journal (das im September 2021 die „Facebook Files"-Serie veröffentlichte), dann dem US-Kongress und der SECSECSecurities and Exchange Commission – die US-Börsenaufsicht. Haugen reichte dort eine Beschwerde ein: Facebook habe Investoren über die Risiken seiner Algorithmen getäuscht.. Am 3. Oktober 2021 enthüllte sie sich in einem Interview mit CBS 60 Minutes als Whistleblowerin. Am 5. Oktober 2021 sagte sie vor dem US-Senat aus.

Was die Dokumente zeigten

Facebook wusste, dass der Algorithmus Schaden anrichtet. Ein internes Dokument von August 2019 hielt fest: „Wir haben überzeugende Belege, dass unsere Kernprodukt-Mechanismen — wie ViralitätViralitätDie explosive Verbreitung eines Inhalts im Internet – wenn ein Post millionenfach geteilt wird. Facebooks Algorithmus ist auf Viralität optimiert: Inhalte, die emotionale Reaktionen auslösen, werden exponentiell weiterverbreitet., Empfehlungen und Engagement-OptimierungEngagementJede Interaktion eines Nutzers: Likes, Kommentare, Shares, Klicks, Verweildauer. Je mehr Engagement ein Beitrag erzeugt, desto mehr Menschen zeigt der Algorithmus ihn. Problem: Empörung erzeugt mehr Engagement als sachliche Information. — ein wesentlicher Grund sind, warum Hassrede, Polarisierung und Desinformation auf der Plattform gedeihen."[10]

Sicherheitsmaßnahmen wurden nach der Wahl 2020 abgeschaltet. Facebook hatte vor der US-Wahl 2020 temporäre Sicherheitssysteme gegen Desinformation aktiviert. Nach der Wahl und Bidens Sieg wurden diese Systeme wieder zurückgedreht oder abgeschaltet — um das Wachstum zu priorisieren.

„Als die Wahl vorbei war, schalteten sie sie wieder aus. Das fühlte sich für mich wie ein Verrat an der Demokratie an."

Frances Haugen, CBS 60 Minutes, Oktober 2021 [10]

Das Civic Integrity Team wurde aufgelöst. Kurz nach der Wahl 2020 löste Facebook das Civic Integrity Team auf — das Team, in dem Haugen arbeitete. Facebook sagte, die Arbeit sei auf andere Abteilungen verteilt worden. Zwei Monate später: der Sturm auf das US-Kapitol am 6. Januar 2021.

„Sie sagten: ‚Gut, wir haben die Wahl überstanden. Es gab keine Ausschreitungen. Wir können Civic Integrity jetzt auflösen.' Einige Monate später hatten wir den Aufstand."

Frances Haugen, CBS 60 Minutes [10]

„Niemand bei Facebook ist böswillig. Aber die Anreize sind falsch ausgerichtet. Facebook verdient mehr Geld, wenn du mehr Inhalte konsumierst. Menschen mögen es, mit Dingen zu interagieren, die eine emotionale Reaktion auslösen."

Frances Haugen, TIME [12]

Facebooks Reaktion auf Haugen

Facebook bestritt viele der Darstellungen. Lena Pietsch, damalige Direktorin für Kommunikation, erklärte, Haugens Kritiken seien ungültig, weil sie weniger als zwei Jahre im Unternehmen gearbeitet und keine Führungsverantwortung gehabt habe.

Dem entgegnete Samidh Chakrabarti, früherer Leiter des Civic Integrity Teams mit über sechs Jahren Erfahrung und direktem C-Level-Zugang, öffentlich: Er finde Haugens Positionen zur algorithmischen Regulierung und Transparenz „vollständig valide für eine öffentliche Debatte".[11]

Kapitel 5 — Was die Wissenschaft sagt

Belegt, umstritten, und was der Unterschied bedeutet ↑ nach oben

Was klar belegt ist

Externe Forschung bestätigt den Kern des Problems: Empörung und Fehlinformationen sind algorithmisch verknüpft. Eine Studie im Fachjournal Science (2024) zeigte: Inhalte, die Empörung auslösen, verbreiten sich weiter und schneller als andere — weil Algorithmen emotional aufwühlende Inhalte bevorzugen, und weil Empörung kommunikativ nützlich ist (sie stärkt Gruppensolidarität, signalisiert moralische Haltungen), unabhängig davon, ob der Inhalt wahr ist. Das macht Faktenchecks allein als Gegenmaßnahme begrenzt wirksam.[19]

Metas eigene Studie von 2023 — und warum sie zu weitreichende Schlüsse zog

Im Juli 2023 veröffentlichten Meta und 17 externe Wissenschaftler vier Studien in Science und Nature. Das Experiment lief während der US-Wahl 2020 mit rund 20.000 Nutzern und prüfte: Wenn man den Algorithmus durch einen chronologischen Feed ersetzt — ändert sich dann die politische Einstellung der Nutzer? Ergebnis: Kein signifikanter Effekt auf Polarisierung.

Meta-Vertreter Nick Clegg nutzte das als Beleg: Facebooks Algorithmus verursache keine schädliche Polarisierung. Die Herausgeber von Science selbst veröffentlichten jedoch eine Gegendarstellung: Die Studie sei methodisch korrekt, aber die Schlussfolgerungen, die Meta daraus zog, seien zu weitreichend.[22]

Eine unabhängige Studie (2025, ebenfalls in Science) zum X/Twitter-Algorithmus — diesmal ohne Beteiligung der Plattform — fand hingegen klare kausale Belege: Die algorithmische Verstärkung politisch feindseliger Inhalte veränderte tatsächlich die Einstellungen der Nutzer gegenüber politischen Gegnern.[25]

Fazit zur Forschungslage: Ob Facebooks Algorithmus direkt politische Einstellungen dauerhaft verändert, ist wissenschaftlich noch nicht abschließend geklärt. Was eindeutig belegt ist: Der Algorithmus verstärkt Inhalte, die Wut und Empörung auslösen. Und Meta wusste das aus eigenen internen Studien — schon 2017.
Kapitel 6 — Die unsichtbare Belegschaft

Content-Moderatoren: Die Menschen hinter dem Algorithmus ↑ nach oben

Bevor der Algorithmus entscheidet, was Milliarden Menschen sehen, entscheiden Menschen: Was bleibt auf der Plattform, was wird gelöscht. Das ist die Arbeit der Content-ModeratorenContent ModerationMenschen, die im Auftrag von Facebook täglich tausende Bilder und Videos prüfen: Enthauptungen, Kindesmissbrauch, Terror. Oft in ärmeren Ländern, für 1–3 Dollar pro Stunde, unter strikter Geheimhaltung. Viele entwickeln PTSD. — und Meta hat sie systematisch aus seinem Unternehmen ausgelagert, in ärmere Länder, zu Niedriglöhnen, unter strikter Geheimhaltung.

Diese Personen sehen täglich das Schlimmste, was Menschen ins Internet hochladen: Enthauptungen, Kindesmissbrauch, Folter, Suizide. Sie entscheiden innerhalb von Sekunden — oft Tausende Bilder pro Tag. Die psychischen Folgen tragen sie selbst.

Manila: Der Dokumentarfilm, der alles sichtbar machte

Die deutschen Filmemacher Hans Block und Moritz Riesewieck suchten ab 2015 nach den Reinigungskräften des Internets. Es dauerte acht Monate, bis sie die ersten Moderatoren fanden — so groß war die Geheimhaltung. Wer für Facebook arbeitete, durfte laut Vertrag nicht darüber sprechen. Intern hieß der Auftraggeber bei manchen Firmen schlicht „The Honey Badger Project".

2018 erschien ihr Dokumentarfilm „The Cleaners" auf dem Sundance Film Festival und wurde international ausgezeichnet. Er zeigte: Moderatoren in Manila verarbeiten bis zu 25.000 Bilder pro Tag, für 1 bis 3 US-Dollar pro Stunde. Einige berichteten von Suiziden unter Kollegen. Viele entwickelten PTSDPTSDPosttraumatische Belastungsstörung – eine schwere psychische Erkrankung nach traumatischen Erlebnissen. Symptome: Flashbacks, Schlafstörungen, Angst, emotionale Taubheit. Bei Content-Moderatoren durch tägliche Konfrontation mit extremer Gewalt ausgelöst.-Symptome: Angst vor öffentlichen Plätzen, Schlafstörungen, Flashbacks.[28]

USA: Phoenix und Tampa — der Tod am Schreibtisch

In den USA arbeiteten tausende Moderatoren über den IT-Dienstleister Cognizant für Facebook — in Phoenix, Arizona und Tampa, Florida.

2018 klagte Selena Scola, die neun Monate für Facebook moderiert hatte, wegen PTSD. Die Klage wurde zur Sammelklage. Reporter Casey Newton von The Verge dokumentierte 2019 die Arbeitsbedingungen: zwei 15-Minuten-Pausen und 9 Minuten „Wellness-Zeit" pro Tag. Mitarbeiter, die am Schreibtisch Cannabis konsumierten, um die Arbeit zu ertragen. Einige, die durch die tägliche Exposition Verschwörungstheorien und rechtsextreme Überzeugungen entwickelten.

Am 9. März 2018 erlitt Mitarbeiter Keith Utley während seiner Schicht bei Cognizant in Tampa einen Herzinfarkt. Das Büro hatte keinen Defibrillator. Er starb. Was er in dem Moment auf seinem Bildschirm sah, wurde nie öffentlich gemacht.

Im Mai 2020 einigte sich Facebook auf einen Vergleich über 52 Millionen Dollar — für über 11.000 aktuelle und ehemalige Moderatoren in vier US-Bundesstaaten. Cognizant zog sich vollständig aus dem Content-Moderation-Geschäft zurück und schloss die Standorte. Die betroffenen Moderatoren verloren ihren Job — ohne fortlaufende psychologische Versorgung.[30]

Kenia: 1,50 Dollar die Stunde — und das Grundsatzurteil

2022 klagte Daniel Motaung, ein südafrikanischer Moderator, der für Facebooks Auftragnehmer Sama in Nairobi arbeitete. Stundenlohn: 1,50 US-Dollar. Arbeitsinhalt: Enthauptungsvideos, Kindesmissbrauch, Terror. Als Motaung versuchte, eine Gewerkschaft zu gründen, wurde er entlassen. Seine Klage wuchs zur Sammelklage von 185 Moderatoren. Ein unabhängiger medizinischer Bericht diagnostizierte bei mehr als 140 der Klagenden schwere PTSD, Angststörungen oder Major Depression.

Metas Position: Das Unternehmen habe die Moderatoren nie direkt beschäftigt — Arbeitgeber sei allein Sama. Keine Verantwortung.

Im September 2024 entschied das kenianische Berufungsgericht: Meta kann in Kenia vor dem Arbeitsgericht verklagt werden — auch ohne direkte Anstellung. Als faktischer Auftraggeber ist Meta rechtlich verantwortlich. Das ist ein Präzedenzfall: Erstmals stellte ein Gericht in einem Entwicklungsland rechtskräftig fest, dass US-Tech-Konzerne sich nicht durch Outsourcing-Strukturen ihrer Haftung entziehen können.[36]

Ghana: Der nächste geheime Standort

Nachdem Kenia öffentlich wurde, zog Meta den Vertrag stillschweigend ab. Neuer Standort: Accra, Ghana — betrieben über Majorel, eine Tochter des französischen Konzerns Teleperformance. Meta bestätigte den Standort monatelang nicht. Die britische Investigativorganisation The Bureau of Investigative Journalism deckte ihn 2025 auf.

Was Moderatoren dort berichteten: Ein Mitarbeiter versuchte Suizid — sein Vertrag wurde daraufhin gekündigt. Moderatoren teilten Betten in beengten Unterkünften des Arbeitgebers. Manager folgten Mitarbeitern auf die Toilette. Wer auf bessere Bedingungen bestand, riskierte die Entlassung.[34]

„Das sind die schlimmsten Bedingungen, die ich in sechs Jahren Arbeit mit Social-Media-Content-Moderatoren gesehen habe."

Martha Dark, Mitgründerin der NGO Foxglove

Das Muster

Die geografische Abfolge ist kein Zufall. Sie folgt einem System: Sobald ein Standort unter Druck gerät, zieht Meta den Vertrag ab und beginnt anderswo neu. Die Kette aus Subunternehmen stellt sicher, dass Meta juristisch möglichst weit vom Geschehen entfernt bleibt.

Standort Auftragnehmer Ausgang
Manila, Philippinen Verschiedene Drittfirmen Keine Klagen; Branche weiter aktiv
Phoenix & Tampa, USA Cognizant 52 Mio. $ Vergleich 2020; Cognizant verlässt Branche
Nairobi, Kenia Sama/Samasource Grundsatzurteil 2024: Meta klagbar; Verfahren läuft
Accra, Ghana Majorel (Teleperformance) Klagen 2025 eingereicht; laufend

Meta hat nie direkt eingestellt. Meta hat nie direkte Verantwortung anerkannt. Und Meta hat keinen Standort öffentlich bestätigt, bevor externe Recherchen ihn aufdeckten.[37]

Kapitel 7 — Was Meta sagt

Die Gegenposition — und warum die Dokumente mehr wiegen ↑ nach oben

Meta bestreitet die zentralen Vorwürfe. Die wichtigsten Argumente des Unternehmens:

ℹ️

Die eigenen internen Dokumente von 2018 und 2019 widersprechen dieser öffentlichen Darstellung direkt. Meta hat diese Dokumente nie angefochten — sie wurden durch den Haugen-Leak und Kongressverfahren bestätigt. Die Frage, was Meta intern wusste und was es damit tat, ist durch die Dokumente belegt. Die Frage, wie groß der gesellschaftliche Langzeitschaden ist, ist wissenschaftlich noch nicht abschließend geklärt.

Hinweis: Wie dieselben internen Dokumente zeigen, hat Meta auch gewusst, was Instagram Teenagern antut — mit dem Körperbild, dem Selbstwertgefühl und dem Schlaf. Dazu mehr in unserem Instagram-Artikel.

Fazit

Falsche Anreize. Bekannte Konsequenzen. Keine Änderung. ↑ nach oben

Meta hat ein System gebaut, das Wut belohnt. Das ist nicht die Meinung von Kritikern — das steht in Metas eigenen internen Dokumenten von 2016, 2018 und 2019. Die Ingenieure erkannten das Problem. Sie machten Vorschläge. Die Unternehmensführung wählte das Wachstum.

Frances Haugen hat diese Dokumente öffentlich gemacht. Sie hat vor dem US-Kongress, dem britischen Parlament und der EU ausgesagt. Facebooks einzige ernsthafte Reaktion war: das Civic Integrity Team aufzulösen.

Das ist die Geschichte des Algorithmus. Nicht böse Absicht — falsche Anreize. Aber Anreize, die das Unternehmen kannte, und die es trotzdem beibehielt.
38 Quellen
  1. Nieman Journalism Lab — Facebook algorithm prioritized anger (Okt. 2021): niemanlab.org
  2. The Hill — 5 points for anger (Okt. 2021): thehill.com
  3. CNN — Facebook MSI News Feed math (Okt. 2021): cnn.com
  4. Wall Street Journal — Facebook Executives Shut Down Efforts to Make the Site Less Divisive (Mai 2020): wsj.com
  5. US-Kongressdokument mit WSJ-Zitaten: congress.gov
  6. Engadget — Facebook resisted being less divisive (Mai 2020): engadget.com
  7. E&T Magazine — Facebook did not act on extremism research: eandt.theiet.org
  8. MIT Technology Review — Haugen algorithms (Okt. 2021): technologyreview.com
  9. MIT Technology Review — Facebook's AI misinformation addiction (März 2021): technologyreview.com
  10. CBS News — 60 Minutes Haugen Interview (Okt. 2021): cbsnews.com
  11. TIME — How Haugen's team forced a reckoning (Okt. 2021): time.com
  12. TIME — Frances Haugen whistleblower reveals identity (Okt. 2021): time.com
  13. CNN — Haugen Senate testimony live (Okt. 2021): cnn.com
  14. CNN — Haugen 60 Minutes background: cnn.com
  15. NPR — Facebook whistleblower renewing scrutiny (Okt. 2021): npr.org
  16. CNBC — Haugen reveals identity (Okt. 2021): cnbc.com
  17. NBC News — Haugen: Facebook asleep at the wheel (2023): nbcnews.com
  18. NBC News — 2018 algorithm change boosted GOP groups (Juni 2022): nbcnews.com
  19. Science — Misinformation exploits outrage (2024): science.org
  20. The Decision Lab — Social Media and Moral Outrage: thedecisionlab.com
  21. NPR — Meta algorithm studies Juli 2023: npr.org
  22. Science AAAS — Study on polarization, critique (2024): science.org
  23. Columbia Journalism Review — Meta studies on polarization: cjr.org
  24. CNBC — Meta algorithm studies (Juli 2023): cnbc.com
  25. Science Media Centre — X-Studie Algorithmus Polarisierung (Nov. 2025): sciencemediacentre.es
  26. Today.com — Social media outrage culture studies (Okt. 2025): today.com
  27. Nature — Facebook echo chamber study (Juli 2023): nature.com
  28. The Cleaners (Dokumentarfilm, 2018), Regie: Hans Block, Moritz Riesewieck: imdb.com
  29. NPR — Interview mit den Regisseuren von The Cleaners (Nov. 2018): npr.org
  30. TechCrunch — Facebook to pay $52 million to content moderators (Mai 2020): techcrunch.com
  31. Tampa Bay Times — Facebook sued by Tampa workers (Feb. 2020): tampabay.com
  32. Klageschrift Garrett et al. v. Facebook Inc., Case 8:20-cv-00585: digitalcommons.law.scu.edu
  33. Staffing Industry Analysts — Judge rules for Facebook and Cognizant (Sept. 2023): staffingindustry.com
  34. The Bureau of Investigative Journalism — Meta's new moderators face worst conditions yet (April 2025): thebureauinvestigates.com
  35. France24/AFP — Lawyers probe 'dire' conditions for Meta content moderators in Ghana (Mai 2025): france24.com
  36. Al Jazeera — African workers are taking on Meta (April 2025): aljazeera.com
  37. IHRB — Content moderation is a new factory floor of exploitation (Nov. 2025): ihrb.org
  38. Business and Human Rights Resource Centre — Ghana: Meta faces lawsuit: business-humanrights.org