Von Redaktion

Was früher Zensur hieß, nennt man heute „Inhaltsmoderation“. Und was einst mit Stempel und Zensor geschah, geschieht heute unsichtbar – gesteuert von Algorithmen, künstlicher Intelligenz und politischem Druck. Die Folge: Immer mehr kritische Webseiten, alternative Journalisten und freie Kanäle auf X, Facebook, Telegram oder YouTube verlieren plötzlich Reichweite, Sichtbarkeit – und Stimme.

Der digitale Diskursraum, der einst als Ort der Vielfalt galt, wird schleichend gleichgeschaltet. Und das unter dem Deckmantel der Desinformationsbekämpfung.

Unsichtbare Zensur: Der Algorithmus entscheidet, was gesehen wird

Die Inhalte auf Plattformen wie X (ehemals Twitter), Facebook oder YouTube werden heute nicht mehr chronologisch oder thematisch sortiert, sondern durch undurchsichtige Algorithmen gefiltert. Und genau hier liegt das Problem:

  • Niemand weiß, was genau zensiert oder herabgestuft wird – und warum.
  • Beiträge, die gestern noch Reichweite hatten, verschwinden heute aus den Feeds.
  • Betroffene erhalten keine Begründung, keine Einsicht – kein Einspruchsrecht.

Diese Praxis trifft besonders politisch unbequeme Inhalte, alternative Gesundheitsinformationen, regierungskritische Berichterstattung, investigative Recherche – kurz: alles, was nicht in den Rahmen des gewünschten Narrativs passt.

Künstliche Intelligenz als Zensurverstärker

Was früher auf Schlagworte und manuelle Kontrolle beruhte, wird heute von KI-Systemen wie sogenannten „Content Classifiers“ oder „Trust & Safety Engines“ übernommen. Diese lernen selbstständig, was als „problematisch“ gilt – auf Basis von Trainingsdaten, die häufig von regierungsnahen NGOs, transatlantischen Stiftungen oder faktisch gleichgeschalteten Faktenprüfern bereitgestellt werden.

Mit jeder neuen Version wird diese Form der Zensur subtiler, präziser – und schwerer nachzuweisen.

Plattformen erkennen heute nicht nur Begriffe wie „Impfkritik“, „Ukrainekrieg“ oder „Digitale ID“, sondern auch Tonfall, Metaphern, Ironie oder kritische Konnotationen – und drosseln Inhalte algorithmisch, noch bevor sie nennenswerte Reichweite erzielen.

Wer ist betroffen?

Die Liste der Betroffenen wächst täglich – und mit ihr auch der öffentliche Widerstand:

  • Unabhängige Magazine wie Multipolar, Transition News, Manova, Achgut und auch unsere Plattformen so wie viele andere,
  • X-Accounts von Ärzten, Analysten, Anwälten, Investigativjournalisten – oft mit zehntausenden Abonnenten
  • Telegram-Kanäle mit fünf- bis sechsstelligen Reichweiten verlieren Abonnenten
  • YouTube-Kanäle mit Millionenpublikum – demonetarisiert, gelöscht, gesperrt oder „eingeschränkt“
  • Einzelne Bürger, die über plötzlich verlorene Abonnenten, verschwundene Beiträge oder Schattenbannung klagen – ohne jemals gegen offizielle Richtlinien verstoßen zu haben.

Und: Immer mehr Betroffene gehen damit an die Öffentlichkeit.

Jüngstes Beispiel: Der Fall „Vigilant Fox“

Am 25. April veröffentlichte der bekannte Analyst @VigilantFox auf X eine brisante Anklage gegen einen führenden Mitarbeiter des „Community Notes“-Programms – jenes Mechanismus, der eigentlich zur Richtigstellung irreführender Inhalte gedacht war. Laut Fox habe dieser Mitarbeiter seit über einem Jahr aktiv Beiträge zu Impfungen, Kindesmissbrauch und kritischen Regierungsthemen unterdrückt – mithilfe eines Netzwerks von politisch gesteuerten Faktenprüfern.

Wenige Stunden nach Veröffentlichung des Threads verschwanden einzelne Beiträge aus Sichtbarkeiten – und der ursprüngliche Post wurde algorithmisch heruntergestuft.

Solche Vorfälle häufen sich. Immer öfter berichten Nutzer, dass ganze Kanäle „plötzlich verschwinden“, als hätte es sie nie gegeben. Kein Verstoß, keine Warnung, keine Begründung – nur Leere.

Politische Steuerung – mit globalem Einfluss

Der Digital Services Act (DSA) der EU, Demokratieschutzinitiativen und internationale Desinformationsabkommen setzen Plattformen massiv unter Druck, kritische Inhalte zu filtern – auch wenn sie legal sind.

In den USA, Deutschland, Kanada, Großbritannien und Frankreich greifen Regierungen aktiv in die Plattformpolitik ein. Wer zu kritisch ist, riskiert Löschung – wer zu angepasst ist, wird promoted. Die Trennung zwischen Staat, Konzern und Content-Kontrolle verschwimmt zunehmend.

Interne Leaks und Whistleblower-Berichte, etwa aus den Twitter Files, zeigen in aller Deutlichkeit:
Geheimdienste, Regierungsstellen und Think-Tanks haben sich direkten Einfluss auf die Inhalte gesichert, die der Öffentlichkeit zugemutet werden dürfen – unter dem Vorwand, die Demokratie zu schützen.

Fazit: Die Öffentlichkeit wird algorithmisch umgebaut

Zensur bedeutet heute nicht mehr „Verbot“, sondern Unsichtbarmachung. Wer heute die Algorithmen kontrolliert, kontrolliert die Debatte. Und wer die Debatte kontrolliert, formt die Realität.

Für viele kritische Stimmen bedeutet das:

Sie verschwinden – nicht, weil sie falsch liegen, sondern weil sie stören.

Was bleibt, ist ein digital desinfizierter Raum: glatt, vorhersehbar, regierungskonform.

Willkommen in der Ära der algorithmischen Macht. Unsichtbar. Wirksam. Politisch gewollt. Und täglich wachsender Widerstand – von unten.

Daher unbedingt unser Newsletter abonnieren. Hier.





Source link

Von Veritatis

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert