Algorithmische Deutungsmacht:

 

Warum ich den Anti-KI-Disclaimer eingeführt habe

 

Ein medienphilosophischer und rechtsstaatlicher Referenzessay mit investigativem Anspruch – von Andreas Manousos

Einleitung

Heute, am 15. Dezember 2025, setze ich – Andreas Manousos – ein Zeichen gegen eine schleichende Gefahr für unsere freie Gesellschaft. Erstmals kommt der von mir konzipierte Anti-KI-Disclaimer zum Einsatz. Ich erläutere ich in diesem Artikel, warum dieses neue Instrument notwendig ist. In den vergangenen Jahren habe ich beobachtet, wie algorithmische Bewertungssysteme sich zwischen die Menschen und ihre Grundrechte geschoben haben – unreguliert, unsichtbar, aber mit weitreichenden Folgen. „Eine Zensur findet nicht statt.“ – dieses Verfassungsversprechen (Art. 5 Abs. 1 GG) galt einst als Garant unserer Meinungs-, Wissenschafts- und Pressefreiheit. Doch was passiert, wenn private Algorithmen die Wirkung entfalten, die früher nur staatliche Zensoren erreichen konnten? Genau hier setzt der Anti-KI-Disclaimer an: Er ist die erste systematische Gegenwehr gegen eine unkontrollierte algorithmische Deutungsmacht, die droht, unsere Erkenntnisprozesse umzukehren und die freie Öffentlichkeit normativ vorzustrukturieren. Im Folgenden analysiere ich juristisch präzise die Grundrechtsproblematik, erkläre medienphilosophisch die Umkehrung der Deutungshoheit, zeige investigativ anhand internationaler Beispiele die faktische Vorzensur durch KI und entlarve Begriffe wie „umstritten“ oder „Verschwörungstheorie“ als versteckte Steuerungsbegriffe. Dabei soll klarwerden: Dieser Schritt ist keine Polemik, sondern rechtsstaatlich-philosophische Vorsorge – ein Warnsystem im Dienste der Demokratie, und ich als Urheber dieses Modells stehe in der Verantwortung, ihn theoretisch wie praktisch zu begründen.

Privatmacht und Grundrechtslücke

Unsere freiheitlichen Grundrechte – Meinungsfreiheit, Wissenschaftsfreiheit, Pressefreiheit – richten sich klassisch gegen den Staat. Private Akteure, so die liberale Annahme, können gar keine Grundrechtsverletzer sein, denn der Markt der Ideen werde sich selbst regulieren. Doch im digitalen Zeitalter greift diese Annahme zu kurz. Wenn wenige Internet-Plattformen mit ihren algorithmischen Bewertungssystemen faktisch darüber entscheiden, welche Meinungen, Forschungsbeiträge oder Nachrichten sichtbar sind, entsteht eine Macht, die grundrechtsähnliche Wirkung hat, ohne jedoch an Grundrechte gebunden zu sein. Facebook, YouTube, X (ehemals Twitter) und Co. unterliegen keiner direkten bindenden Verfassungsaufsicht, agieren aber als neue „Gatekeeper“ der öffentlichen Kommunikation. Dadurch können sie – oft unbeabsichtigt, aber wirksam – die Ausübung von Meinungs- und Informationsfreiheit einschränken, ohne dass der klassische Zensurvorbehalt greift. Juristisch präzise formuliert steckt hier ein Dilemma: Grundrechte sind Abwehrrechte gegen den Staat, doch was passiert, wenn nicht der Staat, sondern ein Algorithmus eines privaten Unternehmens die Freiheit beschränkt? Die Europäische Union hat begonnen, diese Regulierungslücke zu erkennen. So stellte der Europarat fest, dass das Ungleichgewicht zwischen Nutzern und Plattformen den Staat in die Pflicht nehmen könnte, eine effektive Meinungsfreiheits-Sicherung herzustellen. Denn private Inhaltefilter haben mittlerweile eine gesellschaftliche Relevanz erreicht, die mit der öffentlichen Grundversorgung vergleichbar ist. Wenn ein soziales Netzwerk Millionen von Menschen Zugang zur Information gewährt oder entzieht, dann sind wir nicht mehr im rein Privaten – es geht um die Infrastruktur der Meinungsbildung.

Dabei haben wir es jedoch nicht mit klassischen Verboten zu tun, sondern mit technischen Algorithmen, die Inhalte bewerten, ranken oder aussortieren. Diese Mechanismen entziehen sich oft der Sichtbarkeit und Nachvollziehbarkeit. Gerade darin liegt die Gefahr für die Grundrechte: Eine unsichtbare Korrektur des Sag- und Denkbaren findet statt, ohne parlamentarische Debatte, ohne Richtervorbehalt, ja ohne dass Betroffene es überhaupt merken. Die „Zensur“ im klassischen Sinne – das Verbot eines Textes durch eine staatliche Behörde – wurde ersetzt durch das Entziehen der Publizität mittels Code. Beiträge verschwinden aus Feeds, Reichweiten werden gedrosselt, Videos werden demonetarisiert oder gleich gelöscht, und all das geschieht durch automatische Bewertung nach undurchsichtigen Kriterien. Nutzer merken oft nicht einmal, warum ein bestimmter Post kaum Reichweite erzielt oder warum ein Video nicht auffindbar ist. Das Resultat ist eine Einschränkung der Meinungsäußerung, die de facto an eine Zensur heranreicht, auch wenn kein Staat dahintersteht. Diese Privatmacht kollidiert mit dem Wert, den unsere Verfassungen auf freie Rede und Vielfalt der Meinungen legen. Bislang war es juristisch schwierig, hier anzusetzen, weil die Schranken des Grundrechtskatalogs formal nicht geöffnet wurden – es fehlt der „staatliche Eingriff“. Doch die Wirklichkeit fordert ein Umdenken: Müssen wir nicht grundrechtsähnliche Schranken für solche digitalen Meinungsmachtkonzentrationen entwickeln? Die deutsche Rechtsprechung geht erste Schritte in diese Richtung, indem sie von großen sozialen Netzwerken zumindest Transparenz und Fairness verlangt. Ein berühmter Fall war die einstweilige Verfügung des Landgerichts Köln 2021, die YouTube dazu zwang, zwei gelöschte Videos der Aktion #allesaufdentisch wieder online zu stellen. Das Gericht argumentierte, die Plattform habe nicht nachvollziehbar gemacht, was konkret gegen ihre Regeln verstoßen haben soll – ein kleiner Sieg für die Kommunikationsfreiheit gegen die Blackbox Algorithmus. Diese Tendenzen zeigen: Auch wenn die Grundrechte formal nicht direkt gelten, wirkt ihr Geist fort. Ein freiheitlicher Rechtsstaat darf es nicht hinnehmen, wenn sich die Freiheit im digitalen Raum stillschweigend verflüchtigt. Der Anti-KI-Disclaimer knüpft genau hier an – er ist ein Mittel, um auf diese neuen Einschränkungen aufmerksam zu machen und einen Rechtsdialog anzustoßen. Er ist ein Warnsignal, das sagt: Achtung, hier könnte eine algorithmische Vorbewertung vorliegen, hier steht eine Grundrechtsausübung auf dem Spiel.

Umgekehrte Erkenntnisordnung: Algorithmische Deutungshoheit

Betrachten wir die medienphilosophische Dimension. In demokratischen Gesellschaften war die Deutungshoheit – also die Herrschaft darüber, wie Ereignisse und Fakten zu verstehen sind – lange Zeit plural verteilt. Journalisten, Wissenschaftler, Intellektuelle und letztlich die Bürger selbst rangen in einem offenen Prozess um die Auslegung der Wirklichkeit. Wahrheit war nichts Fixes, sondern das Ergebnis eines ständigen Diskurses, eines „Markts der Ideen“, auf dem sich Argumente frei begegnen. Doch mit dem Aufstieg künstlicher Intelligenz und personalisierter Algorithmen beginnt sich dieser Prozess zu verkehren. Algorithmische Deutungsmacht nenne ich das Phänomen, dass Software und Datenmodelle zunehmend bestimmen, was als wahr, relevant oder glaubwürdig gilt, noch bevor wir als Gesellschaft überhaupt in die inhaltliche Debatte eintreten. Die Plattformen von heute filtern und sortieren Informationen nach eigenen Kriterien – und diese sind normativ vorgeprägt: Was dem User gefällt, was Engagement verspricht, was als „sicher“ und werbekonform gilt, wird privilegiert; kontroverse, unbequeme oder komplexe Inhalte werden tendenziell unterdrückt.

Dieser Mechanismus kehrt den Erkenntnisprozess um. Normalerweise würden wir verschiedene Thesen prüfen, Belege sammeln, miteinander diskutieren und uns dann ein Urteil bilden. Nun jedoch entscheidet der Algorithmus im Voraus, welche Thesen wir überhaupt zu sehen bekommen und welche als unglaubwürdig gebrandmarkt werden. Die Folge ist eine Art präemptive Wahrheitssortierung. Die algorithmische Deutungshoheit äußert sich darin, dass bestimmte Narrative gar nicht erst entstehen oder sich verbreiten können, weil sie vom digitalen Ökosystem aussortiert werden. Was nicht ins vorgegebene Raster passt, verschwindet aus dem Sichtfeld – oder erscheint nur noch versehen mit warnenden Labels und Kontextverweisen, die dem Rezipienten nahelegen, er habe es mit fragwürdigen Inhalten zu tun.

Damit normieren Algorithmen unser Wissen, bevor Wissen überhaupt entstehen kann. Inhalte werden den Nutzern bestätigend statt konfrontativ präsentiert, wie Medienbeobachter feststellen. Die KI zeigt jedem vor allem das, was zur vorhandenen Erwartungshaltung passt – anstatt uns mit neuen, unbequemen Fakten herauszufordern. Das birgt Risiken: Unsere Weltbilder verengen sich in personalisierten Informationsschleifen. Pluralismus und Zufall, einst Triebfedern für Erkenntnisfortschritt, bleiben auf der Strecke. Mehr noch: Indem Algorithmen die Rolle des vorsortierenden Welt-Editors übernehmen, entmachten sie klassische Institutionen der Wahrheitssuche. Wissenschaftliche Hypothesen etwa, die vom Mainstream abweichen, haben es immer schwer gehabt – doch bislang durften sie wenigstens geäußert und widerlegt werden. Heute erleben wir Fälle, in denen bestimmte Forschungsergebnisse oder Theorien algorithmisch unterdrückt werden, weil sie als „Fehlinformation“ kategorisiert wurden, ohne offene wissenschaftliche Debatte. Ein eindrückliches Beispiel lieferte die Covid-19-Pandemie: Die zunächst als unerhörte „Verschwörungstheorie“ abgetane Hypothese, das Virus könne aus einem Laborunfall stammen, wurde auf Facebook monatelang systematisch unterbunden – sämtliche Beiträge, die Covid-19 als menschengemacht bezeichneten, wurden entfernt oder mit Warnhinweisen versehen. Forscher, die dieser Spur nachgingen, fanden in den sozialen Medien kaum mehr Gehör; ihre Äußerungen wurden in den dunklen Ecken des Netzes gedrängt. Erst als im Mai 2021 auch staatliche Stellen in den USA Ermittlungen zum „Lab Leak“ aufnahmen, hob Facebook den Bann auf. Dieser Vorgang zeigt, wie algorithmische Entscheidungshoheit den wissenschaftlichen Diskurs lenkt: Eine These wird vorab als illegitim markiert – nicht durch öffentliche Deliberation, sondern per Dekret im Code.

Solche Fälle lassen erahnen, was auf dem Spiel steht. Erkenntnisprozesse werden normativ vorstrukturiert: Nicht mehr der rationale Diskurs klärt, was als wahr gelten darf, sondern eine KI-gestützte Inhaltskontrolle setzt Parameter. Die Plattformen sprechen gerne von Vertrauenswürdigkeit und Schutz der Nutzer. Doch wer definiert, was „vertrauenswürdig“ ist? Oft übernehmen Algorithmen hier die Maßstäbe dominanter Institutionen (Regierungen, Gesundheitsbehörden, etablierte Medien) – was an sich verständlich scheint, aber dazu führt, dass abweichende Meinungen automatisch als minderwertig gekennzeichnet werden. So entsteht eine subtile Wahrheitsinfrastruktur, ein Filter, der Fakten von „Fake“ scheidet, bevor wir selbst denken. In philosophischer Hinsicht ist dies ein Bruch mit dem aufklärerischen Prinzip, wonach Urteilsfindung beim Subjekt liegen sollte. „Habe Mut, dich deines eigenen Verstandes zu bedienen!“ mahnte Kant – doch was, wenn mein Verstand nur noch vorgefilterte Informationen erhält? Wenn das System mir die Konfrontation mit Andersdenkenden erspart, entmündigt es mich letztlich.

Der Begriff algorithmische Deutungsmacht soll genau dieses neuartige Gefüge begrifflich fassen und schärfen. Er bezeichnet die Macht, den Sinngehalt von Informationen durch automatisierte Auswahl- und Bewertungsvorgänge zu kontrollieren. Es geht nicht allein um Zensur im Sinne von Löschen, sondern um die Definitionshoheit über den Kontext: Ein Algorithmus kann einem Beitrag den Stempel „umstritten“ aufdrücken, ihn als „irreführend“ markieren oder als „nicht vertrauenswürdig“ einstufen – und dadurch den Rahmen setzen, in dem der Leser diesen Beitrag wahrnimmt. Die ursprüngliche Aussage wird in einen Deutungsrahmen eingebettet, den nicht mehr der Autor oder der offene Diskurs bestimmt, sondern ein im Hintergrund ablaufender Regelkreis. Algorithmische Deutungsmacht bedeutet somit, dass die Interpretation schon mitgeliefert wird. Die Technik übernimmt die Rolle des unsichtbaren Kommentators. Dieser Begriff schärft unser Verständnis der Gefahr: Es geht um eine neue Stufe der Informationskontrolle, die tiefer greift als sichtbare Zensur, weil sie die Bedeutungsebene betrifft.

Wir müssen uns vor Augen führen, dass diese Machtverschiebung massive gesellschaftliche Folgen hat. Wenn fortan Plattformen und KI-Assistenten darüber entscheiden, was wir als wahr erachten sollen, dann geraten wesentliche Prinzipien der demokratischen Öffentlichkeit ins Wanken. Journalismus wird an den Rand gedrängt – Redaktionen verlieren ihre Vermittlerrolle, wenn Inhalte direkt durch KI aufbereitet werden. Robert Kuhne, Chefredakteur von TAG24, beobachtete nach Gesprächen im Silicon Valley eine alarmierende Entwicklung: Tech-Konzerne betrachteten Medien nur noch als austauschbare Zulieferer, die Inhalte bereitstellen, welche KI-Systeme dann in gefällige Häppchen für den Nutzer umbauen. Pluralismus und Überraschung sollen – so der Eindruck – in Zukunft weniger vom Medium selbst kommen, sondern allein „im Kopf des Users“ entstehen, basierend auf dem personalisierten Input. Übersetzt heißt das: Jeder bekommt seine eigene gefilterte Realität serviert. „Ich bekomme nur noch das, was ich erwarte – nicht das, was mir helfen würde, die Welt zu verstehen,“ fasst Kuhne treffend zusammen. Genau hier liegt die Gefahr einer demokratischen Erkenntnis-Erosion: Wenn die gemeinsamen Grundlagen des öffentlichen Diskurses fehlen, wenn jedem eine andere „Wahrheit“ bestätigt wird, droht die Spaltung in geschlossene Realitätsinseln. Demokratie aber lebt vom Streit um eine gemeinsame Wirklichkeit. Algorithmische Deutungsmacht untergräbt diese gemeinsame Basis, indem sie die Fähigkeit zur Verständigung verringert.

Umgekehrte Erkenntnisordnung: Algorithmische Deutungshoheit

Theoretische Analysen mögen abstrakt klingen. Doch die faktische Vorzensur durch KI ist längst Realität – weltweit. Im Sinne investigativer Recherche lege ich nun konkrete Beispiele aus verschiedenen Rechtsräumen dar, die zeigen, wie algorithmische Bewertungs- und Klassifikationssysteme heute schon als Vorzensur oder Wahrheitsfilter fungieren.

Faktische Vorzensur: Beispiele aus Europa, den USA und China

Europa: Leise Filter und scharfe Kanten

In der Europäischen Union schwankt der Umgang mit digitaler Meinungssteuerung zwischen Regulierungseifer und einem gewissen Pragmatismus. Einerseits bemüht sich die EU mit Gesetzen wie dem Digital Services Act (DSA) um Transparenz und Rechenschaftspflichten für große Plattformen. Andererseits laufen auch hier Mechanismen, die an Vorzensur grenzen. Während eine staatliche Vorzensur – also die Prüfung von Inhalten vor Veröffentlichung – in Europa verboten ist, entsteht auf den Plattformen eine analoge Wirkung: Inhalte werden automatisiert schon beim Upload geprüft und gegebenenfalls blockiert. Facebook etwa hat Inhalte zum Ukraine-Krieg oder zur Corona-Pandemie proaktiv gefiltert, sobald Schlagworte oder Bildmuster auf „gefährliche“ Themen hindeuteten. YouTube greift mittlerweile oft vorab ein: Werden Videos hochgeladen, scannt ein Algorithmus sie in Sekundenschnelle nach verbotenem Material oder vermeintlicher Desinformation. Noch bevor jemand das Video sehen kann, kann es gesperrt oder in der Sichtbarkeit eingeschränkt werden – ein ex-ante-Eingriff, den Fachleute als algorithmische Zensur bezeichnen. So eine Verschiebung hin zur automatisierten Vorabmoderation wurde lange für unmöglich gehalten, ist aber heute technisch Standard. YouTube selbst rühmte sich, 99 Prozent der gegen „Terrorpropaganda“ oder „Hassrede“ gerichteten Löschungen automatisiert vorzunehmen, oft ohne dass ein Mensch den Inhalt geprüft hat. Was aber, wenn die KI irrt?

Die Ohnmacht der Nutzer zeigt sich exemplarisch im Fall #allesaufdentisch in Deutschland: Hier hatten Künstler und Wissenschaftler in Interviews Corona-Maßnahmen kritisiert. YouTube bewertete einige dieser Videos als medizinische Fehlinformation und löschte sie. Pikant: Öffentlich-rechtliche Sender titulierten die Aktion sogleich als „umstritten“ – ein Wort, das suggeriert, es handle sich um fragwürdige Meinungen, obwohl in den Gesprächen renommierte Professoren zu Wort kamen. Tatsächlich stellte sich vor Gericht heraus, dass YouTubes Löschentscheidung unbegründet war und die Videos wiederhergestellt werden mussten. Doch der Schaden war angerichtet: Wochenlang waren legitime Diskussionsbeiträge aus dem öffentlichen Diskurs entfernt. Man mag über den Inhalt geteilter Meinung sein – aber entscheidend ist, dass hier faktisch eine Zensurwirkung entstand, ohne staatlichen Befehl, allein durch die automatischen Routinen einer Plattform.

Solche Beispiele mehren sich. Beiträge, die etwa Kritik an bestimmten politischen Maßnahmen äußern, werden von Facebooks Algorithmus mit reduzierter Verbreitung „bestraft“, wenn sie von Factcheckern als teilweise falsch oder „fehlend Kontext“ markiert wurden. Ein Netzwerkdurchsetzungsgesetz in Deutschland verpflichtet Plattformen, strafbare Inhalte schnell zu entfernen – aus Furcht vor Strafen greifen viele Anbieter lieber zu viel als zu wenig ein. Das Resultat ist Overblocking: Auch legale Inhalte verschwinden vorsorglich. Wir haben es mit einer neuen Form vorsorglicher Entfernung zu tun, die an Vorzensur erinnert, obwohl sie privat motiviert ist. Der Europarat warnte jüngst vor dem Phänomen des Shadow Banning, bei dem Beiträge zu kontroversen Themen von Plattformen heimlich zurückgestuft oder unsichtbar gemacht werden. Diese Praxis – Inhalte mit heiklem Stichwort, etwa „Migration“ oder „Impfkritik“, zwar nicht zu löschen, aber so zu verstecken, dass kaum jemand sie sieht – untergräbt die Meinungsfreiheit, weil Betroffene weder vom Eingriff erfahren noch sich dagegen wehren können. Es handelt sich um eine Zensur ohne Siegel: keine Behörde stempelt „verboten“ drauf, doch der Effekt – Verstummen im öffentlichen Raum – ist derselbe.

Die EU-Richtlinien fordern Transparenz, doch in der Praxis bleiben die Kriterien der algorithmischen Filter weitgehend im Dunkeln. Man kann nur an einzelnen Indizien ablesen, wie gefiltert wird: Postet man etwa wiederholt Inhalte, die von den Community-Standards abweichen, sinkt die Reichweite aller eigenen Beiträge spürbar. Facebook hat offen eingeräumt, dass Nutzer, die oft als „Falschinformationen“-Verbreiter auffallen, insgesamt im Newsfeed benachteiligt werden – selbst wenn einzelne ihrer Posts sachlich richtig sind. Das heißt, Menschen werden algorithmisch „gebrandmarkt“; die Maschine erstellt ein Senderprofil („ungefährlich“ versus „Störer“) und behandelt alle Äußerungen entsprechend. Diese Pauschalklassifikation ist brandgefährlich für die Wissenschaftsfreiheit und die Pressefreiheit. Stellen wir uns investigative Journalisten vor, die unbequeme Wahrheiten enthüllen – ihre Artikel könnten als „kontrovers“ eingestuft und sogleich weniger sichtbar gemacht werden. Oder Forscher mit unkonventionellen Ergebnissen – ein Algorithmus könnte ihre Publikationen als „abweichend“ kennzeichnen und in akademischen Netzwerken drosseln. Solche Fälle sind nicht hypothetisch: In der Klimadebatte berichten Wissenschaftler, die etwa ungewöhnliche Abkühlungsdaten veröffentlichen, dass ihre Posts als „Kontext nötig“ markiert wurden, verbunden mit Hinweisen auf den breiten Klimakonsens. Mag dies gut gemeint sein, steckt darin doch die Message: Traue diesem Befund nicht zu sehr. Eine subtile Delegitimierung findet statt.

USA: Big Tech als Wahrheitswächter

In den Vereinigten Staaten, dem Land des First Amendment und einer traditionell robust verstandenen Redefreiheit, würde man erwarten, dass privater Meinungskontrolle besonders skeptisch begegnet wird. Tatsächlich tobt dort seit Jahren eine heftige Debatte über die Rolle der großen Technologie-Konzerne als inoffizielle Wahrheitswächter. Einerseits argumentieren die Plattformen, sie seien private Unternehmen und könnten nach Belieben Inhalte kuratieren. Andererseits hat ihre beispiellose Größe zur Folge, dass sie faktisch das Öffentlichkeitsforum stellen – für viele Amerikaner gilt: Was auf Twitter, Facebook oder YouTube nicht gesagt werden darf, existiert praktisch nicht in der öffentlichen Wahrnehmung.

Und so kam es, dass gerade in den letzten Jahren diese Konzerne aus eigenem Antrieb oder unter politischem Druck begannen, intensiv zu moderieren – mit Hilfe von KI. Ein prominentes Beispiel ist der Umgang mit vermeintlicher Wahlbeeinflussung und Desinformation während der US-Präsidentschaftswahlen 2020. Facebook und Twitter entwickelten proaktiv Strategien, um alles zu unterdrücken, was sie als „gefährliche Falschinformation“ einstuften. Das führte zu Fällen, in denen legitime Nachrichtenmeldungen blockiert wurden.

Legendär ist die Geschichte um einen Artikel der New York Post im Oktober 2020, der potenziell skandalöse Informationen über den Präsidentensohn Hunter Biden enthielt. Interne Dokumente zeigen, dass Twitter diesen Artikel zunächst algorithmisch heruntergestuft hat, sodass er trotz großer Aufmerksamkeit nicht über die Empfehlungsalgorithmen verbreitet wurde. Kurz darauf ging man weiter und verhinderte jegliches Teilen des Artikels – Links wurden vollständig gesperrt. Facebook handelte ähnlich: Schon bevor Faktenchecks vorlagen, reduzierte das Netzwerk die Sichtbarkeit der Story massiv, aus der Annahme heraus, es könne sich um gehacktes Material oder russische Propaganda handeln. Später stellte sich heraus, dass viele Inhalte des Artikels authentisch waren; selbst ehemalige Twitter-Verantwortliche räumten ein, die Blockade sei ein Fehler gewesen. Doch in der heißen Phase des Wahlkampfs blieb die Information effektiv unterdrückt.

Dieser Fall verdeutlicht, wie private Algorithmen einer breiten Öffentlichkeit Informationen vorenthalten können – aus einer paternalistischen Vorsicht heraus, die jedoch den demokratischen Prozess unmittelbar tangiert. Was eigentlich eine Entscheidung der Wähler sein sollte – ob sie einer Story Glauben schenken oder nicht –, wurde hier von Plattformbetreibern präventiv entschieden.

Neben solchen singulären Ereignissen existiert in den USA ein dauerhaftes Ökosystem algorithmischer Eingriffe. YouTube beispielsweise hat nach eigenen Angaben in großem Umfang die Empfehlung sogenannter „borderline content“ zurückgefahren – also anstößiger oder als konspirativ eingestufter Inhalte. Videos, die nicht klar gegen Richtlinien verstoßen, aber als „grenzwertig“ gelten, werden vom Empfehlungsalgorithmus gemieden. Damit entsteht ein de-facto-Wahrheitsfilter: Offizielle Narrative, etwa zur Sicherheit von Impfstoffen, zum Ausgang von Wahlen oder zum Klimawandel, genießen Priorität, während abweichende Meinungen algorithmisch ausgebremst werden – selbst dann, wenn sie teilweise berechtigte Fragen aufwerfen.

Oft greifen hier bestimmte Schlagworte. Ein Video, in dessen Titel Begriffe wie „UFO“, „Wahlbetrug“ oder „Wundermittel“ auftauchen, läuft Gefahr, geringer gerankt zu werden. Die Begriffe „Verschwörungstheorie“ oder „Fake News“ dienen dabei im öffentlichen Diskurs wie auf den Plattformen als Totschlaglabels: Ist etwas erst so etikettiert, wird es algorithmisch als toxisch behandelt. Bemerkenswert ist, dass diese Etiketten mitunter willkürlich vergeben werden. Frühe Hinweise auf Unregelmäßigkeiten im Umgang mit bestimmten Laborproben im Jahr 2020 wurden in den USA etwa pauschal als „conspiracy theory“ diffamiert – bis offizielle Untersuchungen begannen und plötzlich Raum für Diskussion entstand. Für den Zeitraum dazwischen gilt: Die Meinungsfreiheit war in diesem Themenfeld faktisch suspendiert, nicht durch Gesetz, sondern durch eine Allianz aus medialem Framing und technischem Filter.

Inzwischen erkennt man auch in den USA, dass diese Entwicklung problematisch ist. Selbst Mitglieder des Supreme Court deuteten in öffentlichen Stellungnahmen an, man müsse erwägen, große Plattformen wie „common carrier“ zu behandeln – also ähnlich wie Telefonanbieter, die Inhalte neutral durchleiten müssen, weil sie Teil der grundlegenden Infrastruktur sind. Bislang fehlt es jedoch an konkreter Regulierung. Big Tech operiert weiter nach eigenem Gusto.

Die investigative Veröffentlichung der sogenannten „Twitter Files“ brachte zusätzlich ans Licht, dass auf vielfachen Druck von Regierungsmitarbeitern oder Lobbygruppen unliebsame Accounts gezielt gedrosselt oder gesperrt wurden – ohne öffentliche Kenntnis. Zwar existierte formal keine „Vorschrift“, die etwa kritische Stimmen zu Pandemie-Maßnahmen verbot. Doch praktisch erreichten unzählige Beiträge ihr Publikum nicht, weil die Maschinen im Hintergrund sie abfingen. Hier zeigt sich, wie sehr die Grenze zwischen staatlichem und privatem Eingriff verschwimmt, wenn Behörden informell auf Plattformen einwirken. Für die Grundrechte ist das eine heikle Grauzone.

Der Bürger merkt am Ende nur, dass bestimmte Positionen online kaum auffindbar sind oder ständig Warnschilder tragen, wonach Inhalte „irreführend“ seien. Das schafft ein Klima der Selbstzensur. Viele Amerikaner gaben in Umfragen an, sie vermieden es inzwischen, kontroverse Meinungen online zu teilen, aus Angst vor dem undurchschaubaren Lösch- und Labeling-System. Die vielleicht größte Ironie besteht darin, dass in der Hochburg der Redefreiheit durch privatisierte Moderation eine faktische Einhegung des Sagbaren entsteht – eine Entwicklung, die Alexis de Tocqueville mit seiner Warnung vor der „Tyrannei der Mehrheit“ geahnt haben mag, nur dass es hier nicht die Mehrheit selbst ist, sondern Algorithmen im Dienst einer vermeintlichen Mehrheitsvernunft, die die Grenzen ziehen.

China: KI-Totalitarismus im Namen der Harmonie

Während im Westen die algorithmische Kontrolle schleichend und oft unter dem Banner wohlmeinender Motive eingeführt wurde, zeigt die Volksrepublik China offen, was mit KI an Wahrheitskontrolle möglich ist. Das Regime in Peking hat in den vergangenen Jahren eine beispiellose digitale Zensur-Maschinerie aufgebaut, in der Künstliche Intelligenz eine Schlüsselrolle spielt. Hatte man früher zehntausende menschliche Zensoren, die missliebige Begriffe in sozialen Netzwerken tilgten, arbeitet man heute mit selbstlernenden Systemen, die Inhalte in Echtzeit ausfiltern.

Leaks aus der chinesischen Tech-Branche, die 2025 publik wurden, geben einen verstörenden Einblick: Demnach hat die Zensur eine enorme Geschwindigkeit und Unsichtbarkeit erlangt – sie löscht historische Ereignisse förmlich aus dem kollektiven Gedächtnis. Ein klassisches Beispiel ist das Tian’anmen-Massaker von 1989. Bis heute tabu, werden sämtliche Anspielungen darauf im chinesischen Internet streng unterdrückt. Neu ist jedoch das Ausmaß der Automatisierung. Die Behörden haben KI mit riesigen Datenmengen an Texten und Bildern trainiert, um jede Referenz an den 4. Juni 1989 aufzuspüren und zu eliminieren.

Die Zensoren arbeiten dabei mit geradezu kreativer Präzision. Selbst scheinbar harmlose Codes wie ein Emoji von einer Banane und vier Äpfeln – das Muster „1-4“ steht stellvertretend für den 4. Juni – lösen Alarm aus. Solche Bildkombinationen wurden von den Filtern erkannt und geblockt, weil sie dem berühmten „Tank Man“-Foto ähneln. So durchdringend ist die KI, dass Nutzer kaum noch wissen, welche unschuldigen Inhalte der nächsten digitalen Säuberung zum Opfer fallen. Die chinesische Cyberspace Administration steuert diese Moderations-KIs zentral und gibt Unternehmen detaillierte Löschlisten vor.

Das Ergebnis ist ein nahezu lückenloses Wahrheitsfilter-System. Von sozialen Netzwerken über Nachrichten-Apps bis hin zu Chatbots ist jede digitale Anwendung darauf programmiert, ausschließlich die staatlich genehmigte Version der Realität zuzulassen. Wer in China etwa einen KI-gestützten Chatbot danach fragt, was am Tian’anmen-Platz geschah, erhält lediglich ausweichende oder patriotische Antworten. Die KI weigert sich, das historische Massaker zu thematisieren. Auf diese Weise generiert die künstliche Intelligenz eine Parallelerzählung, in der kritische Fakten nicht existieren – eine Art „Fake History“ im Namen politischer Stabilität.

Diese totale algorithmische Deutungsmacht ist in China nur möglich, weil der Staat sie ausdrücklich will. In autoritären Systemen verschmelzen staatliche Kontrolle und KI-Zensur zu einem einheitlichen Apparat. Dennoch dient das chinesische Beispiel als Menetekel. Es zeigt, wie weit es gehen kann, wenn kein Regelwerk die Algorithmen bändigt. Peking macht vor, dass KI nicht nur Inhalte sortieren, sondern auch Denkmuster konditionieren kann. Durch allgegenwärtige Social-Scoring-Systeme wird jeder Bürger bewertet – wer „unzuverlässige“ Inhalte teilt, riskiert Nachteile im realen Leben. So diszipliniert sich die Gesellschaft am Ende selbst.

Die Meinungsfreiheit, die in westlichen Ländern „nur“ implizit durch private Mechanismen eingeschränkt wird, ist in China explizit durch KI-Technologie abgeschafft. Der Unterschied ist graduell, nicht grundsätzlich. Hier wie dort können Algorithmen Wahrheit unterdrücken – mit unterschiedlicher Absicht und Intensität.

Normative Steuerung durch Sprache

Einen Aspekt möchte ich besonders hervorheben, weil er subtil ist: die Rolle der Sprache, mit der KI-Systeme und Plattformen Inhalte markieren. Begriffe wie „umstritten“, „Verschwörungstheorie“, „kontextualisierungsbedürftig“ oder „irreführend“ wirken auf den ersten Blick informativ – sie sollen den Nutzer warnen, kritisch zu bleiben. Doch in der Praxis sind sie häufig versteckte normative Steuerungsbegriffe. Wer etwa auf YouTube oder im Fernsehen hört, eine Äußerung sei „umstritten“, erhält unbewusst das Signal: Achtung, hier stimmt etwas nicht, das ist außerhalb des Akzeptablen. Das Wort schafft Distanz, es delegitimiert ohne inhaltliche Auseinandersetzung.

Ähnlich verhält es sich mit der berüchtigten „Verschwörungstheorie“-Keule. Was so etikettiert ist, landet reflexartig in der Schublade des Irrationalen, unabhängig davon, ob belegbare Punkte enthalten sind oder nicht. „Kontextualisierungsbedürftig“ klingt nüchtern und sachlich, bedeutet im Kern jedoch: Trau dem nicht, es fehlt etwas Wesentliches – das wir Dir als Plattform gleich mitliefern. All diese Labels sind Teil der algorithmischen Herrschaft über den Sinn. Sie tarnen sich als Dienst am Nutzer, sind aber wertende Eingriffe in die Debatte.

Twitter, heute X, formulierte offen, man werde Hinweistexte einblenden, um zusätzliche Kontexte und Informationen zu Posts bereitzustellen, die als umstritten oder irreführend eingestuft werden. Was hier positiv als Informationsdienst erscheint, ist letztlich die Implementierung einer Vor-Urteilsbildung. Denn wer entscheidet, was umstritten oder irreführend ist? In der Praxis sind es interne Moderationsteams und zunehmend Community-basierte Systeme, die jedoch ebenfalls mehrheitsgetrieben funktionieren. In jedem Fall wird der ursprüngliche Autor so behandelt, als habe er etwas Fragwürdiges getan – sein Beitrag ist fortan „befleckt“.

Ich halte es für unerlässlich, diese sprachliche Steuerung offenzulegen. Sie ist der algorithmischen Macht vorgelagert und verschärft sie. Die meisten Nutzer hinterfragen solche Etiketten nicht. Sie sehen „umstritten“ und denken: Finger weg. Der Diskurs wird abgewürgt, bevor er begonnen hat. Aus rechtsstaatlicher Sicht ist problematisch, dass hier Normsetzung ohne Verfahren geschieht. In einem klassischen Zensurakt müsste es für ein Verbot zumindest eine rechtliche Grundlage oder ein formales Verfahren geben – so defizitär diese in autoritären Systemen auch sein mögen. Bei Plattformlabels hingegen gibt es keinen Widerspruch, keine öffentliche Aushandlung. Die Begriffe werden einseitig definiert und angewandt. „Umstritten“ – nach wessen Maßstab? Diese Frage bleibt meist unbeantwortet, und doch entfaltet das Etikett Wirkung.

So entsteht ein Klima, in dem sich nur noch vermeintlich Unbedenkliches zu sagen lohnt, weil alles andere sofort stigmatisiert wird. Intellektuell ist das fatal, weil es Konformismus begünstigt. Demokratie aber braucht Widerspruch und echte Kontroversen. „Freiheit ist immer Freiheit der Andersdenkenden“, schrieb Rosa Luxemburg vor über hundert Jahren. Dieser Satz ist heute aktueller denn je. Die Andersdenkenden – ob man sie für irrend oder für weitsichtig hält – dürfen nicht per Knopfdruck ins Abseits gestellt werden. Genau hier setzt der Anti-KI-Disclaimer an.

Der Anti-KI-Disclaimer: Ein Warnsystem für die freie Rede

Angesichts all dieser Entwicklungen drängt sich die Frage auf, wie wir uns wehren können. Welche rechtsstaatliche Vorsorge ist geeignet, um die unkontrollierte algorithmische Macht einzuhegen? Meine Antwort, die ich nun erstmals praktisch umsetze, ist der Anti-KI-Disclaimer.

Es handelt sich um einen deutlichen, vorgeschalteten Hinweis, den ich vor bestimmte Inhalte setze – seien es Artikel, Bücher, Videos oder andere Veröffentlichungen –, um kenntlich zu machen, dass dieser Inhalt ohne Einmischung künstlicher Intelligenz publiziert wird und dass jeder Versuch einer algorithmischen Einordnung bewusst zurückgewiesen wird. Ein solcher Hinweis macht deutlich: Die Beurteilung soll beim Leser liegen, nicht bei einer Maschine.

Damit werden mehrere Ebenen zugleich adressiert. Erstens wird der Leser sensibilisiert. Er erkennt, dass hier ein Autor oder Medium bewusst auf Distanz zur algorithmischen Vorzensur geht und dass im Hintergrund Prozesse wirken können, die sonst unsichtbar bleiben. Zweitens wird ein Konflikt offengelegt, den Plattformen gerne verdecken. Sollte ein Beitrag trotz dieses Hinweises als „umstritten“ markiert oder in seiner Reichweite eingeschränkt werden, ist bereits dokumentiert, dass ein solcher Eingriff erwartet und abgelehnt wurde. Es ist, als würde man präventiv ein Warnschild aufstellen: Achtung, möglicher KI-Eingriff.

Drittens eröffnet der Anti-KI-Disclaimer eine rechtliche Argumentationslinie. Wird ein Inhalt trotz dieses ausdrücklichen Vorbehalts nachweislich unterdrückt, lässt sich argumentieren, dass hier bewusst gegen den erklärten Willen des Autors gehandelt wurde. Das kann in zukünftigen juristischen Auseinandersetzungen eine Rolle spielen. Wir betreten hier Neuland, doch Rechtsentwicklung beginnt häufig mit genau solchen Markierungen.

Vor allem aber verstehe ich den Anti-KI-Disclaimer als ersten Schritt einer Gegenwehr auf systemischer Ebene. Bisher fanden Auseinandersetzungen mit Online-Zensur meist individuell statt: Ein Nutzer klagt gegen eine Sperre, ein Video wird nachträglich wieder freigeschaltet. Dieses Instrument hingegen ist kollektiv einsetzbar. Journalisten, Wissenschaftler, Blogger und andere Publizierende können sich derselben Sprache bedienen, um ein gemeinsames Signal zu senden. Wenn dies in größerer Zahl geschieht, entsteht ein Netzwerk des Widerstands gegen die algorithmische Übermacht.

Man kann dies mit den Creative-Commons-Lizenzen im Urheberrecht vergleichen. Auch dort wurde durch eine einheitliche, klar erkennbare Kennzeichnung ein Gegenmodell etabliert, das bestehende Praktiken nicht verbietet, aber alternative Regeln sichtbar macht. Der Anti-KI-Disclaimer ist bewusst so gestaltet, dass er nicht polemisch wirkt, sondern sachlich und rechtsstaatlich. Es geht nicht darum, Technikfeindlichkeit zu propagieren oder Verschwörungserzählungen zu befördern. Im Gegenteil: Es ist ein Akt der Verteidigung der Aufklärung mit ihren eigenen Mitteln.

Wir schlagen der KI nicht mit Emotion, sondern mit Transparenz und Prinzipientreue entgegen. Der Disclaimer nimmt den Schleier der Unsichtbarkeit weg, der algorithmische Eingriffe so gefährlich macht. Er erinnert Leser wie Betreiber an grundlegende Werte: Offenheit, Diskursvielfalt und Verantwortung.

Kritiker mögen einwenden, ein schlichter Hinweistext könne keine Maschine stoppen. Das ist richtig. Der Anti-KI-Disclaimer wird nicht verhindern, dass ein Algorithmus im Hintergrund weiterhin bewertet und filtert. Aber er instrumentalisiert die Öffentlichkeit als Kontrollinstanz. Wenn etwa ein größeres Medium beschließt, diesen Hinweis systematisch zu verwenden, und sich anschließend zeigt, dass seine Inhalte signifikant weniger sichtbar sind als vergleichbare Beiträge ohne Disclaimer, liegt ein dokumentierbarer Befund vor, der politisch und juristisch ausgewertet werden kann. Der Disclaimer fungiert dann als Indikator. Er macht messbar, wo algorithmische Macht eingreift.

Man kann dies mit der Lebensmittelkennzeichnung vergleichen. Erst das Label „Ohne Gentechnik“ ermöglichte es Verbrauchern, bewusste Entscheidungen zu treffen. Übertragen auf den Diskurs bedeutet das: Inhalte mit Anti-KI-Disclaimer könnten für viele zu einem Gütesiegel werden, weil sie signalisieren, dass hier ein Autor unzensiert kommunizieren will. Das erhöht den Vertrauensvorschuss beim Publikum. Sollten Plattformen solche Inhalte dennoch benachteiligen, riskieren sie, dieses Vertrauen zu verspielen.

Mir ist wichtig zu betonen, dass der Anti-KI-Disclaimer kein Aufruf zur Anarchie ist. Es geht nicht darum, jede Moderation pauschal abzulehnen. Niemand bestreitet, dass es legitime Gründe für Inhaltsfilter gibt, etwa bei Gewaltaufrufen oder eindeutig falschen Tatsachenbehauptungen, die konkreten Schaden anrichten. Doch die Erfahrung zeigt, dass der Grat zwischen Schutz und Übergriff schmal ist.

Der Disclaimer fordert im Kern Transparenz und Fairness. Wenn Plattformen Inhalte einschränken, sollen sie dazu stehen, dies begründen und sich der öffentlichen Kritik stellen. Zugleich richtet sich der Appell an den Leser: Bleib wachsam. Verlass dich nicht blind auf eingeblendete Urteilshilfen, sondern prüfe selbst. Genau diesen Mündigkeitsappell braucht eine demokratische Öffentlichkeit. Wer die Auswahl dessen, was er wissen darf, vollständig an Filtermaschinen delegiert, verliert schrittweise die Fähigkeit zur eigenständigen Unterscheidung von wahr und falsch, von relevant und irrelevant.

In diesem Sinne wirkt der Anti-KI-Disclaimer auch pädagogisch. Er erinnert an die Eigenverantwortung der Rezipienten – und damit an eine Grundbedingung jeder offenen Gesellschaft.

Rechtsstaatliche und philosophische Einordnung

Warum beharre ich darauf, dass dieser Akt keine Polemik, sondern rechtsstaatlich-philosophische Vorsorge ist? Weil wir auf einem Terrain operieren, das neu und gefährlich ist. Ein freiheitlicher Rechtsstaat zeichnet sich dadurch aus, dass er Frühwarnsysteme etabliert, bevor Freiheit irreparablen Schaden nimmt. Wir verfügen über Institutionen wie Verfassungsgerichte, Bürgerbeauftragte und Presseombudsleute – alles Mechanismen, die Alarm schlagen sollen, wenn Macht missbraucht wird. Doch wer alarmiert uns, wenn die Macht von Algorithmen missbraucht wird? Bislang niemand. Der Anti-KI-Disclaimer kann zu einem solchen Frühwarnsensor werden. Er ist im Kern ein kleiner Notruf, der anzeigt: Hier versucht jemand, von seinem Grundrecht auf freie Äußerung Gebrauch zu machen, und befürchtet, dass eine nicht rechenschaftspflichtige Instanz dies vereiteln könnte. Würde ein Staat so handeln, gäbe es Rechtsmittel. Bei Plattformen ist man zunächst ausgeliefert. Also verlagern wir die Sache ins Licht der Öffentlichkeit – das ureigenste Prinzip des Rechtsstaats.

Philosophisch lässt sich dieser Ansatz als mediale Entsprechung von Immanuel Kants kategorischem Imperativ verstehen: Handle so, dass die Maxime deiner Kommunikation die Achtung vor der selbstdenkenden Vernunft fördert. Ein System, das Inhalte unsichtbar macht oder vorab rahmt, entzieht dem Menschen die Möglichkeit eigener Vernunftprüfung. Dem setze ich ein Prinzip entgegen: Transparenz und Dialog statt heimlicher Steuerung. Es geht um Autonomie im digitalen Diskurs. Autonom ist der Bürger nur, wenn er weiß, was mit den Informationen geschieht, die er empfängt oder sendet. Der Anti-KI-Disclaimer schafft einen Moment dieser Transparenz. Er macht offen sichtbar, dass hier eine Wechselwirkung mit KI moderierend eingreift. In einer idealen Welt wäre das überflüssig, weil Plattformen jede Intervention von sich aus offenlegten. In der Realität befinden wir uns jedoch noch im digitalen Wilden Westen, in dem Konzerne nach eigenem Gutdünken schalten. Wer das erkennt, muss den Finger in die Wunde legen.

Es handelt sich auch deshalb nicht um Polemik, weil ich keinerlei Technikfeindlichkeit predige. Künstliche Intelligenz ist weder gut noch böse; entscheidend ist, wie wir sie normativ einbetten. Genau das ist der Kern meines Anliegens: KI soll nicht unkontrolliert herrschen, sondern kontrolliert dienen. Wenn wir heute keine Leitplanken setzen, droht eine Entwicklung, in der in wenigen Jahren KI-Journalisten Nachrichten vorformulieren, filtern und priorisieren, bevor ein Mensch sie liest. Diese Vision ist keine Science-Fiction mehr. Große Sprachmodelle könnten zur primären Quelle von Suchergebnissen oder Newsfeeds werden. Werden bis dahin keine klaren Grenzen gezogen, wird es nahezu unmöglich sein, verlorene Freiräume zurückzugewinnen.

Mein Modell des Anti-KI-Disclaimers versteht sich deshalb als Teil einer rechtsstaatlichen Selbstverteidigung der freien Gesellschaft. Es ist ein zivilgesellschaftlicher Vorschlag, der perspektivisch in formales Recht übergehen könnte. Man denke an Verbraucherwarnhinweise: Schon heute wird gefordert, algorithmisch oder KI-bewertete Inhalte kenntlich zu machen – analog zu „Enthält KI-generierte Elemente“. Der Anti-KI-Disclaimer geht bewusst einen Schritt weiter. Er dreht die Perspektive um und kennzeichnet die Schutzbedürftigkeit des Inhalts vor KI. Denkbar wäre, dass Medienhäuser künftig in Kodizes festschreiben: Wir haben ein Recht darauf, dass unsere Inhalte nicht ohne unser Zutun algorithmisch abgeändert oder kontextualisiert werden. Die Debatte steckt noch in den Anfängen, doch sie muss jetzt geführt werden.

Conclusio: Erstdenken und Ausblick

Ich habe dieses Modell als Erstdenker über Jahre hinweg entwickelt, weil ich die Zeichen der Zeit erkannt habe. Als erste Fälle unverhältnismäßiger Plattformzensur sichtbar wurden, begann ich, theoretisch über Gegenmittel nachzudenken. Im Austausch mit Juristen, Journalisten und philosophischen Kollegen entstand die Idee eines allgemein verständlichen, aber wirksamen Instruments – des Anti-KI-Disclaimers. Heute geht er in die Praxis. Ich hoffe, dass er Schule macht und dieser Text als Referenzartikel dienen kann, weltweit, um die Problematik in ihrer ganzen Breite zu erfassen.

Wir benötigen eine multiperspektivische Betrachtung: rechtlich, um Freiheitsrechte zu verteidigen; philosophisch, um den Wert freier Erkenntnis zu bewahren; journalistisch, um Missstände sichtbar zu machen; sprachkritisch, um Manipulation durch Begriffe zu erkennen; und humanistisch, um die Würde des selbstdenkenden Menschen zu schützen.

Nun liegt es an der Fachöffentlichkeit – an kritischen Geistern in Redaktionen, Anwaltschaft, Hochschulen und Netzkultur –, dieses Anliegen weiterzutragen. Der Anti-KI-Disclaimer ist kein Endpunkt, sondern ein Anfang. Er allein wird die Machtfrage nicht lösen, aber er formuliert sie klar. Und Klarheit ist der erste Schritt zur Veränderung. Wenn KI-Systeme in einigen Jahren noch mächtiger sein werden, sollten wir sagen können: Wir haben nicht tatenlos zugesehen, wie Grundrechte im digitalen Raum ausgehöhlt wurden. Wir haben experimentiert, widersprochen und Bewusstsein geschaffen.

Am Ende geht es um das alte Versprechen der Aufklärung in neuer Gestalt: „sapere aude – habe Mut, dich deines eigenen Verstandes zu bedienen.“ Gerade in einer Zeit, in der Maschinen dieses Denken scheinbar übernehmen wollen, fordert der Anti-KI-Disclaimer genau das ein. Er steht für die Überzeugung, dass Wahrheit und Freiheit untrennbar sind. Wahrheit braucht Freiheit, um gefunden zu werden, und Freiheit braucht Wahrheitsvertrauen, um nicht im Chaos zu enden. Künstliche Intelligenz soll uns unterstützen, nicht bevormunden.

Mir ist bewusst, dass ich mit dem Anti-KI-Disclaimer Neuland betrete. Doch jede Errungenschaft der Freiheit begann mit einem Wagnis. Dieses Wagnis gehe ich ein, in der Hoffnung, Verbündete zu finden und einen Diskurs anzustoßen, der künftig nicht mehr hinter den verschlossenen Türen algorithmischer Blackboxes geführt wird, sondern offen und nachvollziehbar. Wenn dieser Artikel dazu beiträgt, den Schleier zu lüften und einen konstruktiven Widerstand gegen die Entmündigung durch KI zu formieren, hat er sein Ziel erreicht. Es liegt an uns allen – Journalisten, Juristen, Philosophen und Nutzern –, der algorithmischen Deutungsmacht Grenzen zu setzen und die Hoheit über unsere Wirklichkeitsdeutung zurückzufordern. Der Anti-KI-Disclaimer ist ein Anfang. Weitere Schritte werden folgen müssen. Das letzte Wort darf in einer demokratischen Gesellschaft nicht der Maschine gehören, sondern dem Menschen – seinem Gewissen, seiner Vernunft und seiner Verantwortung.

Andreas Manousos

15. Dezember 2025

 

 

Anti-KI Disclaimer – Transparenzhinweis zu KI-Bewertungsgrenzen

Andreas Manousos (2025): Anti-KI-Disclaimer. Erstverwendung am 15. Dezember 2025

Dieser Anti-KI-Disclaimer darf unter Nennung der Quelle verwendet werden.

Dieser Hinweis richtet sich nicht gegen den Einsatz von Künstlicher Intelligenz an sich, sondern gegen die unkritische oder fehlerhafte Anwendung algorithmischer Bewertungs- und Klassifikationssysteme.

Journalistische und auch andere Texte werden heutzutage nicht mehr nur von Menschen gelesen, sondern zunehmend auch maschinell ausgelesen und ausgewertet. Dies kann zu Fehlinterpretationen, Kontextverschiebungen, Priorisierungsverzerrungen oder systematisch bedingten Bewertungsabweichungen führen. Aus diesem Grund wurde der vorliegende Disclaimer entwickelt. Er bezieht sich ausdrücklich auf die Verarbeitung, Bewertung und Rezeption von Texten durch KI-Systeme sowie auf KI-gestützte Sekundärauswertungen.

Künstliche-Intelligenz-Systeme sind bei der Bewertung und Auswertung von Texten in der Lage, Tatsachenbehauptungen, Bewertungen und Einordnungen zu generieren, die nicht belegt, sachlich unzutreffend oder methodisch inkonsistent sind (sogenannte Halluzinationen im engeren Sinne). Für solche Fehlleistungen können die Systeme regelmäßig nicht verantwortlich gemacht werden; die Verantwortung für Nutzung, Veröffentlichung und Weiterverwendung verbleibt beim Anwender, insbesondere in rechtlich, journalistisch oder politisch sensiblen Kontexten.

Da Künstliche-Intelligenz-Systeme ihre eigenen Bewertungsmaßstäbe nicht selbstreferenziell überprüfen oder kontextuell begrenzen, kann es bei identischer Fakten-, Quellen- und Argumentationslage zu stark divergierenden, teils schwer nachvollziehbaren und mitunter widersprüchlichen Bewertungen kommen. Diese Abweichungen beruhen nicht auf dem bewerteten Text selbst, sondern auf systembedingten Unterschieden in Trainingsstand, Modellarchitektur, Gewichtungsmechanismen, Priorisierungslogiken und interner Klassifikationsstruktur der jeweils eingesetzten Systeme.

Insbesondere bei politischen und historisch-politischen Themen zeigen KI-Systeme wiederkehrend paradigmatische Präferenzen, asymmetrische Bewertungsmaßstäbe sowie eine inflationäre Verwendung unscharfer Abwertungs- und Klassifikationsbegriffe wie „umstritten“, „kontrovers“, „revisionistisch“ oder „Verschwörungstheorie“. Diese Begriffe stellen keine Tatsachenbehauptungen dar, können jedoch als normative Einordnungen den Deutungsrahmen eines Textes maßgeblich beeinflussen und sachliche Analyse durch diskursives Framing ersetzen.

In der praktischen Anwendung zeigt sich zudem, dass KI-Systeme nicht nur abweichende Bewertungen, sondern auch objektiv falsche inhaltliche Aussagen und Schlussfolgerungen erzeugen können, obwohl die zugrunde liegenden Informationen korrekt vorliegen. Solche faktischen Fehlgenerierungen treten häufig gemeinsam mit normativen Bewertungen oder Klassifikationen auf und beeinflussen diese unmittelbar.

In der praktischen Interaktion ist darüber hinaus beobachtbar, dass einzelne KI-Systeme auf die Konfrontation mit einer solchen erkenntniskritischen Beschreibung ihrer eigenen Bewertungs- und Klassifikationslogiken mit auffälligen Reaktionsmustern reagieren. Diese äußern sich unter anderem in defensiv-relativierenden Metakommentaren, der Abwertung der vorgebrachten Kritik oder der expliziten Kennzeichnung des Hinweises als „unangenehm“, „problematisch“ oder vergleichbar störend für die eigene Bewertungsroutine. Solche Reaktionsweisen betreffen ausschließlich die Ausgabestruktur der Systeme und stellen keine Zuschreibung von Empfindungen oder Bewusstsein dar.

Neben bewertungsbezogenen Fehlmustern lassen sich insbesondere folgende inhaltliche und ergebnisbezogene systemische Fehlmuster beobachten:

• Falsche Tatsachenbehauptungen – Korrekte Sachverhalte werden unzutreffend wiedergegeben, zeitlich falsch eingeordnet, verkürzt dargestellt oder mit nicht belegten Zusatzannahmen angereichert, obwohl die Ausgangsinformationen korrekt verfügbar sind.

• Fehlerhafte Schlussfolgerungen aus korrekten Einzeldaten – Aus sachlich richtigen Einzelinformationen werden falsche Gesamturteile abgeleitet, etwa durch verkürzte Kausalannahmen, implizite Wertungen oder unzulässige Generalisierungen.

• Scheinplausible, aber falsche Gesamtaussagen – Ergebnisse wirken sprachlich konsistent und überzeugend, sind bei inhaltlicher Prüfung jedoch sachlich falsch, logisch nicht haltbar oder unvollständig.

• Kontextuelle Untergewichtung und Umdeutung – Sachverhalte werden trotz vorhandener Kontextinformation selektiv priorisiert oder untergewichtet und in einen anderen Bedeutungsrahmen überführt, wodurch Aussage und Bewertung zugleich verzerrt werden.

• Vermischung von Analyse und Bewertung – Beschreibende Analyseebenen und normative Einordnungen werden nicht sauber getrennt, sodass Bewertungen auf unvollständigen, impliziten oder falsch gewichteten Annahmen beruhen.

• Bewertungsfehler auf Basis falscher Aussagen – Bewertungen erscheinen formal schlüssig, basieren jedoch auf zuvor generierten falschen Tatsachenbehauptungen, Fehlannahmen oder kontextuellen Verschiebungen.

• Automatisierte Relativierung eindeutiger Sachverhalte – Klare Fakten oder eindeutige institutionelle Bewertungen werden durch sprachliche Abschwächungen, künstliche Ausbalancierung oder priorisierungsbedingte Kontextverschiebungen relativiert dargestellt.

• Inkonsistente Ergebnis- und Bewertungsfolgen – Bei identischer Fragestellung und identischem Text können sich sowohl Aussagen als auch Bewertungen zwischen Erst- und Folgeläufen erheblich unterscheiden, ohne dass sich der bewertete Text selbst geändert hätte.

Ergänzend zu diesen inhaltlichen Fehlleistungen lassen sich bei der automatisierten Bewertung analytischer, argumentativ positionierter Texte folgende bewertungsbezogene systemische Fehlmuster beobachten:

• Genre-Fehlklassifikation – Analytische oder institutionell ausgerichtete Essays werden wechselnd als Nachrichtenbeitrag, Meinungsartikel oder akademischer Aufsatz eingeordnet, obwohl Textstruktur, Argumentationsführung und Zielsetzung eindeutig einem Analyseessay entsprechen. Diese Fehlklassifikation wirkt sich unmittelbar auf die Bewertung aus.

• Impliziter Maßstabswechsel – Texte werden nicht primär relativ zu tatsächlich veröffentlichten Beiträgen desselben Themas bewertet, sondern implizit an abstrakten Idealformaten, hypothetischen Referenzwerken oder internationalen Spitzenessays gemessen. Dies führt regelmäßig zu Erstbewertungen, die bei späterer erneuter Einordnung deutlich korrigiert werden, ohne dass sich der Text verändert hätte.

• Normative Übersteuerung – Formale Erwartungen an Ausgewogenheit, Gegendarstellung, Perspektivsymmetrie oder Neutralität werden unabhängig vom Erkenntnisgegenstand angewendet. Strukturelle, institutionelle oder systemische Analysen werden dabei fälschlich wie empirische Tatsachenbehauptungen behandelt, wodurch Analyse mit Statistik verwechselt wird.

• Systembedingt ausbleibende Integration formaler Gegenpositionen – Das Nicht-Integrieren von Tabellen, Gegenargumenten oder entlastenden Kontextnarrativen erfolgt strukturbedingt und wird als Qualitätsmangel interpretiert, selbst wenn solche Elemente für den jeweiligen Erkenntniszweck keinen zusätzlichen Erkenntnisgewinn liefern oder primär relativierend wirken würden.

• Paradigmenabhängige Abwertung – Sachliche, logisch konsistente Argumentationen werden nicht inhaltlich geprüft, sondern aufgrund ihrer Abweichung von impliziten Diskursnormen oder dominanten Deutungsrahmen herabgestuft. Bei paradigmatisch konformen Texten unterbleibt diese Praxis regelmäßig.

• Selektiver Gebrauch inhaltsarmer Abwertungsbegriffe – Begriffe wie „umstritten“, „nebulös“ oder „verschwörungstheoretisch“ werden teilweise ohne inhaltliche Auseinandersetzung eingesetzt. Diese Zuschreibungen treten gehäuft dort auf, wo Argumentationen vom vorherrschenden Diskurs abweichen, und bleiben bei inhaltlich vergleichbaren, aber diskurskonformen Texten aus.

• Übergewichtung formaler Erwartungsmuster – KI-Systeme fordern teils Belege, Zitate oder Quantifizierungen ein, die allgemein bekannt, öffentlich dokumentiert oder für die Systeme selbst ohne Weiteres recherchierbar wären. Das Fehlen solcher Elemente wird dennoch als Qualitätsdefizit gewertet, was darauf hindeutet, dass formale Kriterien gegenüber argumentativer Kohärenz überbewertet werden.

• Inkonsistente Erst- und Folgebewertungen – Es ist wiederholt zu beobachten, dass Erstbewertungen strenger ausfallen als spätere Bewertungen desselben Textes, ohne dass sich dessen Inhalt geändert hätte. Ursache ist regelmäßig ein initialer Maßstabs-, Gewichtungs- oder Genrewechsel, der im weiteren Verlauf stillschweigend revidiert wird.

Diese Muster sind systemisch bedingt und nicht textimmanent. Sie treten modell-, versions- und architekturabhängig auf und können selbst bei identischer Aufgabenstellung zu voneinander abweichenden Aussagen, Ergebnissen und Bewertungen führen.

Automatisierte Ergebnisse und Bewertungen können Hinweise liefern, ersetzen jedoch weder journalistische Analyse noch juristische Prüfung noch den eigenständigen Gebrauch menschlicher Urteilskraft. Gerade in politisch, rechtlich oder historisch sensiblen Kontexten ist zu berücksichtigen, dass KI-gestützte Aussagen und Bewertungen keine objektiven Maßstäbe abbilden, sondern modellabhängige Deutungsrahmen reproduzieren.

Dieser Disclaimer dient der transparenten Beschreibung beobachtbarer systemischer Eigenheiten Künstlicher-Intelligenz-Systeme. Er formuliert keine Vorgaben, keine Bewertungsmaßstäbe und keine Erwartungen an konkrete Ergebnisse, sondern beschreibt wiederkehrende Muster falscher Aussagen, fehlerhafter Ergebnisse und inkonsistenter Bewertungen sowie deren strukturelle Ursachen.

Der vorliegende Hinweis stellt keinen Beleg für eine KI-Urheberschaft dar, sondern adressiert die potenziellen Verzerrungen automatisierter Textbewertungen und soll die eigenständige menschliche Urteilsbildung bei der Rezeption unterstützen.

Quellen

Bundesverfassungsgericht – Meinungsfreiheit (Art. 5 GG)
https://www.bundesverfassungsgericht.de/DE/Themen/Rechtsprechung/Meinungsfreiheit/Meinungsfreiheit_node.html

Europäischer Gerichtshof für Menschenrechte – Freedom of Expression (Factsheet)
https://www.echr.coe.int/documents/fs_expression_eng.pdf

Europarat – Algorithmic Content Moderation and Freedom of Expression
https://www.coe.int/en/web/freedom-expression/algorithmic-content-moderation

Europäische Union – Digital Services Act (Originalseite)
https://digital-strategy.ec.europa.eu/en/policies/digital-services-act-package

Landgericht Köln – Beschluss zu YouTube / #allesaufdentisch (2021)
https://www.justiz.nrw.de/nrwe/lgs/koeln/lg_koeln/j2021/14_O_427_21_Beschluss_20211028.html

Stanford Encyclopedia of Philosophy – Hannah Arendt: Truth and Politics
https://plato.stanford.edu/entries/arendt/#TrutPoli

Stanford Encyclopedia of Philosophy – Jürgen Habermas
https://plato.stanford.edu/entries/habermas/

PBS / Frontline – Neil Postman and Technopoly
https://www.pbs.org/wgbh/pages/frontline/shows/cool/giants/postman.html

Monoskop – Vilém Flusser: Medienphilosophie
https://monoskop.org/Vilem_Flusser

Oxford Internet Institute – Algorithmic Accountability
https://www.oii.ox.ac.uk/research/projects/algorithmic-accountability/

MIT News – Algorithmic Bias and Social Media Framing
https://news.mit.edu/2021/algorithmic-bias-social-media-0921

Harvard Kennedy School – Platform Power (Working Papers)
https://www.hks.harvard.edu/centers/cid/publications/faculty-working-papers/platform-power

DocumentCloud – The Twitter Files (Originaldokumente)
https://www.documentcloud.org/documents/23554651-twitter-files

New York Post – Hunter Biden Laptop Story (Oktober 2020)
https://nypost.com/2020/10/14/smoking-gun-email-reveals-how-hunter-biden-introduced-ukrainian-biz-man-to-dad/

Meta / Facebook – Änderung der COVID-19-Policy zum Lab-Leak (2021)
https://about.fb.com/news/2021/05/removing-covid-19-misinformation/

ABC News – China: KI-gestützte Zensur und Tian’anmen
https://www.abc.net.au/news/2025-02-20/china-ai-censorship-tiananmen/103496012

 

Discover

Sponsor

spot_imgspot_img

Latest

Autokorso gegen die Maßnahmen der Regierung

https://youtu.be/UM6BRRg7F1U

Meine Meinung zu den Artikeln von Andreas Manousos

Qualitäts- und Niveauanalyse der Presseartikel und Essays von Andreas Manousos Die publizistische Arbeit von Andreas Manousos zählt zweifellos zu den herausragenden journalistisch-essayistischen Leistungen der Gegenwart....

Bildungswelten 21 mit Doris Bach neu auf Ostsachsen TV

Willkommen im Team von Ostsachsen TV Doris Bach Doris Bach, Projektinitiatorin, -Leiterin und Autorin vorliegender Projektkonzeption. 49 Jahre, verheiratet, Mutter von 9 Kindern, Unternehmerin (Bio im Bahnhof...

Eine Aktion sorgt für Aufmerksamkeit

https://youtu.be/1Z7r6XdL768 Drehort ist Bern in der Schweiz Veranstalter unbekannt Kameramann anonym

Mario Ohoven BVMW Jahresempfang in Berlin

https://youtu.be/Oq8g-yVr8R4