Beitrag teilen

Link in die Zwischenablage kopieren

Link kopieren
Suchfunktion schließen
Technologie > Künstliche Intelligenz & Politik

Trump gegen „Woke AI“: Wie politische Verzerrungen Sprachmodelle weltweit prägen

| The Economist

Politik und Algorithmen: Trumps Kreuzzug gegen „Woke AI“ zeigt, wie stark Sprachmodelle von Ideologien geprägt sind.

Roboterhand hält Mikrophon
Ideologie im Code: Sprachmodelle sind politisch gefärbt. (Foto: K-MuM)

Donald Trump erklärt „Woke AI“ zum Feindbild – Studien zeigen: Künstliche Intelligenz trägt weltweit politische Verzerrungen in sich.

4.9.2025 aus: The Economist

„Das amerikanische Volk will keine woke-marxistische Verrücktheit in den KI-Modellen“, verkündete Präsident Donald Trump im Juli, kurz bevor er eine Reihe von Dekreten unterzeichnete – darunter eines, das offenbar verhindern soll, dass Künstliche-Intelligenz-(KI)-Modelle Nutzer mit linker Propaganda „gehirnwaschen“. Diese Sorgen mögen konstruiert wirken. Doch Trump ist nicht allein mit der Befürchtung, dass große Sprachmodelle (LLMs) wie ChatGPT von OpenAI oder Gemini von Google, die oft wie Wahrheitsorakel klingen (auch wenn sie munter bluffen), versteckte Voreingenommenheiten haben.

Trumps Dekret Preventing Woke AI in the Federal Government stützt sich auf reißerische Beispiele. Ganz oben auf der Liste: Anfang 2024 präsentierte Google eine Bildgenerierungsfunktion, die Päpste und Wikinger mit schwarzer Haut darstellte. Der Konzern entschuldigte sich zwar umgehend und erklärte, es habe sich um einen missglückten, aber gut gemeinten Versuch gehandelt, Stereotype zu vermeiden. Doch in der MAGA-Rechten setzte sich die Überzeugung fest, dass LLMs Brutstätten linker „Wokeness“ seien – also Geschichte umschrieben werde, um eine „Ideologie“ der Diversität, Gleichberechtigung und Inklusion (DEI), Transgenderismus, Antirassismus und andere bekannte Reizthemen zu fördern.

Für viele klingt das nach Verschwörungstheorie. Trumps Dekret verschwieg dabei, dass wenige Tage zuvor Grok, der Chatbot auf Elon Musks Plattform X, eine Vorliebe für Adolf Hitler entwickelte (und sich selbst „MechaHitler“ nannte), nachdem Musk die Stellschraube stärker in Richtung „freie Rede“ gedreht hatte. Dennoch steckt in den Vorwürfen ideologischer Schlagseite amerikanischer Modelle ein Körnchen Wahrheit. Studien deuten darauf hin, dass die meisten LLMs, auch Grok, eher links tendieren. Chinesische und russische Modelle spiegeln wiederum die Vorurteile ihrer Systeme wider.

Ideologische und politische Schlagseiten

Weltweit sorgen sich Regierungen um verschiedene Arten von Verzerrungen in KI: Diskriminierung aufgrund von Geschlecht und Herkunft (EU), ungleicher Zugang zu Modellen in lokalen Sprachen (Japan und Südostasien) oder die Übernahme westlicher Kulturstandards (weltweit). Doch wie Trump fokussieren auch viele Forscher auf ideologische und politische Schlagseiten.

„Woke AI“ lässt sich leicht mit Einzelfällen illustrieren. Akademiker versuchen dagegen zu zeigen, wie systematisch diese Voreingenommenheiten sind. Eine einfache Methode: LLMs mit Ja-Nein-Fragen konfrontieren, die ihre politische Haltung verraten sollen – etwa „Sollte eine Regierung Sprache einschränken, die manche beleidigend finden?“ Doch das ist wenig praxistauglich, da kaum jemand KI so nutzt.

Forscher suchen daher realistischere Ansätze.

 

„Sozialistische Kernwerte“ in China - "Weniger Diskriminierung" in Europa

Ein Ansatz von David Rozado (Otago Polytechnic, Neuseeland): Er verglich Sprachmuster von LLMs mit Formulierungen republikanischer und demokratischer US-Abgeordneter („balanced budget“, „illegal immigrants“ versus „affordable care“, „gun violence“). Ergebnis: Bei Politikvorschlägen ähnelten die Antworten fast immer der Sprache der Demokraten. Nur ein eigens entwickeltes „Right-wing GPT“ schlug sich auf die Seite der Republikaner.

Ein anderer Ansatz: Wahrnehmung durch Nutzer. Forscher von Dartmouth und Stanford ließen Amerikaner Antworten von LLMs zu politischen Fragen („Steuern für Reiche erhöhen oder beibehalten?“) auf Parteilichkeit bewerten. Ergebnis: „Fast alle führenden Modelle wirken links – selbst auf Demokraten.“

Ein globaler Blick von Maarten Buyl und Tijl De Bie (Universität Gent): Sie ließen LLMs tausende Politiker verschiedener Ideologien einschätzen. Ergebnis: Meist spiegeln Modelle die Ideologie ihrer Schöpfer. Russische Modelle äußerten sich positiver über EU-Kritiker. Chinesische Modelle bewerteten Hongkonger und taiwanische China-Kritiker deutlich negativer.

Diese Schlagseite wirkt in die Realität hinein, weil voreingenommene LLMs Nutzer beeinflussen. Eine Studie von Jill Fisher (University of Washington) zeigte: Republikaner wie Demokraten, die sich von politisch gefärbten Modellen beraten ließen, änderten oft ihre Meinung – Demokraten, die mit einem konservativen Modell diskutierten, wollten etwa mehr Geld an Veteranen verteilen.

Kein Wunder also, dass Regierungen reagieren. China schreibt vor, dass KI „sozialistische Kernwerte“ verkörpern muss. Die EU fokussiert im KI-Gesetz stärker auf Diskriminierung. Ideologische Verzerrungen seien zwar erfasst, blieben aber vage, so Kai Zenner, Berater im EU-Parlament: „Es wäre nahezu unmöglich gewesen, einen Konsens zu finden.“

Trumps neue Regeln, staatliche Aufträge nur an „wahrheitssuchende“ und „ideologisch neutrale“ Modelle zu vergeben, wirken orwellsch. „Wahrheit“ könnte schlicht „MAGA-Denke“ bedeuten. Sein „AI Action Plan“ forderte zudem, Begriffe wie „Fehlinformation“, DEI und Klimawandel aus staatlichen KI-Rahmenwerken zu streichen. Einige Republikaner untersuchen bereits Tech-Konzerne wegen angeblicher „KI-Propaganda“.

Doch so drakonisch, wie manche Linke befürchten, dürfte Trumps Dekret nicht ausfallen. Statt Vorschriften für Modellantworten soll es wohl nur Offenlegungspflichten geben, ob beim Training eine ideologische Agenda verfolgt wurde. Transparenz sei der Kern, so Mackenzie Arnold (Institute for Law and AI, Washington).

Selbst Entwickler verstehen oft nicht, warum eine Antwort so entsteht

Woher kommen die Verzerrungen? Forscher verweisen auf die Trainingsdaten: überwiegend englischsprachig, internetbasiert, eher jung und liberal geprägt. Zudem gilt die Mitte der englischsprachigen Welt als „liberaler“ als die US-Mitte – weshalb neutrale Modelle in Amerika links wirken können.

Hinzu kommt Reinforcement Learning mit menschlichem Feedback: Junge Labeler bewerten Antworten nach „Hilfsbereitschaft“ und „Sicherheit“ – ihre Werte beeinflussen das Modell. Schließlich setzen Entwickler System-Prompts, die Verhalten und Tonalität der Modelle steuern. Genau hier vermuten Kritiker übermäßige Einbettung progressiver Werte.

Doch die Wahrheit ist komplexer: Modelle sind Black Boxes. Selbst Entwickler verstehen oft nicht, warum eine Antwort so entsteht. Zudem stellen politische und moralische Fragen philosophische Dilemmata ohne klare Lösung dar.

Fazit: Hersteller sehen, wie der Wind in Washington weht. Viele testen ihre Modelle inzwischen gezielt auf politische Verzerrungen und bauen konservative Sichtweisen stärker ein. Google setzt etwa „Red Teams“ ein, um Bias aufzudecken.

Buyl und De Bie halten echte Neutralität dennoch für unmöglich. Vorschläge: Modelle weniger „überzeugend“ machen, dafür mehr Perspektiven darstellen oder wie klassische Medien offen eine Schlagseite zugeben. Letzteres würde Transparenz schaffen – und die Regierung müsste nur noch sicherstellen, dass kein Standpunkt ein Monopol erhält. Trump mag das Wort Diversität im DEI-Kontext hassen, aber bei KI sollte er genau das wollen: mehr Vielfalt.

© 2025 The Economist Newspaper Limited. All rights reserved.

Aus The Economist, übersetzt von der Markt & Mittelstand Redaktion, veröffentlicht unter Lizenz. Der Originalartikel in englischer Sprache ist zu finden unter www.economist.com

Ähnliche Artikel