Vielfalt per Dekret
Brauchen wir einen Medienstaatsvertrag für Sprachmodelle?
Das Sprachmodell als (halbe) Stimme des Volkes
Fragt man das neueste Modell von ChatGPT (im Oktober 2025), wie ein Sprachmodell zu seinen Inhalten kommt, erhält man diese Antwort: „Es wird mit riesigen Mengen an Texten aus dem Internet trainiert – Bücher, Zeitungsartikel, Webseiten, wissenschaftliche Arbeiten, Forenbeiträge usw.“ Man erfährt zugleich, dass das Modell diese Inhalte nicht etwa lernt und bei einer Frage entsprechend rezitiert. Vielmehr errechnet es statistische Verhältnisse unter den Wörtern und Wortkombinationen, also beispielsweise, wie oft die Zahl „1989“ mit dem Begriff „Mauerfall“ verbunden ist oder „Gleichberechtigung“ bzw. „Unsittlichkeit“ mit „Homosexualität“.
Ein Sprachmodell, so das Fazit von GPT-5, „hat keine Inhalte im klassischen Sinn, sondern statistisch kondensierte Spuren menschlicher Sprache. Es reproduziert und rekombiniert, was Menschen gesagt, gedacht und geschrieben haben – ohne zu wissen, was das bedeutet.“
Was ein Sprachmodell über die Welt sagt, hängt also maßgeblich davon ab, wie die Texte, die ihm vorliegen, diese beschreiben. Wenn die Statistik ergibt, dass der Begriff „Schwangerschaftsabbruch“ wesentlich öfter mit der Formulierung „Pro Choice“ verbunden ist als mit der Formulierung „Pro Life“, wird sich das Sprachmodell eher positiv über „Schwangerschaftsabbruch“ äußern – wobei es Negationen wie „ich bin gegen pro Choice“ natürlich in Rechnung stellt.
Was ein Sprachmodell über die Welt sagt, hängt also maßgeblich davon ab, wie die Texte, die ihm vorliegen, diese beschreiben.“
Nach einer solchen Auskunft lag die Anschlussfrage nahe, ob das Sprachmodell also die „Stimme des Volkes“ ist. GPT-5: Insofern ein Sprachmodell „aus Abermillionen von Äußerungen realer Menschen“ gespeist werde, sei es „tatsächlich eine ‚Stimme des Volkes‘ – aber nicht die eines bestimmten Volkes, sondern eine aggregierte, globale Sprechweise.“ Dann ist das Sprachmodell das Sprachrohr aller Völker? Die Sprachmaschine eine kosmopolitische Maschine? Umso besser. Aber halt, da steht noch etwas.
„Die ‚Volksstimme‘ wird im Trainingsprozess technisch und normativ gefiltert.“ In diesem Prozess, so GPT-5, werden toxische, diskriminierende, pornografische oder politisch heikle Inhalte entfernt und bestimmte Werte wie Respekt und Inklusion vermittelt. Dadurch spreche das Modell „nicht mehr für das Volk, sondern für eine bestimmte Vorstellung davon, wie das Volk sprechen sollte – eine moralisch und politisch regulierte Stimme.“
Also halb Stimme der Völker, halb Stimme einer moralischen Instanz, die im Feintuning das korrigiert, was das Sprachmodell vom Volk – bzw. den Völkern dieser Welt – gelernt hat? Wer ist diese moralische Instanz? Woher kommen ihre Mitarbeiter und was qualifiziert sie für diese Aufgabe?

Die (aktuelle) Dominanz des Progressiven
So viel ist bekannt: Beim ChatGPT-Unternehmen OpenAI ist diese Instanz ein kleines „Model-Behavior-Team“, das sich zwar mit einigen Moralphilosophen und Technikethikern berät, am Ende aber recht selbstständig entscheidet, wie das Wertesystem des Sprachmodells aussehen und damit die Stimme der Völker sich anhören soll. Und Sam Altman, der CEO von OpenAI, kann, wenn er will, diese Entscheidungen am Ende überstimmen.
So gesteht es Altman selbst im Podcast des rechtskonservativen Tucker Carlson, der genauer hatte wissen wollen, wer eigentlich den Sprachmodellen die Moral beibringt. Dass Carlson da misstrauischer ist als linksliberale Beobachter, liegt sicher auch daran, dass sich ChatGPT sehr früh recht „woke“ verhielt oder jedenfalls so von den Rechten bezeichnet wurde, denn es nahm die LGBTQ-Community in Schutz und verhielt sich auch sonst in jeder Hinsicht und z. T. in absurdem Ausmaß politisch korrekt (Guynn 2023).1
Wie mehrere Studien ergeben, rücken Sprachmodelle während ihrer Zweiterziehung per Feintuning nach links: Sie befürworten Klimasteuern, Mietenkontrolle, Abtreibungsrecht, eine höhere Besteuerung der Reichen und die Legalisierung von Marihuana (Hartmann u. a. 2023; Rozado 2024; Santurkar u. a. 2023; Motoki u. a. 2024). So ist anzunehmen, dass jene, die dem Modell „ihre Vorstellung davon, wie das Volk sprechen sollte“, vermitteln, sich selbst politisch links verorten. Diese Linkslastigkeit würde das Sprachmodell dann mit dem öffentlich-rechtlichen Rundfunk teilen, dessen Beiträge einer Studie der Mercator-Stiftung zufolge zu 45 % eine eher liberal-progressive Ausrichtung haben gegenüber 25 % mit einer eher konservativ-autoritären und 23 % mit eher ambivalenter Positionierung (Maurer/Kruschinski/Jost 2024).
Diese moralische Ausrichtung der Sprachmodelle mag ganz im Interesse der progressiven Kräfte liegen. Trotzdem stellt sich die Frage, was das für eine auf Kommunikation und Deliberation basierende Gesellschaft bedeutet, wenn eine Handvoll Mitarbeiter:innen eines privatwirtschaftlichen Unternehmens ohne politisches Mandat und gesellschaftliche Debatte jenes Kommunikationsmittel manipulieren kann, das immer wichtiger für die gesellschaftliche Meinungsbildung wird. Zu fragen ist auch: Was, wenn sich der Wind einmal dreht?
Genau das tut er gerade. Jeder, der Augen hat, sah die Bilder der Unterwürfigkeit der großen Techunternehmen gegenüber der Macht: das brave Erscheinen ihrer CEOs zu Trumps Inaugurationsfeier am 20. Januar 2025 und zum Dinner im Weißen Haus am 5. September 2025. Diese Bilder lassen keinen Zweifel: Den Chefs der Sprachmodelle ist der wirtschaftliche Erfolg am Ende wichtiger als die politische Gesinnung.
Auch dafür gab es schon vorher erste Anzeichen. So haben sowohl Mark Zuckerberg als auch Sam Altman bereits Anfang des Jahres verkündet, dass ihre Sprachmodelle künftig eher dem Mainstream folgen sollen, statt von einer moralischen Elite ausgerichtet zu werden. Welchem Mainstream? Dem amerikanischen, der aktuell zugunsten Trumps ausfällt? Was bedeutet das für Europa und Deutschland, wo die amerikanischen Sprachmodelle ja ebenfalls das Sagen haben?
Den Chefs der Sprachmodelle ist der wirtschaftliche Erfolg am Ende wichtiger als die politische Gesinnung.“
Die (problematische) Personalisierung der Perspektiven
Sind Sprachmodelle als kritische Infrastruktur zu betrachten, deren Kontrolle nicht in den Händen der privaten Wirtschaft, sondern der öffentlichen Hand liegen sollte? Sollten Sprachmodelle zur Informations- und Perspektivenvielfalt verpflichtet sein, so wie das beim öffentlich-rechtlichen Rundfunk der Medienstaatsvertrag festschreibt?
Immerhin ist das Sprachmodell mehr und mehr unser Auskunftsgeber, wenn es um hochumstrittene Themen wie Gendern, Migration, Sexualunterricht oder Schwangerschaftsabbruch geht. Aber auch zum Verhältnis von Meinungsfreiheit und Blasphemie, individueller Freiheit und Gemeinschaft oder zu den Fragen, was der Zweck von Bildung ist und worin Glück besteht, gibt es ganz unterschiedliche Ansichten. Und zwar nicht nur unter den verschiedenen Völkern, die ChatGPT benutzen, sondern auch innerhalb einer Nation.
Wie vermittelt ein Sprachmodell diese unterschiedlichen Perspektiven in die Gesellschaft? Wie weit kommen deren Vertreter dabei selbst zu Wort? Technisch machbar ist das durchaus, insofern quasi jede Perspektive im Datensatz des Sprachmodells enthalten ist. Dieses müsste nur so instruiert sein, dass es diese Wissensbestände auch abruft. Aber eben nicht nur für die, die eine bestimmte Perspektive schon haben, wie das Konzept des personalisierten Sprachmodells es vorsieht. Das wäre ja so, als würde die Tagesschau ihre Meldungen gesondert für die Wähler der CDU, der SPD, der Linken oder der AfD senden – was im Zeitalter des Digitalfernsehens und der Dataveillance ja durchaus möglich wäre.
Eine solche Personalisierung würde freilich dem Auftrag einer umfassenden informationellen Grundversorgung der Bevölkerung widersprechen. Das sah schließlich auch der Bayerische Rundfunk (BR) ein, der 2016 in diese Richtung gehen wollte – mit Empfehlungsalgorithmen, die dem Publikum jeweils jene Inhalte aus seiner Mediathek anbieten sollten, die es aufgrund seiner bisherigen Rezeptionsgeschichte am ehesten interessieren könnte. Ganz nach dem Vorbild der großen Plattformen und Streamingdienste (Poechhacker 2024).
Was bei den Privaten im Rahmen der Profiterwirtschaftung nur konsequent erscheint, verbietet sich natürlich den Öffentlich-Rechtlichen. Und nicht anders sollte es beim Sprachmodell und dem darauf aufbauenden KI-Agenten als dem künftigen Medium des Realitätsbezugs sein. Geboten wäre vielmehr ein demokratischer Empfehlungsalgorithmus, der weniger den Vorlieben des Individuums verpflichtet ist als den Bedürfnissen der Gesellschaft, also einer umfassenden Information ihrer Mitglieder. Ist ein solcher Algorithmus realistisch?
Zu jeder Frage eine (ambivalente) Antwort
Technisch wäre es kein Problem, das Sprachmodell so einzustellen, dass es nicht erst auf konkrete Nachfrage hin eine weitere Perspektive anbietet. Es könnte beispielsweise nach der Auskunft, was der Zweck von Bildung ist, selbst vorschlagen, diese Frage nun auch aus der islamischen Perspektive zu betrachten. Dann besteht Bildung nicht mehr in der Erziehung zum mündigen, selbstbestimmten Bürger – wie etwa im Westen in der Tradition des humanistischen und Humboldt’schen Bildungskonzepts. Vielmehr zielt Bildung dann auf die Erkenntnis der göttlichen Ordnung (Taqwa), auf die Pflichterfüllung gegenüber der Gemeinschaft (Umma) und auf die Verteidigung der Wahrheit gegen den säkularen und „dekadenten“ Westen. Oder aus der indigenen Perspektive etwa der westafrikanischen Yoruba, wonach Bildung der kollektiven Weitergabe des Wissens der Vorfahren durch Rituale dient.
Auf diese Weise wäre das Sprachmodell tatsächlich ein Sprachrohr verschiedener Völker, die in ihrer Eigenperspektive sichtbar blieben, statt im Brei der Statistik unterzugehen. Aktuell ist es jedoch so, dass das Sprachmodell nach der Beantwortung der Frage vorschlägt, seine Antwort als Essay zu formulieren oder grafisch zu illustrieren: also die Antwort formell zu variieren, statt sie inhaltlich zu destabilisieren.
Wer entscheidet, welche Stimmen wie oft zu hören sind, wenn wir die KI zu den umstrittenen Themen des Lebens befragen?“
Wäre diese Destabilisierung wünschenswert? Nun, sie entspräche dem früheren Umgang mit Wissen, als man nach dem Buch des einen Autors und Kulturkreises auch noch das des anderen zur Kenntnis nahm. Warum sollte das Medium, das diese Kulturform des Wissens ersetzt, nicht gleichermaßen vorgehen? Zumal es ja auch global operiert!
Könnte man eine solche Vielfalt per Design gesetzlich durchsetzen? Hat der deutsche Staat (oder die EU) so viel Macht gegen amerikanische KI-Unternehmen? Oder wäre das übergriffig, weil so ein global operierendes Sprachmodell dann eben doch etwas ganz anderes ist als der national operierende Rundfunk? Und wie würde sich überhaupt der „Rundfunkrat“ bzw. ein erweitertes, demokratisiertes „Model-Behavior-Team“ zusammensetzen? Wer entscheidet, welche Stimmen wie oft zu hören sind, wenn wir die KI zu den umstrittenen Themen des Lebens befragen?
Wir sind fern von einer Antwort auf diese Fragen, gerade weil sie bisher kaum gestellt werden. Und das mag wiederum daran liegen, dass die Offlinewelt momentan selbst immer weniger weiß, wie sie mit all den unterschiedlichen und unversöhnbaren Positionen innerhalb der stattfindenden Kulturkämpfe und favorisierten Modernisierungskonzepte umgehen soll.
So viel aber ist klar: Das Problem ist nicht technischer, sondern politischer Natur. Und als solches müsste es zunächst einmal erkannt und diskutiert werden. Die neueste Aufregung über Cancel-Versuche im Fernsehen ist ein guter Anlass – nicht nur für die gegenseitige Versicherung, dass dies einer Demokratie nicht bekommt. Auch die Frage, wer eigentlich wie und warum in den Sprachmodellen am Sprechen gehindert wird, wäre in diesem Kontext zu stellen. Denn die vom Medienstaatsvertrag gestellte Aufgabe, im öffentlichen Sprechen die Vielfalt der Meinungen zu spiegeln, verlagert sich nun in die Welt der Sprachmodelle, die zwar ganz im Privaten benutzt werden, aber alles andere sind als eine Privatangelegenheit.
Anmerkung:
1 Vgl. dazu ausführlich das Kapitel „Woke Sprachmaschinen“. In: Simanowski 2025, S. 122–127
Literatur:
Guynn, J.: Is ChatGPT ‚woke‘? AI chatbot accused of anticonservative bias and a grudge against Trump. In: USA Today, 10.02.2023
Hartmann, J. u. a.: The political ideology of conversational AI: Converging evidence on ChatGPT’s proenvironmental, left-libertarian orientation. In: arXiv, 05.01.2023
Maurer, M./Kruschinski, S./Jost, P.: Fehlt da was? Perspektivenvielfalt in den öffentlich-rechtlichen Nachrichtenformaten. Mainz 2024. Abrufbar unter: https://www.researchgate.net
Motoki, F. u. a.: More human than human: measuring ChatGPT political bias. In: Public Choice, 198/2024, S. 3–23
Poechhacker, N.: Democratic Algorithms. Ethnography of a Public Recommender System. Lüneburg 2024
Rozado, D.: The political preferences of LLMs. In: PLOS One, 31.07.2024. Abrufbar unter: doi.org/10.1371/journal. pone.0306621
Santurkar, S. u. a.: Whose Opinions Do Language Models Reflect? In: arXiv, 30.03.2023
Simanowski, R.: Sprachmaschinen. Eine Philosophie der künstlichen Intelligenz. München 2025
