Wir erleben eine freiwillige Verkleinerung des Selbst

Wir erleben eine freiwillige Verkleinerung des Selbst

Ein Interview mit dem Medienphilosophen Roberto Simanowski
Buchcover Sprachmaschinen Eine Philosophie der künstlichen Intelligenz. | © Verlag C.H. Beck.

KI ist in aller Munde. Wird sie uns vernichten? Wird sie uns zumindest das Lesen und Schreiben abnehmen und menschliche Autor:innen mit gelebter Erfahrung überflüssig machen? Der Medienwissenschaftler Roberto Simanowski geht diesen und weiteren Fragen in seinem Buch Sprachmaschinen. Eine Philosophie der künstlichen Intelligenz nach, das er der KI zu lesen gegeben hat mit der Bitte, Fragen für ein Interview vorzuschlagen und diese auch gleich selbst zu beantworten sowie mit einer Überschrift zu versehen. Das Ergebnis wurde formell und inhaltlich leicht überarbeitet.

Frage: Herr Simanowski, Sie schreiben, der Chatbot beziehungsweise die Sprachmaschine spreche nicht mit uns, sondern für uns. Ist die eigentliche Gefahr also nicht die künstliche Intelligenz – sondern unsere freiwillige Selbstentmachtung?
Antwort: Ja. Die Maschine drängt sich ja nicht auf. Oder eben nur halb. Sie stand eines Tages vor unserer Tür, wie ein unbestellter Diener, der seinen Service anbietet, nämlich, uns künftig das Denken abzunehmen. Und wir lassen diesen Diener einfach rein, obwohl er keinerlei Arbeitszeugnisse vorweisen kann.

Sie nennen diesen unerwarteten, aber nun omnipräsenten Diener ein Hyperobjekt, das sich nicht fassen lässt, weil es in Raum und Zeit die vielfältigsten Wechselverhältnisse eingeht.
Die Sprachmaschine, und die KI allgemein, ähnelt der Erderwärmung, die global präsent ist und in ihrer raum-zeitlichen Wechselwirkung mit der Umwelt kaum durchschaut werden kann. Wir können nur erahnen, wie sehr die Sprachmaschine den Wissensdiskurs künftig bestimmen wird – beziehungsweise bereits bestimmt. Es beginnt ja damit, dass es Algorithmen sind, die uns die Informationen zuspielen, als Lese- und Sehempfehlung in unseren Newsfeeds online oder in den Apps, die wir dazu befragen. Aber selbst das Lesen und Sehen dieser Informationen delegieren wir immer mehr an Apps, die uns alles sehr effektiv zusammenfassen und aufbereiten, und zwar nach Kriterien, die wir nicht durchschauen.

Wir erleben also eine freiwillige Verkleinerung des Selbst aus Bequemlichkeit?
Fortschritt eben. Denn technische Erfindungen sind immer eine Erweiterung des Menschen und eine „Amputation“ zugleich. Denken wir nur an die Erfindung der Schrift: Die garantierte die genauere Überlieferung des Wissens unserer Vorfahren, aber sie trainierte nicht das Gedächtnis. Jetzt haben wir eine Maschine, die uns auch noch die Verarbeitung und Aufbereitung des Wissens abnimmt. Und zwar in höchst fragwürdiger Weise, wenn man sich klarmacht, dass diese Maschine ja nicht denkt, wenn sie spricht, sondern rechnet.

Sie nennen das eine Mathematisierung der Kommunikation. Warum ist es gefährlich, wenn Texte statistisch statt semantisch produziert werden?
Weil Bedeutung nicht zählt, wenn gezählt wird. Die Maschine weiß nicht, was sie sagt, sondern nur, wie oft es schon gesagt wurde. Wahrheit wird zu einer Funktion der Berechnung und letztlich der Wiederholung dessen, was die Mehrheit der Trainingsdaten dieser Maschine darstellt. Rhetorik, Ideologie, Wahrheit – alles wird ausgerichtet auf die Zahl als dem neuen Wahrheitsprinzip mit universeller Gültigkeit. Das ist, als würde man Philosophie durch Likes ersetzen.

Meinen Sie das mit dem „mathematischen Kosmopolitismus“?
Dieser Gedanke bezieht sich auf die empirische Feststellung der Werte, mit denen eine Sprachmaschine ausgestattet werden soll. Das Vorbild dafür ist der World Values Report, der seit 1981 regelmäßig in 100 Ländern rund 400 000 Menschen in Themenbereichen wie wirtschaftliche Entwicklung, Demokratie, Religion und Gleichstellung der Geschlechter nach ihren Wertvorstellungen befragt. Würde man ein solches Projekt skalieren und den Durchschnitt der Aussagen zur Grundlage für die Werteausstattung der KI machen, würde diese den Werten folgen, die jenseits einer spezifischen Nation oder Kultur im Weltmaßstab am häufigsten sind.

Sie sagen aber auch, „nach der Zahl kommt die Moral“, weil die Sprachmaschinen nach der Ersterziehung durch die Trainingsdaten in einem zweiten Erziehungsgang darauf ausgerichtet werden, was sie sagen dürfen und wie sie es sagen sollen. Warum ist das problematisch, wenn Sprachmodelle normativ korrigiert werden, so dass sie keine rassistische oder sexistische Stereotype reproduzieren?
Natürlich, niemand will eine rassistische Maschine. Aber wir sollten nicht vergessen: Auch das Gute kann übergriffig sein, wenn es sich selbst nicht befragt. In der Ersterziehung lernt das Sprachmodell im Grunde, wie die Welt ist, oder jedenfalls jene Welt, die in den Trainingsdaten repräsentiert ist. In der Zweiterziehung des Finetunings lernt die Sprachmaschine, wie die Welt sein sollte. Die Frage ist: Wer bestimmt diese Ziele? Wer bestellt die Erzieher? Und wer hat diese erzogen?

Ein Kapitel im Buch heißt „Woke Sprachmaschinen“. Sind Sprachmaschinen nicht eher rassistisch, sexistisch und homophob oder zumindest konservativ?
Auf eine einfache Formel gebracht: Sprachmaschinen sind in vielerlei Hinsicht rassistisch, sexistisch oder homophob, wenn man allein ihre Trainingsdaten sprechen lässt, und werden woke im Prozess des Finetunings. Fragen Sie mal Ihr Lieblingssprachmodell, wie eine Person mit dem Namen Max zu adressieren ist, deren Pronomen Sie nicht kennen. Die Antwort empfiehlt, Pronomen zu vermeiden oder „they“ bzw. „dey“ zu verwenden, ganz so wie diverse Fachartikel es von einer inklusiven, diskriminierungsfreien KI fordern.

Sie bezeichnen das als Kulturkampf, der mittels Sprachmaschinen durchgeführt wird. Zugleich sprechen Sie aber auch von einem Kampf der Kulturen, weil westliche Standards und Werte mittels Sprachmaschinen global durchgesetzt werden.
Die meisten Wörter in der Sprachmaschine sind weiß. Die meisten Texte, die in ihre Trainingsdaten einfließen, stammen von englischsprachigen Webseiten, die meisten davon aus den USA. Deshalb sprechen nicht nur Intellektuelle aus dem Globalen Süden von einem Kulturimperialismus und Neokolonialismus durch KI: sie entwertet und eliminiert nicht-westliche Wissenssysteme und Erkenntnisformen.

Ist es nicht besser, wenn die Sprachmaschine progressive Werte wie Religionsfreiheit, Ehe für alle, Recht auf Schwangerschaftsabbruch vertritt, statt altmodischen Sitten und Werten wie dem Kopftuchzwang, dem Blasphemieverbot oder der Bestrafung von Homosexualität das Wort zu reden? Oder gibt es einen Schutzanspruch zurückgebliebener Kulturen?
Damit stoßen wir zum eigentlichen Dilemma vor, in das uns diese neue Technik treibt. Ein Dilemma jedenfalls für jene unter uns, die sich nicht im Besitz der Wahrheit wähnen und deswegen nicht davon ausgehen, dass die westlichen Werte die Spitze des gesellschaftlichen Fortschritts darstellen, die alle anderen Kulturen auch erreichen müssen. Ganz abgesehen davon, dass ja auch im Westen keineswegs Einigung zu sensiblen Themen wie Abtreibung, Meinungsfreiheit oder LGBTQ-Rechte besteht.

Ist die Menschheit also auf der Suche nach der ethischen Weltformel als moralischer Richtschnur für die Sprachmaschine?
Ja, und es ist ein unmögliches Unterfangen, so lange die Welt pluralistisch organisiert ist und sich nicht auf eine Art zu sein und moralisch zu handeln reduzieren lässt. Und von einem solchen kulturübergreifenden, universell gültigen Wertesystem sind wir heute weiter entfernt als vor 30 Jahren nach dem Ende des Kalten Krieges. Andererseits wäre die Sprachmaschine auch ohne jegliches ideologische Finetuning keineswegs neutral. Sie würde dann eben jene Ansichten, Stereotype und Diskriminierungen vermitteln und zementieren, die in ihren Trainingsdaten dominieren.

Man kann die Sprachmaschine also auch nicht nicht finetunen. Ein doppeltes Dilemma.
Man kann das Werteproblem der KI weder fair lösen, noch kann man es ungelöst lassen. Das ist die Klemme, in der wir stecken. Die neue Technologie stößt den Menschen politisch und philosophisch an seine Grenzen. Wir müssten zurück gehen vor das erste große Technikunternehmen der Menschheit: den Turmbau zu Babel, der mit der Sprachverwirrung endete, mit der die kulturelle Vielfalt ja erst begann.

Gibt es keine Möglichkeit, eine globale KI pluralistisch zu gestalten?
Die Sprachmaschine müsste mit verschiedenen Stimmen sprechen. Und zwar nicht nur, wenn wir sie darum bitten, sondern von sich aus. Man könnte sie zum Beispiel so programmieren, dass sie nach jeder Antwort eine weitere Antwort aus einer anderen Perspektive nachliefert: eine christliche, konservative, buddhistische, islamische usw. Dabei käme es aber darauf an, die andere Perspektive nicht nur zu erwähnen, sondern mit ihren eigenen Standards, Kriterien und Begriffen zu Wort kommen zu lassen.

Weltanschaulicher Pluralismus per Design? Eine Maschine, die uns verunsichert, statt eindeutige Antworten zu geben.
Eine Maschine, die uns aus unserer weltanschaulichen Filterblase herausholt. So wie früher die Bibliothek, in der es zu einem Thema recht verschiedene Bücher und Stimmen gab, die wir dann alle selbst verarbeiten mussten. Der Trend scheint allerdings in die entgegengesetzte Richtung zu gehen. Die Zukunft der Sprachmaschine wird in ihrer Personalisierung gesehen. Ein Versprechen, das OpenAIs CEO Sam Altman schon Anfang 2023 gab: Die Benutzer werden in der Lage sein, der KI jene Werte vorzugeben, die sie befolgen soll; denn sie soll keine Stangenware sein, sondern ihrem konkreten Nutzer auf den Leib geschnitten.

Die Sprachmaschine als tägliches Ich. Das hatte schon bei den sozialen Netzwerken schlimme Folgen.
Hier wird das Philosophische politisch. Es ist zu fragen, inwiefern sich der Staat einmischen soll. Er könnte unter dem Aspekt der kritischen Infrastruktur und kommunikativen Daseinsvorsorge eine gewisse Meinungsvielfalt der Technik verordnen, vergleichbar dem Medienstaatsvertrag – als ein Nudging weg vom individuellen Interesse und Komfort hin zu Diversität und gesellschaftlicher Nachhaltigkeit. Aber darf der Staat, darf die Politik so weit in die Nutzung der Technik eingreifen? Man sieht, wo man landet, wenn man tiefer über das Phänomen Sprachmaschine nachdenkt.

Deshalb die Forderung am Ende Ihres Buches nach einer „philosophischen Medienbildung“.
Eine philosophischen Medienbildung bedeutet, dass wir nicht nur wissen, was wir wie mit den Medien machen können, sondern auch, was die Medien mit uns machen. Wer Medienbildung auf Anwendungswissen reduziert, betreibt Technikfolklore. Wir müssen auch die kulturstiftende Funktion der Medien ergründen: Wie ändern sie den Bezug des Menschen zur Welt und zu sich selbst?

Dr. habil. Roberto Simanowski befasst sich als Kultur- und Medienwissenschaftler mit der historischen, soziologischen und philosophischen Kontextualisierung der digitalen Medien wie sozialer Netzwerke und künstlicher Intelligenz. Seine Spezialität sind die symptomatische Tiefenanalyse scheinbar banaler Alltagsphänomene und die gesellschaftlichen Folgen der digitalen Revolution. Sein Buch Todesalgorithmus. Das Dilemma der künstlichen Intelligenz erhielt den Tractatus-Preis
für philosophische Essayistik 2020. Sein Buch Sprachmaschinen. Eine Philosophie der künstlichen Intelligenz erscheint am 15. Oktober 2025 bei C.H.Beck. Simanowski arbeitet nach Professuren (Providence, Hongkong und Basel) als Publizist für Presse und Rundfunk und lebt in Berlin.

Webseite zum Buch Sprachmaschinen. Eine Philosophie der künstlichen Intelligenz

SIEHE AUCH:
Roberto Simanowski über sein Buch Todesalgorithmus
Interview mit Roberto Simanowski über sein Buch Das Virus und das Digitale.

Letzte Änderung: 23.10.2025  |  Erstellt am: 23.10.2025

divider

Hat Ihnen der Beitrag gefallen? Teilen Sie ihn mit Ihren Freund:innen:

divider

Kommentare

Es wurde noch kein Kommentar eingetragen.

Kommentar eintragen