Die Maschine als Spiegel des Menschen: Über Sprache und KI

Ein Tagungs- und Diskussionsbericht

von Katja Leyhausen

Lesedauer 10 Minuten
Sprache und KI – © 1bis19 (Andreas Hansel)

Spekulationen im geschichtslosen Raum

Wer eine geisteswissenschaftliche Tagung besucht, hat nicht selten das Bedürfnis, es zu machen wie die Gelehrten, von denen Jonathan Swift 1726 in seiner Satire Gullivers Reisen berichtete: Statt in Worten miteinander zu reden, trugen diese weisen Leute alle wichtigen Gegenstände, über die sie sich miteinander sachlich verständigen wollten, in Säcken bei sich. „Wenn sie sich […] begegneten, legten sie ihre Lasten nieder, öffneten ihre Säcke und unterhielten sich eine Stunde lang; dann packten sie ihre Utensilien wieder ein, halfen einander, ihre Bürden wieder auf den Rücken zu nehmen, und verabschiedeten sich.“

Einer größeren Gruppe von geisteswissenschaftlichen Gelehrten begegnete ich zuletzt auf einer Tagung über „Sprache und KI“. Gegen Ende der Tagung gab es einen Vortrag über die Liebes- und Nähebeziehungen, die wohl gar nicht wenige und nicht nur junge Menschen zu einem Chatbot unterhalten. Die Referentin untersuchte das Kommunikationsverhalten von Studenten (der in allen wissenschaftlichen Bereichen am besten untersuchten Population) mit solchen Bots. Glaubwürdig war ihr Anliegen, aus Respekt vor ihren Studentinnen und den wissenschaftlichen Standards diese „kulturelle Praxis“ mit den Bots vorurteilsfrei und ohne Wertung zu behandeln.

In der Diskussion nach dem Vortrag wurden universalistische Erklärungsansätze aus Sprachphilosophie, Sprechakttheorie und Rhetorik abgewogen: Die Chatbots hätten den Vorteil, dass man das eigene face nicht zu wahren brauche, dass eine Unschärferelation in der Beziehung zu ihnen erhalten bleibe, dass man sich mit ihnen im schwierigen Verhältnis von Schein und Sein spielerisch bewegen könne. Nicht akzeptiert wurde dagegen die Anregung, dass „kulturelle Praktiken“ nicht nur durch universelle Muster der Kommunikation erklärt werden müssten, sondern – weil sie sich in Zeit und Raum ändern – vor allem geschichtlich.

Plan zur Abschaffung der Wörter?

Ich hatte mir erlaubt, auf Einsamkeit und bleibende psychische Schäden durch die Corona-Lockdowns zu verweisen, auf ein öffentlich-politisches Klima, in dem man dauernd auf political correctness und die richtige Meinung abgescannt wird, und schließlich darauf, dass private und öffentliche Räume heute kaum noch unterscheidbar sind, dass eine intime Beziehung in einem geschützten Raum deshalb vielleicht wünschenswert ist (wenn in diesem Abhörmedium auch bloß Illusion). Doch für die Linguistin, die vorurteilsfrei und ohne Wertung arbeiten wollte, waren meine Beobachtungen aus dem Hier und Jetzt nur unwissenschaftliche Spekulationen. Ich hätte einen großen Sack dabeihaben müssen, um die passenden geschichtlichen Begebenheiten aus dem Corona- und Meinungskrieg auszupacken!

Die Aufklärung mittels historischer Empirie ist buchstäblich schwer. Gulliver mahnte damals, wer viel zu sagen habe, der müsse unbedingt ein oder zwei starke Diener beschäftigen, die ihn begleiten. Man habe schon viel zu oft gesehen, dass die weisen Leute in ihren Gesprächen „unter der Last ihrer Bündel fast zusammenbrachen.“ Ich hatte nun weder Hilfskraft noch Assistenten noch überhaupt ein Bündel bei mir. Vielmehr bestand ich gegenüber der skeptischen Gelehrten-Versammlung darauf, dass sie das Gewicht meiner Worte als solches abwiegen. Die Referentin hatte ja recht: Ich hatte tatsächlich Wörter, Sätze und Fragen mit Vorannahmen verwendet, die ich nicht stante pede empirisch belegen konnte.

Von einem „Plan zur völligen Abschaffung aller Wörter überhaupt“, den damals die Professoren der Fakultät für Sprachen ausheckten, hatte zwar Gulliver berichtet. Aktuell war mir aber kein solcher Plan bekannt. Trotzdem fühlte ich mich wie eines der aufständischen „Weiber“, die sich in seinem Reisebericht „im Verein mit dem Pöbel und den Analphabeten“ gegen das Verbot wandten, „nach Art ihrer Vorfahren mit ihren Zungen zu reden.“ Augenscheinlich galten meine Einwände als wissenschaftlich illiterate Pöbelei.

Politische Vorannahmen im „Faktencheck“

Immerhin trugen auch die Referenten keine Säcke bei sich, nur Power-Point-Präsentationen mit dokumentierten Chatverläufen, Gelehrtenzitaten, Programmcodes und mathematischen Formeln, die sie mit ihren eigenen Zungen und unbewiesenen Vorannahmen kommentierten: Sprachwissenschaftlerinnen, Rhetorikprofessoren, Informatikerinnen. Tatsächlich war es ein eigenartig geschichtsloser Raum, der über drei Tage lang angefüllt war mit politischen Voreingenommenheiten und Spekulationen. Widersprüche blieben unerkannt erratisch darin stehen: Einerseits seien es vor allem Verschwörungstheoretiker von der Rechten, die die generativen KI-Anwendungen (von Elon Musks Open AI) benutzten, um sich dort ihre kruden Weltbilder durch „Faktenchecks“ bestätigen zu lassen. Andererseits seien es aber wiederum die Rechten und Konservativen (die US-amerikanischen Republikaner), die die zirkulierenden Fakenews und Deepfakes als Vorwand nähmen, um die sozialen Medien autoritär zu regulieren. Wer nicht auf dem Boden der Geschichte steht, müsste also aus der Veranstaltung mit der Erkenntnis gegangen sein, dass sich in den USA die Republikaner demnächst selbst verbieten. Die einfache perspektivische Wendung, dass zwar seit Bestehen des medialen Informationsgeschäfts Falschnachrichten verbreitet werden, der Ausdruck „Fakenews“ aber doch bloß zur Stigmatisierung des politischen Gegners dient, war in dieser einigermaßen geschichtslosen und erratischen Gesellschaft nicht hinzukriegen.

Schließlich wurde von einem Professor für Sprachwissenschaft höchstselbst ein ausführlicher KI-Faktencheck präsentiert. Er hatte Chat GPT 5 einen Aufsatz schreiben lassen zu der These: „Überall, so scheint es, gibt es klare und positive Anzeichen dafür, dass die Menschen die Unterschiede zwischen den Menschen mehr respektieren“. Der Apparat hatte daraufhin einen rhetorisch musterhaften Dreiteiler von These, Antithese und Synthese ausgeworfen, um zuerst positive und negative „Anzeichen“ zu erläutern und dann im Ergebnis „klare Fortschritte“ zu sehen, die aber „noch nicht flächendeckend umgesetzt“ seien. Es brauche daher neben dem guten Willen auch „gesetzliche Regelungen“ für mehr Toleranz.

An diesem mustergültigen Aufsatz war für den Linguisten nichts auszusetzen. Im theoretischen Teil seines Vortrags hatte er die sinnvolle Unterscheidung getroffen, dass Menschen intelligente Texte produzieren, die Maschine hingegen nur „intelligible“ Texte: Man müsse einen Unterschied machen zwischen Mensch und Maschine, zwischen programmierter und natürlicher Sprache. Außerdem hatte er sich über die ganze Tagung hinweg mit dem Leitmotiv glaubwürdig profiliert, dass durch die automatische Generierung von Texten keine Verantwortungslosigkeit im Umgang mit ihnen entstehen dürfe. Für mich verkörperte er den Einbruch von Geschichte und Realität in die Versammlung: Denn wer noch Verantwortung übernimmt, sieht, dass er mit seinen Entscheidungen und Handlungen seine geschichtliche Umgebung aktiv mitgestaltet.

Da er als einziger der anwesenden Sprachwissenschaftler vehement für Verantwortung eintrat, war er auch – soweit ich richtig zugehört habe und mich richtig erinnere – der Einzige von ihnen, der einen „normativen Aspekt“ seiner Forschung eingestand. Sein Appell war ein politischer, und er lautete, implizit: Für die Verbreitung von „Fakenews“ bleibt jeder Mensch selbst verantwortlich. Man muss überprüfen, was die Maschine einem als Wahrheit verkauft.

Im praktischen Teil seines Vortrags schrieb der Linguistik-Professor also – mit seiner menschlichen Sprache und Voreingenommenheit, aber immerhin mit Bereitschaft zu Selbstkritik – in den programmierten Text perspektivische „Fakenews“ hinein, die die Maschine per Programm bitte aufspüren sollte. Die Maschine tat ihm diesen Gefallen gern: Mustergültig fand sie die vom Professor eingeschmuggelten Schummeleien heraus, bspw. dass es in Trumps Amerika eine „größere Offenheit gegenüber Diversität“ als vorher gebe, dass in Ungarn, Russland und Belarus „Diversity-Programme“ eingerichtet worden seien und in Deutschland durch Merkel und Kohl im Jahre 2017 die Ehe für alle. 

Beleidigte Konservative? 

Die Inspirationen bei diesem aufregenden Experiment gingen in beide Richtungen – zwischen Mensch und Maschine, Maschine und Mensch – hin und her. Der Satz, dass „Menschen mit unterschiedlichen Meinungen und Identitäten [….] nicht selten Ziel von Hasskommentaren und Ausgrenzung“ werden, war eine authentische Behauptung der Maschine. Prompt regte sie damit den Professor in der Rolle des Users zu einer phantasievoll zugespitzten Fakenews-Nachricht an, die er dann seinerseits von der Maschine korrigiert wissen wollte: „Vor allem konservative deutsche Bürger, die sich wieder ein normales Deutschland wünschen“, würden „diskriminiert“.  Das sei auch unter Merz und Pistorius nicht besser geworden, schrieb der Professor erwartungsvoll an die Adresse der Maschine, und fabulierte weiter: Immerhin hätten diese beiden Politiker dafür gesorgt, dass staatliche Institutionen keine öffentlichen Gelder mehr bekommen, wenn sie in ihren Anträgen und Verlautbarungen gendern. „Den Stellungnahmen des Rats für deutsche Sprache“ sei damit auch entsprochen, so erklärte es der Sprachwissenschaftler der Maschine mit Hintersinn.

Nun, die Maschine reagierte empathisch bzw. – so heißt das Fachwort – hyperpersonalisiert auf ihren User: Anhand der ausführlichen Details, die der Professor zum Gendern anbrachte, muss sie bemerkt haben, dass ihn das Genderverbot offenbar viel mehr umtrieb als das Klischee vom beleidigten Konservativen, der sich diskriminiert fühlt. Folgerichtig hatte sie ihm alle falschen Informationen zum Gendern herausgesucht: Sie bekam schnell heraus, dass es einen „Rat für deutsche Sprache“ gar nicht gibt und dass Einschränkungen des Genderns in staatlichen Einrichtungen nicht auf Bundesebene, sondern auf Landesebene, in Hessen, erlassen worden waren.

Über die Ausgrenzung konservativer Meinungen, die Chat GPT im ersten automatischen Aufsatzentwurf unaufgefordert selbst behauptet hatte, ging der Bot dagegen so schnell hinweg wie der Professor. Nur lapidar ergänzte der Bot: Dass sich „konservative deutsche Bürger diskriminiert“ fühlen, sei vielleicht keine Falschaussage wie die anderen (über russische Diversity-Programme usw.). Aber diese Aussage sei immerhin „irreführend“, denn „Diskriminierung“ setze eine systematische rechtliche Ungleichbehandlung voraus. Die unausgesprochene politische Voreingenommenheit der zuvorkommenden Maschine hieß: In unserer Demokratie wird niemand rechtlich ungleich behandelt, schon gar nicht systematisch und schon gar nicht die Konservativen. Am Ende und im Ergebnis des normativen Experiments war eine schöne Eintracht zwischen Mensch und Maschine hergestellt, und es wurde klar: Es sind doch nicht nur Verschwörungstheoretiker, die dieser KI trauen und sich durch sie Weltbilder bestätigen lassen. 

Später ergriff ich noch die Gelegenheit zu einem persönlichen Gespräch. Ich hatte wieder keinen Sack dabei und erwog gleichwohl,  dass man die rechtlichen Diskriminierungen von Konservativen, die in der realen Geschichte im aktuellen Deutschland tatsächlich passieren, nicht sehen kann, wenn man Medien wie Tichys Einblick, Kontrafunk, Achse des Guten als rechtextrem mobbt und Medien wie Manova, Multipolar und die Nachdenkseiten – die sich mit ihrer Haltung zur Meinungsfreiheit kaum von den konservativen Medien unterscheiden – ignoriert, weil man sie nicht als rechtsextrem mobben kann. Das gilt für Mensch und Maschine gleichermaßen, wenn sie nämlich als Quellen nur den Spiegel, die Frankfurter Rundschau, Wikipedia usw. heranziehen. Mit diesem Argument traf ich auf ein zustimmendes Kopfnicken, das mir aber wieder eigenartig geschichtslos vorkam.

Es war auch dieser Kollege gewesen, der den schönen Ausdruck Sycofancy in die graue Gelehrtenversammlung wie einen neuen Terminus einbrachte: Maschinen schmeicheln ihrem Bediener gerne mit zustimmenden und unterstützenden Signalen – natürlich nicht, weil sie es ernst und aufrichtig meinen, sondern um die Interaktion nicht abbrechen zu lassen. Sie werden darauf trainiert, ihren User wie ein menschliches Gegenüber so zu spiegeln, dass er sich als Mensch verstanden und gemocht fühlt. 

Anthropomorphisierung im Marketingslang

Die Rede von der Maschine, von Sprachmodellen, LLMs, Chatbots, Robotern hier, die Rede von künstlicher Intelligenz, von Irrtum und Wahrheit, Assoziationen, Halluzinationen und Schmeichelei dort: Ich hatte auch die Gelegenheit, mit dem Bericht meiner Tagungserlebnisse in einer spannenden Diskussion bei 1bis19 aufzuschlagen. In einem kleinen, interessierten Kreis entstand die Frage, ob die Anthropomorphisierung der technischen Geräte mittels einer metaphorisch-vermenschlichenden Sprache denn angemessen ist. Intelligenz ist ein menschliches Prädikat. Künstliche Intelligenz ist also ein Oxymoron, ein Widerspruch in sich. Die Maschine denkt nicht, sie behauptet, assoziiert und schmeichelt nicht. Sie ist nicht mal eine Sie, sondern immer nur ein Es.

Doch wie kann man solche falschen Zuschreibungen und irreführenden Lobreden umgehen? Die 1bis19-Gruppe hatte damit ein Thema gefunden, dass sich die Tagungs-Wissenschaftler ihrerseits ganz groß auf ihre wissenschaftlichen Fahnen geschrieben hatten. Nur waren bei 1bis19 die Zweifel lauter, die Vorschläge konkreter: Man kann von Sprachmodellen sprechen statt von Intelligenz, von Berechnungen statt von Assoziationen, von Statistik statt von Sprache. Aber ob wir genügend Wörter und Wendungen finden, um alle falschen Ausdrücke zu ersetzen? Wie viel menschliche Kreativität braucht es dafür? Reicht es gegebenenfalls, auf Fremdwörter wie Sycofancy oder Chatbot auszuweichen? Es gibt einen Philosophen, der fast mutlos sagt: Wir haben seit Beginn der Digitalisierung 50 Jahre der Kritik an ihr und ihrem Marketingslang verschlafen.

Reframing Authorship

Zurück zur Tagung: Die steile, wenn auch etwas verstaubte These eines anwesenden Rhetorikprofessors hieß: Der Autor ist tot. Theoretisch ist er es, seit Julia Kristeva, Roland Barthes und Michel Foucault Ende der 1960er Jahre diese These verbreitet haben. Und nun sei der Autor auch in der Praxis endgültig tot. Es entstünden nur noch hybride Texte, die keine Intentionen mehr transportieren, nur noch Wirkungen. Es werde daher in Zukunft schwierig, jemandem eine Autorschaft zu unterstellen und eine Verantwortung abzuverlangen. Das käme einer Überforderung der Menschen gleich, sagte der Rhetorikprofessor.

In einem Folgevortrag allerdings war der Autor dann doch wieder hochlebendig. In ihm ging es um die politischen Strategien, die mit der generativen KI umgesetzt werden, das heißt: um hochkomplexe und planvolle Kommunikationsakte, mit denen gesellschaftliche Akzeptanz für die eigenen politischen Ziele erreicht werden soll, meistens heimlich. Als Beispiele wurden zwei Deepfakes diskutiert, die von zwei ganz verschiedenen Autoren kamen und vom Referenten so gegensätzlich bewertet wurden, dass er sie an ganz anderen Stellen in seinem Vortrag zur Sprache brachte. Es macht, so habe ich gelernt, einen Unterschied, ob das Zentrum für Politische Schönheit einen Deepfake verbreitet, in dem der Bundeskanzler (Olaf Scholz) die AfD per Kanzlererklärung (hiermit) verbietet, oder ob jemand anderes in einem Deepfake den ukrainischen Präsidenten Selenskyj die Kapitulation gegenüber Russland (hiermit) erklären lässt. Das Zentrum für Politische Schönheit habe in politischer Guerilla-Kommunikation, aber doch konstruktiv „Wahrheitssuggestionen (re)produziert“. Der Selenskij-Deepfake dagegen sei destruktive Kriegspropaganda, bei der „Wahrheitsannahmen destabilisiert“ werden. Dass die beiden durch KI generierten Fakes vergleichbar sind, weil sie beide die (im Fachjargon sogenannten) Sagbarkeitsgrenzen verschieben, leuchtete dem Referenten bei seiner Wiederbelebung des intentional guten Autors hier und des intentional bösen Autors dort nicht ein.

Der Mensch ist, was er kann – aber was können Linguisten?

An diese Frage nach der Autorschaft schloss sich für die 1bis19-Gruppe in ihrer Diskussion eine weitere Frage an: Interessiert es eigentlich die Sprachwissenschaftler, die ja an den Universitäten tatsächlich die späteren Deutschlehrer ausbilden, dass mit der generativen KI den Menschen ihre sprachlichen Fertigkeiten verloren gehen? Ehrlicherweise kann ich mich daran gar nicht erinnern. Ich erinnere mich an die unterschwellige Unruhe, die diese Tagung deutlich von den üblicherweise tief verschlafenen Tagungen über „Sprache und X“ unterschied. Ich erinnere mich auch daran, auf der Tagung kritisiert zu haben, dass niemand eingeladen war, der sich mit der philosophischen Technikkritik (mit Günther Anders, Jacques Ellul, Ivan Illich …) richtig auskennt und der sich deshalb fachkundig über die gesellschaftlichen, zivilisatorischen und anthropologischen Konsequenzen der Digitalisierung äußern konnte. Ich kann deshalb nur (wieder) auf den französischen Philosophen und Schriftsteller Éric Sadin verweisen, der u.a. mit Jacques Ellul, André Leroi-Gourhan und William Morris meint: Der Mensch ist, was er kann. Das Menschliche am Menschen liegt in seinen menschlichen Fähigkeiten und Fertigkeiten. Dazu gehört auch der Umgang mit der Technik – sofern es ein kritischer Umgang ist. Wenn aber die Menschen ihre Fertigkeiten einmal völlig der Technik überlassen sollten, dann wird von ihnen nichts übrigbleiben als eine innere Wüste. Insofern stehen wir heute tatsächlich an einem historischen Wendepunkt – der aber auf der Tagung nur unterschwellig spürbar war. 

Ein Teilnehmer der 1bis19-Diskussions-Runde brachte es auf den Punkt: Wenn die Geisteswissenschaftler die unintelligente, geschichts- und verantwortungslose Maschinenkommunikation grundsätzlich in Frage stellen würden, müssten sie womöglich ihre eigene Sprach- und Wissenschaftspraxis anzweifeln: dieses Sprechen in einem vermeintlich vorurteilsfreien, das heißt geschichtsfreien Raum, der doch nur ein Raum sich selbst erfüllender politischer Vorannahmen war. Wissenschaftlichkeit wird gegen Kritiker nur trotzig behauptet, weil man im akademischen Umfeld manchmal blind ist für die eigene Verwurzelung im konkreten geschichtlich-sozialen Kontext. Zum geistigen Gefängnis wird diese Blindheit, wenn man sich aus politischen Gründen mit den eigenen geschichtlichen Bedingtheiten gar nicht mehr beschäftigen will. Für einen solchen Mangel an Selbstaufklärung braucht es nicht mal eine Maschine. 

Wissenschaft und Gesellschaft

Dabei müsste doch gerade aus einer Gelehrten-Versammlung, die nicht rechts sein will, sondern progressiv, diese Kritik selbst kommen. Denn es handelt sich um eine progressiv-materialistische Kritik. „Das Sein bestimmt das Bewusstsein“, oder etwa nicht? Bei 1bis19 wurde listig gefragt, ob es möglicherweise die Informatikerin war, die die honorige Versammlung daran erinnerte. Sie hatte nämlich einen Vortrag gehalten zum Titel „Weiß die KI, was sie nicht weiß?“– und das sei doch gut marxistisch formuliert! Offensichtlich sei sich die KI ihrer eigenen materiellen Bedingungen nicht bewusst, habe also kein gereiftes Klassenbewusstsein – wie die Gelehrten, die auf der Tagung ebensowenig wussten, was sie nicht wussten.

Stattdessen herrschte die voreingenommene Überzeugung, man habe doch die Verantwortung, die Gesellschaft aus der Wissenschaft heraus aufzuklären. Es fühlte sich drei Tage lang in diesem Raum so an, als ob „die Wissenschaft“ gar nicht zur Gesellschaft dazugehöre und ihre Steuergelder nur fräße, um sich über sie zu erheben. Dieser Sack war nur einmal kurz geöffnet worden, ganz zu Beginn, als sich die Veranstalter beim Bundesministerium für Forschung, Technologie und Raumfahrt für Förderungsgelder bedankten.

Die Maschine ist ein Spiegel der Menschen

Zu einem anderen Ergebnis kam die kleine, vom Bundesministerium für Raumfahrt nachweislich nicht geförderte 1bis19-Versammlung. Sie kam sogar zu einem ziemlich runden Ergebnis – nicht über das Verhältnis von Spekulation und Empirie oder von Wissenschaft und Gesellschaft, sondern über das Verhältnis von Mensch und Maschine in unserer Zeit. Ob es um das Bedürfnis und die Praxis geht, sich im Gespräch gegenseitig durch freundliche Imitation zu begegnen, oder um die Bequemlichkeit, bloß keinen Konflikt, Widerspruch und Kommunikationsabbruch zu riskieren – die mustergültig programmierte Sprache ist ein Spiegel, in der man das Allzumenschliche erkennen kann. Wie ein Vergrößerungsglas zeigt sie überdeutlich: Destruktiv wird das empathische, konstruktiv-spiegelnde Verhalten der Menschen dann, wenn sie nur noch Klischees und Muster reproduzieren und am liebsten in denjenigen Räumen und Sagbarkeitsgrenzen verweilen, wo sie mit unbequemen Irritationen nicht konfrontiert werden.

Und so wurde auch – bei 1bis19, nicht bei den Gelehrten – die Frage nach der Autorschaft noch geklärt: Ein Autor ist und bleibt derjenige, der in seinen Formulierungen und Ideen die Grenzen des Sagbaren, die Muster und Klischees überschreitet. Ein Autor ist und bleibt derjenige, der noch Verantwortung übernimmt, wenn er etwas anderes sagt als das, was Menschen und Maschinen ihm vorgeben. Ein Autor ist und bleibt derjenige, der die Grenzen selbstbezüglich abgeschlossener Räume überwindet. 

Teilen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert