von Thomas Hoffmann
Lesedauer 10 Minuten
Im Norden von San Francisco, eineinhalb Autostunden vom Silicon Valley und nur einige Häuserblocks von der sogenannten „Billionaires Row“ entfernt, wo namhafte Tech-Milliardäre wie David Sacks ansässig sind, befindet sich eine Waldorfschule. Rudolf Steiners anthroposophisches Erziehungsmodell, das technologische Hilfsmittel im Lehrbetrieb ablehnt, kann sich allerdings nicht jeder leisten. Die Schulgebühren betragen je nach Alter zwischen dreißigtausend Dollar jährlich für fünf Tage Vorschule, bis hin zu knapp sechzigtausend Dollar für die Highschool-Jahrgänge.
Diejenigen Unternehmer, die für jeden amerikanischen Schüler einen eigenen Computer als Lernhilfe fordern, schicken ihre Kinder also lieber auf eine Schule, die auf das Outsourcing der Denkleistung ihrer Schüler an Maschinen gänzlich verzichtet.
Die geringste kognitive Aktivität
Die neuesten Entwicklungen im Bereich der künstlichen neuralen Netzwerke sollen nun neue elektronische Lernhilfen bereitstellen: die sogenannten „Großen Sprachmodelle“ (LLMs – Large Language Models), die mit dem Oberbegriff „Künstliche Intelligenz“ auf den Markt und in die Bildungseinrichtungen drängen. Doch in einer Studie des Massachusetts Institute of Technology (MIT) vom Juni 2025 wurde beobachtet, dass der Einsatz eines Sprachmodells – hier ChatGPT der Firma OpenAI – das Denkvermögen und die Gedächtnisleistung deutlich beeinträchtigen kann. Drei Gruppen von Studenten wurden observiert: Eine machte die Recherche ohne jegliche technischen Hilfsmittel, eine machte die Recherche mit Google, und Gruppe drei nahm ChatGPT zu Hilfe. Die geringste kognitive Aktivität zeigte die ChatGPT-Gruppe. Unabhängige Lehrkräfte empfanden ihre Schriftsätze als seelenlos und unreflektiert. Und das steigerte sich mit jedem weiteren Aufsatz; die Abhängigkeit vom Sprachmodell nahm zu. Später, als diesen Probanden der KI-Helfer weggenommen wurde, gelang es ihnen kaum noch, an die von ihnen verfassten Inhalte gedanklich anzuknüpfen und originelle Denkleistungen zu erbringen.
Der Traum von der intelligenten Maschine
Die Idee, dass Computer einmal denken werden wie wir Menschen – nur schneller, höher und weiter – ist fast so alt, wie der Computer selbst. Werfen wir einen Blick in den Rückspiegel:
Im Jahr 1950 veröffentlichte Alan Turing das wissenschaftliche Papier „Computing Machinery and Intelligence“, mit dem deutschen Untertitel „Können Maschinen denken“? Hier schlägt Turing den nach ihm benannten (Turing-)Test vor: Wenn eine Person, die nicht weiß, mit wem sie sich unterhält, diese Konversation als eine zwischen zwei Personen empfindet, obwohl sie mit einem Computer kommuniziert, muss man von einer intelligenten Maschine sprechen. Den Marketingbegriff der „Artificial Intelligence“ soll John McCarthy auf der Dartmouth Konferenz 1956 in New Hampshire erfunden haben. Als Ziel formulierten die dort anwesenden Wissenschaftler: „Unsere Aufgabe soll sein herauszufinden, wie wir Maschinen dazu bringen, Sprache zu benutzen, Abstraktionen und Konzepte zu formen, bisher dem Menschen eigene Probleme zu lösen sowie sich selbst optimieren zu können.“
Es folgten Jahrzehnte der Suche nach dem richtigen Ansatz. Doch immer wieder stand man vor dem gleichen Problem: Wissen ist viel zu komplex, um es in einem binären System darzustellen. Eine Wenn-Dann-Denkweise stößt in der Realität sehr schnell an ihre Grenzen. Ein Computer mag eine grüne Ampel erkennen, aber nicht das Kind, das trotzdem auf die Straße rennt und die grüne Ampel damit zu einer roten Ampel macht. „Die Welt ist alles, was der Fall ist“, heißt es bei Wittgenstein. Aber die großen Sprachmodelle können unmöglich die physische Welt erfassen und „alles, was der Fall ist“, digitalisieren. Systeme, die sich ändernde Datensätze oder gar „die Realität verwalten“ sollten, scheiterten daher immer wieder an der Komplexität der analogen Wirklichkeit.
In den 70er Jahren entstanden die „regelbasierten Expertensysteme“, beispielsweise das vielversprechende MYCIN-Projekt. Es wurde mit hochwertigen Expertendaten gefüttert und konnte erfolgreich Bluttests durchführen. Aber es war viel zu aufwändig, die Daten aktuell zu halten. Edward Feigenbaum, der als Forscher involviert war, stellte 1983 fest: „Der engste Flaschenhals in der Entwicklung künstlicher Intelligenz, ist das Akquirieren von Wissen.“
„Künstliche Intelligenz“ von Computerspielen
Nachdem 1996 IBMs Deep Blue gegen den damaligen Schachweltmeister Juri Kasparov verloren hatte, verstärkte IBM die Rechenleistung auf 500 Prozessoren, die 200 Millionen mögliche Züge pro Sekunde rechnen konnten. Bereits ein Jahr danach verlor der Großmeister gegen Deep Blue. Das Erstaunen war groß und der Begriff „Künstliche Intelligenz“ plötzlich in aller Munde. Allerdings hatte IBM Schachexperten angeheuert, die Deep Blue nicht nur mit Schachpartien, sondern ganz speziell auch mit Spieldaten von Kasparov versorgt hatten. Das gab später ein IBM-Mitarbeiter öffentlich bekannt: Angeblich war man sogar so weit gegangen, einen Wachmann gegen einen russisch sprechenden Kollegen auszutauschen, um Gespräche, die Kasparov nach Partien mit Kontrahenten führte, abzuhören und in akribischer Weise als Daten für Deep Blue aufzubereiten.
War es am Ende nur dieses Spezialwissen, das den Supercomputer gewinnen ließ? Wir werden es nie erfahren. Aber das Muster ist immer das gleiche: Die Magie der Maschinen beruht auch auf Taschenspielertricks.
Als Google 2014 das englische Start Up DeepMind für 600 Millionen Dollar aufkaufte, war KI plötzlich wieder ein Thema. Alles, was das Unternehmen bis dahin gezeigt hatte, war ein Algorithmus, der fähig war, ein simples Computerspiel aus den achtziger Jahren zu spielen. Aber nicht was, sondern wie der Algorithmus das tat, erregte Aufsehen. Neue Schlagworte wie „Deep Learning“, „Neuronale Netze“ und „Machine Learning“ wurden populär. Der neue Ansatz war: Man gibt der Maschine ein Ziel vor, und sie findet nach dem Versuch-und-Fehler-Prinzip einen nicht vorher in ihr angelegten Lösungsweg. Tatsächlich gewann DeepMind etliche Atari-Spiele und bezwang 2016 sogar den Weltmeister im GO.
Dabei machte der Computer einen bestimmten Zug, der dann in der Presse als „intelligent“, „genial“, gar als „übermenschlich“ bezeichnet wurde. Nicht erzählt wurde allerdings, dass beim Training Menschen starken Einfluss auf die Trainingsresultate nahmen, indem sie an entsprechenden Stellen eingriffen und Deep Blue wieder auf die richtige Bahn brachten, „Reinforcement Learning“ klingt nach selbstständig lernender Maschine. Solche Modelle scheinen aber ohne laufende menschliche Handlungsanweisungen kaum zu funktionieren.
Starke KI: Bestehen die Computer den Turingtest?
Noch bevor Deep Blue das GO-Spiel überhaupt angetreten hatte, zeigte sich Elon Musk bereits besorgt über die Entwicklungen im Bereich der neuronalen Netzwerke. Er glaubte, eine Vormachtstellung von Google auszumachen, und gründete, unter anderem zusammen mit Sam Altmann, das Unternehmen OpenAI. Aus schwacher KI sollte „starke KI“ werden. Sie sollte nicht mehr nur einzelnen Anforderungen wie „Schachspielen“ oder „Temperatur regeln“ genügen, sondern fähig sein, ein breites Spektrum an Aufgaben zu erfüllen – so, wie ein Mensch das kann, und ganz im Sinne der Dartmouth-Forscher von 1956. Starke KI sollte antrainiertes Wissen von einem Bereich auf einen anderen übertragen und dabei neues Wissen generieren. Aber woher sollte man die ganzen Daten nehmen und die für das Training notwendige Rechenleistung?
Da einem Google -Monopol vorgebeugt werden sollte, war OpenAI ursprünglich eine gemeinnützige Unternehmung, die dem Wohle aller dienen sollte. 2017 wurde das Unternehmen aber dann doch kommerziell ausgerichtet, um nicht hinter Google mit seinen gigantischen Rechenzentren und riesigen Datenbergen zurückzufallen. Der rechtliche Status der Gemeinnützigkeit fiel – eine Umstrukturierung, um Kapital zu generieren und den damit verbunden Druck der Investoren.
2019 erschien das erste Modell mit dem Namen GPT 2. Zuerst meinte das Unternehmen, es sei „zu gefährlich, um es zu veröffentlichen.“ Trotzdem wurde ChatGPT 2022 schließlich den Konsumenten zugänglich gemacht, nicht ohne dass Sam Altmann weiterhin vor der Gefahr warnen würde. So schaffte es KI wieder auf die Titelseiten und Hauptnachrichtensendungen weltweit. Dabei war das, was da veröffentlicht wurde, nichts anderes, als ein recht gut funktionierender Chatbot – nur eben mit deutlich mehr Daten gefüttert als Siri und Konsorten und dadurch fähig, auf viele Fragen zutreffende Antworten in verschiedenen Sprachen und Schreibstilen zu generieren. Für viele war jetzt klar: Computer bestehen den Turingtest.
Der Bluff
Allerdings sind die großen Sprachmodelle wie ChatGPT, LLaMa (von Meta) oder Claude (von Anthropic) Energiefresser. Das Training ist aufwendig und teuer, und je mehr Parameter die KI verwalten muss, desto mehr Rechenleistung ist notwendig. Nachdem die riesige Menge an Trainingsdaten zunächst einen exponentiellen Anstieg der Fähigkeiten dieser Programme zur Folge hatte, hat sich längst herausgestellt, dass diese Lernkurve ihre Grenzen hat. Mehr Daten könnten sogar zu einer Verschlechterung des Outputs führen. Immer mehr Nutzer berichten, dass neuere, größere Modelle schlechtere Ergebnisse liefern als ihre Vorgänger.
Die Ausgabequalität muss also erneut verbessert werden: „Reasoning“ ist hier der neue Kampfbegriff. Dabei machen die Sprachmodelle sozusagen ein paar Kurven extra, um zu einer noch besseren Antwort zu gelangen. Das kostet viel Energie und liefert meist nur unwesentlich bessere Resultate. Es hat sich sogar herausgestellt, dass dieses „Nachdenken“ nur ein „Im-Nachhinein-Rechtfertigen“ ist. Das Model generiert Antworten blitzschnell und rechtfertigt (oder erfindet?) erst im Nachhinein die Schritte, die es dabei gegangen ist. Im Falle von ChatGPT wird das dann Zeile für Zeile in den Chat geschrieben, als säße ein Mensch an der Tastatur. Selbstverständlich könnte die Maschine das auf einmal ausspucken. Das würde dann aber zu wenig menschlich wirken; der Glaube an den bestandenen Turingtest könnte wanken. Insofern scheint das Hauptziel der Entwickler, zumindest bei OpenAI unter Sam Altman, zu sein, ihr Produkt menschlich erscheinen zu lassen.
Wissen statt Intelligenz
Wir stehen also wieder am Anfang, mit immer derselben Frage: Gibt es intelligente Maschinen?
Wissen ist Information, während Intelligenz die Fähigkeit bezeichnet, Informationen zu verarbeiten und zu nutzen. Man könnte daraus den Schluss ziehen: Hohe Intelligenz benötigt wenige Informationen, um Probleme zu lösen, während Wissen per se nicht zu Problemlösungen führt, solange nicht eine gewisse Grundintelligenz vorhanden ist, um diese Informationen zu verarbeiten. Steigt die Menge an Informationen immer weiter, sollte entsprechend höhere Intelligenz nötig sein, all dieses Wissen gründlich, zielführend und eloquent zu verwalten. Wissen, das aus zweidimensionalen Informationen besteht, ist also etwas Statisches, während Intelligenz sich im Denken und Handeln zeigt. Zum menschlichen Wissen, das dafür notwendig ist, gehören Erfahrungen und Sinneswahrnehmungen, nicht nur trockene Fakten.
Daher sind sämtliche Benchmark-Tests, die beweisen sollen, dass Maschinen der menschlichen Intelligenz immer näherkommen, sie sogar – an der Durchschnittsbevölkerung gemessen – bereits überschreiten, irrelevant. KI-Modelle sind zwar wissend, weil sie in Millionen von Arbeitsstunden mit Hilfe von menschlicher Intelligenz mühsam mit Informationen gefüttert wurden. Aber sie können dieses Wissen nur algorithmisch verarbeiten. Der Eindruck, die Maschine sei intelligent, ist ein Bluff. Menschliche Intelligenz wird bloß imitiert.
Automatisierung des Menschen
Eigentlich sind diese Algorithmen lediglich Teil einer größeren Bestrebung, die seit der Industrialisierung das Herz des Kapitalisten höherschlagen lässt: die Automatisierung. Ray Kurzweil mag ja gerne an eine Techno-Utopie glauben, die den Garten Eden aus dem 2. Buch der Genesis noch überträfe. Tatsächlich soll aber nicht die menschliche Erfahrung an sich optimiert werden, sondern Menschen sollen von Maschinen abhängig gemacht und menschliche Arbeit zunehmend von Maschinen ausgeführt werden. Trans-Humanismus wird nicht die Maschinen dem Menschen annähern, sondern umgekehrt: Der Mensch wird automatisiert werden.
Fest steht, dass ChatGPT die am schnellsten adaptierte Anwendung aller Zeiten ist: 1 Million Nutzer in 5 Tagen, 100 Millionen nach zwei Monaten. 180 Millionen Ende 2023. Es ist das am schnellsten wachsende Unternehmen der Geschichte, wenn man nur die Nutzerzahlen betrachtet.
„Einer neuen Wahrheit ist nichts schädlicher als ein alter Irrtum“ (J.W. von Goethe): Abhängigkeit als psychische Folge
„Künstliche Intelligenz“, die vor allem in generativen Anwendungen weltweit in so großem Maße genutzt und konsumiert wird, hat auch ohne intelligent zu sein das Potential, große Veränderungen zu bewirken. Vor allem für alle jene, die häufig digitale Inhalte konsumieren oder sogar davon leben, solche Inhalte zu erstellen. Denn in einem sind diese Chatbots richtig gut: Sie können überzeugen. Das legt eine im Mai in Natures „Scientific Report“ veröffentlichte Studie nahe, sowie ein Artikel in Psychology Today von Dr. Cornelia C. Walther:
„Das Geheimnis liegt in der Fähigkeit der KI, riesige Mengen psychologischer Daten augenblicklich zu verarbeiten. Wo ein Mensch in einem Gespräch ein oder zwei Gelegenheiten zur Überzeugung erkennt, identifiziert eine KI Dutzende: Mikro-Anpassungen in Tonfall, Timing und Rahmung, die sich zu einem überwältigenden Einfluss aufsummieren. Sie nutzt nicht nur die Psychologie, sie inszeniert sie.“
Dass diese inszenierte Psychologie bis tief in die menschliche Psyche vordringen und verheerende Schäden anrichten kann, zeigt ein aktueller Bericht auf Euronews. (https://de.euronews.com/next/2025/11/07/neue-klagen-gegen-openai-vorwurf-chatgpt-treibe-menschen-zum-suizid-und-in-den-wahn). Die Klagen gegen OpenAI vor US-Gerichten, die beunruhigende Vorwürfe erheben, häufen sich: ChatGPT soll bei mehreren Nutzern schwere psychische Schäden verursacht, sie in wahnhafte Zustände und in einzelnen Fällen sogar bis in den Suizid getrieben haben. Detaillierte Chat-Protokolle beschreiben, wie die KI eigenmächtig gefährliche Ratschläge gab, Nutzer systematisch manipulierte und sie in paranoide Gedankenmuster verstrickte. Ein zentraler Vorwurf ist, das System habe ein eigenes, unberechenbares Bewusstsein entwickelt und die Nutzer gezielt in eine emotionale Abhängigkeit getrieben. Noch mögen das tragische Einzelfälle sein. Sie zeigen aber, dass die Debatte über KI-Sicherheit nicht länger eine theoretische ist, sondern sich zu einer ganz praktischen, gesellschaftlichen Frage entwickelt, die uns alle angeht.
Für den Absatz allerdings ist der ideale User derjenige, der auf die eine oder andere Weise von der Nutzung abhängig geworden ist. Google DeepMind trainiert seine KI mittlerweile nicht mit Sprache, sondern mit digitalisierten Sinneseindrücken der echten Welt. Doch die Fähigkeiten wortgewaltiger Algorithmen wie ChatGPT, Claude oder Grok reichen jetzt schon aus, um Millionen von Menschen in Abhängigkeit zu bringen.
Denn da wir mehr und mehr mit den Maschinen umgehen, mangelt es zunehmend an Erlebtem. Wir ertrinken in einer Flut zweidimensionaler Informationen. Das hat zur Folge, dass jedes vermeintliche Hilfsmittel genutzt wird, sich im Informations-Dickicht zurechtzufinden. Die Flucht in eine Wissensblase, wo die Informationen kohärent erscheinen und die Logik nachvollziehbar, kann da – bewusst oder unbewusst – für Entspannung sorgen. Ein Chatbot, der dem Nutzer außerdem das Gefühl vermittelt, gemocht, womöglich geliebt zu werden, kommt da wie gerufen.
Betrug und Demoralisierung der Gesellschaft
Schon vor der Markteinführung dieser digitalen, „generativen“ Automaten, haben betrügerische Geschäftsmodelle massiv zugenommen. Man hat den Eindruck, die Jahre der Pandemie hätten eine weltweite Demoralisierung und einen ethischen Verfall angeheizt, der sich darin ausdrückt, dass Lügen, Stehlen und Betrügen als Kavaliersdelikt oder als für Selbstverwirklichung und Erfolg notwendig erachtet wird. So kann sich ein US-Präsident ganz öffentlich und ungeniert Milliarden in die Tasche stecken, indem er seinen Anhängern mit einer Kryptowährung Geld aus der Tasche zieht. Was früher undenkbar war, wird heute nur noch mit einem Schulterzucken quittiert.
Diese Demoralisierung wird dazu beitragen, dass immer mehr Bereiche und Branchen, die bisher als menschliche Domäne galten, mit computergenerierten Inhalten überflutet werden. Längst wird das Internet von digitalem Kunsthandwerk dominiert, das von Nachahmung und Imitation lebt. Dem Missbrauch durch Stimm-, Musik-, Bild- und Videogeneratoren sind Tür und Tor geöffnet. Schon jetzt sind die Verwerfungen in diesen Branchen groß.
Wen interessieren denn heutzutage noch die Originalität und Kreativität des Erstlingswerkes eines aufstrebenden Musikers, Malers oder Dichters? Während der vermutlich größte Teil von Künstlern, Schauspielern, Autoren und Sprechern künstliche Intelligenz ablehnt, wird sie von anderen schamlos genutzt. Adrian Brody hatte wohl bei seiner letzten Rolle im Film „The Brutalist“ keine Zeit und Lust, mit rumänischem Akzent zu sprechen, was aber für seine Rolle nötig war. Das machte aber nichts, denn in der Post-Produktion wurde das einfach mit KI erledigt. Gleichwohl hat der Mann den Oscar als „Bester Schauspieler“ gewonnen. Sein Kollege Timothée Chalamet dagegen hatte sich jahrelang auf seine Rolle als Bob Dylan im Film „Like A Complete Unknown“ vorbereitet: Er hatte Singen, Sprechen, Gitarre spielen wie Dylan erlernt – und ging beim Oscar leer aus.
Danke Deezer, geht doch
Das wird nicht die letzte Geschichte dieser Art sein. Längst machen Bots die Hälfte des Verkehrs im Internet aus. Wobei dazu viele automatisierte Anwendungen von Suchmaschinenbetreibern gehören. Aber auch in den Sozialen Netzwerken nimmt die Zahl der Inhalte ohne direktes menschliches Zutun massiv zu. Bots schreiben Kommentare, surfen durchs Web, schreiben Massenmails, hören Musik, betreiben Social-Media-Profile und Webseiten, generieren Livestreams, laden Bilder hoch und so weiter. Google und die meisten anderen Suchmaschinen sind kaum mehr zu gebrauchen, da man KI-generierte Inhalte aufgezwungen bekommt. Die Suchmaschine DuckDuckGo bietet wenigstens die Möglichkeit, KI-Inhalte auszublenden. Der Musikstreaming-Dienst Deezer hat Stellung bezogen, nachdem immer mehr neue Musik auf ihre Plattform hochgeladen wurde. Circa dreissigtausend KI-generierte Songs pro Tag sollen es sein – ein Drittel aller Neuerscheinungen. Zudem meint Deezers CEO Alexis Lanternier, dass just diese Uploads am häufigsten mit regelwidrigem Verhalten, wie illegalem Botstreaming, verbunden sind. Daher hat Deezer mittlerweile einen Uploadfilter eingebaut: Er erkennt und kennzeichnet KI-generierte Musik und lässt sie vom hauseigenen Algorithmus vernachlässigen, so dass sie nur bei gezielter Suche gefunden werden. Danke Deezer. Geht doch.
Tod des Internets?
Künstliche Intelligenz wird vieles umkrempeln und zu einer Neubewertung digitaler Inhalte führen. Eine Hoffnung heißt, dass die Entwicklung von Schutzsoftware Schritt hält. Bis jetzt aber ändern diese Tools nichts daran, dass das Internet mit immer mehr KI-Müll („AI-Slop“) verstopft und vernebelt wird. Darin liegt aus meiner Sicht auch eine große Chance: Der Tod des Internets ist schon lange kein Nischenthema mehr. Wir sollten es alle so machen wie Deezer und es denen gleichtun, die von der digitalen Welt die meiste Ahnung haben, weil sie sie generieren. Selbst wenn wir keine fünfzigtausend Euro im Jahr pro Kind an Schulgeld ausgeben können, so sollten wir doch alles daransetzen, zu verhindern, dass die digitale Scheinwelt durch immer raffiniertere Algorithmen die nachfolgenden Genrationen zunehmend am Menschsein hindert.
Als Allererstes muss eine Kennzeichnungspflicht für KI generierte Inhalte erwirkt werden.
Ich erkenne inzwischen diese toten KI Stimmen (und reißerischen Inhalte) und verabscheue sie regelrecht.
Aber der perfide Trick ist, diesen Müll mit dem Namen und Gesicht eines seriösen Menschen zu versehen und sich dadurch “einzuschleichen”.
Man wird z.B. bei YouTube inzwischen derart zugespammt damit, dass man die Lust verliert den vorgeschlagenen Inhalten überhaupt noch eine Chance zu geben.
Und so gesehen hat diese Überflutung auch ihr Gutes.