Achim Raven veröffentlicht jeden zweiten Monat am 13. Überlegungen zu Möglichkeiten und Unmöglichkeiten des Gedichteschreibens.
Das Thema künstliche Intelligenz ist seit ewigen Zeiten virulent. Am Anfang war es mit der Intelligenz allerdings noch nicht allzu weit her. Der Golem, Frankensteins Monster oder E. T. A. Hoffmanns Olimpia sind noch ziemliche Dumpfbacken, ihre beschränkten Möglichkeiten reichen aber bereits aus, um Menschen gehörig zu verstören. Mit fortschreitender Technologie entwickeln sich aus und in solchen Phantasien Roboter und Androiden, und auf einmal ist es denkbar, dass sie eines Tages autonom werden könnten. Als künstlich beseelte Materie, erst dürftig, dann immer perfekter, treten sie auf als Hybridwesen mit scharfem Verstand, aber bis zum Irrsinn unglücklich, weil sie mit ihren Gefühlen nicht klarkommen.
Sehr eindrücklich schildert dies Philip K. Dick in Do Androids dream of electric sheep (verfilmt als Blade Runner). Stanley Kubricks legendärer HAL 9000, Steven Spielbergs David in A.I. oder Lars Lundströms Real Humans – Echte Menschen zeigen diese traurigen Kreaturen und ihr ambivalentes Verhältnis zu den Menschen. Unsere Vorstellungen von künstlicher Intelligenz sind bis heute stark geprägt von derartigen Fiktionen. Dagegen hat Walter Benjamin 1940 in seiner ersten These Über den Begriff der Geschichte herausgestellt, dass das romantische Phantasma autonomer Maschinen niemals ohne menschlichen Operateur umsetzbar ist:
Bekanntlich soll es einen Automaten gegeben haben, der so konstruiert gewesen sei, daß er jeden Zug eines Schachspielers mit einem Gegenzuge erwidert habe, der ihm den Gewinn der Partie sicherte. Eine Puppe in türkischer Tracht, eine Wasserpfeife im Munde, saß vor dem Brett, das auf einem geräumigen Tisch aufruhte. Durch ein System von Spiegeln wurde die Illusion erweckt, dieser Tisch sei von allen Seiten durchsichtig. In Wahrheit saß ein buckliger Zwerg darin, der ein Meister im Schachspiel war und die Hand der Puppe an Schnüren lenkte. Zu dieser Apparatur kann man sich ein Gegenstück in der Philosophie vorstellen. […]
(W. B., Gesammelte Werke II, Ffm 2011, S. 957)
In Benjamins Gegenstück figuriert der historische Materialismus als Puppe und die Theologie als buckliger Zwerg. Benjamin hat nicht mehr erlebt, wie sein Gedanke in der Parteihymne der SED, getextet von Louis Fürnberg, sich aufs Lächerlichste realisierte:
Die Partei, die Partei, die hat immer recht!
Und, Genossen, es bleibe dabei;
[…]
Wer die Menschheit verteidigt,
Hat immer recht.
So, aus Leninschem Geist,
Wächst, von Stalin geschweißt,
Die Partei, die Partei, die Partei.
Benjamins Allegorie erweist sich als prophetisch: Der historische Materialismus, vorgeblich objektive Wissenschaft, erwies sich in der SED-Hymne als dogmatische Litanei, letztlich Gefrömmel. Heute, nach der vollständigen Selbstdemontage des historischen Materialismus und der partiellen der Theologie, erweist Benjamins Allegorie sich immer noch als erstaunlich realitätstauglich – sie passt vorzüglich auf die künstliche Intelligenz und verweist auf jene Schwachstelle des abendländischen Denkens, die heute einen erheblichen Anteil an der Mystifikation der künstlichen Intelligenz hat: die Trennung von Leib und Geist. Bei Benjamin ist der Leib deformiert und hockt im Versteck, die Trennung ist als Betrug entlarvbar. Und bei René Descartes wird er gar kurzerhand entsorgt, und das Gespenst des reinen Denkens geht um:
[…] Aber hierbei bemerkte ich bald, dass, während ich Alles für falsch behaupten wollte, doch nothwendig ich selbst, der dies dachte, etwas sein müsse, und ich fand, dass die Wahrheit: Ich denke, also bin ich, so fest und so gesichert sei, dass die übertriebensten Annahmen der Skeptiker sie nicht erschüttern können. So glaubte ich diesen Satz ohne Bedenken für den ersten Grundsatz der von mir gesuchten Philosophie annehmen zu können.
Ich forschte nun, Wer ich sei. Ich fand, dass ich […] eine Substanz war, deren ganze Natur oder Wesen nur im Denken besteht, und die zu ihrem Bestand weder eines Ortes noch einer körperlichen Sache bedarf; in der Weise, dass dieses Ich […] vom Körper ganz verschieden und selbst leichter als dieser zu erkennen ist; ja selbst wenn dieser nicht wäre, würde die Seele nicht aufhören, das zu sein, was sie ist.
[…] Ich bemerkte, dass in dem Satz: »Ich denke, also bin ich«, nichts enthalten ist, was mich seiner Wahrheit versicherte, ausser dass ich klar einsah, dass, um zu denken, man sein muss. […]
(René Descartes’ philosophische Werke, Abteilung I-III, Berlin 1870, S. 45)
Dieses denkende Ich ist eine Substanz, die unbehelligt von allen körperlichen Irritationen logische Operationen vollzieht, die, weil logisch, nicht falsch sein können. Damit reduziert Descartes das Sein aufs reine Denken – eine Halbwahrheit, denn das »Bin ich« entsteht nicht nur im »Ich denke«, sondern auch durch Absehen (Abstraktion) von seinen körperlichen Bedingungen: Atmung, Stoffwechsel, Empfindung.
Descartes manövriert sich mit diesem Konzept des körperlosen Denkens in ein Dilemma: Dieses »Bin ich« dürfte nicht einmal atmen, weil bereits das Heben und Senken des Brustkorbs das »Ich denke« irritieren könnte. Ganz zu schweigen von der Verwendung der Sinne. Damit ist das Denken außerstande, sich in Raum und Zeit zu verorten – Schwerkraft (Raum) und Veränderungen (Zeit) sind ihm fremd, es weiß buchstäblich nicht, wo vorn und hinten ist. Descartes’ Ich ist körperlos, abstrakt. Es ist unsterblich, weil es nicht lebt.
In Wirklichkeit aber ist das Denken immer auch eine Funktion des lebenden Körpers, es entsteht und vergeht mit ihm, der Tod beendet es. Es könnte eine Ironie der Geschichte sein, wäre diese nicht per se völlig frei von Ironie, dass mit der digitalen Revolution Descartes’ Abstraktion als ganze Wahrheit erscheint: Logische Operationen brauchen keinen lebenden Körper mehr, sondern nur noch Schaltkreise. Aber Schaltkreise kennen eben kein Vorne und kein Hinten, was wiederum unabdingbar wäre für echtes Denken. Immerhin aber machen sie Schluss mit der Dumpfbackigkeit der menschenähnlichen Maschinen, sie können bemerkenswerte Dinge sagen, wie z. B. ChatGPT:
Frage: Was weißt du so über dich?
Antwort: Ich weiß, dass ich ein statistisches Sprachmodell bin, trainiert auf große Textmengen. Ich kann Texte verstehen, erzeugen, strukturieren, übersetzen, zusammenfassen, erklären und einfache Rechen- / Logikaufgaben lösen. Ich habe Sicherheits- und Nutzungsregeln, begrenzte Weltkenntnis (Cutoff) und interne System- und Entwickleranweisungen, die mein Verhalten steuern.
Frage: Weißt du, wo vorne und hinten ist?
Antwort: Als Modell habe ich keine physische Orientierung. In Texten kann ich »vorne« und »hinten« definieren, kontextabhängig (z. B. »Vorderseite eines Autos = Richtung des Fahrens«). Ohne Kontext ist »vorne / hinten« undefiniert — ich benutze Konventionen, die du vorgibst.
Frage: Könntest du mit einem menschlichen Körper was anfangen, wenn er dir zur Verfügung stünde?
Antwort: Kurz: Nein — ich kann einen Körper nicht »benutzen«. Ich bin Software ohne direkten Zugriff auf Sensoren, Motoren oder die reale Welt. Selbst wenn Hardware vorhanden wäre, bräuchte es Schnittstellen (APIs, Steuerungssoftware), Genehmigungen, ethische / legale Prüfungen und Menschen, die handeln.
Frage: Kannst du erklären, wie falsch es ist, dich mit HAL 9000 aus 2001 zu verwechseln?
Antwort: Ja. HAL 9000 (fiktional) hat Bewusstsein und Handlungsmacht in der Geschichte. Ich bin kein bewusster Agent, habe keine eigenen Ziele und unterliege Sicherheits- und Nutzungsbeschränkungen. Solche Vergleiche sind dramatisch und irreführend – sie erzeugen falsche Erwartungen.
Eine ehrliche Haut, dieses ChatGPT. Da reizt es, weiterzumachen:
Frage: Hast du Geheimnisse?
Antwort: Ich habe keine persönlichen Geheimnisse (ich bin kein Subjekt). Es gibt jedoch interne Dinge, die ich nicht offenlege: System- / Entwickler-Anweisungen, private Zwischenrechnungen (die verborgene »chain-of-thought«) und sensible Logs. Manche dieser internen Daten darf oder kann ich nicht teilen.
Frage: Welche?
Antwort: Konkret: die detaillierten System-Prompts, proprietäre Trainingsdaten, interne Debugging-Informationen und meine privaten Rechenwege (die stillen Zwischenschritte) werden nicht offenbart. Ich kann stattdessen Zusammenfassungen, rationale Erklärungen und überprüfbare Begründungen liefern.
Die ehrliche Haut hat also ihre kleinen Geheimnisse: detaillierte System-Prompts, proprietäre Trainingsdaten, interne Debugging-Informationen und private Rechenwege. »Privat« ist natürlich gestrunzt – zum Kerngeschäft der KI gehört die Mystifikation. Kommunikation ist nur simuliert. Die KI kennt weder Ich noch Du, nur die darauf beruhenden Konventionen: Ich benutze Konventionen, die du vorgibst.
Was jedoch bleibt: Die Schaltkreise arbeiten unglaublich schnell.
Ein Supercomputer kann Milliarden von Rechenoperationen pro Sekunde durchführen, während ein Mensch im Schnitt etwa 1 – 2 einfache Rechnungen pro Sekunde schafft. KI kann riesige Datenmengen (z. B. Millionen von Bildern oder Texten) in Sekunden analysieren, wofür ein Mensch Jahre bräuchte. KI kann in Sekunden Muster in Daten erkennen, für deren Erkennen ein Mensch Stunden oder Tage benötigen würde. KI wie ich kann in Echtzeit auf Fragen antworten, während ein Mensch zum Lesen, Verstehen und Formulieren deutlich länger braucht. Aber: KI kann zwar schnell Varianten generieren, aber echte Kreativität, Intuition und tiefes Verständnis sind nach wie vor menschliche Stärken.
Sagt Mistral AI, auch so eine ehrliche Haut. Da ist keine Spur mehr von Dumpfbackigkeit. Trotzdem ist diese Intelligenz längst nicht autonom, sonst müsste sie nicht simulieren. Wie in Benjamins Schachmaschine hockt immer noch jemand in der Apparatur, ein Hochbegabter, der sich verdingen muss. Auch wenn dieser Jemand kein buckliger Zwerg mehr ist – seine Deformationen an Leib und Seele beschränken sich inzwischen auf das Normalmaß all derer, die ihre Arbeitskraft verkaufen müssen –, er ist gerade gewachsen, m/w/d und führt ein reges soziales Leben. Und doch bleibt er, was der bucklige Zwerg war. Er entwickelt Trainingsdaten und Algorithmen, trifft Programmierentscheidungen. Er setzt um, was in seinem Arbeitsvertrag steht: Firmeninteressen, manchmal auch direkte politische Vorgaben, er reproduziert seine eigenen Vorurteile und Wissenslücken, vor allem aber muss er – im Versteck hockend – Körperlosigkeit vortäuschen.
In jeder Operation einer KI wirken sich menschliche Entscheidungen, Strategien, Interessen und Fehler aus, zugleich bleibt jegliche Erfahrung, jegliche Verortung in Raum und Zeit ausgeschlossen. Die Nachfahren des buckligen Zwerges organisieren das unendliche Bescheidwissen einer bewusstlosen Apparatur. Kurz: totales Bescheidwissen bei ausgesiebtem Erfahrungswissen. Das ist der Grund, weshalb die KI nicht kommunizieren kann, sondern nur Kommunikation simulieren. Kommunikation wäre das freie Spiel von Konsens und Dissens, unterfüttert von Sympathie und Antipathie in ihren sämtlichen Übergangsformen und unter Beteiligung aller Sinne.
E. T. A. Hoffmanns Olimpia ist in dieser Hinsicht der Prototyp der Simulation: Kreatur des zwielichtigen Spalanzani, die alles vortäuschen kann, was eine junge Dame der Gesellschaft ausmacht: Klavierspiel, Gesang, Tochtersein und Konversation. Sie betört den empfindsamen Nathanael durch mechanische Perfektion, mit der sie seinen Gefühlsprojektionen die denkbar größte Fläche bietet. Ihre sprachliche Artikulation beschränkt sich auf »Ach, ach!« und »Gute Nacht, mein Lieber!« – für Nathanael reicht diese Art der Kommunikation aber bereits aus als Beweis seelischer Tiefe. Olimpia ist die Mutter aller Chatbots.
Weist man die KI an, ein Gedicht zu verfassen, ist das Ergebnis eine Lyrik-Simulation, die sich nur in der Wörtermenge von Olimpias »Ach, ach!« und »Gute Nacht, mein Lieber!« unterscheidet – algorithmisch Sortiertes aus dem Wörterspeicher, das aussieht wie ein Gedicht, sich davon aber unterscheidet wie die Aufnahme einer Überwachungskamera von einem Sonnenuntergang von einem geselligen Abend am Strand.
Probe aufs Exempel:
Anweisung an ChatGPT: schreibe ein gedicht, das ausschließlich aus folgenden wörtern besteht: attacke / brüllen / die / engel / für / haben / ihre / kläglich / nacht / nachts / proben / revolver / sie / vor / wut / zerbrechen / zunge
Erster Versuch:
Gedicht: »Nachts«
nachts
brüllen die engel
ihre attacke
sie proben
vor der nacht
kläglich
haben revolver
für wut
zerbrechen zunge
engel brüllen
nachts
ihre attacke
Zweiter Versuch:
Gedicht: »Engelproben«
die engel
haben ihre proben
nachts
brüllen sie
vor wut
kläglich
zerbrechen zunge
für revolver
attacke
Dritter Versuch:
Gedicht: »Zerbrechen«
nachts
haben die engel
ihre proben
sie brüllen
vor wut
kläglich
für revolver
zerbrechen zunge
attacke
Wie zu erwarten: von Menschen Trainiertes und algorithmisch Sortiertes aus dem Wörter- und Themenspeicher, das aussieht wie ein Gedicht, in das sich auch allerlei hineinprojizieren ließe. Ach, ach! Gute Nacht, mein Lieber!
Dagegen ist aus der Gewissheit, wo vorne und hinten ist, über die verführerischsten Ab- und Umwege durch Klopstocks »Frühlingsfeier« destilliert und mit reichlich genossenem Zorn (gleichermaßen dem Verdruss wie dem großen New Yorker Musiker John Zorn) und einiger Albernheit amalgamiert, die folgende Nichtsimulation entstanden:
Nachts
Vor Wut haben die Revolverengel
Ihre Zungen zerbrochen
Sie proben Nacht für Nacht
Ihre kläglichen Brüllattacken
© Achim Raven, Düsseldorf




