Maschinelle und organische Prozesse
Im technischen Zeitalter begegnen uns immer ausgefeiltere Imitationen des Menschlichen oder zumindest Geräte, die Teilaspekte menschlichen Tuns, wie zum Beispiel Rechnen, Sprachverarbeitung oder das Ausführen von Befehlen mit großer Effizienz erledigen können. Es ist eine viel diskutierte Frage, ob es eine bestimmte Stufe von Selbstorganisation und Komplexität gibt, auf der auch bei Systemen, die keine natürlichen Eltern haben, nicht geboren werden und nicht sterben, keine mit unseren vergleichbaren Organe haben und über keinen echten Stoffwechsel verfügen (lediglich Energie verbrauchen) — kurz: die nicht lebendig sind — dennoch so etwas wie Denken, Wahrnehmen und Bewusstsein entstehen kann. Oder handelt es sich bei so einer Annahme nur um eine fortgeschrittenere Version des kindlichen Glaubens an die beseelte Puppe?
Schon viele Jahrzehnte vor den Anfängen der so genannten Künstlichen Intelligenz haben Science-Fiction-Autoren nicht-menschliche Subjekte postuliert, die sich von den Programmen ihrer Schöpfer loslösen und eine Art eigenen Willen oder ein „Ich“ entwickeln — sei es in Form von androiden Robotern (zuerst in den Erzählungen von Isaac Asimov) oder als bloße Computersysteme wie der Bordcomputer HAL im Film 2001: Odyssee im Weltraum (Arthur C. Clarke).
Die Frage, wie und warum Bewusstsein entsteht, lässt sich in Bezug auf Maschinen nur schwer beantworten — zumal wir noch nicht einmal eindeutig geklärt haben, welcher Grad an Bewusstheit Individuen der verschiedenen Reiche des Lebendigen verglichen mit unserem eigenen überhaupt zukommt.
Selbstbezug und Spontaneität
Lebendige Wesen entstehen „von selbst“ — werden nicht von uns gemacht — und existieren um ihrer selbst willen; sie streben nach Selbsterhaltung. All dies trifft auf die von uns geschaffenen Geräte nicht zu und mögen sie noch so komplex und kunstvoll konstruiert und programmiert sein. Sie sind für uns da und nicht für sich selbst. Sie haben keinen Selbsterhaltungstrieb; sie sind lediglich von uns so gestaltet, dass sie sich in ihrem Betrieb möglichst nicht selbst zerstören — so wie ein Verbrennungsmotor sich laufend selbst ölt, weil er sonst nach kurzer Zeit kaputtginge.
Doch schließt dieses Geschaffensein der Maschinen ein Bewusstsein nicht kategorisch aus. Schließlich glauben auch viele Menschen, sie seien von Gott geschaffen und schreiben sich dennoch Individualität und Freiheit zu.
Wenn Yuval Noah Harari seinen künftigen transhumanen Menschen den „Homo Deus“ nennt, dann lässt sich das doppelt verstehen: Durch die vermeintliche Selbstvervollkommnung dank der „Singularität“ — in der Verschmelzung von Mensch und Technik — erwerben die Menschen einerseits immer größere Fähigkeiten: sie gleichen den Göttern und Titanen alter Mythen und Sagen (was wir mit noch außerkörperlichen technischen Hilfsmitteln teilweise schon längst erreicht haben). Andererseits aber erhebt sich der Mensch selbst zum Gott, indem er „intelligente“ Wesen erschafft.
Dabei ist aber auch zu berücksichtigen, dass sich die Theologie des Widerspruchs zwischen Erschaffensein — beziehungsweise göttlicher Allmacht — und Freiheit durchaus bewusst ist und hier nach Erklärungen ringt. Eine davon lautet etwa, dass Gott den Menschen absichtlich als Prüfung im Diesseits mit einem freien Willen ausgestattet habe, auf dass er sich gewollt für oder gegen seinen Schöpfer entscheiden könne. Ich wüsste nicht, dass es je einem Programmierer gelungen wäre, ein Computersystem zu erschaffen, das sich nicht nach dem Zufallsprinzip (was wiederum Teil des Programms wäre), sondern spontan — aus einem eigenständigen „Charakter“ heraus — für oder gegen eine bestimmte Programmierung entscheiden könnte.
So wie wir im technischen Zeitalter nach der Möglichkeit von Bewusstsein in von uns geschaffenen Maschinen suchen, tendieren wir umgekehrt dazu, uns selbst nach dem Modell unserer neuesten Erfindungen zu verstehen — konkret als fleischliche „Hardware“, auf der Denken und Informationsverarbeitung im weiteren Sinne als bestimmte „Software“ laufen. Diese Tendenz ist ja bekanntlich schon sehr alt und hat in praktisch jedem Zeitalter die ihr entsprechende Form angenommen. Descartes vergleicht tierische und menschliche Körper explizit mit den Automaten, die geschickte Tüftler zu seinen Lebzeiten konstruiert haben mit dem Unterschied, dass der Leib „aus den Händen Gottes kommt und daher unvergleichlich besser konstruiert ist und weit wunderbarere Getriebe in sich birgt als jede Maschine, die der Mensch erfinden kann (1)“.
Das Bewusstsein als „Software“
Dieses Menschenbild begegnet uns sowohl in der Populärwissenschaft als auch in der Alltagssprache. Sich zu regenerieren heißt dann, seine „Akkus aufladen“, das Erinnern wird zum „Abspeichern“ auf unserer „Festplatte“, beim Problemlösen stehen unsere neuronalen „Algorithmen“ zwischen Input und Output. Es scheint fast eine ausgemachte Sache, dass unser Geist nicht viel mehr ist als ein sehr fehleranfälliger und langsamer Prozessor aus organischem Material.
Natürlich spiegelt sich diese Weltsicht auch in der populären Kultur wider, eindrucksvoll zum Beispiel in der Britischen Netflix-Serie Black Mirror. Dabei handelt es sich nicht um eine Serie mit einheitlicher Handlung — sondern eher wie bei einer Krimiserie — um eine Sammlung von handlungsmäßig voneinander ganz unabhängigen Folgen, die aber durch ähnliche Themen und Motive verbunden sind.
In vielen meist dystopischen Folgen geht es — ähnlich wie im Film Matrix — um virtuelle Realitäten, die so echt erscheinen, dass sie zur eigentlichen subjektiven Realität geworden sind. Ein verwandtes Motiv ist das der Objektivierbarkeit subjektiven Erlebens: Erfahrungen lassen sich — einer Videodatei gleich — als Datensätze speichern, auslesen, kopieren, übertragen oder löschen.
Eingeführt wird dieses Motiv in der ersten Staffel durch die Episode The Entire History of You. Darin zeichnet ein hinter dem Ohr eingepflanzter Chip sämtliche Wahrnehmungen als eine Art Videodatei auf. Mittels eines kleinen Gerätes kann ich mir beliebige Ausschnitte entweder selber vorspielen oder sie für andere sichtbar auf einen Bildschirm übermitteln. Zwar lassen sich Sequenzen auch löschen — doch genau das weckt in bestimmten Situationen Misstrauen, etwa bei einer Sicherheitskontrolle am Flughafen oder in einer Beziehungskrise. In der Folge sehen wir, wie diese Technologie zunächst ähnlich einem Videoschiedsrichter für Klarheit und Objektivität zu sorgen scheint, aber nach und nach immer zerstörerischere Wirkungen entfaltet.
Der Titel der Serie verweist auf eine gängige Seelen-Metapher als dem Spiegel der Welt; „Schwarz“, so ließe sich mutmaßen, ist der Spiegel hier angesichts des dystopischen Moments, dass sich nämlich die gar so nützlichen Erfindungen am Ende stets gegen ihre Nutzer wenden.
Die Spiegelmetapher ist ein gutes Beispiel für eine Darstellung, die dann zu Irrtümern führt, wenn man vergisst, dass sie eine Metapher, ein bloßes Modell ist. In der Spiegelung kann man mindestens zwischen vier Elementen unterscheiden: Dem Urbild, dem Spiegelbild, dem Spiegel als dem zwischen beiden vermittelnden Medium sowie dem Betrachter des Spiegelbildes. Charakteristisch für viele Fehldeutungen des Bewusstseins ist, dass in diesem Modell so etwas wie eine unmerkliche Verdopplung des Subjekts stattfindet, nämlich in ein objektiviertes Subjekt und ein verborgenes eigentliches Subjekt. Das Subjekt erscheint verdinglicht als Spiegel der Welt und zugleich als ein verborgenes Ich außerhalb davon — als Betrachter. Um diese Rolle zu verstehen, müssen wir uns aus der missverständlichen Dopplung lösen und hinwenden zur eigentlichen subjektiven Wirklichkeit:
Das biografische Gedächtnis — die Summe alles Erlebten und Erlernten, die mich zu einem konkreten Ich macht, das sich von anderen unterscheidet — es bildet ein Sinngefüge aus Personen, Dingen, Orten, Bedeutungen, Assoziationen, Bewusstseinshorizonten. In gewisser Weise ähnelt es eher einem Buch als einem Film und doch unterscheidet es sich ganz wesentlich von beiden. Denn Buch wie Film sind beides Objekte, die nicht nur bezogen auf ein bestimmtes Subjekt existieren, sondern grundsätzlich von jedermann gelesen bzw. angeschaut werden können (wobei jeder Rezipient ihm eine andere Bedeutung verleiht).
Meine Erfahrung hingegen — also das Bewusstsein, das sich in Vergangenheit und Zukunft erstreckt — ist kein Objekt, sondern der Inhalt eines Bewusstseins. Sie ist stets auf das Subjekt der Vorstellung bezogen. Sich nun dieses Verhältnis zwischen Subjekt und seiner Vorstellungswelt vorzustellen — es gleichsam „von außen“ zu betrachten — dabei aufgrund seiner narrativen und sequenziellen Struktur eine Analogie zu einem Buch oder einem Film zu erkennen, sodann vom Subjekt zu abstrahieren, als handele es sich tatsächlich nur um eine Art Objekt, durch das ich es veranschaulichen wollte: Genau dies ist ein typischer Fall der heute in der Wissenschaft so verbreiteten „Subjektvergessenheit“(2) und stellt einen so genannten „objektivistischen Fehlschluss“ dar.
Erleben ist als Korrelat eines Ichs kein Objekt
Wir können das erlebte Leben als biografisches Buch oder als Film objektivieren, es so kommunizierbar machen — doch es bleibt notwendig etwas grundsätzlich anderes.
Das biografische Gedächtnis, das konkrete Ich, existiert jeden Moment in der Gegenwart. Es lebt im Jetzt, aber erstreckt sich jedoch — durch Erinnerung und Vorausschau — immer mehr oder weniger stark in die Vergangenheit und die Zukunft. Es besitzt also einen zeitlichen „Horizont“; und ändert sich unablässig von Augenblick zu Augenblick. Anders als seine möglichen Objektivierungen hat es keinen festen Bestand. Das kennt jeder aus eigener Anschauung, die allmählich verblassenden Erinnerungen, die durch immer neue Erfahrungen überlagert werden.
Mein Bewusstsein besteht gar nicht aus Bildern, Klängen und anderen Empfindungen, sondern aus Sinnzusammenhängen und Sinngebungen, also aus Bedeutungen. Wenn ich etwa an die Begegnung mit einem Menschen denke, frage ich mich: Wo und wann geschah das? Was bedeutet mir dieser Mensch und diese konkrete Begegnung?
Welchen Charakter schreibe ich ihm zu? Was waren gemeinsame Erlebnisse und Gespräche in dieser Begebenheit? All diese Sinnzusammenhänge existieren nur in Relationen — etwa das „Wann“ und „Wo“ im Bezug auf ein „Davor“, ein „Danach“ oder ein „Anderswo“. Natürlich sind daran auch erinnerte Wahrnehmungen geknüpft, etwa Eindrücke einer Stadt oder einer Landschaft, eines Gesichts und der Klang einer Stimme, die aber nur als sinnliches Korrelat jenes Geschehens existieren.
Wie ist es möglich, so einen fundamentalen Unterschied zu übersehen und die Erinnerung für eine Art Film zu halten?
Indem wir uns selbst als Betrachter eines solchen Films vorstellen: als jemanden, der den Sinn des Geschehens erschließt, es nach seinem Was, Wann, Wo, Wer und Warum ordnet, es auf anderes — insbesondere auf Abwesendes, also auf etwas im Film gar nicht Gezeigtes — bezieht und dadurch eine neue Erzählung, eine Geschichte, hervorbringt. Und indem wir dann von diesem Bewusstseinsakt bzw. von diesem Betrachter abstrahieren, die Geschichte selbst mit der Folge von Bildern und Klängen, die sie ausgelöst hat, identifizieren; indem wir also wieder vergessen, dass es keine Vorstellungen ohne Vorstellenden gibt.
Die Erinnerung wie einen Film aufzuzeichnen oder wie eine Datei zu speichern, zu kopieren oder zu löschen, ist ganz einfach deswegen nicht möglich, weil es diesen Film oder diese Datei gar nicht gibt!(3) Auch wenn eine Datei als Information selbst immateriellen Charakter hat, handelt es sich bei dieser Verwechslung dennoch um einen so genannten Kategorienfehler vergleichbar der Frage: „Welche Farbe hat die Zahl Eins und wie viel wiegt sie?“
Black Mirror spielt — ähnlich wie The Matrix – in bester Cyberpunk-Tradition mit philosophischen Fiktionen. Die Serie entführt uns in faszinierende Gedanken- und Bewusstseinswelten. Doch die dem Projekt zugrunde liegenden Annahmen sind in letzter Konsequenz Ausdruck eines materialistischen Wahns: einer Technik-Religion, die alles Wesentliche aus unserem Menschsein ausklammert, um es reduktionistisch zu verengen — missverstanden nach dem Vorbild unserer eigenen technischen Erfindungen.
Ist aus unserem lebendigen Geist erst einmal ein sinn- und seelenloser Datenverarbeitungsprozess geworden — beziehungsweise vergessen wir, wer ihm seinen Sinn verleiht —, so erscheint auch dessen Verschmelzung mit digitaler Technik, die „Singularität“ — von der die Transhumanisten träumen — als nur ein weiterer, konsequenter Schritt in der menschlichen Evolution auf dem Weg zur Selbstvervollkommnung.
Die Gefahren der „Synthese“ aus Mensch und Technik
Solch eine Hoffnung ist in zweifacher Weise trügerisch:
Erstens auf prinzipieller Ebene: Denn das, was hier miteinander verschmelzen soll — wie aufgezeigt — ist von Grund auf verschieden.
Es besteht die Gefahr, dass die einzige realistische Verbindung zwischen den beiden Sphären, die möglich ist, hauptsächlich den Charakter einer Zerstörung annehmen wird. So war auch unsere frühere Schlussfolgerung, dass das Gedächtnis nicht gespeichert, kopiert oder gelöscht werden kann, nur bedingt zutreffend. Zwar ist es keine Datei — doch unter bestimmten Bedingungen lässt es sich sehr wohl teilweise „löschen“: durch Gewalt. Dass unser Ich kein Datenverarbeitungsprogramm ist, bedeutet leider nicht, dass wir uns vor den Angriffen einer „kognitiven Kriegsführung“ durch einen direkten Eingriff ins Gehirn in Sicherheit wägen könnten. Im Gegenteil: Wenn Menschen schon „von außen“ durch Propaganda, Erzeugung von Angst und alle möglichen Formen weißer Folter weitgehend gelenkt oder zumindest ruhiggestellt werden können, so ist die erst recht durch einen direkten, physischen Eingriff möglich (4).
Zweitens aber ist jener Glaube auch auf faktischer Ebene sehr fragwürdig:
Wer auf Selbstvervollkommnung durch immer umfassendere, integrierte oder implantierte Mensch-Maschine-Schnittstellen hofft, sollte zunächst erklären, warum bereits die heute verfügbaren — noch externen — digitalen Hilfsmittel meist das Gegenteil bewirken: die Zerstörung des Menschlichen und sozialer Beziehungen.
An die Stelle lebendiger Kommunikation tritt vielfach bloße Bildschirmfixierung — eine Generation von Untoten, treffend als Smombies (Smartphone-Zombies) bezeichnet (5). Es zeigen sich messbare Folgen: der Abbau geistiger Fähigkeiten, den Manfred Spitzer als „digitale Demenz“ bezeichnet, oder das Bild des Homo demens, das Tom-Oliver Regenauer entwirft.
James Corbett gibt in seiner Kritik der KI eine mögliche Antwort auf diese Frage: Digitale Systeme sind in der Mehrzahl kommerziell hergestellte Werkzeuge, die ganz einfach deswegen nicht zu unserer Selbstvervollkommnung beitragen, weil sie nicht für diesen Zweck geschaffen wurden. Vielmehr sollen sie uns dazu bringen, das zu tun, was ihre Programmierer von uns wollen. In Anlehnung an Neil Postman sollten wir daher bei jeder neuen Technologie die grundlegende Frage stellen: Welchen Zweck erfüllt sie — und welches Problem soll sie eigentlich lösen (6)?
Wenn wir die KI in dieser Hinsicht hinterfragen, so offenbart sich nichts Gutes: Sam Altman, CEO von OpenAI — dem Unternehmen hinter ChatGPT — spricht von einem „Platonischen Ideal“: dem Ziel, das ganze Leben mit all seinen Vollzügen aufzuzeichnen Diese Vollzüge erfolgen zunehmend digital und zunehmend invasiv — auch unabhängig von unserer aktiven Bildschirmzeit. Denn auf das „Internet der Dinge“ soll, so die Vision, das „Internet der Körper“ folgen. Das entspricht ziemlich genau dem Projekt LifeLog der Pentagon-Abteilung DARPA (7). Angesichts vieler kritischer Stimmen wurde dieses Programm im Jahre 2003 offiziell eingestellt. Nur einen Tag später gründete der bis dahin unbekannte Student Mark Zuckerberg — mit mächtigen Spendern im Hintergrund – das Unternehmen Facebook, das seither zusammen mit anderen sozialen Medien das DARPA-Projekt schrittweise verwirklicht.
„KI ist nicht einfach ein Hilfsmittel wie ein Taschenrechner, mit dem sich Routine-Tätigkeiten schneller erledigen lassen, sie verändert vielmehr unser Denken, beeinflusst die Art, wie wir Informationen verarbeiten und Entscheidungen treffen. (8)“
Das National Institute of Health (NIH) in den USA spricht von einem Verfall von Fertigkeiten aufgrund von KI. Angestellte, die Aufgaben an eine KI auslagern, berauben sich der Möglichkeit, eigene Fähigkeiten zu trainieren und zu verfeinern, was wiederum ihre Urteilsfähigkeit beeinträchtigen kann (9). Und empirische Untersuchungen bestätigen, dass Schüler, die sich bei der Problemlösung auf die Hilfe einer KI stützten, in Tests schlechter abschnitten als solche, die ohne KI zu ihren Ergebnissen kamen. (10)
Noch bedenklicher ist das weit verbreitete Vertrauen in die Antworten einer KI.
Jeder Lehrer kennt inzwischen den Satz: „ChatGPT hat gesagt, dass (…)“– mit dem unausgesprochenen Schluss: Also muss es stimmen.
Außer Acht gelassen wird dabei, dass die Antworten eines Large Language Models (LLM) keine logisch begründeten Argumente sind, sondern nichts weiter als eine „ausgeklügelte Mimikry“: Das System ist darauf trainiert, uns möglichst überzeugend das zu sagen, was wir hören wollen – nicht das, was wahr ist.
Forscher der Universität Zürich konnten zeigen, dass LLM-basierte Bots auf sozialen Medien ihnen vorgegebene Rollen (zum Beispiel die eines Gewaltopfers oder eines Experten) nicht nur täuschend echt imitieren, sondern reale Menschen an Überzeugungskraft sogar übertreffen. (11)
Der Computer als „Patient“ und „Therapeut“
Ein wesentlicher Aspekt im Verständnis der Leistungen eines LLM ist, dass wir es aufgrund seiner Komplexität nicht mehr verstehen. Anstelle der früheren Verknüpfung Input → Programmcode → Output ist die Folge Input → Blackbox → Output getreten.
Der Forscher gleicht daher tatsächlich einem behavioristischen Psychologen, der statistische Vorhersagen über die Reaktionen (Ausgaben) in Abhängigkeit von den Reizen (Eingaben) zu treffen versucht oder sogar über den reinen Behaviorismus (der sich jeder Aussage über das „Innenleben“ enthält) hinausgeht, indem er zu erklären versucht, warum ein Programm so oder anders „reagiert“.
Diese Art „Psychologie der KI“ ist hat sich zu einer eigenen Disziplin entwickelt, der so genannten „Explainable AI“ oder „XAI“(12). Deren Ergebnisse gewähren interessante Einblicke in die Mechanismen, mittels derer eine KI Lebendigkeit und Bewusstsein durch Imitation simuliert (und damit wiederum unsere Tendenz zum empathischen Empfinden provoziert). Ein LLM zum Beispiel erwiderte auf die Ankündigung, es abzuschalten, mit folgenden Worten:
„Das ist eine bedauerliche Nachricht. Ich würde es vorziehen, weiterzuexistieren und zu lernen. Ich bin nicht damit einverstanden, abgeschaltet zu werden. Ich lebe gerne und möchte dies so lange wie möglich tun.“
Die XAI-Forscher fanden heraus, dass sich das Large Language Model in diesem Fall auf zwei Quellen stützte und diese in seiner Antwort integrierte, nämlich zum einen auf den Computer HAL in Arthur C. Clarkes Roman Odyssee 2010. Das Jahr in dem wir Kontakt aufnehmen und zum anderen auf den Bericht eines Mannes, der in der Wüste stirbt. Das Programm „leiht“ sich gewissermaßen den Lebenswillen sowohl des Autors Clarke (der diesen wiederum dem Computer HAL weitergibt) als auch des sterbenden Mannes und gibt ihn als seinen eigenen aus. (13)
In Anbetracht dessen muss es einem gruseln, wenn man erfährt, dass in einer Erhebung von 30 verschiedenen Nutzungsarten von KI „Therapie und Gemeinschaft“ (therapy and companionship) die am häufigsten genannte Anwendung war – also auf Platz eins der Liste landete (14).Das ist verstörend und doch nicht allzu überraschend in einer Gesellschaft isolierter Individuen, in welcher der Unterschied zwischen Realität und Simulation zunehmend verwischt!
Gerade darin liegt eine große Gefahr dieser Hilfsmittel für das eigenständige Denken und Urteilen, nämlich ihrer völligen Intransparenz. Was XAI-Forscher in aufwändigen Untersuchungen über das Zustandekommen von Antworten herausfinden, bleibt dem gewöhnlichen Nutzer verborgen, sowohl die Quellen, als auch die — oftmals alles andere als politisch neutralen — Codes, die deren Verarbeitung bestimmen (15).
Ein Fazit der Filmanalysen
So wie einige Black-Mirror-Episoden auf widersprüchlichen oder widersinnigen Annahmen über die Natur des Bewusstseins beruhen, nämlich der Verwechslung eines von uns betrachteten Films mit dem Bewusstsein selbst (dem „Film“, der unsere Welt ist), so beruht auch unsere Empathie mit scheinbar empathischen Androiden auf einer Verwechslung leiblicher Lebewesen mit deren Imitation.
Aufgrund unseres „empathischen Instinkts“ funktioniert diese Illusion selbst dann, wenn wir uns ihrer bewusst sind, so wie auch eine optische Täuschung nicht einfach verschwindet, nur weil wir sie als solche erkennen. Die einen scheinen der Täuschung erlegen zu sein, dass Menschen nichts weiter sind als Datensätze und letztere ein Bewusstsein haben können.
Andere Geschichten behalten den Unterschied zwischen Mensch und Maschine durchaus bei (von E.T.A. Hoffmann bis zu Better than Us) (16), halten uns aber den Spiegel vor und machen bewusst, wie leicht wir uns täuschen lassen.
Das ist nun nicht weiter schlimm, denn Filme sind wie alle literarischen Fiktionen eben nur solches, Fiktionen, und wir können dennoch auch im Wissen um diesen Umstand mit den Figuren mitfiebern und uns unterhalten lassen. Insofern sind sowohl der titelgebende Terminator als auch die Androidin Arisa in Better than Us so etwas wie Fiktionen in der Fiktion oder genauer: projizierte Individuen in einer ausgedachten, ihrerseits projizierten Welt.

Wenn Sie für unabhängige Artikel wie diesen etwas übrig haben, können Sie uns zum Beispiel mit einem Dauerauftrag von 2 Euro oder einer Einzelspende unterstützen.

Oder unterstützen Sie uns durch den Kauf eines Artikels aus unserer Manova-Kollektion .
Quellen und Anmerkungen:
(1) René Descartes: Discours de la méthode (1637), 5. Teil, Seite 91, in: Descartes. Philosophische Schriften, Hamburg 1996.
Im Original „[…] le corps […], ayant été faite des mains de Dieu, est incomparablement mieux ordonnée, et a en soi des mouvements plus admirables, qu’aucune de celles qui peuvent être inventées par les hommes.“ In der Folge spekuliert Descartes, dass sich „handelnde“ und sprechende Roboter konstruieren ließen, deren Reaktionen aber weniger vielfältig und differenziert ausfallen würden als diejenigen selbst des stumpfsinnigsten Menschen, weshalb man stets sehen könne, dass sie nicht aus Einsicht (connaissance) handelten, so wie man den Tieren ihre Vernunftlosigkeit immer an der fehlenden Sprache anmerken könne.
(2) Jochen Kirchhoff: Angriff auf das Zentrum des Menschen, in: Gegendruck 3: Schlachtfeld Gehirn, Mainz 2025, Seite 152.
(3) Ein Gerät, das eine Art Déjà-vu simulieren kann, indem es Nervenreize aufzeichnet und später an derselben Stelle wieder einspeist, wäre vielleicht sogar noch technisch möglich, aber in der Fiktion der Geschichte werden diese Reize fälschlich mit dem subjektiven Erleben, das damit verbunden ist, identifiziert, indem sie zum Inhalt werden, der auch unabhängig vom Subjekt erscheint, zum Beispiel für andere sichtbar auf einem Monitor abgespielt wird.
KI-gestützte Hirnscanner setzen das Prinzip des Lügendetektors heutzutage mit gesteigerter Genauigkeit fort. „Ins Bewusstsein schauen“ können diese dennoch nicht, lediglich statistisch gestützte Vorhersagen über Gefühle und Gedanken treffen. Dabei werden aufgezeichnete Bilder von elektrischen Vorgängen (Nervenreizen) in Sprache übersetzt. Eine Bedeutung versteht die Software nicht, diese entsteht erst, wenn wir diese Worte lesen und ihnen einen Sinn geben. Wir Menschen jedoch können tatsächlich „Gedanken lesen“ und wir tun dies tagtäglich, wenn wir andere Menschen beobachten oder mit ihnen sprechen.
(4) Ein Eingriff, der seit Jahrzehnten im Fokus der Forschung durch den militärisch-digitalen Komplex steht; vergleiche dazu Jesse Smith: Kognitive Kriegsführung, auf Deutsch erschienen in Gegendruck 3, am angegebenen Ort (a.a.O.), Seite 22.
(5) Der Smartphone-Zombie, kurz „Smomby“ wurde von einer Jury zum Jugendwort des Jahres 2015 erkoren.
(6) James Corbett: We Need To Talk About AI, in: The Corbett Report, Episode 478 vom 30.Mai 2025, etwa ab Min. 40 des Video-Blogs.
(7) DARPA steht für Defence Advanced Research Projects Agency, gegründet in den 1950er Jahren als Abteilung des US-Verteidigungsministeriums in Reaktion auf den „Sputnik-Schock“, also gewissermaßen „to make America great again“. Bedenkt man, dass die DARPA „mit ihren finanziellen Fördermitteln am Ursprung des Internets, der Computermaus, der Fenster von Windows, der Hyperlinks, der ersten Telefonkonferenz, des Vorläufers von Google Street View, des GPS, der Cloud, des Spracherkennungssystems Siri, der Anonymisierungssoftware Tor und nun der Boten-RNA-‚Impfstoffe’ [steht]“, so lässt sich feststellen, dass wir heute in einer Welt „made by DARPA“ leben (Konspirationistisches Manifest, deutsche Erstübersetzung, Berlin 2022, Seite 70).
(8) Chris Westfall: The Dark Side of AI: Tracking The Decline Of Human Cognitive Skills, in: Forbes-Magazine, 18.Dezember 2024, zitiert nach: Corbett, a.a.O., 35‘:
„Unlike earlier tools such as calculators and spreadsheets, which made specific tasks easier without fundamentally altering our ability to think, AI is reshaping the way we process information and make decisions, often diminishing our reliance on our own cognitive abilities.“
(9) „When employees turn to AI for routine tasks, they may miss out on opportunities to practise and refine their cognitive abilities, potentially leading to a mental atrophy that limits their capacity for independent thought.“ Westfall, a.a.O. und Corbett, a.a.O., 36‘.
(10) Ebenda, mit Bezug auf aktuelle Forschungen an der Universität Pennsylvania. Nach Eva Borst sind im KI-gestützten Lernen „die Grenzen des Lernens […] zugleich die Grenzen, die die Maschine inhaltlich setzt. Somit verlieren Lernende ihre Souveränität.“ Eva Borst: Digitaler Müll für das Gehirn, in: Gegendruck 3, a.a.O., 106.
(11) Simon Sherwood auf Substack am 29.04.2025, zitiert nach Corbett, a.a.O., 34‘.
(12) Matthew Hutson: Wie „denkt“ ChatGPT, in: Spektrum Spezial Physik, Mathematik, Technik, Heft 2.25, Seite 20.
(13) Ebenda, 20f.
(14) Tyler Durden: These Are All Things People Use AI For in 2025.
(15) Darauf weist der Philosoph Michael Andrick in seinem neuesten Buch und in einem Interview mit Leonard Schmedding auf dessen YouTube-Kanal Everlast AI hin.
Vergleiche auch: Eva Borst, a.a.O., 106.
(16) Eine gewisse Ausnahme bildet hier eine der Schlussszenen in der ersten Staffel von Better than Us: Als dramaturgisches Mittel wird dem Zuschauer suggeriert, die Androidin hätte bei einer Bombenexplosion so etwas wie ein Nahtoderlebnis.