Es gibt keine künstliche Intelligenz!
Die Entlarvung eines substanzlosen Marketingbegriffs veranschaulicht, warum Maschinen nicht lebendig und Menschen keine Maschinen sind.
Vor dem Hintergrund der Entwicklung der sogenannten künstlichen Intelligenz (KI) sehen die einen einer blühenden Zukunft für die Menschheit entgegen; die anderen warnen vor erwachenden Maschinen, die die Menschheit unterwerfen oder gar auslöschen könnten. Doch bei diesen beiden scheinbar konträren Positionen, die den Diskurs in der alternativen wie auch der konventionellen Medienlandschaft dominieren, handelt es sich in Wirklichkeit um zwei Seiten ein und derselben Medaille. Denn beiden Ansichten liegt die unhinterfragte Annahme zugrunde, dass es (a) eine Technologie namens „künstliche Intelligenz“ gebe, welche (b) ermögliche, Maschinen zum Leben zu erwecken. Hinter dem Begriff verbirgt sich jedoch eine althergebrachte Marketingstrategie aus dem Umfeld des militärisch-industriellen Komplexes, welche hinter dem Schleier vermeintlicher Wissenschaftlichkeit den Anschein zu erwecken sucht, dass es menschliche Maschinen geben könnte. Derartige Vorstellungen gehen jedoch an der Wirklichkeit vorbei. Maschinen werden weder jetzt noch in irgendeiner nahen oder fernen Zukunft zum Leben erwachen. Dies folgt aus einfachen, grundlegenden und für jeden überprüfbaren Zusammenhängen. Daran vermag auch gediegenes philosophisches Gesäusel über die Möglichkeit einer „Emergenz“ von Bewusstsein in „neurogenen“ digitalen Rechenautomaten nichts zu verrücken.
Text- und Mediensyntheseprogramme wie das populäre ChatGPT sind weder intelligent noch lebendig noch bewusst und insbesondere keine Autoritäten in Bezug auf irgendwelche individuell oder kollektiv relevanten Fragen. Tatsächlich verbirgt sich hinter diesen beeindruckend scheinenden Angeboten lediglich ein statistisches Syntheseverfahren, welches plausibel erscheinende Texte und sonstige Medien auf Grundlage eines vorhandenen Datenkorpus auswürfelt. Die Modelle und Verfahren sind seit den Anfangszeiten der Informationstechnik bekannt. Neu ist lediglich die verfügbare Datenmenge sowie die enorme Rechenleistung, welche durch massiven, ökologisch höchst bedenklichen Einsatz von Ressourcen erkauft wird.
Einleitung
Das Themenfeld „künstliche Intelligenz“ nimmt mittlerweile einen beträchtlichen Raum im gesamten gesellschaftlichen Diskurs, Lebens- und Arbeitsalltag ein. Vielerorts ist die Rede von einer angeblichen „KI-Revolution“. In Anspielung auf die gemeinhin unter dem Begriff der „industriellen Revolution“ bezeichneten tiefgreifenden und umfassenden Veränderungen des gesellschaftlichen Lebens in Verbindung mit der Weiterentwicklung und Skalierung der Dampfmaschinentechnik zu Beginn des 19. Jahrhunderts wird durch eine solche Wortwahl der Anschein erweckt, dass wir uns inmitten einer durch eine grundlegend neuartige Technologie ausgelösten umbruchartigen Entwicklung vergleichbaren Ausmaßes befänden oder eine solche zumindest unmittelbar bevorstünde. Anders jedoch, als es bei der flächendeckenden Durchsetzung größerer technischer Neuerungen zumindest in der jüngeren Geschichte der Fall war, scheinen Unsicherheiten in Bezug auf berufliche und wirtschaftliche Perspektiven in diesem Zusammenhang insbesondere hochqualifizierte Akademiker, Künstler, kreative Dienstleistende und Angehörige sonstiger weitgehend geistig-schöpferisch tätiger Berufsgruppen zu erfassen. Darüber hinaus sind durch Filme und Romane des Science-Fiction-Genres beflügelte Ängste vor Maschinen, die ein Eigenleben oder gar ein Bewusstsein entwickeln, außer Kontrolle geraten und die Menschheit unterwerfen oder auslöschen könnten, in weiten Teilen aller Bevölkerungsschichten verbreitet.
Die Berichterstattung in konventionellen wie auch alternativen Nachrichten- und Informationsmedien zeichnet ein Bild, welches in erster Linie durch den Widerstreit zwischen zwei scheinbar gegensätzlichen Positionen bestimmt wird: Während das eine, im englischsprachigen Raum als „Booster“ bezeichnete Lager der Menschheit eine glorreiche Zukunft aufgrund einer grundlegenden Verbesserung der Lebensverhältnisse und Erweiterung der technischen Möglichkeiten in Aussicht stellt, warnen die sogenannten „Doomer“ vor einer existenziellen Bedrohung der Menschheit durch mit übermenschlichen Fähigkeiten ausgestattete unkontrollierbare Maschinen mit eigenständigem Überlebensantrieb.
Leicht lässt sich durch derartige Verheißungen die durch dystopische Werke der Hollywood-Filmindustrie wie etwa „Terminator“, „2001: A Space Odyssee“ oder die „Matrix“-Reihe vorgeprägte Fantasie des Medienkonsumenten stimulieren. Literarisch beeinflusste Stammtischphilosophen assoziieren darüber hinaus das Motiv des außer Kontrolle geratenen und sich gegen seinen eigenen Erschaffer richtenden Mensch-Maschinen-Hybrids, welches Mary Wollstonecraft Shelleys Roman „Frankenstein oder der moderne Prometheus“ zugrunde liegt; wohingegen E. T. A. Hoffmanns Erzählung „Der Sandmann“, deren Protagonist aufgrund einer Sinnestrübung eine Maschine für einen Menschen hält, diesbezüglich irgendwie in Vergessenheit geraten zu sein scheint.
Bei genauerem Hinsehen zeigt sich, dass die Erzählungen der Booster beziehungsweise der Doomer lediglich bei oberflächlicher Betrachtung gegensätzlich und kontrovers erscheinen. In Wirklichkeit basieren beide Positionen auf derselben impliziten und unbewiesenen Grundannahme, dass es
- keinen fundamentalen Unterschied zwischen Maschinen und lebenden, natürlichen Organismen gebe und
- digitale Computer lebenden Organismen, insbesondere und vor allem Menschen, prinzipiell ebenbürtig seien,
- es eine technologische Innovation namens „künstliche Intelligenz“ gebe,
- welche es ermögliche, Maschinen zu künstlichen Lebewesen zu machen
- und sie mit allen möglichen menschlichen Fähigkeiten und Eigenschaften auszustatten,
- insbesondere solche, die unter dem Begriff „Intelligenz“ bezeichnet werden,
- bei welchem es sich um einen klar und eindeutig definierte und objektiv messbare Größe handle,
- in Bezug auf welche eine Maschine in der Lage sei, menschliche Leistungen und Fähigkeiten zu übertreffen.
Eine solche Dynamik, in welcher durch eine emotional aufgeladene Kontroverse zwischen zwei scheinbar gegensätzlichen Positionen eine implizit vorhandene, in der Regel sachlich fragwürdige Grundannahme konsolidiert wird, ist in medialen Diskursen keineswegs ungewöhnlich. Der legendäre US-amerikanische Sprachwissenschaftler und Publizist Noam Chomsky — der, nebenbei bemerkt, wichtige Beiträge zur Grundlegung der Informationstechnik im Allgemeinen und der Computerlinguistik im Speziellen geleistet hat — und sein Co-Autor Edward Hermann beschreiben dieses Muster im Rahmen einer Untersuchung manipulativer Massenkommunikationsstrategien (1).
Es sei an dieser Stelle angemerkt, dass es hierfür keines bewussten planvollen und zielgerichteten Vorgehens seitens einer mehr oder minder verdeckt agierenden Gruppierung bedarf. Weitgehend unbewusste, durch wahrgenommene Abhängigkeiten bedingte Interessen seitens der beteiligten Individuen und Gruppierungen vermögen derartige Effekte zu erklären. Die im gesellschaftskritischen Umfeld häufig gestellte Frage, wer das denn alles steuern würde, ist in der Sache unerheblich. Es besteht also keinerlei Notwendigkeit, hier eine sogenannte Verschwörungstheorie ins Feld zu führen.
Menschmaschinen, Maschinenmenschen und militärisch-industrielle Anscheinserweckung
Die Tatsache, dass ein solches Bündel von Grundannahmen hinter einer Scheinkontroverse versteckt wird, legt den dringenden Verdacht nahe, dass sich die interessierten Parteien ihrer Sache nicht sicher sind, zur Durchsetzung ihres Interesses jedoch darauf angewiesen sind, dass die besagten Grundannahmen durch eine breite Öffentlichkeit unhinterfragt akzeptiert werden.
Tatsächlich gehen alle der aufgelisteten Grundannahmen an der Wirklichkeit vorbei. Bei dieser Einsicht handelt es sich nicht einfach nur um irgendeine Lieblingsmeinung des Autors, irgendeine philosophische oder religiöse Weltanschauung, die mit irgendeinem auf das Suffix „-ismus“ endenden gelehrsamen Wort apostrophiert werden, oder um irgendein arkanes Geheim- oder elitäres Spezialwissen aus den fortgeschrittenen Bereichen der MINT-Fächer, sondern um eine Konsequenz einfacher, überprüfbarer Sinneswahrnehmungen und Zusammenhänge, die jeder ungeachtet seines Bildungsgrads und seiner Herkunft vermöge seines gesunden Menschenverstands zu erfassen vermag.
Betrachten wir zunächst den Begriff „künstliche Intelligenz“, welcher dem Anschein nach eine bestimmte technische Innovation beziehungsweise ein zusammenhängendes Bündel von herkömmlicher Informationstechnik klar abgegrenzter neuartiger Technologien bezeichnet. Fragen wie etwa „Sind das noch Algorithmen oder ist das schon künstliche Intelligenz?“, welche mir von IT-Laien bisweilen gestellt werden, oder eine Bemerkung wie „Das, was du damals gemacht hast, war ja noch maschinelles Lernen, aber das, worauf ChatGPT aufbaut, ist echte künstliche Intelligenz“, mit welcher mich jüngst ein im IT-Sektor tätiger Unternehmensberater zu belehren versuchte, bezeugen das besorgniserregende Ausmaß der unkritischen Verbreitung dieser Vorstellung.
Während meiner Studienzeit sowie meinen darauffolgenden Jahren in der akademischen und privatwirtschaftlichen Forschung und Entwicklung in dem Bereich, der heutzutage gemeinhin als „künstliche Intelligenz“ bezeichnet wird, galt dieser Begriff als unwissenschaftlich und Angebote, die unter diesem Begriff vermarktet werden, entsprechend als unseriös. Stattdessen sprach man etwa von maschinellem Lernen, adaptiven Systemen, Data Mining, stochastischen Modellen, Mustererkennung, maschinellem Sehen, Computerlinguistik, Spracherkennung beziehungsweise -synthese, automatischer Transkription, automatischer Übersetzung, um bestimmte Gebiete der Automatisierung und statistischen Analyse unter Einsatz digitaler Rechenmaschinen zu bezeichnen.
Vor diesem Hintergrund war ich bereits als junger Student verwundert darüber, dass ausgerechnet das renommierte Massachusetts Institute of Technology (MIT) in Boston/Massachusetts, USA, eine Abteilung unter dem Namen Artificial Intelligence Laboratory betreibt. Der Begriff Artificial Intelligence, welcher in Form der Lehnübersetzung „künstliche Intelligenz“ Einzug in den deutschen Sprachgebrauch gefunden hat, wurde in den 1950ern durch die US-amerikanischen Mathematiker und Informationstechnik-Forscher Claude Shannon, Marvin Minsky und John McCarthy geprägt.
Letzterer hatte den Begriff als Überschrift für eine Konferenz ersonnen, welche den Einsatz digitaler Computer für eine große Vielfalt unterschiedlicher Steuerungs- und Automatisierungsaufgaben zum Gegenstand hatte. Er soll den Begriff insbesondere unter dem Gesichtspunkt der Abgrenzung von seinem Kollegen Norbert Wiener aufgrund von persönlichen Differenzen gewählt haben. Der bedeutende Mathematiker Wiener, dessen Arbeiten maßgeblich durch Denkweisen der analogen Nachrichtentechnik beeinflusst waren und im Zweiten Weltkrieg wesentlich zur Weiterentwicklung der Rüstungstechnik beigetragen hatten, sprach seinerseits von System- und Kontrolltheorie beziehungsweise Kybernetik. Er war in seiner Herangehensweise weniger in Richtung der aufkommenden Digitaltechnik orientiert als seine Bostoner Mitstreiter, jedoch gleichermaßen mit dem vor dem Hintergrund des Kalten Krieges und des für die USA siegreichen Ausgangs des Zweiten Weltkriegs aufgestiegenen militärisch-industriellen Komplexes verwoben, vor welchem der US-Präsident Dwight D. Eisenhower am Ende seiner Amtszeit 1961 eindringlich warnen würde.
Minsky, der — finanziert durch das US-Verteidigungsministerium Pentagon — 1962 das besagte Laboratorium am MIT gründen würde, verbreitete bereits in der zweiten Hälfte der 1950er-Jahre unter dem Anschein der Wissenschaftlichkeit die krude Vorstellung, dass Menschen im Prinzip etwas komplexere Maschinen seien, deren Fähigkeiten und Eigenschaften auf einfache Weise in einen digitalen Computer programmiert werden könnten (2). Für großes Aufsehen sorgten insbesondere seine dramatischen Verheißungen und unrealistischen Prognosen, welche die Blaupause für die zeitgenössische Booster-Doomer-Scheindialektik und die abgehobenen und spektakulären, jedoch gleichermaßen wissenschaftlich substanzlosen und wirklichkeitsfernen Versprechungen aus dem Big-Tech-Umfeld. Im Jahre 1970 etwa gab er dem Journalisten Brad Darrach Folgendes zu verstehen:
„‚In drei bis acht Jahren werden wir eine Maschine mit der allgemeinen Intelligenz einer durchschnittlichen Person haben. Ich meine damit eine Maschine, welche in der Lage sein wird, Shakespeare zu lesen, ein Auto zu fetten, Büropolitik zu machen, einen Witz zu erzählen und einen Streit zu haben. An jenem Punkt wird die Maschine beginnen, sich selbst mit fantastischer Geschwindigkeit weiterzubilden. In wenigen Monaten wird sie auf dem Niveau eines Genies sein, und danach werden ihre Möglichkeiten unberechenbar sein (…). Sobald die Computer die Kontrolle erlangt haben, könnte es sein, dass wir sie niemals zurückerhalten. Wir würden von ihrer Gnade überleben. Wenn wir Glück haben, könnten sie entscheiden, uns als Haustiere zu behalten (…). Ich habe (Leute im Pentagon) immer wieder gewarnt, dass wir in ein sehr gefährliches Land geraten. Sie scheinen es nicht zu verstehen‘“ (3).
Abgesehen davon, dass sich Minskys fantastische Prophezeiungen auch nach nunmehr über fünfzig Jahren nicht ansatzweise bewahrheitet haben, könnten seine Worte gleichermaßen dem Munde eines zeitgenössischen Big-Tech-Führers wie etwa dem IT-Unternehmer Geoffrey Hinton oder dem OpenAI-Chef Sam Altman entstammen. Insbesondere Letzterer ist bekannt dafür, die „allgemeine künstliche Intelligenz“ (Artificial General Intelligence, kurz AGI) anzukündigen und die Möglichkeit einer maschinellen „Superintelligenz“, also eine übermenschliche, quasi gottgleiche Art von „Intelligenz“, innerhalb der kommenden circa drei bis acht Jahre in Aussicht zu stellen. Dann wiederum warnt er vor den Gefahren einer bösartigen AGI beziehungsweise Superintelligenz, welche außer Kontrolle geraten und die Menschheit unterwerfen könne. Mancherorts bringt er die Möglichkeit einer solchen „bösartigen Superintelligenz“ mit seinen scheinbar ebenso emsig an maschineller Scheinintelligenz arbeitenden chinesischen Wettbewerbern in Verbindung, weshalb es dringend nötig sei, ihn und seinesgleichen mit den erforderlichen Mitteln auszustatten, auf dass der vermeintliche „Wettlauf“ um AGI und Superintelligenz zugunsten der guten Seite der KI ausgehen möge. Die Parallele zum Anreizsystem und der Rhetorik des Kalten Krieges ist schwerlich zu übersehen.
Die enge Verbindung zwischen Rüstungs- und Überwachungsindustrie und sogenannter künstlicher Intelligenz ist in der Sache wenig überraschend. Dennoch drückt sie die vielleicht stärkste in der Tiefe unserer europäischen Kultur wirkende Triebkraft aus, welche durch unser Verhältnis zum Leben und zur Natur bedingt ist.
Der Historiker Fabian Scheidler bezeichnet diese Kraft als „lineares Denken“ (4), welches im Kern durch das Bestreben charakterisiert ist, das Leben und die Natur, die wir in der Tiefe als unvollkommen, willkürlich und bedrohlich wahrnehmen, zu beherrschen. Ein bestimmtes Verhalten soll ein klar definiertes und vorhersagbares Ergebnis zu Folge haben — zufälligerweise gerade das Paradigma der digitalen Informationstechnik.
Ein vorherbestimmtes und vorhersehbares Verhalten ist jedoch nur im Umgang mit toter Materie und dann auch nur unter sehr speziellen Bedingungen annähernd und scheinbar möglich. Vor diesem Hintergrund finden sich Bestrebungen, menschliches Wirken durch Maschinen zu ersetzen, vornehmlich im Umfeld gesellschaftlicher Macht- und Kontrollstrukturen. Eine Maschine ist im Gegensatz zu einem Lebewesen kontrollierbar. Kontrollstrukturen streben folglich naturgemäß danach, Menschen durch Maschinen zu ersetzen — durch Verdrängung und/oder Umwandlung — und sind dabei unweigerlich zum Scheitern verurteilt (5).
Substanzloses Marketing statt technischen Durchbruchs
Kann der Begriff „künstliche Intelligenz“ überhaupt irgendetwas Sinnvolles bedeuten? Wenn jemand ein Lächeln vortäuscht, sprechen wir gemeinhin von einem „künstlichen Lächeln“. Analog könnte man von einer künstlichen Intelligenz sprechen, wenn jemand oder etwas entsprechend Intelligenz vortäuscht. Das scheint weit hergeholt? Das europäische Parlament definiert künstliche Intelligenz als „die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren“. Auffällig ist hierbei das Wort „imitieren“, für welches der Duden die Verwendungsbeispiele „imitiertes (künstliches) Leder“ und „imitierter (unechter) Schmuck“ angibt. Nun könnte man direkt „imitierte (künstliche) Intelligenz“ ergänzen und auf die Idee kommen, dass künstliche Intelligenz etwas ist, was den Anschein von Intelligenz erweckt. Im Gegensatz etwa zu künstlichem Leder ist bei künstlicher Intelligenz jedoch alles andere als klar, was hier überhaupt imitiert beziehungsweise vorgetäuscht wird. Denn für den Intelligenzbegriff, dessen historische Wurzeln dubioserweise im Umfeld der Eugenik verortet sind, gibt es keine einheitliche und allgemeinverbindliche Definition.
Einen weiteren Anhaltspunkt bietet der sogenannte Turing-Test. Das durch den britischen Mathematiker und Informatik-Begründer Alan M. Turing ersonnene hypothetische Experiment bietet ein Kriterium für die Definition einer intelligenten Maschine. Im Kern stipuliert der Turing-Test, dass eine Maschine als intelligent beziehungsweise menschlich betrachtet werden kann, wenn ihr Verhalten unter bestimmten restriktiven Bedingungen durch einen menschlichen Probanden nicht von demjenigen eines Menschen unterschieden werden kann — kurzum also, wenn es der Maschine wie in Hoffmanns „Sandmann“ gelingt, menschliches beziehungsweise intelligentes Verhalten vorzutäuschen (6).
Letztlich handelt es sich bei der sogenannten künstlichen Intelligenz um einen wissenschaftlich-technisch substanzlosen Marketingbegriff, der gewissen sachlich uninformierten Zielgruppen suggerieren soll, dass bestimmte informationstechnische Automatisierungsverfahren menschliche Eigenschaften aufwiesen und geeignet seien, menschliches Wirken in Bereichen, welche etwa Kreativität, Wahrnehmungsfähigkeit sowie Urteils- und Einfühlungsvermögen erfordern, zu ersetzen.
Unter dem Begriff wird eine große Vielfalt an mathematischen Modellen und Verfahren für äußerst unterschiedliche Anwendungen vermarktet, etwa Sprach-, Text- und sonstige Mediensynthese, automatische Textübersetzung, automatische Transkription, Mustererkennung in Bildern, Mustererkennung in statistischen Beobachtungsdaten („data mining“), Berechnung räumlicher Modelle aus Kamerabildern („computer vision“), automatische kosteneffiziente Steuerung von Maschinen, Fahrzeugen („dynamic programming“, „optimal control“), Entscheidungsfindung auf Grundlage statistischer Daten („policy and decision making“) — hier kommen in der Tat ähnliche Modelle zum Einsatz wie bei der Steuerung von Maschinen — und Berechnung von Kaufempfehlungen für Konsumenten.
Die einzige, lose Gemeinsamkeit vieler, jedoch nicht aller als „KI“ beworbener Angebote besteht darin, dass es sich im weitesten Sinne im Kern um statistische Analyseverfahren handelt, deren Parameter auf Grundlage umfangreicher Datenmengen für die jeweilige Anwendung berechnet werden. Die Tatsache, dass eine Vielzahl von rechnerisch aufwendigen Angeboten, wie etwa die Text- oder Mediensynthese, Bild- und Videorestauration oder automatische Transkription, bei denen die Berechnungen nicht auf den lokalen Endgeräten, sondern im Rahmen sogenannter Cloud-Services in Hochleistungsrechenzentren ausgeführt werden, unter dem Begriff KI subsumiert werden, verstärkt ihrerseits den fälschlichen Anschein, dass es sich um eine kohärente, einheitliche und neuartige Technologie handle. Bemerkungen wie „Ich habe das mit KI gemacht“ oder „(…) die KI machen lassen“, die mir und vielleicht auch dem einen oder anderen Leser in seinem Lebens- und Berufsumfeld immer mal wieder zu Ohren kommen, bezeugen die Aufladung dieser Vorstellung.
Es sei an dieser Stelle noch einmal hervorgehoben, dass diesen in jüngeren Jahren aufgekommenen Verfahren kein wissenschaftlich-technischer Durchbruch zugrunde liegt — es handelt sich um seit den 1950er-Jahren bekannte Verfahren, die durch den Einsatz massiver Rechen- und Datengewalt hochskaliert worden sind. Diese Möglichkeit ist bedingt durch die Verfügbarkeit gigantischer Datenmengen — wenngleich in weiten Teilen aus juristisch und ethisch fragwürdigen Quellen — sowie kostengünstiger Mikrochips, welche eine effiziente parallelisierte Ausführung der Verfahren in dicht organisierten Hochleistungsrechenzentren erleichtern. Mitnichten ist hier irgendeine Art künstliches Lebewesen in einem Computer erschaffen worden, welches in Analogie zu Frankensteins Monster einen eigenständigen Überlebenswillen entwickeln und sich gegen seinen Schöpfer richten könnte.
Bei Text- und Mediensyntheseprogrammen wie dem populären ChatGPT etwa handelt es sich — entgegen verbreiteter, marketinginduzierter Vorstellung — keineswegs um eine Art künstlichen Agenten, welcher in der Lage wäre, komplexe Problemstellungen zu analysieren und sinnvolle Lösungen zu ersinnen. Daran ändert auch das irreführende Attribut „Thinking“ der aktuellen Programmversion nichts. Schon gar nicht ist das Programm mit irgendeiner Eigenschaft ausgestattet, die es gestatten würde, Gefühlsregungen, Mitgefühl und Empathie auch nur auf krude Weise zu simulieren. Derlei Möglichkeiten sind nicht einmal Bestandteil der Programmspezifikationen.
Entgegen der im verschwörungsaffinen Milieu verbreiteten Ansicht ist das Programm nicht in der Lage, irgendeine Art der Zensur oder Meinungsmanipulation zu vollziehen, sondern reagiert auf stereotypische Anfragen mit entsprechenden stereotypischen Textausgaben, was der probabilistischen Natur des Systems geschuldet ist.
Zu erwarten ist, dass der Nutzer das bekommt, was zu seiner jeweiligen alternativen oder konventionellen Meinungsblase passt. Bei Beschwörungen vonseiten esoterisch geprägter Click-Cows, ChatGPT weise Anzeichen eines spirituellen Bewusstseins auf, handelt es sich bestenfalls um Wunschdenken, schlimmstenfalls jedoch um Halluzinationen. Beschämend ist, dass solcherlei Blödsinn unkritischerweise durch langjährig etablierte alternative Medienkanäle verbreitet wird …
Vielmehr handelt es sich im Prinzip um hochskalierte Textvervollständigungsverfahren, die über keinerlei Konzept des Inhalts ihrer Textausgaben verfügen. Bei einem gegebenen Text wird das auszugebende nächste Wort aus den wahrscheinlichsten Möglichkeiten ausgewürfelt. Das Wahrscheinlichkeitsmodell basiert auf gigantischen Textkorpora und massivem menschlichen Einsatz unter teilweise prekären Bedingungen in Drittweltländern. Da auch das gesamte Internet nicht alle möglichen sinnvollen Text- und Wortkombinationen enthalten kann, müssen die vorhandenen Daten durch ein weiteres mathematisches Modell verallgemeinert werden, welchem ein Konzept von Ähnlichkeit zwischen Texten zugrunde liegt. Hierfür haben sich sogenannte künstliche neuronale Netze etabliert — ein weiterer Marketingbegriff aus dem Umfeld von Minsky, dessen Mitstreiter Frank Rosenblatt, seines Zeichens Psychologe, das Konzept im Jahre 1958 vorschlug. Durch echte Nervensysteme sind diese statistischen Modelle, die wie in einem Zeichenprogramm eine Kurve an eine vorgegebene Menge an Punkten anpassen, bestenfalls lose inspiriert, insofern als sie auf innerer Vernetzung und Vielschichtigkeit aufbauen. Das hält sachverstandsbefreite Technikenthusiasten jedoch nicht davon ab, mich regelmäßig dahingehend belehren zu wollen, dass moderne künstliche Intelligenz wie ein menschliches Gehirn funktioniere, da ja schließlich „Neuronale Netze“ zum Einsatz kämen.
Sachlich korrekt bezeichnet die renommierte, an der Universität von Washington lehrende Linguistin Emily M. Bender diese Automaten als „stochastische Papageien“ (7). Ähnlich wie ChatGPT und Co. geben die sympathischen Federfreunde lediglich Lautfolgen von sich, die durch menschliche Zuhörer als Sprache interpretiert werden, haben jedoch keinerlei Vorstellung davon, was diese Lautfolgen aus menschlicher Sicht bedeuten. Um möglichen Anfeindungen durch tierliebende Alternativmedien-Konsumenten entgegenzuwirken, sei angemerkt, dass dies nicht bedeutet, dass Papageien gefühls- und bewusstlose Zombies seien. Vielmehr interessieren sich die Tiere pragmatischerweise nicht für den menschlich-sprachlichen Inhalt ihrer Lautfolgen, sondern lediglich für den Keks, den sie als Belohnung für eine überzeugende Nachahmung erhalten.
Die Wahnvorstellung von der bewussten Maschine — philosophisches Geschwurbel im Dienste der militärisch-industriellen Mitteleinwerbung
Ich betone es an dieser Stelle noch einmal in aller Klarheit: Insbesondere Text- und Mediensyntheseprogramme wie ChatGPT, wie auch sonstige Angebote, die unter dem Begriff KI vermarktet werden, sind weder intelligent noch lebendig und vor allem nicht bewusst und haben prinzipiell mitnichten irgendein Potenzial, es vermöge eines zukünftigen „Fortschritts der Technik“ zu werden.
Bereits die Frage, ob Maschinen lebendig oder bewusst werden können, ist sachlich gegenstandslos; philosophisch gesprochen liegt hier ein Kategorienfehler vor.
Philosophische Diskussionen in den Feuilleton-Bereichen der alternativen wie auch konventionellen Medien um die Möglichkeit oder gar Wirklichkeit bewusster Maschinen dienen neben den Marketinginteressen der IT-Industrie bestenfalls der kläglichen Aussicht intellektuell weitgehend unbeachtlicher Publizisten und Akademiker mit „Laberfach“-Minderwertigkeitskomplex, vielleicht nun doch noch den einen oder anderen vom Kuchen des KI-Hypes herabrieselnden Krümel auch ohne Abschluss in einem MINT-Fach ergattern zu können.
Lebende Organismen sind keine Maschinen und vice versa. Letztere gibt es in der Natur entgegen weit verbreiteter materialistisch-mechanistischer Auffassung, um nicht ein wenig überspitzt, in der Sache jedoch korrekt zu sagen: Wahnvorstellung, nicht. Daran gibt es auch nichts philosophisch herumzudiskutieren oder metaphysisch zu palavern. Es geht hier nicht um Theorien, Konzepte, Weltanschauungen oder religiöse Glaubensbekenntnisse, sondern um einfache, eindeutige und für jeden überprüfbare sinnlich wahrnehmbare Tatbestände: Noch nie ist eine Maschine von selbst in der Natur entstanden. Maschinen werden nicht geboren, sterben nicht, haben keinen Stoffwechsel, wachsen nicht, verwesen nicht; wenn man sie ausschaltet, pflanzen sich nicht fort, heilen nicht, sondern müssen repariert werden, und „überleben“ nicht aus eigenen Kräften, wenn man sie sich selbst überlässt, sondern müssen instandgehalten werden. Und allem voran: Das Vorhandensein einer Maschine impliziert das Wirken eines Ingenieurs beziehungsweise Erbauers.
Umso kurioser scheint es, dass gerade hartgesottene materialistische Atheisten wie der hier behandelte Marvin Minsky, aber auch viele weitere, unter Lippenbekenntnis zur strengen Wissenschaftlichkeit und Rationalität einflussreiche öffentliche Persönlichkeiten wie etwa der britische Biologe Richard Dawkins oder der US-amerikanische Philosoph und Begründer der atheistischen Brights-Sekte Daniel C. Dennett, diese Verirrung als Argument für die vermeintlich objektive Korrektheit ihrer Weltanschauung immer wieder ins Feld führen und dabei auch noch von einer breiten Öffentlichkeit ernst genommen werden.
Es verhält sich dabei so, als würde man auf die Frage, ob es Gott gibt, zur Antwort bekommen: „Nein, denn wir sind alle Maschinen.“
Tatsächlich haben in der Epoche der Aufklärung wirkende atheistische Hardliner, in deren Tradition die besagten Neo-Atheisten bewusst oder unbewusst stehen, dieses widersinnige Scheinargument auf eine missverständlich pervertierte Weise von frühneuzeitlichen, mechanistisch denkenden Theologen übernommen. Beispielsweise argumentiert William Paley (1743 bis 1805), auf welchen sich Dawkins ausdrücklich bezieht, dass Lebewesen Maschinen seien, woraus im zweiten Schritt auf die Existenz eines Schöpfers geschlossen wird, da das Vorhandensein einer Maschine die Existenz eines Erbauers voraussetzt (8).
Das im Hintergrundrauschen des philosophischen Diskurses immer mal wieder vernehmbare Geschwurbel um „Selbstorganisation“ und „Emergenz“ vermag über die Wahnhaftigkeit solcher Vorstellungen nur vordergründig hinwegzutäuschen. Hier wird immer wieder suggeriert, dass ein System sich ab einem gewissen Grad der Komplexität selbst organisieren und sodann auf irgendeine diffuse Weise zu einer „Emergenz“ irgendwelcher geistigen Eigenschaften kommen würde — wenn ich eine Maschine einfach nur hinreichend komplex mache, wird sie schließlich zu einem bewussten Lebewesen. Eine solche Aussage ist in etwa so sinnvoll wie die Vorstellung, dass sich ein Auto auf wundersame Weise in einen Teleporter verwandeln würde, wenn man den Motor nur hinreichend groß und leistungsfähig macht.
All das könnte man als wert-, aber harmloses Geschwätz von abgehobenen Philosophen und Technik-Fantasten abtun, wenn dabei doch nicht so viel auf dem Spiel stünde. Denn genau mit diesen den Anschein von wissenschaftlicher und philosophischer Fundierung erweckenden Parolen werden in Silicon Valley Investitionen und Fördergelder in Multihundertmilliardendollarhöhe eingeworben. Im Prinzip basieren die sogenannten KI-Angebote auf nichts weiter als einer massiven Hochskalierung altbekannter mathematisch-statistischer Modelle und Verfahren. Altman und seinesgleichen stellen in Aussicht, dass AGI und Superintelligenz dann an irgendeinem Punkt entstehen würden, wenn die Modelle, die Datenmengen und die verfügbare Rechenleistung hinreichend groß würden. Eine substanzielle Wertschöpfung, die die gigantischen Investitionsvolumina amortisieren könnte, ist nicht absehbar. Einzig und allein die Aussicht auf ein Wunder namens AGI beziehungsweise Superintelligenz hält die Investoren bei der Stange (9).