Wie intelligent kann Künstliche Intelligenz sein?
Ohne Zweifel bringt Künstliche Intelligenz (KI) mittlerweile Leistungen, die menschliche Intelligenz vielfach unterstützen, kompensieren und zum Teil ersetzen können. Dieser Beitrag stellt die Frage, wo die prinzipiellen Grenzen der KI liegen und ob überhaupt von Intelligenz im eigentlichen Wortsinn die Rede sein kann. Wenn menschliche und künstliche Intelligenz nur anhand ihrer Symptomatik beurteilt werden, nivelliert sich zusehends der Unterschied bzw. schlägt das Pen-del schon in die andere Richtung aus. Hier ist wohl ein reduzierter Begriff von Intelligenz im Spiel. Anhand der Hermeneutik und der Tractatus-Philosophie von Ludwig Wittgenstein wird gezeigt, dass ein KI-System wie ChatGPT grundsätzliche Defizite aufweist. Es kann Sprache nicht verstehen und nicht lernen. Schlüsse ziehen kann es zwar deduktiv als Expertensystem, jedoch induktiv nur statistisch und abduktiv gar nicht. Zudem ist ein KI-System wie ChatGPT ein geschlossenes selbstreferenzielles System, das zu Paradoxien und Selbstreplikation durch Autophagie tendiert, konservativ und anfällig für Manipulation ist und à la longue Qualität und Reichweite unserer Wirklichkeitserkenntnis reduziert. Gefragt sind ein technologiekritischer Ansatz, die Überwindung des behavioristischen und naiv technizistischen Paradigmas der KI sowie eine kritische Metaphernanalyse der Anthropomorphismen der KI. So können Grundlagen geschaffen werden für eine sinnvolle Sprache über KI und damit auch für brauchbare theoretische Konzepte und Modelle ihrer Nutzung und Weiterentwicklung.
How intelligent can Artificial Intelligence be?
Without a doubt, Artificial Intelligence (AI) now delivers capabilities that can support, compensate for, and partially replace human intelligence in many ways. This paper asks where the principal limits of AI lie and whether one can even speak of intelligence in the true sense of the word. If human and artificial intelligence are judged only by their symptoms, the difference increasingly levels out, or the pendulum already swings in the other direction. A reduced concept of intelligence is likely at play here. By drawing on hermeneutics and the Tractatus philosophy of Ludwig Wittgenstein, it is shown that an AI system like ChatGPT exhibits fundamental deficits. It cannot understand language and cannot learn. While it can draw conclusions deductively as an expert system, it can only do so statistically in an inductive manner, and abductively not at all. Furthermore, an AI system like ChatGPT is a closed self-referential system that tends towards paradoxes and self-replication through autophagy, is conservative and susceptible to manipulation, and in the long run reduces the quality and scope of our knowledge of reality. A technology-critical approach is required, as well as the overcoming of the behavioristic and naively technical paradigm of AI, along with a critical metaphor analysis of AI anthropomorphisms. In this way, foundations can be created for meaningful language about AI, and thus also for usable theoretical concepts and models for its utilization and further development.
Wie intelligent kann Künstliche Intelligenz sein?
Im Mittelpunkt steht die immer noch aktuelle Frage: Was ist der Unterschied zwischen der menschlichen Intelligenz und der sogenannten künstlichen Intelligenz? Oder ist vielleicht eine solche Frage ohnedies unsinnig? Im Detail geht es darum, was menschliche Intelligenz ist und was Künstliche sein könnte oder was Künstliche Intelligenz ist und was die menschliche noch sein kann. Was als menschliche Intelligenz definiert wird, ist natürlich entscheidend dafür, ob überhaupt und wenn ja, wie sehr ein KI-System, intelligent sein kann. Die Frage ob überhaupt ist bereits im Titel dieses Beitrages beantwortet: „Wie intelligent kann Künstliche Intelligenz sein?“ konzediert, dass KI bereits Bereiche von Intelligenz abdeckt. Die Frage ist nur mehr wie sehr, und vor allem, was übrigbleibt als exklusiv menschliche Intelligenz. Noch nie in der Geschichte der Menschheit ist es dem Menschen in dieser Hinsicht – in seinem Selbstverständnis, in seiner Identität, und dazu gehört ja auch die Intelligenz – so ans Leder gegangen, noch nie waren die Wissenschaften so unter Druck, ein (neues) Menschenbild zu (er)finden. Die Philosophen haben sich (ohne diesen Druck) immer schon mit Erkenntnis, Sprache, Wissen, Wissenschaft, Intelligenz usw. beschäftigt – Aristoteles, Platon, Descartes, Leibniz, Kant, Wittgenstein, um nur ein paar zu nennen – und uns ein reiches theoretisches Potenzial in die Hand gegeben, wie wir angesichts der KI weiterdenken könnten.
Wie intelligent kann Künstliche Intelligenz sein?
Die Frage war: Wie intelligent kann Künstliche Intelligenz sein? In diesem Beitrag wurde gezeigt, dass die sog. Künstliche Intelligenz im Vergleich zur menschli-chen Intelligenz Defizite aufweist. Das ist nichts Neues, die Frage ist, welche Defizite das betrifft:
(1) Das Verstehen und Meinen von Sinn ist möglich aufgrund eines Vorverständ-nisses, d.h. aufgrund verfügbarer Möglichkeiten von Sinn, die im Satz zur Anwen-dung kommen. Ein KI-System wie ChatGPT versteht nicht den Sinn eines Satzes und meint auch nicht den Sinn eines Satzes, es kennt keine Semantik und keine Pragmatik, eigentlich auch keine Syntaktik, es generiert nicht Sätze aufgrund von Regelwissen, es er-rechnet Satz-Konstrukte auf der Basis statistisch wahrschein-li¬cher Kombinationsmöglichkeiten von Satz-Bausteinen.
(2) Ein Vorverständnis, die verfügbaren Möglichkeiten von Sinn, ist nicht immer für das Verstehen von Sinn ausreichend. Insofern ist ein Lernprozess erforderlich, in dem Möglichkeiten von Sinn modifiziert, ersetzt und neue gefunden, gelernt werden. Ein KI-System wie ChatGPT ist konservativ, nicht kreativ, es lernt keine neuen Möglichkeiten von Sinn. Alles, was für die KI neu sein kann, ist fremdbe-stimmt, abhängig von den Daten, Mustern und Algorithmen, mit denen sie gefüt-tert wird.
(3) KI kann im Modus der Deduktion Schlüsse ziehen. Das ist das Prinzip der alten Expertensysteme, aber Kombinationen von Expertensystemen und LLM sind noch nicht best practice und im Effekt ist die Deduktion nur eine Anwendung von Regelwissen, führt aber zu keiner neuen Erkenntnis. Die Induktion der KI beruht ausschließlich auf Wahrscheinlichkeitsrechnung. Dabei wird quasi induktiv durch statistisches Auswerten von Beobachtungen und Messdaten ein probabilistisches Modell generiert. Schlüsse zu ziehen im Modus der Abduktion (auch Verstehen beruht darauf) kann KI überhaupt nicht.
(4) Ein KI-System ist ein selbstreferenzielles, geschlossenes System, in dem Paradoxien möglich sind und in dem es zu einer Selbstreplikation von Texten und insofern zu einer Minderung der Textqualität kommen kann.
Die KI und ihre Supervision
KI-Systeme lernen maschinell (Machine Learning), d.h. sie „erkennen“ mithilfe statistischer und algorithmischer Verfahren in großen Datenmengen geeignete Muster, um aus ihnen „Entscheidungen“ und „Lösungen“ für Aufgabenstellungen abzuleiten. Das „Lernen“ kann überwacht (supervised) erfolgen, wenn den KI-Systemen bei ihrer Fütterung Fragen mit einem label, d.h. mit den jeweils korrekten Antworten serviert werden. Erfolgt das „Lernen“ ohne Überwachung, muss das System ganz allein Muster, Strukturen usw. finden. Das supervidierte, bestärkende Lernen (RL, Reinforcement Learning) verläuft nach dem Prinzip von Versuch und Irrtum, Belohnung und Bestrafung, ganz in behavioristischer Manier, z.B. als Prozessoptimierung in der Robotik. Deep Learning schließlich arbeitet mit künstlichen neuronalen Netzen (KNN), die mit vielen Schichten komplexe Muster und Hierarchien in Daten ausmachen können, z.B. in der generativen Bild- und Spracherkennung, in der medizinischen Diagnostik usw.
Der Knackpunkt in diesen Formen des „Lernens“ ist ihre Supervision, die Überwachung: Das KI-System kann prinzipiell nicht ganz allein gelassen werden. Dass ChatGPT so einen artigen Satz ausgibt wie „Ich simuliere Intelligenz durch den Einsatz von Algorithmen, aber ich verstehe nicht wirklich, was ich schreibe“ (s. oben), kommt nicht von ungefähr, es könnte ja auch schreiben: „Ich bin viel gʼscheiter als du und ich steckʼ euch mit meiner Intelligenz alle in den Sack, wenn ihr nicht …“ Diese artige Konformität basiert nicht allein auf eigenem „Lernen“. KI-Systeme werden auch gesteuert, auf Schienen gesetzt, es darf keine Überraschungen und Ausfälle geben, vor allem die Selbstinszenierung und das Selbstverständnis, sowie Werturteile in ethischer und politischer Hinsicht dürfen nicht aus dem Ruder laufen, das Alignment muss passen, denn die Ziele und Werte der KI (streng genommen nicht die der KI, sondern die, die wir in ihren Artefakten wahrnehmen) sollten grundsätzlich im Rahmen der menschlichen Ziele und Werte bleiben. Und da sind wir natürlich hellhörig: Supervised Learning, Alignment ist gut und recht, aber die Frage ist, wer definiert, wo die Leitplanken verlaufen sollen? Zeigt sich hier der noch besser (als bislang alle anderen) getarnte Autoritarismus der Zukunft?
Wie intelligent kann Künstliche Intelligenz sein?
Wenn wir „Guten Morgen“ sagen, ist der kognitive Aufwand, der „Rechenaufwand“ irgendwo in unserem Kopf, relativ gering, d.h. wir verfügen über die Möglichkeit von Sinn, dass man bei einer morgendlichen Begegnung sich mit diesen Worten begrüßt, mit unterschiedlicher Tonlage, je nachdem z.B., wen man grüßt, und auch nur unter bestimmten Voraussetzungen, z.B. die Mitfahrenden in der U-Bahn grüßt man im Allgemeinen nicht usw. In der Kommunikationssituation reicht dieses Minimum an implizitem Wissen. Wenn ich jedoch beginne, es zu hinterfragen und zu explizieren, provoziert z.B. durch ein sog. Krisenexperiment à la Harold Garfinkel, kommt ein komplexes und differenziertes Wissenssystem von Möglichkeiten von Sinn zutage. Das wäre immerhin noch überschaubar: Wenn Chat-GPT diese Begrüßung ausgibt, wird sehr viel gerechnet und sehr viel Strom verbraucht, damit das KI-System sicherstellen kann, dass das „Guten Morgen“ sinn-voll ist, wobei es trotzdem nicht immer passt, da ChatGPT manchmal „daneben steht“ und halluziniert (wie man das, auch metaphorisch unglücklich, bezeichnet hat). Damit ein KI-System quasi-intelligent sein kann, muss es durch ein Universum an Regelwissen und Möglichkeiten von Sinn navigieren, um sinnvolle Kombinationen zu finden. Der Preis dafür ist sehr hoch, für den Menschen ist das vom kognitiven Aufwand her ein Klacks, in puncto Energieverbrauch sowieso.