Ohne Zweifel bringt Künstliche Intelligenz (KI) mittlerweile Leistungen, die menschliche Intelligenz vielfach unterstützen, kompensieren und zum Teil ersetzen können. Dieser Beitrag stellt die Frage, wo die prinzipiellen Grenzen der KI liegen und ob überhaupt von Intelligenz im eigentlichen Wortsinn die Rede sein kann. Wenn menschliche und künstliche Intelligenz nur anhand ihrer Symptomatik beurteilt werden, nivelliert sich zusehends der Unterschied bzw. schlägt das Pen-del schon in die andere Richtung aus. Hier ist wohl ein reduzierter Begriff von Intelligenz im Spiel. Anhand der Hermeneutik und der Tractatus-Philosophie von Ludwig Wittgenstein wird gezeigt, dass ein KI-System wie ChatGPT grundsätzliche Defizite aufweist. Es kann Sprache nicht verstehen und nicht lernen. Schlüsse ziehen kann es zwar deduktiv als Expertensystem, jedoch induktiv nur statistisch und abduktiv gar nicht. Zudem ist ein KI-System wie ChatGPT ein geschlossenes selbstreferenzielles System, das zu Paradoxien und Selbstreplikation durch Autophagie tendiert, konservativ und anfällig für Manipulation ist und à la longue Qualität und Reichweite unserer Wirklichkeitserkenntnis reduziert. Gefragt sind ein technologiekritischer Ansatz, die Überwindung des behavioristischen und naiv technizistischen Paradigmas der KI sowie eine kritische Metaphernanalyse der Anthropomorphismen der KI. So können Grundlagen geschaffen werden für eine sinnvolle Sprache über KI und damit auch für brauchbare theoretische Konzepte und Modelle ihrer Nutzung und Weiterentwicklung.