Wenn wir „Guten Morgen“ sagen, ist der kognitive Aufwand, der „Rechenaufwand“ irgendwo in unserem Kopf, relativ gering, d.h. wir verfügen über die Möglichkeit von Sinn, dass man bei einer morgendlichen Begegnung sich mit diesen Worten begrüßt, mit unterschiedlicher Tonlage, je nachdem z.B., wen man grüßt, und auch nur unter bestimmten Voraussetzungen, z.B. die Mitfahrenden in der U-Bahn grüßt man im Allgemeinen nicht usw. In der Kommunikationssituation reicht dieses Minimum an implizitem Wissen. Wenn ich jedoch beginne, es zu hinterfragen und zu explizieren, provoziert z.B. durch ein sog. Krisenexperiment à la Harold Garfinkel, kommt ein komplexes und differenziertes Wissenssystem von Möglichkeiten von Sinn zutage. Das wäre immerhin noch überschaubar: Wenn Chat-GPT diese Begrüßung ausgibt, wird sehr viel gerechnet und sehr viel Strom verbraucht, damit das KI-System sicherstellen kann, dass das „Guten Morgen“ sinn-voll ist, wobei es trotzdem nicht immer passt, da ChatGPT manchmal „daneben steht“ und halluziniert (wie man das, auch metaphorisch unglücklich, bezeichnet hat). Damit ein KI-System quasi-intelligent sein kann, muss es durch ein Universum an Regelwissen und Möglichkeiten von Sinn navigieren, um sinnvolle Kombinationen zu finden. Der Preis dafür ist sehr hoch, für den Menschen ist das vom kognitiven Aufwand her ein Klacks, in puncto Energieverbrauch sowieso.