Ist Luhmanns Zettelkasten durch KI ersetzbar? Dazu ein euphorisches Statement: „#KI wie #ChatGPT ist ein unglaublicher Booster für die menschliche Kreativität. Was Niklas Luhmann einst als Vision für seinen Zettelkasten hatte, steht nun allen zur Verfügung: Die Weiterentwicklung der eigenen Gedanken durch den Dialog mit der eigenen intellektuellen Spiegelung. […] Das Wort ‚Reflexion‘ bekommt hier wieder seine eigentliche Bedeutung.“ (https://det.social/¬@HxxxKxxx/¬109823236460948019)
Die künstliche Intelligenz ist tatsächlich ein Booster, eine Inspiration, ein neues Spielfeld für Kreativität, Experiment, Theoriebildung – und bei alledem auch eine Herausforderung für die menschliche Intelligenz und eine Verpflichtung darüber nachzudenken, worin der Unterschied zwischen den beiden „Intelligenzen“ besteht, und diesen immer mitzudenken. KI-Tools wie ChatGPT, die auf der Funktionsweise der LLMs beruhen, sind interessant, spannend, inspirierend und hilfreich im Forschungsprozess. Aber kann KI wirklich das ersetzen, was Luhmann als seine eigene wissenschaftliche Wirklichkeit geschaffen hat? Kann diese Reflexionsarbeit, diese jahrzehntelange aktive Auseinandersetzung mit wissenschaftlicher Literatur, mit Theorien, Hypothesen usw. durch KI ersetzt werden? Nein. Das erkennt man schon daran, wie ChatGPT funktioniert. Es bastelt ein Wörter-Sätze-Aggregat, indem – vereinfacht gesagt – mit hohem Rechneraufwand aufgrund von Algorithmen aus Unmengen von Textmaterial ermittelt wird, welche Wörter oder Sätze zusammen statistisch am häufigsten vorkommen. Das so entstandene Wörter-Sätze-Aggregat wird erst dann verstanden und interpretiert als sinnvoller Text und nur von Menschen – die sich wundern, was da zustande kommt. Die KI tut so, als ob das ein sinnvoller Text ist, sie simuliert einen sinnvollen Text, genau genommen also nur einen statisch wahrscheinlich sinnvollen Text, der wirklich sinnvoll erst dann sein kann, wenn wir ihn verstehen und interpretieren, wir geben ihm Sinn. Wenn wir mit einem KI-Text etwas tun, kann KI auch ein Booster sein. KI wird dann „zu einer Denkassistentin, mit der man Themen entwickeln, diskutieren und von der man sich anregen lassen kann“. Durchaus, aber warum muss man dabei annehmen, dass die KI denkt? Und warum benötigt man zur Bekräftigung dieser Annahme die niedliche Metapher der Denkassistentin? Es ist nicht zielführend, menschliche und künstliche Intelligenz gleichzusetzen, auch nicht metaphorisch, leider ist das eine Grundtendenz, wenn wir über KI sprechen. Anstatt Unterschiede zu nivellieren, ist es geraten, die grundsätzlichen Unterschiede deutlicher zu machen. Was KI generiert, ist wie gesagt das Ergebnis von Algorithmen, Statistik und Wahrscheinlichkeitstheorie, eine black box –- schon allein die Tatsache, dass KI-generierte Texte nicht nachvollziehbar und nicht begründbar sind, disqualifiziert sie für wissenschaftliche Kontexte, denn Nachvollziehbarkeit und Begründbarkeit ist das primäre Qualitätskriterium von Wissenschaft. Was diese KI generiert, ist nicht das Ergebnis von Reflexion, insofern auch keine „eigene intellektuelle Spiegelung“ – und schon gar nicht könnte so das Wort „Reflexion“ wieder seine eigentliche Bedeutung bekommen…