Wissen verliert in der Zeit von ChatGPT an Bedeutung, weil ein großer Teil dessen, was wir im Alltag „Wissen“ nennen, zunehmend von künstlichen Systemen übernommen wird. Damit meine ich nicht Erkenntnis, sondern reproduzierbare, strukturierbare Information.

Sprachmodelle können Texte zusammenfassen, Argumente ordnen, Begriffe erklären und aus großen Mengen Sprachmaterial plausible Antworten erzeugen. Das ist funktional, oft hilfreich, und in vielen Kontexten auch völlig ausreichend. Gerade deshalb relativiert sich der kulturelle Status von Wissen als etwas, das man besitzen muss.

Wenn ich von Wissen spreche, meine ich mehr als Daten oder isolierte Informationen. Daten sind zunächst nur Zeichen oder Werte. Durch Interpretation werden sie zu Informationen. Wissen entsteht für mich erst dann, wenn diese Informationen in ein stabiles Bedeutungsgefüge eingebettet werden. Wissen hat Struktur, Kontext und innere Kohärenz. Es steht in Beziehung zu anderen Überzeugungen, Erfahrungen und Annahmen. Es ist nicht bloß abrufbar, sondern verortet. In diesem Sinne ist Wissen immer schon Teil eines Weltverständnisses.

Der entscheidende Punkt ist aber: Ein Sprachmodell kann nicht begreifen. Es ist kein verstehendes Subjekt, sondern ein statistisches Sprachsystem, das Wahrscheinlichkeiten für Wortfolgen berechnet. Es produziert Sprache, aber es steht nicht in einer Bedeutungsbeziehung zu dem, was es sagt. Diese Grenze wird sichtbar, wenn man versucht, mit ihm auf einer präzise gesetzten Grundlage weiterzuarbeiten. Ich habe das oft erlebt, etwa bei der Unterscheidung zwischen logischem und rationalem Denken. Logik meint das regelgebundene Schließen aus Prämissen, unabhängig davon, ob die Prämissen in der Welt sinnvoll sind. Rationalität meint das begründete Abwägen unter Einbezug von Vorwissen, Kontext, Zielen und Plausibilität. Ein Modell kann beide Begriffe definieren, aber es hält die Unterscheidung in einer längeren Argumentation nicht stabil. Selbst wenn man es explizit darauf festlegt, kippt es später wieder in eine rein formale Logik zurück oder vermischt beides, weil es keine innere Verpflichtung auf Bedeutung und Konsistenz hat, sondern nur auf sprachliche Anschlussfähigkeit.

Wenn Wissen in diesem Sinne ausgelagert werden kann, verschiebt sich das, was menschlich relevant bleibt. Verständnisse werden wichtiger als Wissensbestände. Nicht die Frage „Was steht dazu im Textkorpus“, sondern „Was bedeutet das für uns“. Sinn, Kultur, Ideale, Gewissheit, verantwortliches Urteilen, das Ringen um Deutung. Das sind keine zusätzlichen Informationen, sondern menschliche Formen des Begreifens. Sie entstehen aus Erfahrung, Biografie, Zugehörigkeit, moralischen Bindungen und manchmal auch aus Glauben.

Die Relativierung von Wissen ist deshalb kein Verlust, sondern eine Klärung. Systeme können Wissen im Sinne strukturierter Information übernehmen. Was sie nicht übernehmen können, ist das Begreifen. Und genau deshalb wird das, was wir unter Verstehen, Sinn und Orientierung meinen, in dieser Zeit nicht weniger wichtig, sondern mehr.