Nachdem ich kürzlich beschrieben habe, dass Wissen für mich die Einbettung von Informationen in größere Kontexte ist, möchte ich an dieser Stelle einen Aspekt präzisieren, der in der Diskussion um KI häufig verkürzt behandelt wird: Biases.

Biases sind Verzerrungen. Der Begriff wird oft moralisch aufgeladen verwendet, als ginge es ausschließlich um Diskriminierung oder offensichtliche Schieflagen. Tatsächlich sind Biases zunächst strukturelle Verschiebungen. Sie entstehen dort, wo Auswahl, Gewichtung und Kontextsetzung stattfinden.

Bei großen Sprachmodellen lassen sich mindestens zwei Ebenen unterscheiden. Zum einen gibt es Verzerrungen „by design“. Anbieter definieren Leitplanken, Sicherheitsmechanismen und normative Grenzen. Bestimmte Antworten werden priorisiert, andere abgeschwächt oder ausgeschlossen. Das ist kein Zufall, sondern eine bewusste Setzung. Zum anderen entstehen Biases durch systemische Einschränkungen. Trainingsdaten spiegeln bestehende Diskurse, kulturelle Dominanzen und historische Ungleichgewichte wider. Ein Modell lernt nicht die Welt, sondern Texte über die Welt. Damit übernimmt es implizite Perspektiven.

Wenn Wissen die Einbettung von Informationen in größere Kontexte ist, dann sind diese Kontexte niemals neutral. Sie sind geprägt von Weltanschauungen, kulturellen Selbstverständlichkeiten und normativen Annahmen. Genau hier liegt der eigentliche Kern des Bias-Problems. Sprachmodelle liefern keine Antworten im luftleeren Raum. Sie generieren Ausgaben innerhalb jener Deutungsrahmen, die in ihren Trainingsdaten und Designentscheidungen angelegt sind.

Das bedeutet nicht, dass jede Antwort ideologisch ist. Aber es bedeutet, dass jede Antwort perspektivisch ist. Selbst der Versuch, Neutralität herzustellen, ist nicht frei von Voraussetzungen. Wenn Entwickler festlegen, ein System solle neutral sein, dann wird damit eine bestimmte Vorstellung von Neutralität implementiert. Doch Neutralität ist selbst eine weltanschauliche Position. Sie setzt voraus, dass es einen Standpunkt jenseits konkurrierender Überzeugungen gibt, von dem aus gesprochen werden kann. Ob und in welchem Maße das möglich ist, ist keine technische, sondern eine philosophische Frage.

Insofern sind Biases nicht bloß Fehler im System. Sie sind Ausdruck der Kontexte, in die Informationen eingebettet werden. Wenn wir über Verzerrungen sprechen, sprechen wir letztlich über Weltbilder. Und damit über genau jene größeren Zusammenhänge, die Wissen überhaupt erst strukturieren.

Sprachmodelle machen diese Zusammenhänge nicht neu. Sie verdichten sie. Wer mit ihnen arbeitet, sollte deshalb weniger nach der perfekten Neutralität suchen als nach einem bewussten Umgang mit den zugrunde liegenden Perspektiven. Bias ist kein Randphänomen. Es ist ein Hinweis darauf, dass auch technische Systeme nie außerhalb kultureller und normativer Ordnungen stehen.