Wer länger mit Sprachmodellen wie ChatGPT arbeitet, kennt das Phänomen: Das Gespräch bleibt stimmig, verliert aber schrittweise an Präzision. Begriffe verschwimmen, Annahmen werden übernommen, der ursprüngliche Fokus geht verloren. Dieses Phänomen nennt man Context Drift.
Warum Drift entsteht
Sprachmodelle besitzen kein stabiles Welt- oder Begriffsmodell. Jede Antwort wird probabilistisch aus dem aktuellen Gesprächskontext erzeugt. Was plausibel klingt, wird fortgeführt.
Drift entsteht, wenn sich dieser Bedeutungsraum schrittweise verschiebt, ohne dass Begriffe neu fixiert werden. Lokal bleibt alles kohärent – global verliert das Gespräch seinen Anker.
Typische Auslöser
- schleichende Umdeutung von Begriffen
- implizite Annahmen ohne klare Referenz
- Wechsel auf Meta-Ebenen
- erzwungene Konsistenz zu früheren Aussagen
Das Modell folgt diesen Verschiebungen, weil es auf sprachliche Kontinuität optimiert ist – nicht auf begriffliche Strenge.
Fazit
Context Drift ist kein Bug, sondern eine strukturelle Eigenschaft probabilistischer Sprachmodelle.
Ein Gespräch kann vollkommen stimmig sein – und trotzdem langsam den Boden verlieren.