Mehr Kontext bedeutet nicht unbedingt eine bessere LLM-Leistung. Die Forschung von Kelly Hong (@kellyhongsn) zeigt, dass "Kontextverfall" selbst bei fortschrittlichen Modellen auftritt. Die Leistung verschlechtert sich, je länger die Eingabe ist. Das Geheimnis? Kontextengineering ist wichtiger als die Größe des Kontextfensters.