Mai mult context nu înseamnă performanțe LLM mai bune. Cercetările lui Kelly Hong (@kellyhongsn) arată că "putregaiul contextului" se întâmplă chiar și în modelele de frontieră. Performanța se degradează pe măsură ce crește lungimea de intrare. Secretul? Ingineria contextului contează mai mult decât dimensiunea ferestrei contextului.