Mais contexto não significa melhor desempenho de LLM. A pesquisa de Kelly Hong (@kellyhongsn) mostra que "degradação de contexto" acontece mesmo em modelos de ponta. O desempenho degrada à medida que o comprimento da entrada aumenta. O segredo? A engenharia de contexto importa mais do que o tamanho da janela de contexto.