Como @cline vivenciou a "amarga lição" em sua própria jornada. Quando o Soneto 4 foi lançado, muitas coisas quebraram. O modelo rodava em loops. Levou as instruções ao pé da letra demais e fez coisas estranhas. Ficamos confusos. O mesmo prompt do sistema funcionou para 3.5, 3.7, tudo antes. Nesse momento percebemos: nosso prompt estava sobrecarregando sensorialmente o modelo. Todas aquelas instruções cuidadosas que escrevemos? Eles estavam interferindo na forma como o modelo realmente pensa. A amarga lição para os agentes: Você acha que pode ajustar prompts e melhorar os modelos. E talvez isso funcione... Por enquanto. Mas com mais computação, os modelos só melhoram sozinhos. E quanto mais você está segurando a mão, mais você realmente atrapalha. O melhor prompt do sistema é aquele que aponta os agentes na direção certa, mas depois sai do caminho do modelo,