Come @cline ha vissuto la "amara lezione" nel suo percorso. Quando è uscito il Sonnet 4, molte cose si sono rotte. Il modello girava in loop. Prendeva le istruzioni troppo alla lettera e faceva cose strane. Eravamo confusi. Lo stesso prompt di sistema aveva funzionato per 3.5, 3.7, tutto prima. A quel punto ci siamo resi conto: il nostro prompt stava sovraccaricando sensorialmente il modello. Tutte quelle istruzioni dettagliate che avevamo scritto? Stavano interferendo con il modo in cui il modello pensa realmente. L'amara lezione per gli agenti: Pensi di poter sintonizzare i prompt e migliorare i modelli. E forse funziona... per ora. Ma con più potenza di calcolo, i modelli migliorano da soli. E più assistenza dai, più in realtà stai ostacolando il processo. Il miglior prompt di sistema è quello che indirizza gli agenti nella giusta direzione ma poi si fa da parte.