Hvordan @cline opplevde den «bitre leksen» på sin egen reise. Da Sonnet 4 kom ut, gikk mye i stykker. Modellen gikk i løkker. Tok instruksjoner for bokstavelig og gjorde rare ting. Vi var forvirret. Samme systemprompt hadde fungert for 3.5, 3.7, alt før. Da innså vi: prompten vår var sensorisk overbelastning av modellen. Alle de nøye instruksjonene vi hadde skrevet? De blandet seg inn i hvordan modellen faktisk tenker. Den bitre lærepengen for agenter: Du tror du kan justere prompts og gjøre modellene bedre. Og kanskje det fungerer... foreløpig. Men med mer datakraft blir modellene bare bedre av seg selv. Og jo mer håndholding du gjør, desto mer kommer du faktisk i veien. Den beste systemprompten er den som peker agentene i riktig retning, men som så flytter seg ut av modellens vei,