Cum @cline trăit "lecția amară" în propria sa călătorie. Când a apărut Sonetul 4, multe lucruri s-au stricat. Modelul rula în bucle. A luat instrucțiunile prea literal și a făcut chestii ciudate. Eram confuzi. Același prompt de sistem funcționase pentru 3.5, 3.7, tot ce a fost înainte. În acel moment am realizat: promptul nostru era să suprasolicităm senzorial modelul. Toate acele instrucțiuni atente pe care le-am scris? Interferau cu modul în care modelul gândește de fapt. Lecția amară pentru agenți: Crezi că poți ajusta prompturile și să faci modelele mai bune. Și poate că asta funcționează... Deocamdată. Dar cu mai mult calcul, modelele devin mai bune de la sine. Și cu cât te ții mai mult de mână, cu atât te bagi mai mult în cale. Cel mai bun prompt de sistem este cel care îndrumă agenții în direcția corectă, dar apoi se ferește de model,