Bagaimana @cline mengalami "pelajaran pahit" dalam perjalanannya sendiri. Ketika Soneta 4 jatuh, banyak hal yang rusak. Model berjalan dalam lingkaran. Mengambil instruksi terlalu harfiah dan melakukan omong kosong yang aneh. Kami bingung. Prompt sistem yang sama telah bekerja untuk 3.5, 3.7, semuanya sebelumnya. Pada saat itu kami menyadari: prompt kami adalah sensorik yang membebani model. Semua instruksi hati-hati yang telah kami tulis? Mereka mengganggu bagaimana model sebenarnya berpikir. Pelajaran pahit bagi agen: Anda pikir Anda dapat menyetel petunjuk dan membuat model lebih baik. Dan mungkin itu berhasil... untuk saat ini. Tetapi dengan lebih banyak komputasi, model menjadi lebih baik dengan sendirinya. Dan semakin banyak memegang tangan yang Anda lakukan, semakin Anda benar-benar menghalangi. Prompt sistem terbaik adalah prompt yang mengarahkan agen ke arah yang benar tetapi kemudian menyingkir dari model,