Så Codex har vært praktisk talt ubrukelig for HVM-i-C-utvikling de siste dagene. Jeg tror det mest sannsynlig er fordi kodebasen vokste for mye, og nå kan den ikke gjøre sin greie uten å overvelde konteksten. Hver minste ting jeg spør om får den til å bruke 10 minutter bare på å prøve å forstå depotet, og når den er ferdig, skriver den bare dårlig kode som ikke er brukbar i det hele tatt. Jeg går nå tilbake til enten å kode direkte, eller samle kontekster manuelt, gi presise instruksjoner og kalle modellen direkte. Arbeidskrevende, men forbi et visst punkt er det bare raskere og mer effektivt. GPT-5 er ikke immun mot kontekstråte. Jeg tror at den som løser dette problemet "for godt" først vil nå et annet nivå av nytte i den virkelige verden ...