Codex is de afgelopen dagen vrijwel onbruikbaar geweest voor HVM-in-C ontwikkeling. Ik denk dat het hoogstwaarschijnlijk komt omdat de codebase te veel is gegroeid, en nu kan het zijn werk niet doen zonder de context te overweldigen. Elke kleine vraag die ik stel, zorgt ervoor dat het 10 minuten besteedt aan het proberen te begrijpen van de repository, en wanneer het klaar is, schrijft het gewoon slechte code die helemaal niet bruikbaar is. Ik ga nu terug naar ofwel direct coderen, of contexten handmatig verzamelen, precieze instructies geven en het model direct aanroepen. Moeizaam, maar, na een bepaald punt, is het gewoon sneller en effectiever. GPT-5 is niet immuun voor contextrot. Ik denk dat degene die dit probleem "voor goed" als eerste oplost, een ander niveau van bruikbaarheid in de echte wereld zal bereiken...