Codex był praktycznie nieużywalny do rozwoju HVM-in-C w ciągu ostatnich kilku dni. Myślę, że najprawdopodobniej to dlatego, że baza kodu zbyt się rozrosła i teraz nie może działać bez przytłaczania kontekstu. Każda mała rzecz, o którą pytam, powoduje, że spędza 10 minut tylko na próbie zrozumienia repozytorium, a kiedy to kończy, po prostu pisze zły kod, który w ogóle nie jest użyteczny. Teraz wracam do kodowania bezpośrednio lub zbierania kontekstów ręcznie, dając precyzyjne instrukcje i wywołując model bezpośrednio. Pracochłonne, ale po pewnym punkcie jest to po prostu szybsze i bardziej efektywne. GPT-5 nie jest odporne na degradację kontekstu. Myślę, że ten, kto pierwszy rozwiąże ten problem "na dobre", osiągnie inny poziom użyteczności w rzeczywistym świecie...