Hvorfor er det riktig trekk? Alvorlig?
1. Modeller tenker allerede mer på vanskeligere problemer i resonneringsmodus.
2. Du kan bare alltid få det til å prøve å resonnere, så vil det aldri svikte deg i tilfelle det trengs.
3. Hver gang et svar ikke er tilfredsstillende hvis du ikke hadde resonnement på, kan du bare slå det på.
Hvorfor er det verdt så mye bry? Hva er de virkelige fordelene ved å ta kontrollen fra brukerne? Hvorfor er de så urokkelige på det?
Model Switcher-paradigmet vil bli rettferdiggjort i det lange løp. det er en høy byttekostnad til en helt ny brukeropplevelse på et nyttig produkt, men det er det riktige trekket
Faen, jeg ga Cursor-CLI og gpt-5 en sjanse til å lage noen form for nettspill - mislyktes nesten 10 forsøk og ga opp. Hva er poenget med denne tingen..
For en forskjell 2 år gjør -
For det første, et faktisk fantastisk sprang fremover, for det andre. GPT5
Kan vi gå tilbake til å være mye mer realistiske og avmålte i hype-toget? Jeg savner det
For en forskjell 2 år gjør -
For det første, et faktisk fantastisk sprang fremover, for det andre. GPT5
Kan vi gå tilbake til å være mye mer realistiske og avmålte i hype-toget? Jeg savner det
nysgjerrig på treningsdataene til OpenAIs nye gpt-oss-modeller? Det var jeg også.
så jeg genererte 10 millioner eksempler fra gpt-oss-20b, kjørte noen analyser, og resultatene var ... ganske bisarrt
På tide med et dypdykk 🧵