Impresia mea inițială despre modelul OSS al OpenAI este aliniată cu ceea ce au promovat. Se simte mai aproape de o3 decât de alte modele deschise, cu excepția faptului că este mult mai rapid și mai ieftin. Unii furnizori îl oferă la 3000 de jetoane/s, ceea ce este o nebunie. Este cu siguranță mai inteligent decât Kimi K2, R1 și Qwen 3. Am testat toate modelele puțin și am obținut rezultate foarte decisive în favoarea OpenAI-OSS-120b. Din păcate, există un lucru pe care aceste modele nu îl pot face încă - treaba mea. Deci, sper să vă distrați. Mă voi întoarce la depanarea evaluării 😭 λ-calculului suprapus ne vedem
Uneori, impresiile mele timpurii nu îmbătrânesc atât de bine (de aceea îmi împărtășesc solicitările), dar pot garanta că gpt-oss a depășit în mod obiectiv celelalte modele la testele mele inițiale. De exemplu, luați în considerare: Având în vedere un fișier Haskell cu erori, gpt-oss indică problema exactă chiar în prima propoziție (parseLst fiind recursiv la stânga), în timp ce alte modele OSS se pun greu și nici măcar nu *menționează* problema. Poate că modelul se întâmplă să fie bun la depanare sau poate că impresia mea se va schimba în timp, dar primele mele teste au fost în mod obiectiv în favoarea gpt-oss 🤷 ♂️
dax
dax6 aug. 2025
Toată lumea legitimă pe care o cunosc nu se simte bine cu GPT-OSS până acum Este util pentru că acum, când văd conturi populare spunând "este atât de bun, wow", știu că sunt prostii
254