A minha impressão inicial sobre o modelo OSS da OpenAI está alinhada com o que eles anunciaram. Sinto que está mais próximo do o3 do que de outros modelos abertos, exceto que é muito mais rápido e barato. Alguns fornecedores oferecem-no a 3000 tokens/s, o que é insano. É definitivamente mais inteligente do que o Kimi K2, R1 e Qwen 3. Testei todos os modelos por um tempo e obtive resultados muito decisivos a favor do OpenAI-OSS-120b. Infelizmente, há uma coisa que esses modelos ainda não conseguem fazer - o meu maldito trabalho. Portanto, espero que vocês se divirtam. Estarei de volta para depurar a avaliação do λ-cálculo superposto 😭 até logo.
Às vezes, as minhas primeiras impressões não envelhecem tão bem (é por isso que partilho os meus prompts), mas posso garantir que o gpt-oss superou objetivamente os outros modelos nos meus testes iniciais. Por exemplo, considere: Dado um arquivo Haskell com erros, o gpt-oss aponta o problema exato na primeira frase (parseLst sendo recursivo à esquerda), enquanto outros modelos OSS enrolam e nem sequer *mencionam* o problema. Talvez o modelo seja bom em depuração, ou talvez a minha impressão mude com o tempo, mas os meus primeiros testes foram objetivamente a favor do gpt-oss 🤷‍♂️
dax
dax6/08/2025
toda a gente que conheço está a ter um mau momento com o gpt-oss até agora é útil porque agora, quando vejo contas populares a dizer "é tão bom, uau", sei que estão a mentir.
255