Minha impressão inicial sobre o modelo OSS da OpenAI está alinhada com o que eles anunciaram. Parece mais próximo do o3 do que de outros modelos abertos, exceto que é muito mais rápido e barato. Alguns provedores oferecem a 3000 tokens/s, o que é insano. É definitivamente mais inteligente que Kimi K2, R1 e Qwen 3. Testei todos os modelos um pouco e obtive resultados muito decisivos a favor do OpenAI-OSS-120b. Infelizmente, há uma coisa que esses modelos ainda não podem fazer - meu maldito trabalho. Então, espero que vocês se divirtam. Voltarei à depuração da avaliação 😭 de cálculo λ sobreposto, até mais
Às vezes, minhas primeiras impressões não envelhecem tão bem (é por isso que compartilho minhas instruções), mas posso garantir que o gpt-oss superou objetivamente os outros modelos em meus testes iniciais. Por exemplo, considere: Dado um arquivo Haskell com bugs, gpt-oss aponta o problema exato na primeira frase (parseLst sendo recursivo à esquerda), enquanto outros modelos OSS fazem besteira e nem mesmo *mencionam* o problema. Talvez o modelo seja bom em depuração, ou talvez minha impressão mude com o tempo, mas meus primeiros testes foram objetivamente a favor do gpt-oss 🤷 ♂️
dax
dax6 de ago. de 2025
Todo mundo legítimo que eu conheço não está se divertindo com o GPT-OSS até agora É útil porque agora, quando vejo contas populares dizerem "é tão bom, uau", sei que estão falando besteira
253