Mein erster Eindruck von OpenAIs OSS-Modell stimmt mit dem überein, was sie beworben haben. Es fühlt sich näher an o3 als an anderen offenen Modellen an, außer dass es viel schneller und günstiger ist. Einige Anbieter bieten es mit 3000 Tokens/s an, was verrückt ist. Es ist definitiv intelligenter als Kimi K2, R1 und Qwen 3. Ich habe alle Modelle eine Weile getestet und sehr eindeutige Ergebnisse zugunsten von OpenAI-OSS-120b erhalten. Leider gibt es eine Sache, die diese Modelle noch nicht können - meinen verdammten Job. Also, ich hoffe, ihr habt Spaß. Ich werde zurück sein, um die superponierte λ-Kalkül-Auswertung zu debuggen 😭 bis bald.
Manchmal halten meine ersten Eindrücke nicht so lange (deshalb teile ich meine Eingabeaufforderungen), aber ich kann garantieren, dass gpt-oss die anderen Modelle in meinen ersten Tests objektiv übertroffen hat. Zum Beispiel, betrachten Sie: Angesichts einer fehlerhaften Haskell-Datei weist gpt-oss im allerersten Satz auf das genaue Problem hin (parseLst ist linksrekursiv), während andere OSS-Modelle hart herumlabern und das Problem nicht einmal *erwähnen*. Vielleicht ist das Modell zufällig gut im Debuggen, oder vielleicht wird sich mein Eindruck im Laufe der Zeit ändern, aber meine ersten Tests sprachen objektiv für gpt-oss 🤷‍♂️
dax
dax6. Aug. 2025
Jeder, den ich kenne, hat bisher keine gute Zeit mit gpt-oss. Es ist nützlich, denn jetzt weiß ich, wenn ich beliebte Accounts sagen höre "es ist so gut, wow", dass sie lügen.
243