Мое первоначальное впечатление о модели OSS от OpenAI соответствует тому, что они рекламировали. Она действительно ближе к o3, чем к другим открытым моделям, за исключением того, что она намного быстрее и дешевле. Некоторые провайдеры предлагают ее на уровне 3000 токенов/с, что безумие. Она определенно умнее, чем Kimi K2, R1 и Qwen 3. Я протестировал все модели немного и получил очень определительные результаты в пользу OpenAI-OSS-120b. К сожалению, есть одна вещь, которую эти модели пока не могут сделать - мою чертову работу. Так что, надеюсь, вы, ребята, повеселитесь. Я вернусь к отладке суперпозиционного λ-вычисления 😭 увидимся.
Иногда мои первые впечатления не выдерживают испытания временем (поэтому я делюсь своими подсказками), но я могу гарантировать, что gpt-oss объективно превзошел другие модели в моих первоначальных тестах. Например, рассмотрим: Учитывая ошибочный файл Haskell, gpt-oss указывает на точную проблему в самом первом предложении (parseLst является леворекурсивным), в то время как другие модели OSS сильно врут и даже не *упоминают* эту проблему. Возможно, модель просто хороша в отладке, или, возможно, мое впечатление со временем изменится, но мои первые тесты были объективно в пользу gpt-oss 🤷‍♂️
dax
dax6 авг. 2025 г.
все, кого я знаю, действительно не очень хорошо проводят время с gpt-oss до сих пор это полезно, потому что теперь, когда я вижу популярные аккаунты, говорящие "это так здорово, вау", я знаю, что они врут
249