Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Oberoende analys av AI-modeller och hostingleverantörer - välj den bästa modellen och API-leverantören för ditt användningsfall
Alibaba har släppt Qwen3 Next 80B: en hybridresonemangsmodell med öppna vikter som uppnår intelligens på DeepSeek V3.1-nivå med endast 3B aktiva parametrar
Viktigt att ta med sig:
💡 Ny arkitektur: Den första modellen som introducerar @Alibaba_Qwen:s "Qwen3-Next"-grundmodeller, med flera viktiga arkitekturbeslut, såsom en hybridmekanism för uppmärksamhet mellan Gated DeltaNet och Gated Attention, och hög gleshet med en andel på 3,8 % aktiva parametrar, jämfört med 9,4 % för Qwen3 235B
🧠 Intelligens: Qwen3 Next 80B (resonemang) får 54 poäng på Artificial Analysis Intelligence Index, placerat tillsammans med DeepSeek V3.1 (resonemang). Den icke-resonerande varianten får 45 poäng, i linje med gpt-oss-20B och Llama Nemotron Super 49B v1.5 (Resonemang)
💲 Prismodell: Per token är prissättningen på @alibaba_cloud 0,5 USD/6 USD per 1 miljon input/output-tokens för resonemang och 0,5 USD/2 USD för den icke-resonerande varianten. Detta kan jämföras med högre priser för Qwen3 235B 2507 på 0,7 USD/8,4 USD med motivering och 0,7 USD/2,8 USD utan - en minskning med ≥25 % beroende på arbetsbelastning
⚙️ Modellinformation: Modellen har ett inbyggt kontextfönster med 256 kB token och är endast text, utan multimodala indata eller utdata. Med endast 80B parametrar vid FP8 passar modellen på en enda H200 GPU

182
Vi lanserar vår undersökning State of Generative Media 2025 med stöd av @fal! Delta för att få hela undersökningsrapporten och vinna ett par Meta Ray-Bans 🕶️
Vi genomför undersökningen för att samla in insikter om tillståndet för generativa medier år 2025. Detta inkluderar perspektiv på hur organisationer använder, väljer och får tillgång till bild-, video- och musikmodeller!
Varför medverka?
✅ Få en gratis kopia av den utökade undersökningsrapporten (endast en begränsad version kommer att vara tillgänglig för allmänheten)
✅ Chans att vinna ett par Ray-Ban Meta AI-glasögon 🕶️
✅ Bidra till att dela insikter om de viktigaste trenderna som formar generativa medier
Länk i tråden nedan! ⬇️⬇️⬇️⬇️⬇️⬇️⬇️
235
DeepSeek lanserar V3.1 och förenar V3 och R1 till en hybrid resonemangsmodell med en inkrementell ökning av intelligensen
Ökning av inkrementell intelligens: Initiala benchmarkingresultat för DeepSeek V3.1 visar Artificial Analysis Intelligence Index på 60 i resonemangsläge, upp från R1:s poäng på 59. I icke-resonemangsläge uppnår V3.1 en poäng på 49, en större ökning från den tidigare V3 0324-poängen på 44. Detta lämnar V3.1 (resonemang) bakom Alibabas senaste Qwen3 235B 2507 (resonemang) - DeepSeek har inte tagit tillbaka ledningen.
Hybridresonemang: @deepseek_ai har för första gången gått över till en hybridmodell för resonemang - med stöd för både resonemang och icke-resonemang. DeepSeeks övergång till en enhetlig hybridresonemangsmodell efterliknar det tillvägagångssätt som OpenAI, Anthropic och Google har antagit. Det är dock intressant att notera att Alibaba nyligen övergav sin hybridmetod som de föredrog för Qwen3 med sina separata utgåvor av Qwen3 2507 resonemangs- och instruktionsmodeller.
Funktionsanrop / verktygsanvändning: Medan DeepSeek hävdar förbättrad funktionsanrop för modellen, stöder DeepSeek V3.1 inte funktionsanrop i resonemangsläge. Detta kommer sannolikt att avsevärt begränsa dess förmåga att stödja agentiska arbetsflöden med intelligenskrav, inklusive kodning av agenter.
Tokenanvändning: DeepSeek V3.1 får stegvis högre poäng i resonemangsläge än DeepSeek R1 och använder något färre tokens över de val vi använder för Artificial Analysis Intelligence Index. I icke-resonemangsläge använder den något fler tokens än V3 0324 - men fortfarande flera gånger färre än i sitt eget resonemangsläge.
API: DeepSeeks förstaparts-API betjänar nu den nya DeepSeek V3.1-modellen på både deras chatt- och resonemangsslutpunkter - och ändrar helt enkelt om sluttänkartoken </think> tillhandahålls till modellen i chattmallen för att kontrollera om modellen kommer att resonera.
Arkitektur: DeepSeek V3.1 är arkitektoniskt identisk med tidigare V3- och R1-modeller, med totalt 671B parametrar och 37B aktiva parametrar.
Konsekvenser: Vi skulle råda till försiktighet med att göra några antaganden om vad denna utgåva innebär om DeepSeeks framsteg mot en framtida modell som i rykten kallas V4 eller R2. Vi noterar att DeepSeek tidigare släppte den slutliga modellen byggd på deras V2-arkitektur den 10 december 2024, bara två veckor innan de släppte V3.


481
Topp
Rankning
Favoriter