Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

steve hsu
Fysiker, AI-grundare, Manifold Podcast
Läs alltid kosttillskotten! Denna information var inte tillgänglig med det ursprungliga arxiv-preprintet.

Ross Taylor18 sep. 00:45
Kompletterande information till den nya DeepSeek R1 Nature-rapporten är mycket intressant!
Information om träningsdata, hyperparametrar, basmodellens betydelse med mera.

Huawei tillkännagav sin färdplan för AI-chip fram till 2028. 2026 Ascend 950 kommer att använda sig av HW-utvecklat HBM (High Bandwidth Memory).
1. Föreslår att SMIC-kapacitet vid 5-7nm inte längre är ett problem
2. På nod- eller klusternivå kan HW vara konkurrenskraftig med Nvidia även om de fortsätter att släpa efter på individuell chipnivå (ingen tillgång till TSMC / EUV)
"Huawei planerar att introducera Atlas 950 SuperPod under Q4 2026. Systemet kommer att innehålla 8 192 Ascend 950DT-chip och bestå av 160 skåp – 128 beräkningsskåp och 32 kommunikationsskåp – som kan placeras ut på ett 1 000 kvadratmeter stort utrymme.
Eric Xu, Huaweis roterande ordförande, sa att Atlas 950 SuperPod kommer att ha 6,7 gånger mer datorkraft och 15 gånger mer minneskapacitet än NVL144-systemet som Nvidia har för avsikt att lansera 2026, och skulle fortsätta att slå ett efterföljare som Nvidia planerar för 2027.

Rui Ma22 timmar sedan
De viktigaste China Tech-nyheterna idag är Huaweis tillkännagivande av chipfärdplanen och tillhörande genombrott.
Viktigt att ta med sig:
Färdplan:
910C (2025), 950PR/DT (2026), 960 (2027), 970 (2028).
Anger en stadig takt för uppgraderingar av beräkning, bandbredd och minnesskalning.
Självförsörjning i minnet:
Från och med 950-serien kommer Huawei att använda egenutvecklat HBM-minne med hög bandbredd (HiBL 1.0, HiZQ 2.0), vilket minskar beroendet av utländska leverantörer och gör leveranskedjan mer oberoende.
Strategisk positionering jämfört med NVIDIA:
NVIDIA:s Blackwell Ultra GB300 ligger fortfarande långt före på enchipsnivå (15 PFLOPS FP4).
Huawei erkänner gapet men betonar sammankoppling och skalning på klusternivå och hävdar att de är ledande inom beräkningskraft för supernoder. Se citat nedan.
Klustrets ambition:
Nya Atlas SuperPoD:er skalas upp till 15 488 kort till 2027, vilket gör det möjligt för aggregerad beräkning att konkurrera med eller överträffa konkurrenterna trots svagare chips.
Huawei satsar på prestanda på systemnivå, inte bara chipspecifikationer.
Expansion över domäner:
TaiShan 950 SuperPoD (2026) sträcker sig bortom AI till allmän databehandling och riktar in sig på den roll som en gång fylldes av stordatorer.
Översättning av Xinzhixun täckning nedan:
"Den 18 september, på Huawei Full Connect Conference 2025, presenterade den roterande ordföranden Xu Zhijun företagets senaste färdplan för Ascend AI-chip.
Under Q1 2025 lanserade Huawei Ascend 910C.
Under Q1 2026 kommer den att släppa Ascend 950PR, följt av Ascend 950DT under Q4.
Under Q4 2027 är Ascend 960 planerad och Ascend 970 kommer att anlända under Q4 2028.
Ascend 910C är byggd på en SIMD-arkitektur som levererar upp till 800 TFLOPS (FP16), med stöd för FP32/HF32/FP16/BF16/INT8-format, 784 GB/s sammankopplingsbandbredd, 128 GB HBM och 3,2 TB/s minnesbandbredd.
Ascend 950PR/DT kommer att uppgradera till en SIMD/SIMT-arkitektur och uppnå 1 PFLOPS (FP8) / 2 PFLOPS (FP4). Den kommer att stödja ett bredare utbud av format (FP32 till FP4), med 2 TB/s sammankopplingsbandbredd. Minne specifikationer:
950PR: 144 GB, bandbredd på 4 TB/s.
950DT: 128 GB, 1,6 TB/s bandbredd.
Ascend 960 kommer att fördubbla prestandan till 2 PFLOPS (FP8) / 4 PFLOPS (FP4), med 2,2 TB/s sammankoppling, och HBM utökas till 288 GB och 9,6 TB/s bandbredd.
Ascend 970 kommer återigen att fördubbla beräkningen till 4 PFLOPS (FP8) / 8 PFLOPS (FP4), med 4 TB/s sammankoppling. HBM-kapaciteten kommer att ligga kvar på 288 GB, men bandbredden kommer att öka till 14,4 TB/s.
Från och med 950PR kommer Huaweis Ascend-chip att använda egenutvecklad HBM. 950 kommer att ha HBM HiBL 1.0, medan 950DT kommer att uppgraderas till HBM HiZQ 2.0.
Som jämförelse kan nämnas att NVIDIA:s Blackwell Ultra GB300 levererar 15 PFLOPS (FP4) beräkning, parat med 288 GB HBM3e-minne och 8 TB/s bandbredd.
Xu Zhijun erkände:
"På grund av amerikanska sanktioner kan vi inte tillverka våra chip på TSMC, så vår enchipsprestanda ligger fortfarande efter NVIDIA. Men Huawei har mer än trettio års erfarenhet av att koppla samman människor och maskiner. Genom att investera kraftigt i sammankopplingsteknik har vi gjort genombrott som gör att vi kan bygga supernoder med tiotusentals kort. Detta ger oss möjlighet att leverera den mest kraftfulla databehandlingen i världen – på systemnivå."
Han betonade att beräkningskraft alltid har varit, och kommer att fortsätta att vara, nyckeln till artificiell intelligens – och särskilt till Kinas AI. Han tror att supernoder kommer att bli den nya normen inom AI-infrastruktur. Huaweis CloudMatrix 384-supernod har redan distribuerats i mer än 300 uppsättningar och betjänar över 20 kunder.
Framöver planerar Huawei att lansera Atlas 950 SuperPoD under Q4 2025, med 8 192 kort, som man hävdar kommer att bli den mest kraftfulla supernoden globalt. En ännu större Atlas 960 SuperPoD, med 15 488 kort, är planerad till Q4 2027.
Xu presenterade också världens första supernod för generella ändamål, TaiShan 950 SuperPoD. Den är byggd på Kunpeng 950 och stöder upp till 16 noder (32 processorer), 48 TB minne och poolning av minne, SSD och DPU-resurser. Den är planerad att släppas under Q1 2026. Xu beskrev det som "slutet för stordatorer och minidatorer".

205
Referentgranskad version av Deepseek R1-artikeln i Nature.
Svårt att tro att det bara har gått 9 månader sedan R1 - känns som en livstid sedan!
"Artikeln är en uppdatering av ett preprint som släpptes i januari, som beskriver hur DeepSeek förbättrade en standard large language model (LLM) för att ta itu med resonemangsuppgifter. Dess kompletterande material avslöjar för första gången hur mycket R1 kostade att träna: motsvarande bara 294 000 USD. Detta kommer utöver de cirka 6 miljoner dollar som företaget, baserat i Hangzhou, spenderade för att göra basen LLM som R1 är byggd på, men det totala beloppet är fortfarande betydligt mindre än de tiotals miljoner dollar som rivaliserande modeller tros ha kostat.

137
Topp
Rankning
Favoriter