Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

steve hsu
Fizician, fondator AI, Manifold Podcast
Citiți întotdeauna suplimentele! Această informație nu a fost disponibilă cu preprintul original arxiv.

Ross Taylor18 sept., 00:45
Informațiile suplimentare pentru noua lucrare DeepSeek R1 Nature sunt foarte interesante!
Detalii despre datele de antrenament, hiperparametri, importanța modelului de bază și multe altele.

1
Huawei și-a anunțat foaia de parcurs a cipurilor AI până în 2028. Ascend 950 2026 va folosi HBM (High Bandwidth Memory) dezvoltat de HW.
1. Sugerează că capacitatea SMIC la 5-7 nm nu mai este o problemă
2. La nivel de nod sau cluster, HW poate fi competitiv cu Nvidia chiar dacă continuă să rămână în urmă la nivel de cip individual (fără acces la TSMC / EUV)
"Huawei intenționează să introducă Atlas 950 SuperPod în T4 2026. Sistemul va include 8.192 de cipuri Ascend 950DT și va cuprinde 160 de dulapuri - 128 de dulapuri de calcul și 32 de dulapuri de comunicații - care pot fi implementate într-un spațiu de 1.000 de metri pătrați (10.764 de metri pătrați).
Eric Xu, președintele rotativ al Huawei, a declarat că Atlas 950 SuperPod va avea de 6,7 ori mai multă putere de calcul și de 15 ori mai multă capacitate de memorie decât sistemul NVL144 pe care Nvidia intenționează să-l lanseze în 2026 și va continua să învingă un sistem succesor pe care Nvidia îl plănuiește în 2027.

Rui Ma18 sept., 16:27
Cea mai importantă știre China Tech de astăzi este anunțul foii de parcurs a cipurilor Huawei și descoperirile asociate.
Concluzii cheie:
Foaie de parcurs:
910C (2025), 950PR/DT (2026), 960 (2027), 970 (2028).
Indică o cadență constantă a upgrade-urilor în calcul, lățime de bandă și scalare a memoriei.
Autosuficiența în memorie:
Începând cu seria 950, Huawei va folosi memoria HBM High Bandwidth (HiBL 1.0, HiZQ 2.0), reducând dependența de furnizorii străini și construind independența lanțului de aprovizionare.
Poziționare strategică vs NVIDIA:
Blackwell Ultra GB300 de la NVIDIA este încă cu mult înaintea la nivel de un singur cip (15 PFLOPS FP4).
Huawei recunoaște decalajul, dar pune accentul pe interconectare și scalarea la nivel de cluster, revendicând poziția de lider în puterea de calcul a supernodurilor. Vezi citatele de mai jos.
Ambiția clusterului:
Noile SuperPoD-uri Atlas se extind până la 15.488 de carduri până în 2027, permițând calculului agregat să rivalizeze sau să depășească concurenții, în ciuda cipurilor mai slabe.
Huawei pariază pe performanța la nivel de sistem, nu doar pe specificațiile cipurilor.
Extindere între domenii:
TaiShan 950 SuperPoD (2026) se extinde dincolo de AI la calculul de uz general, vizând rolul odată ocupat de mainframe-uri.
Traducerea acoperirii Xinzhixun de mai jos:
"Pe 18 septembrie, la Huawei Full Connect Conference 2025, președintele rotativ, Xu Zhijun, a dezvăluit cea mai recentă foaie de parcurs a companiei cu cipuri Ascend AI.
În T1 2025, Huawei a lansat Ascend 910C.
În T1 2026, va lansa Ascend 950PR, urmat de Ascend 950DT în T4.
În T4 2027, Ascend 960 este programat, iar Ascend 970 va sosi în T4 2028.
Ascend 910C este construit pe o arhitectură SIMD, oferind până la 800 TFLOPS (FP16), cu suport pentru formatele FP32/HF32/FP16/BF16/INT8, lățime de bandă de interconectare de 784 GB/s, 128 GB HBM și lățime de bandă a memoriei de 3,2 TB/s.
Ascend 950PR/DT va face upgrade la o arhitectură SIMD/SIMT, obținând 1 PFLOPS (FP8) / 2 PFLOPS (FP4). Va suporta o gamă mai largă de formate (FP32 până la FP4), cu lățime de bandă de interconectare de 2 TB/s. Specificații de memorie:
950PR: 144 GB, lățime de bandă de 4 TB/s.
950DT: 128 GB, lățime de bandă de 1,6 TB/s.
Ascend 960 va dubla performanța la 2 PFLOPS (FP8) / 4 PFLOPS (FP4), cu interconectare de 2,2 TB/s, iar HBM extins la 288 GB și 9,6 TB/s lățime de bandă.
Ascend 970 va calcula din nou dublu la 4 PFLOPS (FP8) / 8 PFLOPS (FP4), cu interconectare de 4 TB/s. Capacitatea HBM va rămâne la 288 GB, dar lățimea de bandă va crește la 14,4 TB/s.
Important, începând cu 950PR, cipurile Ascend de la Huawei vor adopta HBM auto-dezvoltat. 950 va avea HBM HiBL 1.0, în timp ce 950DT va face upgrade la HBM HiZQ 2.0.
Pentru comparație, Blackwell Ultra GB300 de la NVIDIA oferă 15 PFLOPS (FP4) de calcul, asociat cu 288 GB de memorie HBM3e și lățime de bandă de 8 TB/s.
Xu Zhijun a recunoscut:
"Din cauza sancțiunilor americane, nu putem produce cipurile noastre la TSMC, așa că performanța noastră cu un singur cip este încă în urma NVIDIA. Dar Huawei are peste treizeci de ani de experiență în conectarea oamenilor și mașinilor. Investind masiv în tehnologia de interconectare, am făcut descoperiri care ne permit să construim super-noduri cu zeci de mii de carduri. Acest lucru ne oferă capacitatea de a furniza cel mai puternic calcul din lume - la nivel de sistem."
El a subliniat că puterea de calcul a fost întotdeauna și va continua să fie cheia inteligenței artificiale – și în special a inteligenței artificiale din China. În opinia sa, supernodurile vor deveni noua normă în infrastructura AI. Supernodul CloudMatrix 384 de la Huawei a fost deja implementat în peste 300 de seturi, deservind peste 20 de clienți.
Privind în perspectivă, Huawei intenționează să lanseze Atlas 950 SuperPoD în T4 2025, cu 8.192 de carduri, despre care susține că va fi cel mai puternic super-nod la nivel global. Un Atlas 960 SuperPoD și mai mare, cu 15.488 de carduri, este programat pentru T4 2027.
Xu a dezvăluit, de asemenea, primul super-nod de calcul de uz general din lume, TaiShan 950 SuperPoD. Construit pe Kunpeng 950, suportă până la 16 noduri (32 de procesoare), 48 TB de memorie și pooling de resurse de memorie, SSD și DPU. Lansarea este programată în T1 2026. Xu l-a descris ca fiind "sfârșitul mainframe-urilor și al minicomputerelor".

206
Versiunea revizuită de colegi a lucrării Deepseek R1 din Nature.
Greu de crezut că au trecut doar 9 luni de la R1 - pare că a trecut o viață!
"Lucrarea actualizează un preprint lansat în ianuarie, care descrie modul în care DeepSeek a augmentat un model standard de limbaj mare (LLM) pentru a aborda sarcinile de raționament. Materialul său suplimentar dezvăluie pentru prima dată cât costă R1 pentru antrenament: echivalentul a doar 294.000 de dolari. Acest lucru se adaugă celor aproximativ 6 milioane de dolari pe care compania, cu sediul în Hangzhou, le-a cheltuit pentru a face LLM-ul de bază pe care este construit R1, dar suma totală este încă substanțial mai mică decât zecile de milioane de dolari pe care se crede că le-au costat modelele rivale."

138
Limită superioară
Clasament
Favorite