Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dustin Tran
Ricercatore presso Google DeepMind. Lavoro su Gemini.
Ho lasciato Google DeepMind dopo 8 anni. Tanti bei ricordi—dai primi articoli fondamentali in Google Brain (con @noamshazeer @ashvaswani @lukaszkaiser su Image Transformer, Tensor2Tensor, Mesh TensorFlow) a guidare le valutazioni post-addestramento di Gemini per recuperare e lanciare in 100 giorni, poi guidando il team per superare LMArena #1 (e rimanere lì per oltre un anno!), e infine lavorando sulle incredibili innovazioni di ragionamento per le medaglie d'oro IMO e ICPC di Gemini (con @HengTze @quocleix).
Gemini è stato un viaggio selvaggio da un paradigma all'altro: prima, ristrutturando il nostro modello LaMDA (il primo chatbot simile a un'istruzione!) da un vero chatbot a risposte lunghe e significative con RLHF; poi, ragionamento e pensiero profondo addestrando su lunghe catene di pensiero, ambienti nuovi e teste di ricompensa. Quando abbiamo iniziato, il sentimento pubblico era negativo. Tutti pensavano che Google fosse destinato a fallire a causa del suo lascito nella ricerca e della politica organizzativa. Ora, Gemini è costantemente al #1 nelle preferenze degli utenti e sta guidando nuovi traguardi scientifici, e tutti pensano che la vittoria di Google sia ovvia. 😂 (Era anche il caso che OpenAI saltasse il ciclo di notizie sull'IA annunciando prima di noi da un backlog di idee per ogni nuovo rilascio di Google; è sicuro dire che quel backlog è vuoto.)
Da allora sono entrato in xAI. La ricetta è ben nota. Calcolo, dati e O(100) persone brillanti e laboriose sono tutto ciò che serve per ottenere un LLM di livello frontiera. xAI *crede davvero* in questo. Per il calcolo, anche in Google non ho mai sperimentato questo numero di chip pro capite (& 100K+ GB200/300K stanno arrivando con Colossus 2). Per i dati, Grok 4 ha fatto la scommessa più grande nel scalare RL e post-addestramento. xAI sta facendo nuove scommesse per scalare dati, pensiero profondo e la ricetta di addestramento. E il team è veloce. Nessuna azienda è arrivata dove è oggi xAI in capacità di IA in così poco tempo. Come dice @elonmusk, le derivate di primo e secondo ordine di un'azienda sono le più importanti: l'accelerazione di xAI è la più alta.
Sono entusiasta di annunciare che nelle mie prime settimane, abbiamo lanciato Grok 4 Fast. Grok 4 è un modello di ragionamento straordinario, ancora il migliore su ARC-AGI e nuovi benchmark come FinSearchComp. Ma è lento e non è mai stato realmente mirato alle esigenze degli utenti generali. Grok 4 Fast è il miglior modello mini-class—su LMArena, è al #8 (Gemini 2.5 Flash è al #18!), e su valutazioni di ragionamento fondamentali come AIME, è alla pari con Grok 4 mentre costa 15 volte meno. S/o a @LiTianleli @jinyilll @ag_i_2211 @s_tworkowski @keirp1 @yuhu_ai_
3,41K
Principali
Ranking
Preferiti