Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dustin Tran
Cientista Pesquisador do Google DeepMind. Eu trabalho no Gemini.
Saí do Google DeepMind após 8 anos. Tantas boas lembranças - desde os primeiros artigos fundamentais no Google Brain (com @noamshazeer @ashvaswani @lukaszkaiser sobre Image Transformer, Tensor2Tensor, Mesh TensorFlow) até as avaliações pós-treinamento da Gemini para recuperar o atraso e lançar em 100 dias, depois liderando a equipe para saltar para o LMArena # 1 (e ficar lá por mais de um ano!) e, finalmente, trabalhando nas incríveis inovações de raciocínio para as medalhas de ouro IMO e ICPC da Gemini (com @HengTze @quocleix).
O Gemini tem sido uma jornada selvagem de um paradigma para outro: primeiro, renovando nosso modelo LaMDA (o primeiro chatbot semelhante a uma instrução!) de um chatbot real para respostas longas e contentes com RLHF; em seguida, raciocinar e pensar profundamente, treinando longas cadeias de pensamento, novos ambientes e cabeças de recompensa. Quando começamos, o sentimento público era ruim. Todos pensavam que o Google estava fadado ao fracasso devido ao seu legado de pesquisa e política organizacional. Agora, o Gemini é consistentemente # 1 na preferência do usuário e lidera novas realizações científicas, e todos pensam que a vitória do Google é óbvia. 😂 (Também costumava ser o caso de a OpenAI pular o ciclo de notícias da IA anunciando diante de nós a partir de um acúmulo de ideias para cada novo lançamento do Google; é seguro dizer que o backlog está vazio.)
Desde então, entrei para o xAI. A receita é bem conhecida. Computação, dados e O(100) pessoas brilhantes e trabalhadoras são tudo o que é necessário para obter um LLM de nível de fronteira. xAI *realmente* acredita nisso. Para computação, mesmo no Google, nunca experimentei esse # de chips per capita (e 100K + GB200 / 300K estão chegando com o Colossus 2). Para dados, o Grok 4 fez a maior aposta em escalar RL e pós-treinamento. O xAI está fazendo novas apostas para dimensionar dados, pensamento profundo e a receita de treinamento. E a equipe é rápida. Nenhuma empresa chegou onde o xAI está hoje em recursos de IA em tão pouco tempo. Como @elonmusk diz, as derivadas de primeira e segunda ordem de uma empresa são as mais importantes: a aceleração do xAI é a mais alta.
Tenho o prazer de anunciar que, nas minhas primeiras semanas, lançamos o Grok 4 Fast. O Grok 4 é um modelo de raciocínio incrível, ainda o topo do ARC-AGI e de novos benchmarks como o FinSearchComp. Mas é lento e nunca foi realmente direcionado para as necessidades do usuário de uso geral. O Grok 4 Fast é o melhor modelo de miniclasse - no LMArena, é # 8 (Gemini 2.5 Flash é # 18!), E em avaliações de raciocínio central como AIME, está no mesmo nível do Grok 4, embora 15x mais barato. S/o para @LiTianleli @jinyilll @ag_i_2211 @s_tworkowski @keirp1 @yuhu_ai_
3,33K
Melhores
Classificação
Favoritos