Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
J'ai quitté Google DeepMind après 8 ans. Tant de souvenirs précieux - des premiers articles fondamentaux dans Google Brain (avec @noamshazeer @ashvaswani @lukaszkaiser sur Image Transformer, Tensor2Tensor, Mesh TensorFlow) à diriger les évaluations post-formation de Gemini pour rattraper et lancer en 100 jours, puis à diriger l'équipe pour atteindre LMArena #1 (et y rester pendant plus d'un an !), et enfin à travailler sur les incroyables innovations en matière de raisonnement pour les médailles d'or IMO et ICPC de Gemini (avec @HengTze @quocleix).
Gemini a été un voyage sauvage d'un paradigme à un autre : d'abord, la refonte de notre modèle LaMDA (le premier chatbot de type instruction !) d'un véritable chatbot à des réponses longues et significatives avec RLHF ; ensuite, le raisonnement et la pensée profonde en s'entraînant sur de longues chaînes de réflexion, des environnements novateurs et des têtes de récompense. Lorsque nous avons commencé, le sentiment public était mauvais. Tout le monde pensait que Google était condamné à échouer en raison de son héritage de recherche et de la politique organisationnelle. Maintenant, Gemini est constamment #1 en préférence utilisateur et à la pointe de nouvelles réalisations scientifiques, et tout le monde pense que la victoire de Google est évidente. 😂 (Il fut également un temps où OpenAI devançait le cycle d'actualités sur l'IA en annonçant avant nous à partir d'un stock d'idées pour chaque nouvelle sortie de Google ; on peut dire en toute sécurité que ce stock est vide.)
Depuis, j'ai rejoint xAI. La recette est bien connue. Le calcul, les données et O(100) personnes brillantes et travailleuses sont tout ce qu'il faut pour obtenir un LLM de niveau frontière. xAI *croit vraiment* en cela. Pour le calcul, même chez Google, je n'ai jamais expérimenté ce nombre de puces par habitant (et 100K+ GB200/300K arrivent avec Colossus 2). Pour les données, Grok 4 a fait le plus gros pari sur l'échelle RL et le post-formation. xAI fait de nouveaux paris pour échelonner les données, la pensée profonde et la recette d'entraînement. Et l'équipe est rapide. Aucune entreprise n'est parvenue là où xAI en est aujourd'hui en matière de capacités d'IA en si peu de temps. Comme le dit @elonmusk, les dérivées de premier et de second ordre d'une entreprise sont les plus importantes : l'accélération de xAI est la plus élevée.
Je suis ravi d'annoncer que dans mes premières semaines, nous avons lancé Grok 4 Fast. Grok 4 est un modèle de raisonnement incroyable, toujours le meilleur sur ARC-AGI et de nouveaux benchmarks comme FinSearchComp. Mais il est lent et n'a jamais vraiment été ciblé pour les besoins des utilisateurs à usage général. Grok 4 Fast est le meilleur modèle de mini-classe - sur LMArena, il est #8 (Gemini 2.5 Flash est #18 !), et sur les évaluations de raisonnement de base comme AIME, il est au même niveau que Grok 4 tout en étant 15 fois moins cher. S/o à @LiTianleli @jinyilll @ag_i_2211 @s_tworkowski @keirp1 @yuhu_ai_
Meilleurs
Classement
Favoris