Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tomasz Tunguz
Construímos equipes em pirâmides hoje. Um líder, vários gerentes, muitos colaboradores individuais.
No mundo da IA, qual configuração de equipe faz mais sentido? Aqui estão algumas alternativas:
Primeiro, a pirâmide curta. Os gerentes se tornam gerentes de agentes. O trabalho realizado por colaboradores individuais de outrora torna-se a carga de trabalho dos agentes. Todo mundo sobe um nível de abstração no trabalho.
Essa configuração reduz o número de funcionários em 85% (1:7:49 -> 1:7). A proporção de gerente para colaborador individual vai de 1:7 a 1:1. A proporção de gerente para agente permanece em 1:7.
Em segundo lugar, o foguete 🚀!
Um diretor, sete gerentes, 21 funcionários. Todos na organização são agentes administrativos, mas esses agentes refletem sua antiguidade. O diretor gerencia um chefe de equipe de IA, os gerentes são jogadores-treinadores, ambos executando metas e treinando / treinando outras pessoas sobre como manipular a IA com sucesso, o que reduz a amplitude de controle pela metade.
Essa configuração reduz o número de funcionários (1:7:49 -> 1:7:14) em 53%.
O futuro não é de tamanho único.
Aqui está a reviravolta: nem todos os departamentos de uma empresa adotarão a mesma estrutura organizacional. O impacto da IA varia drasticamente de acordo com a função, criando um mundo onde a forma de uma empresa se torna mais sutil do que nunca.
As equipes de vendas provavelmente manterão pirâmides tradicionais ou foguetes. Os relacionamentos geram receita, e a empatia humana, a criatividade e as habilidades de negociação permanecem insubstituíveis. Os modelos clássicos de amplitude de controle ainda se aplicam quando a confiança e o relacionamento são primordiais.
As equipes de P&D apresentam a maior oportunidade para a transformação da pirâmide curta. A geração de código é o primeiro ajuste verdadeiro do mercado de produtos da IA, gerando 50-80% do código para empresas líderes.
O sucesso e o suporte ao cliente podem evoluir para modelos híbridos: a IA lida com consultas de rotina enquanto os humanos gerenciam escalonamentos complexos e contas estratégicas. A camada tradicional de gerenciamento intermediário se transforma em algo totalmente novo.
Essa evolução desafia tudo o que sabemos sobre escalar equipes de forma eficaz. A velha sabedoria de 6-7 subordinados diretos quebra quando os gerentes supervisionam relatórios humanos e agentes de IA.
A carga de recrutamento que historicamente justificou as hierarquias de gestão também se transforma. Em vez de encontrar e desenvolver talentos humanos, os gerentes se concentram cada vez mais na configuração de recursos de IA e na otimização da colaboração entre humanos e IA.
Se a empresa enviar seu organograma, qual organograma você imagina para sua equipe?



644
Um trilhão de tokens por dia. Isso é muito?
"E quando olhamos apenas para o número de tokens atendidos pelas APIs da Foundry, processamos mais de 100 t tokens neste trimestre, um aumento de 5 vezes ano a ano, incluindo um recorde de 50 t tokens apenas no mês passado."
Em abril, a Microsoft compartilhou uma estatística, revelando que seu produto Foundry está processando cerca de 1,7 t de tokens por mês.
Ontem, Vipul compartilhou que está processando 2t de inferência de código aberto diariamente.
Em julho, o Google anunciou um número impressionante:
"No I/O em maio, anunciamos que processamos 480 trilhões de tokens mensais em nossas superfícies. Desde então, dobramos esse número, agora processando mais de 980 trilhões de tokens mensais, um aumento notável."
O Google processa 32,7 t diariamente, 16 vezes mais do que o Together e 574 vezes mais do que o volume de abril do Microsoft Foundry.
A partir desses números, podemos tirar algumas hipóteses:
1. A inferência de código aberto é uma fração de inferência de um dígito. Não está claro qual fração dos tokens de inferência do Google são de seus modelos de código aberto, como o Gemma. Mas, se assumirmos que Anthropic e OpenAI são 5t-10t tokens por dia e todos de código fechado, além de o Azure ser aproximadamente semelhante em tamanho, então a inferência de código aberto provavelmente é de cerca de 1-3% da inferência total.
2. Os agentes estão adiantados. O ponto de dados da Microsoft sugere que os agentes do GitHub, Visual Studio, Copilot Studio e Microsoft Fabric contribuem com menos de 1% da inferência geral de IA no Azure.
3. Com a expectativa de que a Microsoft invista US$ 80 bilhões em comparação com os US$ 85 bilhões do Google em infraestrutura de data center de IA este ano, as cargas de trabalho de inferência de IA de cada empresa devem aumentar significativamente por meio de melhorias de hardware online e algorítmicas.
"Somente por meio da otimização de software, estamos entregando 90% mais tokens para a mesma GPU em comparação com um ano atrás."
A Microsoft está espremendo mais limonada digital de suas GPUs e o Google também deve estar fazendo o mesmo.
Quando veremos os primeiros tokens de IA de 10t ou 50t processados por dia? Não pode estar longe agora.
- Estimativas do nada!
- Google & Azure com 33t tokens por dia cada, Juntos & 5 outros neoclouds com aproximadamente 2t tokens por dia cada, & Anthropic & OpenAI com 5t tokens por dia, nos dá 88t tokens por dia. Se assumirmos que 5% dos tokens do Google são de modelos de código aberto, são 1,65 t de tokens por dia, ou cerca de 1,9% da inferência total. Mais uma vez, matemática muito aproximada


874
Melhores
Classificação
Favoritos