Alguns benchmarks de agentes parecem mais como benchmark de motores de busca ou outras ferramentas aleatórias do que de um modelo, e eu acho isso um pouco estranho, mas não vejo uma maneira de desacoplar. Talvez simular resultados de ferramentas para ver como o modelo as utiliza? Não sei, mas vai ser estranho comparar modelos quando suas ferramentas podem ter mais impacto do que o próprio modelo.