Falando sério, essa é na verdade uma das maiores peças que faltam no quebra-cabeça. Não tanto a parte da IA — a parte local. As plataformas não dão aos seus usuários capacidades reais sobre quem e o que pode ser recebido em suas notificações. Quase nenhum controle proativo, até mesmo os piores reativos, para ser sincero. Como resultado, a plataforma passa a ser a única responsável por parar TODO o spam, spam, bots, etc. Junto com todas as outras atividades prejudiciais. O que eles nunca conseguem fazer perfeitamente porque o incentivo é grande demais e os atores são muito diversos. Também os força a recorrer a soluções potencialmente mais perigosas, por exemplo, shadowbans, onde o usuário acha que está recebendo atenção, mas na verdade é invisível. Shadowbans são parte necessária da luta porque atrapalham os agentes ameaçadores e dificultam que eles detectem quais ações estão resultando na captura. Isso desacelera o tempo de retorno e evolução deles. Mas também é um grande risco minar seus usuários legítimos, pois eles são impotentes e não têm conhecimento ou nenhuma forma de recurso caso você os derrube acidentalmente. Também é mais facilmente abusado quando se trata de censurar pessoas por motivos políticos ou arbitrários. De qualquer forma, achei que veríamos mais pessoas percebendo e construindo controles para usuários depois que o iOS passou pelo menos 4 ciclos fazendo isso para notificações do iOS. Não fizemos isso, rs. Mas talvez os bots permitam que as pessoas resolvam o problema sem envolver (ou literalmente comprar) a plataforma.