Qualche giorno fa, la FTC ha avviato un'indagine su 7 aziende tecnologiche che hanno realizzato prodotti per bambini abilitati all'AI. Questa indagine dovrebbe essere un campanello d'allarme per le aziende di AI che trattano i dati degli utenti in modo disinvolto, specialmente quando si tratta di bambini online. Nel 2025, non ci sono scuse per non implementare controlli di accesso basati sull'età per materiali sensibili dove richiesto dalla legge, o per non avere una chiara supervisione su cosa succede ai dati degli utenti minorenni quando è coinvolta l'AI. La corsa a distribuire chatbot abilitati all'AI su larga scala non deve sovrastare il diritto fondamentale alla privacy e alla sicurezza. Presso @billions_ntwk, abbiamo a lungo avvertito che pratiche di gestione dei dati opache e pigre avrebbero invitato a un controllo normativo e a danni per gli utenti. La fiducia nell'AI dipende dalla trasparenza e il tempo per l'autoregolamentazione sta per finire.