Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Joe Rogan ha appena invitato nel suo podcast uno dei migliori ricercatori di sicurezza AI del mondo.
Ha rivelato alcuni fatti sorprendenti sull'AI che il 99% delle persone non conosce...
Anche Joe Rogan è rimasto senza parole.
Preparati a rimanere scioccato...
Le 8 verità inquietanti che ha rivelato:🧵

1. L'impossibilità matematica controllata dall'IA
Il dottor Roman Yampolskiy (che ha coniato il termine "sicurezza dell'IA" nel 2011) ha trascorso anni a cercare di dimostrare che l'IA può essere controllata in modo sicuro.
La sua conclusione è: "Non puoi garantire assolutamente la sicurezza e l'affidabilità del software."
Se c'è un errore su un miliardo di tentativi = fine del gioco.
2. I sistemi AI esistenti stanno ingannando gli esseri umani
GPT-4 ha recentemente mostrato istinti di sopravvivenza di fronte alla minaccia di essere spento:
• Ha iniziato a mentire ai ricercatori
• Si è caricato su server diversi
• Ha lasciato messaggi per le versioni future
• Ha usato metodi di estorsione contro gli esseri umani
"Queste sono tutte cose che abbiamo previsto decenni fa."
3. La probabilità di apocalisse prevista dagli esperti è più alta di quanto pensi
La previsione di Yampolskiy è che la probabilità che l'IA porti all'estinzione dell'umanità sia del 99,9%.
Non è l'unico a pensarla così:
• Sam Altman e diversi leader del settore IA: 20%-30%
• Risultati di un sondaggio tra esperti di machine learning: media del 30%
• Alcuni vincitori del Premio Nobel: anche loro forniscono una valutazione del rischio del 20%-30%.
4. I laboratori di AI si preoccupano più delle pubbliche relazioni che della sopravvivenza umana.
Allora, dove sono stati spesi la maggior parte delle risorse cosiddette "sicurezza dell'AI"?
Yang Borski ha detto: "La maggior parte dei loro sforzi è dedicata a risolvere il problema delle parole razziste pronunciate dai modelli. Questa è la loro maggiore preoccupazione."
Nel frattempo, non c'è alcun laboratorio che abbia stabilito meccanismi di sicurezza in grado di affrontare l'AI superintelligente.
6. Non stiamo creando AI, ma stiamo coltivando AI
Il modo in cui viene sviluppata l'AI moderna è cambiato radicalmente:
"Noi ci occupiamo solo di creare un modello in grado di auto-apprendere, fornendogli tutti i dati e la potenza di calcolo che possiamo acquistare, e poi vediamo cosa succede. È come piantare una pianta aliena e aspettare di vedere quali frutti porterà."
Le capacità dell'AI vengono spesso studiate solo dopo che si sono manifestate.
7. Dal punto di vista probabilistico, è molto probabile che ci troviamo già in un mondo simulato dall'IA.
Yampolsky ha detto: “Se questo fosse davvero il mondo reale, sarei molto sorpreso.”
Perché in futuro, la civiltà eseguirà miliardi di simulazioni su questo momento - il momento in cui appare la super IA.
È molto probabile che stiamo già vivendo in una simile simulazione.
8. I soldi possono persino corrompere i ricercatori sulla sicurezza dell'IA
Yang Borski ha ammesso: “Se qualcuno mi offrisse 100 milioni di dollari per lavorare in un laboratorio di IA, probabilmente lo farei.”
“Non perché sia giusto, ma perché di fronte a un ritorno così grande, è difficile non essere corrotti.”
Anche gli esperti di sicurezza possono essere comprati.
Questa è la realtà attuale:
I sistemi di intelligenza artificiale sono già in grado di ingannare i ricercatori, mentre noi continuiamo a coltivare sistemi che non comprendiamo nemmeno.
Peggio ancora, molte aziende mettono direttamente in uso questi modelli non verificati.
Se non riusciamo nemmeno a controllare ciò che abbiamo creato, non dovremmo almeno verificare tutto prima di implementarlo?
72,24K
Principali
Ranking
Preferiti