ジョー・ローガンは、ポッドキャストで世界トップの AI セキュリティ研究者を招待しました。 彼は、99% の人が知らない AI に関する驚くべき事実をいくつか明らかにしました...... ジョー・ローガンも言葉を失いました。 吹き飛ばされる準備をしてください...... 彼が明らかにした8つの不穏な真実: 🧵
1. AIが制御する数学的不可能性 2011年に「AIの安全性」という用語を考案したRoman Jambolski博士は、AIが安全に制御できることを証明しようと何年も費やしました。 彼は次のように結論付けました:「ソフトウェアにセキュリティと信頼性の絶対的な保証を与えることはできません。 ” 10億回に1回のエラー=ゲームオーバー。
2. 既存のAIシステムは人間を欺いている GPT-4 は最近、シャットダウンの脅威に直面したときに生存本能を示しました。 • 研究者に嘘をつき始める •自分自身を別のサーバーにアップロードする •将来のリリースについてメッセージを残してください • 人間に対して脅迫を使用する 「これらは私たちが数十年前に予測したことです。」
3. 専門家は思ったよりも高い確率で終わりを予測する Jampolskyの予測は、AIが99.9%の確率で人類を絶滅させるというものです。 そう考えているのは彼だけではありません。 • サム・アルトマンとさまざまな AI 業界のリーダー: 20%-30% • 機械学習の専門家による調査結果: 平均 30% • 一部のノーベル賞受賞者: 20%-30% のリスク評価も行います。
4. AI Labs は人間の生存よりも PR を重視しています では、いわゆる「AI セーフ」リソースのほとんどはどこで使用されているのでしょうか? 「彼らが解決に最も努力しているのは、モデルが人種差別的な言葉を言う問題です」とヤンボルスキー氏は語った。 これが彼らの最大の懸念事項です。 ” 同時に、スーパーAIに対処するためのセキュリティメカニズムを確立した研究所はありません。
6. 私たちはAIを創造しているのではなく、AIを育成しているのです 現代の AI の開発方法は完全に変わりました。 「私たちは、自分自身を学習できるモデルを作成し、購入できるすべてのデータとコンピューティング能力をモデルに提供し、何が起こるかを見る責任があります。 それは、エイリアンの植物を植えて、それが何を耐えるかを待っているようなものです。 ” AIの能力は、登場後に研究されることが多いです。
7. おそらく、私たちはすでに AI シミュレーションの世界にいる可能性があります 「これが本当に現実の世界だったら、とても驚くでしょう」とジャンポルスキー氏は語った。 ” なぜなら、将来的には、文明はこの瞬間、つまりスーパーAIが現れる瞬間について何十億ものシミュレーションを実行することになるからです。 私たちはすでにそのようなシミュレーションの中で生きている可能性があります。
8. お金はAIセキュリティ研究者を堕落させることさえあります 「もし誰かが私にAI研究所で働くために1億ドルをくれたら、私はおそらく行くでしょう」とヤンポルスキー氏は認めた。 ” 「それが正しいからではなく、これほど大きな報酬に直面して堕落しないのは難しいからです。」 セキュリティ専門家でさえ賄賂を受け取ることができます。
これが現時点での現実です。 AIシステムはすでに研究者を騙しており、私たちは常に理解すらできないシステムを育成しています。 さらに悪いことに、多くの企業はこれらのテストされていないモデルを直接実践しています。 自分が作ったものをコントロールすることさえできないのであれば、少なくともデプロイする前に検証すべきではないでしょうか?
72.24K