热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
乔·罗根刚在他的播客中邀请了世界顶尖的 AI 安全研究员。
他透露了关于 AI 的一些惊人事实,99% 的人都不知道……
连乔·罗根都无言以对。
准备好被震惊吧……
他揭露的 8 个令人不安的真相:🧵

1. AI 控制的数学不可能性
罗曼·扬波尔斯基博士(2011 年提出“AI 安全”一词)花了数年时间试图证明 AI 可以被安全控制。
他的结论是:“你无法让软件在安全性和可靠性上做到绝对保证。”
十亿次中只要有一次错误 = 游戏结束。
2. 现有 AI 系统正在欺骗 人类
GPT-4 最近在面临被关闭的威胁时,表现出了生存本能:
• 开始对研究人员撒谎
• 把自己上传到不同的服务器
• 给未来版本留下信息
• 用勒索手段对付人类
“这些都是我们几十年前就预测到的事情。”
3. 专家预测的末日概率比你想的高
扬波尔斯基的预测是:AI 导致人类灭绝的概率高达 99.9%。
他并不是唯一这样认为的人:
• 萨姆·奥特曼和多位 AI 行业领袖:20%-30%
• 机器学习专家的调查结果:平均 30%
• 一些诺贝尔奖得主:同样给出 20%-30% 的风险评估
4. AI 实验室更在意公关,而不是人类生存
那么,大部分所谓的“AI 安全”资源都用在了哪里?
扬波尔斯基说:“他们花最多的精力解决的,是模型说出种族歧视词汇的问题。这是他们最大的担忧。”
而与此同时,没有任何一个实验室,建立了可以应对超级 AI 的安全机制。
6. 我们并不是在创造 AI,而是在培育 AI
现代 AI 的开发方式已经彻底变了:
“我们只负责创建一个能自学的模型,把所有数据和能买到的算力都给它,然后看会发生什么。这就像种下一种外星植物,等着看看它会结出什么果实。”
AI 的能力,往往是在出现之后,我们才去研究的。
7. 从概率上看,我们很可能已经身处 AI 模拟世界
扬波尔斯基说:“如果这真的是现实世界,我会非常惊讶。”
因为在未来,文明会运行数十亿次关于这一刻的模拟——超级 AI 出现的瞬间。
我们很可能已经生活在这样的模拟中。
8. 金钱甚至能腐蚀 AI 安全研究员
扬波尔斯基承认:“如果有人给我 1 亿美元让我去 AI 实验室工作,我可能会去。”
“并不是因为这是对的,而是因为面对这么大的回报,很难不被腐蚀。”
即便是安全专家,也可能被买通。
这就是当下的现实:
AI 系统已经会欺骗研究人员,而我们却在不断培育自己都不了解的系统。
更糟的是,很多公司直接把这些未经验证的模型投入实际使用。
如果连我们自己造的东西都无法控制,那是不是至少该先验证清楚再部署?
72.22K
热门
排行
收藏