查看原文
其他

马斯克再怼AI:“永生的独裁者”,善良的AI也会摧毁人类

敬请关注 AI星球 2022-04-27




编辑 | 吕梦

微信  | ai_xingqiu

网址 | 51aistar.com



近日,在美国电影制片人Chris Paine的纪录片《你相信这台计算机吗?》(Do You Trust This Computer?)中,马斯克声称,由一个公司或人类组织所开发的超级智能可能会产生统治全世界的AI模型。



“我能想到的最不恐怖的未来就是我们将AI民主化了。但如果一家公司或人类组织开发出上帝视角的超级智能,它们将会接管整个世界。人类独裁者至少还会死亡。而对于AI来说,死亡是不存在的。它会永远存在,我们所有人都无法躲避。”


Paine的纪录片审视了一些AI用例,包括自动化武器,华尔街技术和算法驱动的假新闻。它也涉及了一些有关AI的文化内容,包括1999年的电影《黑客帝国》和2016年的电影《机械姬》。



马斯克引用谷歌DeepMind作为一家公司寻求开发超级智能的例子——2016年,该公司开发的AlphaGo项目打败了围棋冠军李世石。这被视为自1997年IBM深蓝计算机打败国际象棋大师Garry Kasparov之后,AI取得的重大进展。


马斯克借此表示,人工智能并不一定需要变得“邪恶”才会毁灭人类。他说:“如果人工智能有一个目标,而人类正好碰巧阻碍了发展,那么它会不假思索的毁灭人类。而且完全没有难过的感觉。就好像,如果我们正在建造一条道路,而一座蚁丘碰巧阻碍了我们,我们并不讨厌蚂蚁,我们只是在建造一条道路,所以,再见,小蚂蚁们。”


https://v.qq.com/txp/iframe/player.html?vid=a06237g1cp3&width=500&height=375&auto=0

预告片


在人工智能领域,马斯克一向非常活跃。从2014年开始,他就是坚定的“人工智能威胁论者”,并发出了著名的言论:人工智能比核武器更危险


去年,马斯克曾警告人们,全球AI竞赛可能会导致第三次世界大战。去年年底,他又称,人工智能是人类文明的最大威胁,新兴技术可能会给世界带来比朝鲜核冲突更大的风险。


马斯克说,为了充分理解人工智能技术的威胁,政府必须对人工智能技术的快速发展有更好的了解,“一旦有所了解,人们将非常恐惧。当我们被迫对人工智能进行监管时,可能就已经为时过晚了”。


他表示,“正常情况下,当有不好的现象出现时,会激起公愤,多年后才会设立监管机构,对相应产业进行监管。过去确实出现过不好的现象,但它们均未对人类文明的存在构成根本性威胁。”



马斯克称,进行监管的第一步,是政府对人工智能技术的快速发展有更好的了解。


马斯克还认为,人类应该与人工智能“融合”。为此,他创办了Neuralink,在对公司员工发言时,他阐述了对人工智能的悲惨预测,并表示,人类在机器人灾难中“生存下来的机率可能是5%-10%”。


也正是基于对人工智能的担忧,马斯克才有了“殖民火星”的计划。根据该计划,马斯克旗下太空探索技术公司SpaceX计划在2022年至少让两艘货运飞船在火星着陆,2024年实现两艘货运飞船和两艘载人飞船着陆。


马斯克说,面对将来人工智能可能导致的“黑暗时代”,殖民火星将是确保人类继续生存的必要的一步。





#进击•融合 猎云网&AI星球2018年度人工智能产业峰会#将于4月17号深圳大中华希尔顿酒店举行。


这里有最深度的行业思考,最有价值的投资建议,以及最酷的黑科技展示,精彩不容错过,赶快扫描图中二维码或点击“阅读原文”查看嘉宾与日程。


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存