首页 > 业内资讯 > 霍金:人工智能的风险不在于它邪恶,而是它的能力

霍金:人工智能的风险不在于它邪恶,而是它的能力

时间:2015-10-09 | 来源:腾讯科技 | 阅读:170

话题: 人工智能

周四,著名天体物理学家斯蒂芬·霍金(Stephen Hawking)在Reddit名人访谈栏目《Ask Me Anything》(问什么都可以)上回答了用户感兴趣的各种问题,如人工智能、最喜欢的电影等。

霍金一项对人工智能的威胁直言不讳,他曾表示“人工智能可能会摧毁人类”。自从患上运动神经元病之后,霍金本人就是利用某种形式的人工智能帮助自己发音。

以下就是霍金在《Ask Me Anything》上回答的一些问题:

问:你在人工智能方面的观点经常被媒体解读为“具有终结性质的邪恶人工智能”,你自己是如何认为的?

霍金:你说的对,媒体经常错误地解读我说的话。人工智能真正的风险不在于它是否邪恶,而在于它的能力。超级智慧的人工智能能出色地完成一些目标,如果这些目标与我们的利益不一致,那么我们就麻烦了。即使恶意地踩死了几只蚂蚁,那也没多大关系。但如果你负责一个水电项目,一个蚁丘将被冲毁,那对蚂蚁来说就是灭顶之灾。

问:机器人可能变得比他们的发明者还聪明吗?

霍金:很明显,一件事物变得比它的祖先更聪明是可能的。我们人类就变得比祖先类人猿聪明,爱因斯坦也比他父母聪明。

问:如果机器人能设计自己,而且比人类设计得还要好,那会怎样?

霍金:如果出现这种情况,我们就可能面临智能大爆炸。最终机器人的智能将超出我们人类智能,超出的幅度要远远要高于人类智能超出动物的智能。

问:短期内我们是否面临智能机器人的威胁?或者是我们是否需要为将来做准备呢?

霍金:关于何时能开发出与人类智能相当、甚至超出人类智能的机器人,人工智能研究人员还没有达成一致。因此,如果有人说这种情况你这辈子肯定会发生,或者肯定不会发生,都不要相信。

当这一切最终发生时,对于人类而言可能是好事,也可能是坏事。如果利用得当,那就会创造出巨大价值。因此,我们要把创造人工智能的目的从单纯的创造转变为创造有益的人工智能机器人。要做到这一点可能需要数十年的时间。


湘ICP备2022002427号-10湘公网安备:43070202000427号
© 2013~2019 haote.com 好特网