有人会说:把模仿人类形态作为人工智能的先决条件不够科学,是一种“前哥白尼”时代的观点。那么这种观点真正的问题在哪里呢?如果在未来,我们日常所见的人工智能都具有某种人性,情形会怎么样呢?好的方面是我们会与机器智慧建立一种更为真诚而清醒的关系,而坏的方面是,如果我们对生命体抱有这样的幻想,将会损失更多可能性。有些哲学家已经思考赋予有感情的机器以伦理权利了,但我想要说的不是这个,事实上,我们在思考这些人工智能体的时候,应该寻找更为真实的视角。
马斯克、盖茨和霍金关于人工智能威胁的言论引起了广泛的关注。他们的观点很重要,但是,恐怕大多数读者都误解了他们。如果我们像1942年阿西莫夫“机器人三大定律“一样,寄希望于给机器人编程,禁止它们伤害人类,首先我们就要让机器人能够理解什么是“人类”,以及什么是“伤害”。机器人并不需要做什么恶毒的行为就可以伤害到人类,一个最简单的例子就是:它们只要把人类正常含义的指令以一种机械而极端的方式执行,就足以带来一场灾难。人工智能真正的威胁不在于机械故障或者对于反人类道德的举动,而是在于它们智力强大,却对人类漠不关心。如果我们像以前那样,依据它们与人类的相似性来定义人工智能,并假定它们全心专注于人类事务,我们就更加面临着这方面的风险。
湘ICP备2022002427号-10湘公网安备:43070202000427号
© 2013~2019 haote.com 好特网