所以,在是否该赋予强人工智能制造的机器人“人权”这一点上,不该存有疑虑。既然承认他是“人类的成员”,那么人类现有的价值判断原则就没有遭受冲击的可能,因为我们只需要用人的方式对待他即可。无故伤人也好,破坏公共秩序也罢,之前如何对待人类,现在也就照样对待。
当然,对于社会关系,例如家庭组织、亲属关系的冲击是显而易见的,但这并不影响整个世界最基本的制度规范。千百年来,婚恋的变迁、审美的流变,都差距奇大,但这些变化也都在历史长河中被“合理化”。也许就像50年前的人无法想象如今极为普遍的婚前性行为或同性恋合法化一样,今天的我们也无法去设想智能机器人加入我们之后产生的变化会如何消除争议。
所以,强人工智能的机器,并非新的物种,他就是归属于人类,他带来的伦理冲击并不能上升到宏观价值。况且,我们距离强人工智能时代还很遥远,关于伦理,弱人工智能反而更加值得讨论。
弱人工智能的伦理问题存在已久,讨论最典型的即无人轰炸机的伦理问题。一个自动轰炸的机器人,成为了战争的帮凶,万一失控,造成对平民的伤害如何界定。对此,我们需要明白,人类从制造劳动工具和武器开始,工具就已经变成了自己的延伸。工具本身的智能水平有限,并不能拥有完全的自主性,所以无论造成什么后果,责任主体依旧没有变,就是控制机器人的人。由此可以推出,智能汽车失控,或者智能导航带你进湖,这些都属于拥有明确责任主体的机器。
其次,则是隐私问题。每一个智能机器人(设备)都是一个收集数据的终端,无数数据的汇集最终可能出现有价值的商业模式,前提之一必然是个人隐私的被贩卖。对于隐私的边界,人们并非不可接受,但是要认同让渡的隐私权和获得的便利比是有价值的。目前来看,大数据产生的隐私滥用问题已经非常严重,斯诺登的出现表明企业和政府形成了“同谋”,铁幕遍地,并非危言耸听。
湘ICP备2022002427号-10湘公网安备:43070202000427号
© 2013~2019 haote.com 好特网