123
皮。于是,他继续说:“就像《流浪地球》里的MOSS,可以写代码、写剧本、辩证分析问题、纠错等等。将来可能会取代医生。” 一旁的陆宇听到这里,忍不住加入谈话,“那不就是有了自主意识的AI吗?” 吴宥向他点点头,“是。” 陆宇坐在轮椅上,垂眸思索片刻,“警方也会使用AI做技术分析、数据分析,但真正去执法的还得是人。” 升阳顺着这个思路说:“你是说,有自主意识的AI会产生伦理危机?” 陆宇没想到升阳立刻就能理解他的担忧,欣喜地看向她,眼角挂上笑意,“是。” 吴宥:“其实,第一代传统机器也引发过伦理危机。工业革命初期的英国工人被机器代替,也会扛着锤子砸机器。后来,人们发现,那个时代的机器虽然看着威猛,其实没什么脑子,它们只是人类的肢体延伸。” 升阳:“但是ChatGPT不一样,它不仅只是人类的肢体替代,也许还准备替代我们的大脑。”像是写作、辩证、纠错、治病这些事情,都是人类大脑运作的结果。 陆宇:“如果AI完全替代了人类的大脑,我们只需要享受生活,AI是否会成为人类的主人?”这必定会产生重大的伦理危机,也是形而上的危机。 吴宥:“在笛卡尔之后,人就是地球上绝对的主体,一切的意志都是人的意志。无论机器如何强大,都不能替代人类做出思考和选择。尤其关乎人命的事,医生、警察等等。” 升阳:“为什么只有人类才有选择权?” 吴宥:“机器和其他生物、植物在人类社会没有道德地位。你可以随意雕刻一块石头,也可以碾碎它、毁灭它。你做这些时,会考虑石头的感受吗?同样,一个机器,你也可以随时复制它、删除它,或者砸烂它,你也不会考虑机器的感受。但人就不一样了,无论你做任何事,都要考虑他人的感受。因为人是目的,必须享有最高的道德地位。这也意味,只有人才有选择权。” 升阳还是第一次与吴宥坐在一起,深入的探讨某个问题,这个过程让她很享受,也受益匪浅。原来,吴宥正经起来,是如此的有魅力,难怪元爸爸会喜欢他,他确实是可以与元老爷平等对话的男人。 升阳反向假设,“既然人类创造出有自主意识的人工智能,为什么不能给它道德地位?” 陆宇淡淡说:“我记得,牛津大学的博斯特罗姆教授有篇文章说,‘感受’决定一个事物的道德地位。” 升阳:“‘感受’指的是什么?我们是用什么区分主体和客体的?人与非人的本质区别到底是什么?”这些问题,也是她修道途中的困惑。 吴宥察觉出眼前的小姑娘很聪明,比他想象中还要聪明,看待问题,一眼便看到了关键。 陆宇:“按照博斯特罗姆教授的理论,人与非人的本质区别就是‘感知能力’。机器没有情绪,因为它没有感知能力。”感受不到歧视就不会愤怒,感受不到危险就不会恐惧