是AI向善,还是人类向善

“AI向善”是一个非常有趣的说法,值得认真咀嚼。为什么不说“让AI善良”呢?

当我们说“AI向善”的时候,意思是AI是个“活物”,它有向善的意欲,用个术语叫“意向性”。当然,你可以说,我们是在隐喻的意义上来说“AI向善”,并非在绝对意义上断定AI是个“活物”,更没有断定AI是人类意识层面上的“活物”。但是,无论如何,“ AI向善”的说法暗示AI具有很强的自主性,以至于我们可以说“ AI想要向善”或者“人类可以引导、规范或逼迫AI向善”。

AI究竟有没有自主性呢? 在当代技术哲学当中,技术自主性是一个基础性的、争议性非常大的问题。一般说来,我们可以将各种观点划分为两种,即技术的工具论和技术的实体论。

技术的工具论认为,技术仅仅是一种工具,是实现目标的手段,本身并没有善恶,所谓技术的善恶实际是使用它的人的善恶。比如说,一把菜刀,你可以用来切菜,也可以用来杀人。菜刀杀人了,你不能怪菜刀。

技术的实体论认为,技术可不是简单的工具,而是负载着价值的,也就是说它自主发展,有自身发展的方向,最终会实现它的目标,这是不以人的意志为转移的。比如说,很多人认为互联网天然就是反权威、去中心的,还有一些人认为区块链一定会推动公开和诚信。

显然,“AI向善”的基本立场是技术实体论的。按照这种观点,AI具有自主性,而既然如此,AI要向善或者向恶,我们如何能左右它、控制它呢?

当然,除了这两种二元对立的观点外,有些哲学家尝试提出调和的观点,比如大技术哲学家芬伯格(Andrew Feenberg)提出了“技术设计”的观点,意思是技术发展是同时协调技术要素和社会要素的结果。举个例子,我们骑的自行车,小时候主要载物载人,要有车筐、有后座,男人都骑着“二八大杠”,非常结实;现在很多人是拿来锻炼身体或者远足骑行的,所以要很漂亮,能跑上坡;而现在的共享单车,主要是解决从家到地铁站所谓“最后一公里交通”的问题,设计非常简单。这些自行车技术要素上是大同小异的,区别就在于融合的社会要素不一样。

我怎么看技术的自主性的争论呢?

第一,工具论向实体论的变迁,也就是说越来越多的人从工具论转向实体论,是技术发展得越来越复杂的结果。当技术相对比较简单的时候,人们比较容易相信工具论。而当技术变得越来越复杂,一般人难以或者完全理解不了,单个的人无法驾驭或操纵复杂技术系统,此时人们比较容易相信实体论。这一点从前面的例子可见一斑:工具论我们举菜刀为例,而实体论我们举互联网、区块链为例。

第二,技术的自主性争论根源于如何理解人与技术、人与机器关系的问题。有人认为机器帮助人类,也有人说人机是对抗关系,而现在越来越多地讲人与机器是协同进化的。人机协同进化论很有道理,但这是一种“上帝视角”或“宇宙视角”,站在非常超脱的位置看人机关系。的确,人与机器必然是协同进化的,但是协同进化的最终结果也可能是人类灭绝。有意义、有价值的是人类视角,也就是说在人机协同进化中人类应该如何选择应对方案,以确保人族福祉。

从某种意义上说,AI出现让人类面对“新无知之幕”,即不知道人机协同进化的最终结果而要做出行动选择。政治哲学中讲的“无知之幕”,粗略说是有关国家如何建构的:大家聚在一起商量建成一个国家,结束人与人之间野蛮暴力状态,但是每个人都不知道在建成后国家中自己将处于哪一个阶层、哪一种角色,在这种对未来无知状态中来讨论应该如何安排新国家的社会制度。你想,你可能属于社会中最弱势的群体,你会不会给穷人提供必要的制度保障和救济措施呢?

总之,“新无知之幕”是一个隐喻,讨论人如何在“盲人摸象”中应对未来与拟主体、能力超强的AI共同生活。

第三,无论是工具论、实体论,还是技术设计论,它们都是哲学观念,而并非自然科学意义上的客观理论,也就是说你不能说在科学意义上哪一个对或哪一个就错了。哲学观念是不能用实验或观察来检验、证实或证伪的。

因此,我以为,工具论与实体论的争论,在实践中直接指向的是技术能不能控制的问题,而这个问题的答案不应该从技术中寻找,不在于技术而在于人类,在于人类的选择:第一,我们有没有决心和勇气控制技术的发展,第二,更重要的是,为达成对技术的控制,我们愿意做出何种付出甚至牺牲。比如,手机很好玩,让人上瘾,以至于有人说:为什么要找女友找男友呢,难道是手机不好玩了吗? 你想控制手机上瘾,本质上是控制你从手机上获得的感官刺激。

我的想法,可以称之为“技术控制的选择论”。

因此,AI要向善,从根本上说,是使用AI的人类的选择问题,是人类能不能向善的问题,准确地说,是人类能不能为了向善而努力、付出和牺牲的问题。

善良从来都不是一件容易的、好玩的、赏心悦目的事情,所以老话说:人善被人欺,马善被人骑。相反,沉沦却是一件非常随性、舒适甚至感觉到“躺赢”的舒服事。想一想“开挂”打游戏的时候,你是不是有一种极度舒适的感觉? 那时你想过没有,你在做一件错误的事情?

现在的问题变成了:人类可不可能向善? 如果你相信人性的观念,也就是说你相信所有的人从根本上都有着同样的本质即人性的话,这个问题就会变成“人性可不可能向善”。大家知道,在思想史上,人性善恶的问题,哲学家们也是争论不休,莫衷一是。有人说人性本善,有人说人性本恶,有人说人性一半善一半恶。到了后现代主义兴起,一些人认为根本没有一个什么人性,意思是人与人是不一样的,没有什么大家都一样的所谓人性,不管它是善是恶。那么,有的人善,有的人恶,有的善多一点,有的恶多一点,有的坏人变好人,有的好人变坏人,不一而足,因此并没有人人都适用的办法来“治”人。

仔细考察,你会发现人性善恶问题与人类向善问题是有差别的。你可能是恶的,也可能是善的,但是现在的问题是:你可不可能向善,变得更善良呢? 显然,如果你坚持人性不变,这个问题你就会给出否定的回答。因此,你想要人性向善,首要就要相信人性是可以改变的、可以被改造的,显然这在某种意义上就是要相信:没有什么万世不易的人性,人性是历史变化的。

我个人恰恰相信:第一,人性不定,是不断在发生变化的;第二,人性是可以被改造的,但是这极其困难。因此,我认为,“ AI向善”是可能的,实现的终极方法只能是“人类向善”,当然在操作层面,“人类向善”可以是逐步的、一点一滴前进的。我并不相信某种一蹴而就的人性提升方案。

先说第一个问题:没有什么不变的人性。我用一个我命名的“露西(Lucy)隐喻”来说明我的观点。现在主流古人类学研究认为,人类起源于同一个非洲的古猿,还给她取了一个名字叫露西。

我的故事是:露西从树上下来,知道什么是人,或者她要走向何方吗? 当然她不知道。也许,她只是扫视了一下身边的其他古猿,心里说了一句:我再不做猿猴了! 也许,她心里还说了:我要做人! 可是,她并不知道什么是人。她所决定的不过是:我不要做猴子了!

我讲这个隐喻,是要说明人类的真实状况是既不知所来、亦不知所往的。今天,我们离开猿猴已经很远很远,但仍然不知道自己将去向何方。实际上,人类从猿猴进化而来只是诸多人类诞生理论中的一种,不过是今天的主流观念而已。生物学研究有一种说法,隔绝状态下只需要四五百年就会演化出新物种。而根据当代科学观念,人类已经有百万年的历史,智人也有数万年的历史,显然人类在不断进化,如果有一个什么人性,也应该是不断变化的。

再说第二个问题:人性可以被改造,但是很困难。人性如果在变化,这种变化只能是自然选择的吗? 如果是这样的话,所有有目的的人性提升都是徒劳的,我们只能听天由命、“靠天吃饭”。然而,自然选择是没有善恶指向的,没有证据表明最善者最适应环境,也没有证据表明最善良的人群在遗传上最有竞争力。于是,要想相信人类会向善,就必须相信人性是可以通过有目的的改造而提升的,我称之为“人性改造论”。

在我看来,人性改造活动在过去的人类历史上并不成功。大家知道,人性提升过去主要靠文化改造,尤其是宗教活动和教育活动。根据有文字的八千年文明史,我不否认人性有了一些变化,我们与山洞里砸碎其他人的头盖骨吸食脑髓的山顶洞人、与五胡乱华时以“两脚羊”为军粮的人有了一些区别,但是每当我看到、听到各种当代发生的骇人罪行的时候,比如“暗网”上的人口贩卖、器官贩卖的故事,便对文化提升人性的功效感到沮丧。

过去一百年中,随着现代科学技术的发展,一些人想到可不可以用科技方法对人性加以向善改造,比如大科幻作家威尔斯对使用生物学和心理学的方法提升人性就非常赞同。大家知道,最新的基因编辑技术的发展,催生了用它塑造完美人类的念头。对屡教不改的强奸犯可以进行化学阉割,对那些不诚信的家伙是不是也有类似的科学方法从身体层面施加一劳永逸地改造呢?

对此,我认为不能过于自信。首先科技方法有无改造人性的效力,并无一致的结论。其次就算此种效力存在,国家或社会的制度性人性改造,结果是人人向善,还是另一种结局呢? 例如威尔斯的名著《时间机器》中展现的那样,一批人被改造为奴隶、另一批人成为生物学意义上的主人,人族最终分化为两个对立物种。我认为后一种可能性更大,因为以目前的人性状态,人类掌握改造人性科技而使之向善发展,就如同抓住自己的头发离开地面。 “幸福结局” ( happy ending)不是没有可能,但想不付出努力和牺牲就皆大欢喜,是不可能的。

当然,我并不否认人性可能进化,只是已知数千年的人类文明史并没有人类大幅度高尚化的明显迹象或证据,因此对人性改造论的乌托邦必须予以足够的警惕。从既有人类史看,人性进化可能会花费数十万甚至百万年的时间,而在这之前,人类很可能已经自我毁灭。但是,即便如此,人类是应该勇敢地选择尝试改善人性,还是选择坐等悲剧发生呢? 这正是AI突飞猛进的时候人类必须要做出的选择。

从某种意义上说,我是一个极其悲观的乐观主义者。