- +1
专访赵汀阳:只要不具反思能力,人工智能就不会失控
著名哲学家赵汀阳新作《四种分叉》近期由华东师范大学出版社出版。“分叉”借用了博尔赫斯小说《小径分叉的花园》的用语,描述了一张包含一切可能性的多维时间之网,无穷分叉生成无数未来。在本书中,赵汀阳讨论了时间的无穷分叉状态、人类意识的起源、有轨电车悖论和超级人工智能四个关于“可能性”的分叉问题。“当代”何以成为一个“创世”时刻?人类的思想、哲学与文明,统统都建基在一个词语之上?伦理学发展到现代如何作茧自缚?超级人工智能带来的是人类的进步,还是毁灭?这些都是一个哲学家对这个世界的深沉追问。近日,澎湃新闻就《四种分叉》对赵汀阳进行了专访。
时间:当代性标示了在时间中面临一个存在临界点的状态
澎湃新闻:《四种分叉》的第一个分叉讨论的是时间,您论述了时间的无穷分叉状态,过去因为不同的叙事成为复数的历史,将来因为不同的选择成为了复数的未来,历史与未来向此刻双向汇集过来,“当代”成为唯一没有时间分叉的点。而您认为“当代性”并非时间属性,而是一个存在状态,该如何理解?
赵汀阳:“当代的”(contemporary)词义是人或事件与时间的同步关系。显然,当代性(contemporariness)就是这种与时间同步关系的性质,而不是时间性(temporality)的性质。存在总是在时间中存在,因此,与时间的某种关系就是存在的某种状态(可以想想海德格尔的书名《存在与时间》的深意)。在当代性的基本词义基础上,根据不同的问题和理论语境,可以有多种进一步的含义伸延。我的讨论也是对当代性概念的一种含义伸延。
当代性标示了在时间中面临一个存在临界点的状态,即必须着手于生成某种未来的犹豫状态,称为“存在论的犹豫”。理由是,在现时中,或者说在此时中,面对未来性所展开的由许多可能性所构成的“时间分叉”(博尔赫斯用语),却又无法证明哪一种可能性是更可取的,因此进入一种超越了知识论的困惑,所以是“存在论的犹豫”。这里的要点是,必然性在此缺席,每一条路径都只是可能性,既找不到历史必然规律也看不见历史的目的(或终点),于是就形成了时间、存在、自由三者同一的存在论境地。为什么这种境地是犹豫?因为必然规律、先知、教师、榜样和目的地都不在场,甚至不存在,那么,这种犹豫就不再是挑三拣四、斤斤计较的得失犹豫,而是一种在存在论水平上相当于“何以创世”的创作犹豫。
澎湃新闻:您在思考当代性的时候,将它与现代性做了区分,认为两者存在相关又相背的关系。您能展开讲讲,现代性如何影响我们对于时间的认知,以及我们对当代性或生活现实的理解?
赵汀阳:当代性与现代性并不是同一个层次上的问题,也不是同一个系列里的概念。当代性不是现代性之后的新时段,后现代才是现代性的后继。当代性是个哲学概念,是一个关于存在状态的概念,而现代才是个历史分期概念,通常指1500左右至今的历史阶段,也有人把1968之后归为后现代。前现代、现代和后现代的历史阶段划分是欧洲人基于欧洲历史变迁事实的一种理解,这种时段划分与世界上其它地方的历史变迁并不吻合,最好不要混为一谈。不过,世界各地的历史变迁节奏正在变得越来越步调一致,这是全球化的结果。
欧洲的现代性观念确实改变了欧洲对时间的历史理解。古希腊主要是时间-历史的循环观;基督教建立了线性的时间-历史观,线性的历史进程有个终点;现代的时间-历史观部分地继承了基督教的线性观点,但有根本变化,最重要的变化是把基督教的“等待”替换为“进步”,于是,在历史终结之前每一步不再是除了等待就别无意义的过程,而成为具有决定性意义的主动进展,于是,现时(the present)就变成最具意义的核心时刻,因此,现代性的观念总是以现时为核心的现时主义。
赵汀阳新作《四种分叉》意识:反思自身系统是人的最高级能力
澎湃新闻:第二个分叉讨论的是意识。您认为,以往的形而上学大都谈论“是”,但实际上使人区别于动物、让意识转变为思想的关键在于“反思”,而作为反思基础的否定词——“不”是“第一个哲学词汇”,也就是说,一个“不”字,启动了人类的思想、哲学乃至文明。从“是”生出“不”,与老子想象的世界生成之道是同构的:“一生二,二生三,三生万物。”这种论述容易让人联想到二进制,1和0的无穷组合构成了浩渺的计算机世界,那么我们是否能够认为,人的思想与计算机具有共同的起源与底层架构?如果不是,区别在哪?
赵汀阳:我想,更准确的说法应该是,计算机的思维是人的思维的一部分,是由人的思维派生出来的一种特殊算法系统。既然两者之间是父子关系,当然就是一致的,而由于计算机思维只是人的思维的一部分,当然也就只是部分相似。计算机思维在本质上就是人的逻辑和数学思维,不过,目前的一些新进展似乎试图让计算机具备人的其它思维能力,比如自由联想、感知、学习甚至想象力之类,如果成功的话,那就越来越像人了。根本的差异在于,目前的计算机思维不可能对自身系统的整体性进行反思。反思自身系统是人的最高级能力。
伦理:一些伦理两难是通过把不等式定义为等式造成的
澎湃新闻:第三个分叉讨论的是伦理,您利用著名的有轨电车悖论展开论述。您认为,伦理学本来的目的是帮助人们构筑完整的生活,但有轨电车这种伦理困局被理解为不可解决的道德悖论,事实上等于拒绝了关于共同命运的思考,反而成为一种分裂的力量。很多伦理学发展到现代变成了作茧自缚,以至于把一些本来并非悖论的问题转化为了悖论,是什么生成或者诱发了这种“作茧自缚”?
赵汀阳:关于伦理分叉的讨论是本书中相对最小的一个问题,也相对最简单。如果一个系统只有单一价值观,原则上就不应该出现矛盾或悖论,比如说,逻辑和数学系统只使用真值(真或假)为其单一价值观。即使如此,数学在特殊的反思条件下也会遇到难以解释的问题。如果一个系统具有多样价值观,比如说人类生活系统就具有多样价值观,那就必定会产生许多矛盾、悖论或两难。就目前熟知的人类价值系统而言,公正(justice)、自由、平等、公平(fairness)、博爱、善良、仁义、诚实等等价值之间就存在着大量的矛盾或两难,不可能同时得到满足。这是不可能解决的问题,因为那些基本价值都是同等重要的价值,难以形成理性排序。因此,这些价值之间的矛盾或两难就是人类必须接受的命运。
但有一些所谓的伦理两难其实是通过把某种不等式不合逻辑地定义为等式而造成的,有轨电车两难就是一个典型,它把“5条人命大于1条人命”的不等式改为“5条人命等值于1条人命”的等式。这种难题基于一个自我中心的无理假定:一个人的生命价值无穷大,所以等价于无数人的生命价值。这个等式在逻辑上是错误的。假如这种等式是对的,那么,“一句等于一万句”就也是对的。由此不难看出其中的危险性。正如真理越界多走一步就变成谬误,人道主义越界多走一步就会变成反人道主义。
智能:人工智能会带来全人类解放还是丛林战争?
澎湃新闻:第四个分叉讨论的是智能,似乎前面三个分叉都是为智能的分叉做铺垫,有点图穷匕见的意思。人工智能本来似乎是一个科学上的专业问题,但现在有越来越多的人文学者介入到这一问题并产生广泛影响,乃至占据了舞台中心,比如《未来简史》的作者赫拉利。您觉得人文学者思考人工智能的优势何在?
赵汀阳:恐怕无法笼统地谈论人文学者,因为每一个人文学者都是不一样的。也许只能说,假如一个人文学者能够确实做到尊重科学和逻辑的话,那么,其人文角度的反思或许有助于科学家慎重考虑人工智能的发展限度问题。
澎湃新闻:您对人工智能的未来持一个相对不乐观的态度,霍金、比尔·盖茨等人也对超级人工智能的研究提出警告,有相当一部分人类对超级人工智能是怀着恐惧心理的。那么,二战后两大阵营也一度被核恐惧笼罩,那时候人类也具备了自毁能力且保持到现在,这种恐惧与对超级人工智能的恐惧有什么异同?
赵汀阳:核战争当然是具有毁灭人类能力的威胁,但核武器有着“确保互相摧毁”的理性均衡,因此不如人工智能的潜在威胁那么大。我觉得,人类自己能够做主的危险不如由别的物种做主的危险那么深不可测。
澎湃新闻:您说,存在的唯一本真意图就是继续存在。但人类试图发明超越自身的超级人工智能,本身是反存在的,结果可能是人类的毁灭或者说文明的自杀。是什么诱惑人类违背“本真意图”?或者说,这种自毁冲动来自何方?
赵汀阳:这确实是一件难以理解的怪事。对于这个费解的问题,我找不到一个充分合理的理性解释,只有一个恐怕不太可靠的推测:科学家并非试图毁灭人类,相反,他们试图拯救人类,试图通过人工智能、物理学和生物学的高端技术的联合应用而创造出永生的新人类。问题是,假如此种技术能够实现,也只能是一小部分人获得存在升级和永生,大部分人没有这种机会。不过,这个存在升级的可能性还比较遥远,人们还有机会慢慢思考。
澎湃新闻:因为“存在的唯一本身意图是继续存在”,所以超级人工智能很可能采取最高效的自我保存原则,您在《智能的分叉》中推导出,超级人工智能极大可能不会遵循,甚至彻底无视人类的价值体系,人类为自己培育了掘墓人。那么,在这个人工智能还停留在AlphaGo的时代,我们是否有可能阻止这一晦暗的图景呢?
赵汀阳:当然有可能,假如人类能够形成集体理性而阻止越界冒险的话。我想,关键的界限是:(1)人工智能的发展应该限于特殊的或专业的人工智能,不能发展具有全面综合能力的人工智能;(2)不应该发展具有等价于人类反思能力的人工智能,即不能把人工智能设计成为能够对自身系统整体进行反思的全权自主智能。目前在研制的具有学习能力、积累经验能力甚至具有某种“创造性”的人工智能并没有越界,其“创造性”只是对所拥有的材料进行联想和重组。即使人工智能将来能够作曲比美巴赫、画画匹敌米开朗基罗、写诗不输杜甫,也不算越界。只要缺乏对自身系统整体的反思能力,人工智能就不会把自身升级为人类无法控制的超级智能存在。
澎湃新闻:在整本书的最后,您用了一页的篇幅讨论,在想象中的“人机大战”之外,人类社会内部的极端危险。现在的人们勉强能忍受经济不平等,但未来出现的可能是生命权的不平等,一部分人通过高技术改造生命而达到永生或者高量级的不平等,而另一部分人被降格为蝗虫,甚至连剥削的价值都不再存在。假设“人机大战”不会发生,技术的极大发展,更可能带来的是全人类的解放,还是人类社会内部的极端危险?
赵汀阳:这件事情严格地说不是关于人工智能的问题,而是人类自身的问题。假如人工智能的发展没有越界成为超级智能存在,那么,人工智能系统与人类之间就没有致命的矛盾。就是说,无论人工智能发展到多么精巧,只要维持作为人类的使用工具,就与人类不会形成敌对关系。至于人工智能的发展是否在人类内部带来马克思式的全人类解放还是霍布斯式的丛林战争,就不得而知了。就目前的人性水平而言,假如一小部分人手握人工智能的利器,局面恐怕不容乐观。假如控制人工智能的强者们联合起来压迫弱者,那么将是专制的最后胜利(赫拉利谈到这个可能性);假如控制人工智能的强者们互相争霸,则有可能导致人类毁灭(帝国主义逻辑的可能结局);假如控制人工智能的强者们联合起来共建一个万民共享之天下,应该是最优结局(我希望如此)。哪种结局的可能性更大?要看人类的运气了。
- 报料热线: 021-962866
- 报料邮箱: news@thepaper.cn
互联网新闻信息服务许可证:31120170006
增值电信业务经营许可证:沪B2-2017116
© 2014-2024 上海东方报业有限公司