- +1
新历史观中的人工智能与人类未来
一、从“怪异”的特朗普说起
在2016年的美国大选中,主流媒体一直不看好特朗普,但他最终却赢了当时的大热门希拉里。不少美国人至今仍无法理解这一结果。自2017年就任美国总统以来,特朗普依旧坚持“不走寻常路”,言行时常令人觉得“怪异”。但是在特朗普不按常理出牌的背后,一个很可能的真相是,并非美国人不了解特朗普,而是特朗普更了解美国人。
最近美国媒体爆出特朗普竞选期间的超级秘密武器:一家名为“剑桥分析”(Cambridge Analytica)的英国数据分析公司收集了多达8700万脸书网站(Facebook)用户的数据,该公司利用自己发明的“心理学建模”算法给这些用户“画像”(涵盖年龄、性别、工作、地点、政治立场、兴趣爱好、情感偏好等上百个数据项),然后根据不同用户的特点与倾向,在大选期间通过人工智能软件向其中的选民精准推送诱导性信息与政治广告。这一手段帮助特朗普拉拢了很多中间选民,在特朗普的胜选中发挥了重要作用。
以此来看,相比传统的民意调查和政治营销手段,拥有人工智能支持的特朗普之前是在打一场“不对称”选战。因为对手只能看到局部,而他却能看到选民的“全景”,并且能够精准制定和调整相应的竞选策略,进而不断强化自己的优势。外界和主流媒体之所以很难理解特朗普的言行,主要缘自他们往往仅靠刻板印象与政治正确去做推断,而不是像特朗普那样,依靠大数据和人工智能技术把握了大多数美国人的意见。
无独有偶,美国另一家社交媒体巨头推特(Twitter)前不久也被发现卷入上述脸书的数据泄露丑闻,剑桥分析公司很可能也利用了推特数据为特朗普的竞选服务。照此推理,我们也不难理解特朗普上任后为什么偏爱“推特治国”。特朗普迄今为止已在推特上发文近4万条,拥有5100多万追随者,并有两个机器人账号帮助高频播报他的各种推文,其粉丝数量在过去一年内增长超过200%。特朗普在大选中尝到人工智能技术的甜头,我们很难想象他不再使用这一工具来挖掘自己推特数据的决策参考价值。
如果在很多重大问题上,特朗普均有借助人工智能收集“民意”以资决策参考,那么他的“怪异”言行并不会拉低他在美国国内的实际支持率。
二、守门人理论视角下的人类历史演进
其实像特朗普这样的决策者需要决策参考,是一个非常普遍的现象。几乎古今中外的每一个人在做决策时,都需要一定的决策参考。这个为我们提供决策参考的人,我们可以称之为守门人(gatekeeper)。
我们身处在由无数守门人所编织成的无形大网中。每一个人都无法逃避各种守门人对我们决策的影响,与此同时,我们也在为别人的决策扮演着某种守门人角色。在人类历史的长河中,基于大数据技术的人工智能发挥守门人作用,的确是一个值得认真研究的新现象。
如果将我们生活的世界分为四个部分,即日常生活、公共生活、组织生活以及虚拟生活,那么与此相应,可以在这些不同的生活世界中识别出四种不同的守门人类型:咨询型守门人、制度型守门人、管理型守门人和工具型守门人。
咨询型守门人基于人际关系,为决策者的日常生活提供咨询或建议,如父母亲朋等;制度型守门人基于社会关系,为决策者的公共生活提供社会服务或公共产品,如法官和教师等;管理型守门人基于组织关系,根据其组织角色帮助组织内的决策者提供决策参考或辅助决策;工具型守门人基于用户关系,它们在虚拟世界中帮助用户获取所需信息或是协助处理大量复杂信息,如各种网络技术与工具,也包括时下流行的人工智能。(详见拙著:《谁在误导你的决策——无处不在的守门人》,社会科学文献出版社,2015年)
由上述守门人的类型学可以看出,守门人已经作为一种不可或缺的机制深深地嵌入我们生活世界的各个方面。当前,四种守门人类型并存于世,他们在各自的领域发挥着不可或缺的作用。从最一般的意义上来说,守门人才是真正的历史创造者和塑造者,由此守门人视角也可以为我们提供有关人类的新历史观。
从人类历史的进程来看,咨询型守门人最早出现。在远古社会,人类的生存、繁衍和发展在很大程度上需要依靠代际之间的知识和经验传承,而那些向后辈传授知识和经验的长辈便是最早的咨询型守门人。这时整个社会的信息总量不大,所涉及的人事也不太复杂。
随着社会系统的信息量和复杂性的不断增加,专业化与社会分工的发展减少了信息处理的成本,进而使得制度型守门人作为某些咨询型守门人制度化的替代物而产生。制度型守门人有助于更有效地处理较为复杂的信息和事情,在此基础上宗族、民族和国家等集体概念开始出现,进一步促进了人类社会的发展。
近代工业革命开启了以理性精神为主导的科层制时代,组织力量的发展打破了英国经济学家亚当•斯密(1723—1790)时代原子式的竞争格局。在这个过程中,管理型守门人在日益组织化的社会中大量涌现。19世纪晚期的美国,铁路大型工程的建设助推现代公司制度出现,这一制度的有效性使得公司组织形式在全世界得以广泛应用,管理型守门人在协调和配置市场资源中的角色也随之日益凸显。
工具型守门人则在以现代信息技术为标志的第三次工业革命中应运而生。随着互联网技术的发展,大量新兴的工具型守门人开始出现。在过去,面对未知和复杂的事务,我们更多求助于身边的咨询型守门人、社会中的制度型守门人或组织内的管理型守门人,但现在我们越来越多地使用工具型守门人(谷歌、百度这样的检索工具或大数据技术)来获取认知与决策的参考。
在当前的大数据和人工智能时代,工具型守门人正呈现大发展的趋势。比如被中国围棋手柯洁称为“围棋上帝”的谷歌公司人工智能程序“阿尔法狗”(AlphaGo)以及它的超强升级版“阿尔法元”(AlphaZero),再比如时下被追捧的无人驾驶、机器翻译以及语音识别等技术。由于工具型守门人拥有更强大的计算能力、学习能力、分析能力乃至解决问题的能力,一些传统的守门人正在被一些新兴的工具型守门人所取代。
三、人工智能对人类未来的三大挑战
工具型守门人的最初形态只是利用信息技术帮助决策者收集和处理信息,从而辅助决策者的认知与决策,比如百度和谷歌这一类的搜索引擎。在大数据技术基础上的人工智能则是工具型守门人的一种高级形态,因为它能发挥的作用不仅是数据处理,而且还具备深度学习和理解能力,能够帮助决策者发现信息和数据背后的结构与规律,使得决策者的决策变得更为容易和高效,有时甚至可以帮助决策者直接解决问题。
如果说从咨询型守门人演变至工具型守门人是人类社会分工不断发展的结果,那么人工智能作为工具型守门人的高级形态,则可以被看成是人类分工发展的一种极端形式,因为它正使得人类之间的一些分工转变成人类和机器之间的分工。尽管一些人认为人工智能目前的水平只是对人脑思维的一种简单模拟,但很多人坚持认为,人工智能在超越人类心智能力方面正在取得突破性进展。从技术发展的长期趋势来看,人工智能有可能给人类的未来带来至少三大挑战。
第一大挑战是人类的决策被工具型守门人控制。
关于此种挑战,本文开头列举的特朗普在大选期间所使用的人工智能技术便是一个很好的例子:选民看似是自主决策,但是人工智能技术的运用极大减弱了选民特别是中间选民投票决策中的自主性。随着人工智能技术的发展,在到底是谁做决策这一问题上,决策者和工具型守门人之间的界限正变得日益模糊。以人工智能技术为核心的工具型守门人常常在代替人类做决策,甚至可以说这往往是人工智能技术在商业应用方面所追求的目标,即不断增加用户决策时对工具型守门人的依赖,直至其完全被控制。
例如,无人驾驶的人工智能技术旨在将驾驶员彻底变为乘客,使得驾驶员在车辆行驶过程中无需再根据路况和车况等数据做各种决策,在此条件下,驾驶员自主驾驶反倒变成一种安全隐患。有关“被决策”的情形,当前在互联网大数据精准营销中也体现得特别明显。我们在阅读网络新闻或网上购物时,越来越容易发现自己“喜爱”或“感兴趣”的新闻或商品,这使得不少人在网络上花的时间越来越多。但事实上,这只是基于大数据技术对我们的网络行为、心理偏好、生活习惯等进行“画像”后,再由网站或软件精准向我们推送有关新闻或商品。我们貌似在一个自由市场中自主决定注意力的分配或是购买何种商品,但在很大程度上,我们的选择都被工具型守门人所诱导甚至是控制,而且这种诱导与控制可被不断强化,最终结果可能是,我们的偏好与决策被工具型守门人所塑造。
第二大挑战是人类社会的不公平和不平等,即以色列新锐历史学家尤瓦尔•赫拉利(Yuval Noah Harari)在其畅销名作《未来简史》中提到的“前所未有的社会及政治不平等”,可能进一步加剧。
数据大爆炸导致注意力成为最稀缺的资源,人工智能技术因为可以有效引导人类注意力的投放而拥有巨大的权力。由于人工智能技术的发展在不同国家有先有后,不同的组织对人工智能技术的掌握和应用程度有所不同,个体之间受人工智能技术的影响也会有所差别,由此便不可避免地会带来新的不公平和不平等。那些最先掌握人工智能技术并且应用这些技术为自己服务的个人、组织或国家,相较于其他个体、组织或国家而言将拥有压倒性的优势。当这种优势被滥用而不被有效约束时,不公平和不平等的加剧将是一个无法避免的结果。
在不公平和不平等方面,一个较为普遍的担忧是人工智能将导致前所未有的失业问题。这与本世纪初互联网和计算机的普遍使用所带来的失业问题有根本的不同。前面已经谈及,人工智能作为工具型守门人的高级形态,其目标实质上是取代决策者的工作,而不是像传统的守门人那样仅仅是辅助决策者的工作。换句话说,人工智能是在从根本上挤压人类在社会分工中的价值空间。未来社会的分工可能更多将发生在人类和人工智能之间,而并非以往那样,随着技术发展而在人类之间进行分工调整,那些无法很好适应这种分工转变的人或国家将在竞争中处于明显劣势,一些人的生存机会甚至会因此受到威胁。反过来说,那些在开发和利用人工智能方面领先的精英或国家,将获得显失公平的极高酬赏。
第三大挑战是人类会因人工智能带来的伦理道德问题而变得更加脆弱,但这却将促进人工智能的进一步发展。
对传统的守门人而言,一个最基本的价值伦理问题是,他应为决策者守门并且尽忠职守。对一般的工具型守门人而言,为用户的决策利益服务的同时不损害其他人的利益应是最基本的道德原则。但正如我们在前面提及的政治营销和精准市场营销中所看到的,人工智能作为工具型守门人,其目标常常是控制决策者的决策,因此未来其行事方式很可能是在一些方面“不动声色”地损害决策者利益(如现在已经很普遍的隐私侵犯),从而确保技术的拥有者和使用者的利益最大化。很讽刺的是,这一点也可能是人工智能技术获得发展的刺激和源动力。未来在越来越多的领域,人工智能技术将更容易获得垄断地位,高度依赖这些技术以及受这些技术控制的人将更容易受到伤害。
最具威胁性的伦理道德问题可能发生在军事领域。一些技术领先的国家已开始将人工智能应用到武器研发中,未来有可能在人工智能武器基础上出现“新殖民主义”或“新恐怖主义”。如同近代中国的冷兵器无法对抗欧美的热兵器一样,未来仅拥有热兵器的国家也无法抵抗拥有人工智能武器的国家。
这一威胁的严重性已经引发关注:国际机器人武器控制委员会(ICRAC)作为一个机器人技术专业人士组成的非政府组织,过去近十年一直倡导建立和支持一个与《不扩散核武器条约》类似的国际条约,专门管制致命自主武器系统的发展和使用。但是一些国家仍然热衷通过人工智能技术来加强自身的军事优势,例如谷歌正在尝试利用其图像识别和机器学习方面的人工智能技术,帮助美国军方识别无人机驾驶镜头中的特定目标对象(人和物体)。这一名为Maven的项目最近遭到近4000名谷歌员工的联名反对,并且有员工集体提出辞职以示抗议。
四、人类会被自己创制的人工智能消灭吗?
上述对人工智能的分析和评估可能会有些悲观,但这并非是要否认人工智能在促进社会进步和人类发展方面的无穷潜力。如果人们深信人工智能的巨大价值,那么更应该对人工智能可能的破坏性保持高度的警醒与敬畏。这正如核能的威力,虽然可用于和平的核电利用,但也可以用于血腥的战争杀戮。
人类是否终将因人工智能的发展而自取灭亡?这是当下有关人工智能的一个热点问题。如果我们接受“凡是在历史上产生的,都要在历史中灭亡”这样的唯物史观,那么人类的灭亡是确定无疑的,但人类灭亡的具体方式是不确定的,人工智能只是人类被灭亡的可能方式之一。不过,相比毁于大的自然灾害、外星人攻击、小行星撞地球以及核武战争等可能性,人工智能的确为人类的灭亡路径提供了更具思辨性的讨论空间。
将现有的各种看法归纳起来,人工智能灭亡人类的可能路径至少有三种:首先是前面提到的人工智能军事武器的不均衡发展以及发展的不受控制,这与核武器带来的人类自我毁灭十分相似;第二是人工智能医疗技术特别是基因技术的发展,使得生命资源和时间资源向极少数人集中,人类将会出现“永生者”,从而令人类繁衍的意义和动力逐渐弱化;第三是人工智能将发展出全面超越人类的心智能力,而且其发展速度将远超人类的进化速度,世界最终将会被人工智能机器所统治。
在前两种灭亡路径上,人类其实是死于人性本身的缺陷,即人性中的仇恨与贪婪会将人类引向灭亡。就第三种路径而言,如果人工智能被发展出和人类一样的心智和情感,那么人类的确有可能死于这种人工智能中的“人性缺陷”,但这样的缺陷只可能源自人类本身,因而人类依旧不是真正死于人工智能,仍然是死于“自杀”。假如人工智能技术能够克服“人性缺陷”而发展出完美的心智,那倒反过来有可能帮助和拯救人类,或者至少可以和人类和平共存。也就是说,人类将不会被人工智能消灭。
有关人工智能决定人类命运的观点,其背后的前提是,相较于人类的学习能力与进化速度,人工智能技术可以在深度和广度上无限快速发展。但一个更深刻的追问是,这一技术的发展是否可能存在某种极限。
就技术的物理支撑而言,人工智能的发展以不断改进的算法及强大的计算能力为基础,当前这需要依靠集成电路芯片的不断升级。解决更复杂的问题需要不断更新算法,也需要更强的计算能力。在过去五十多年里,的确每隔大概一到两年,一块集成电路芯片板上可容纳的元器件数目都会增加一倍,计算性能也随之提升一倍。但是集成电路技术的发展目前已经遇到瓶颈,芯片上多出来的元器件数目在提升算力方面的边际效用呈现明显的递减趋势。
未来芯片技术的发展可能会由于新材料或新的技术路线而有新的突破,但是任何基于物理基础的技术都必定有其极限,人类社会本身也对计算能力的无限提升与供应构成各种现实的约束,因此边际效用递减在人工智能领域也很可能是一个十分普遍的规律:一方面,某一技术路线的价值总是趋向于递减的;另一方面,随着一项人工智能技术不断满足人类的某些需求,人类再耗费资源提升这项技术的意愿就会逐渐降低。但是这依旧不能回答人工智能的极限与人类心智的极限孰高孰低的问题。换句话说,人类心智是否在本质上胜过人工智能呢?或者说人工智能有没有可能“青出于蓝而胜于蓝”呢?
以奥地利裔美国数学家哥德尔(Kurt Friedrich Gödel,1906—1978)的名字命名的“哥德尔不完备定理”有助于探索上述问题的答案。根据这一定理及其推论,以算法为基础的任一有效的人工智能系统,该系统内总有一些数学命题是无法用该人工智能系统自身来判定真伪的。但人类的心智不可能完全是以算法为基础的系统,否则,根据哥德尔的不完备定理,将会出现人类心智无法判定真伪的数学命题,这与数学的理性主义原则是相矛盾的。因此在解决数学问题的能力上,人类心智的确是胜过人工智能的。
要更充分地理解人类心智相较于人工智能的优越性,还可从分类思维入手。从认识论的角度来说,解决问题的方法在根本上都是以分类思维为基础的。人工智能作为一种人造手段,在解决问题时肯定也需要做基础性的类别判定,其最基本的分类模式必定源自人类的设定或给予。而且一方面人工智能系统能够被人类的分类模式所定义,另一方面该系统在解决问题时所使用的分类模式必定是有限的,否则该系统无法输出一个确定且有意义的结果。
但是人工智能系统使用任一分类模式所得出的结论都将是有局限性的。人类解决问题时在分类模式的可选择性与灵活性方面要明显超过特定的人工智能系统,这使得在从多方面或多角度去考虑和解决问题的能力上,人工智能系统要逊于人类心智。
五、守门人理论视角下的人类未来与自我救赎
相比关心人类是否会死于人工智能这样久远的时间问题,抑或思考人类心智与人工智能孰优孰劣这样的哲学问题,一个更紧迫也更现实的问题是人工智能对人性的侵蚀。
前文已经提到,人工智能作为工具型守门人的一种高级形态,正在取代而非辅助决策者的一些决策,这使得人类作为决策者自主决策的意涵被侵蚀。随着人类在一些方面的工作被人工智能所完全取代,人类对人工智能的依赖不断增强的趋势将很难逆转,这种过度依赖将容易造成人类总体的认知能力和决策能力退化,人类劳动的价值空间被缩小。
另一个明显的趋势是,以人工智能为代表的工具型守门人正在从虚拟生活融入我们的日常生活、公共生活和组织生活,用户关系正在侵蚀我们的人际关系、社会关系与组织关系,虚拟社会和现实社会的界限也因为人工智能的发展变得日渐模糊,未来社会将会成为人类心智与人工智能紧密联结的复合体。随着人工智能工具发挥的作用越来越大,人类个体的独立性与自由性将会遭到极大削弱。这也许是德国社会学家马克思•韦伯(1864-1920)所讲的“理性化牢笼”的终极形式。
人类要如何自我救赎?
在知识层面,我们应该更加重视对哲学和伦理学的研究与教育,站在更高的高度去理解和认识人工智能发展的意义与影响,作为制度型守门人的政府、新闻媒体、学校和科研院所及其相关人员应该在这方面发挥重要作用,履行好自己的守门人职责。
在道德层面,我们需要警惕“主观为自己、客观为他人”的自由主义危险,更多提倡“主观为他人、客观为自己”的超我主义实践,如此将有助于人类抵御人工智能对人性的侵蚀。
在监管层面,要高度重视工具型守门人的垄断问题,构建国内和国际的人工智能技术规范,加强对人工智能技术发展的监管和伦理审查,通过合规监督与违规惩处促进人工智能朝亲社会的方向发展。
在法律层面,要加强有关的立法研究工作,在军事和医疗等重要领域,及时建立和完善人工智能的国内法规、国际条约与国际组织,发动全社会和各国的参与,加大法律在国内和国际的执行力度。
(本文仅代表个人观点,不代表所在机构和上级单位观点。)
- 报料热线: 021-962866
- 报料邮箱: news@thepaper.cn
互联网新闻信息服务许可证:31120170006
增值电信业务经营许可证:沪B2-2017116
© 2014-2024 上海东方报业有限公司