澎湃Logo
下载客户端

登录

  • +1

我们可以完全依赖人工智能进行决策吗?

杰斯·惠特斯通(Jess Whittlestone)
2023-03-23 12:24
翻书党 >
字号

【编者按】

从基于大数据的罪犯画像到无人驾驶,从未来的性别认同到人类在虚拟世界中的互动关系,从基因编辑引发的伦理担忧到人工子宫和人体冷冻法,《未来道德:来自新科技的挑战》一书汇集了29位哲学家的文章,就现已出现以及即将面世的未来科技可能对人类社会带来的伦理挑战做出了深入的剖析与预测,从哲学的角度思考未来科技与人类的命运如何相互作用,本文为该书第20章、由杰斯·惠特斯通(Jess Whittlestone)撰写的《可以完全依赖人工智能进行决策吗》一文,澎湃新闻经中国科学技术出版社出版社授权发布。

我们面临现今最具挑战性的全球问题时,人工智能技术的进步将会怎样帮助我们应对它呢?

最近几十年来,有关心理学的研究记录下了人们容易产生的偏见和容易做出的不理智行为,描绘出了一幅有关人类决策的悲剧画卷。这一事实似乎在一定程度上证明我们在面对不容忽视的全球性巨变时所做出的抗争是必要的,例如:缓解因新兴技术而产生的气候变化和隐患,减少全球范围内的不公平现象。我们发现自己很难被长期的、抽象的,或统计性的因素所驱动而做出某种改变。许多全球性问题过于复杂,我们无法完全理解。同样,我们也不能以十足的把握预测在遥远的未来发生的事。

与此同时,人工智能的发展正受到越来越多的关注,这就催生出了一个问题:我们能否通过利用这些技术,改善我们在未来的重要问题上做出的决策?如果可以,那我们该怎么做?

人类决策的优势和短板

如果要具体展开说的话,近几十年来在人工智能领域的研究表明,人类的能力的确超群,只是这种强大并不是我们习以为常的那种。在人类认知领域,有许多我们司空见惯的事物被证明很难被机器复制。比如,我们能够将形态各异的椅子或者狗归类,还能识别具有不同光影、背景、视角的图像。这些对我们来说轻而易举的事,在人工智能系统的设计中却很难被实现。相反,我们认为下国际象棋需要运用更多智慧,但事实是人工智能只需要简单粗暴的学习就能轻松掌握。早在1997年,国际象棋的世界冠军就已经被电脑击败了。

一般来说,和机器相比,人类的认知能力已经被证明是十分强大且灵活的。当我们细想每天要处理多少复杂和模棱两可的信息,要做多少个决定时,像适应我们所处的环境和通过别人的表情了解他们的情绪这种“小事”就更加容易受到关注。

因为我们面临的世界有着极大的复杂性和不确定性,我们不可能将每一个决策做到尽善尽美。所以,我们选择经验主义的捷径:不假思索地走上以前一直走过的路。我们总是模仿周围人的行为。我们总是过滤掉大量非急需的信息。要想同时理解人类思想的优势和短板,我们就一定要明白我们接收和处理信息的能力是有限的,所以我们需要“经验法则”帮助我们理解这个极其复杂和充满不确定性的世界。这些基于经验的捷径思维在大部分情况下十分奏效,但是它们也系统性地限制了我们的思想。

即便是在做类似于今晚吃什么,或给朋友买什么生日礼物等最简单的决定时,我们也需要考虑要注意什么信息,忽略什么信息。世上有许多选项供我们选择,即使你将选择范围缩小到一个方向,比如选择一件针织套衫,也有数以千计的品牌和商铺供你挑选。即便你的冰箱里只有十种食材,你也有数百种组合它们的方式。所有的这些意味着我们有可能更倾向于倚重那些在情感上令人信服的,或者是直接摆在我们面前的信息,而不是那些更加抽象且不确定,但又更加重要的信息。与其尝试解决如何最大限度地改善我朋友的生活这一难题,不如直接给他们买我第一眼相中的那件针织套衫。我们也更容易被短期的甜头所吸引,比如只想再多吃一勺冰激凌,而不太容易被长期的、更加可靠的好处所驱使,例如健康饮食的好处。

我们在决策中简单粗暴地基于经验捷径行事也意味着保持一致性并非我们的强项。在不同的日子问我同一个问题,我可能会根据你对问题的表达和我当时的想法,给出不同的回答。事实上,因为我们必须走许多捷径,所以在面对复杂且模棱两可的信息时,我们容易习得“错觉相关”。换句话说,就是让我们相信并不存在的模式或联系。有人认为,这种倾向为毫无真实性且有害的刻板印象的形成和持续存在打下了基础:假设你认为女性不如男性,那么你就会开始关注所有适用于此观点的男性个体和女性个体,而刻意忽略所有不适用于此观点的案例。

这些局限性似乎会特别影响我们应对全球性挑战的能力。这些挑战需要我们提前做好准备,并在应对时采取集体行动。但正是这些挑战的“全球性”让我们很难对它们进行理解和预测:当面对哪些干预措施最能有效减轻气候变化,核武器的威胁有多大,或者是新型传染病的传播速度有多快等复杂问题时,我们的直觉变得不再可靠。在回答这些问题时,我们很容易给出看似言之有理但是过于简单的结论,并在这上面浪费大量的时间和资源。

我们在人类决策中见识到的偏见和错误,证明了我们大脑承载的信息量超出了我们能够承受的范围,即所谓的信息过载。在很多方面,这种信息过载的情况只增不减——我们在网络上接触到越来越多信息,我们比以往任何时候都有更多选择。这让我们处理信息的局限性愈发凸显。

但是,我们有没有办法利用全球的互联互通和随时可利用的信息应对全球挑战?

人工智能的预示

对于利用人工智能改善决策,我们有两种截然不同的认知方式。

第一种是将人工智能系统视作人工决策的替代品:越来越多的决策被外包给能够更快更高效地解决问题的自动化系统。举一个简单的例子,谷歌地图在获悉一个城市的所有路径,以及计算从A点到B点的最优路径等事上胜过我的大脑,所以很多时候我都会将制定路线的决策外包给它,不加思考地按照它的导航走。

第二种是将人工智能系统视作人类能力的补充:它们能帮助我们以全新且重要的方式理解这个世界。我们不能简单地认为这些方式优于人类理解世界的方式,两者应是互补的。在有些事上,我更了解我的城市,比如哪些路线在晚上最安全,哪些路线在白天的风景最好,这些信息都不容易被谷歌地图的软件收录。谷歌地图可以帮助我规划耗时最短的路线,以节省我的体力和时间,但是在其他情况下,我会把谷歌地图导航与我已知的其他知识相结合使用。

当前许多有关人工智能在社会中的运用的讨论都含蓄地指向第一种观点:也就是用更高效、更优秀的人工智能决策程序取代人类决策。这一观点似乎也加强了许多有关人工智能对社会和人类产生的潜在影响的担心:工作中自动化的增长究竟对经济、不平等以及人存在的意义意味着什么;那些被设定在决策算法中的偏见令人困扰;人工智能开始在越来越多的领域中取代人类,而它的安全性和可靠性究竟几何。鉴于这些担忧,我们的社会应该问一个重要的问题:我们是否真的希望,或者需要构建一套人工智能系统以取代人工服务?我的建议是,我们应该更明确地考虑将人类和机器各自的优势相结合,尤其是在我们的社会面临最关键的问题时。

由于人类推理的局限性源于我们有限的认知能力,我们有充分的理由认为人工智能可以帮助我们克服这些具体的局限性,并与我们的思维优势互补。当处理诸如说服他人或与他人交流等多数日常问题时,人工智能系统往往不如人类灵活高效,但是它们可以帮助我们更加精确可靠地理解大量复杂信息。在联合国最近的一份关于人工智能的报告中,联合国粮食及农业组织表示:“人工智能最重要的作用……是预测意外事件、威胁和危机。通过早期发现、预防和缓解等手段,我们就可以在饥荒、气候变化、移民等挑战成为危机前将其解决。”

人工智能与人类能力优势互补的另一种显著方式是为我们提供工具,更严格地设计决策过程,从而帮我们做出更一致、更系统的决策。

有证据显示,在简单的问题预判方面,即使是非常简单的算法也胜过专家的判断。例如,在预测假释期中的囚犯是否会再次犯罪,或是潜在候选人在未来的工作中是否能够表现良好时,算法已被证实比人类的预测更准确。在超过100个不同领域的研究中,半数案例显示简单的算法能比专家做出更好的、更有意义的预测,其余的案例(除了极少数)则显示两者之间不相上下。当问题涉及诸多因素且某种情况存在极大的不确定性时,简单的算法可以通过关注最重要的因素和保持一致性胜出,而人类的判断很容易被一些显而易见但可能与最终事实毫不相关的因素动摇。更深入的证据也证明了类似观点,即“重大事项清单”可以通过确保人们在超负荷工作时不遗漏重要步骤或事项,提升多个领域专家决策的质量。例如,在重症监护室治疗患者需要每天进行上百个细微动作,一个小错误就有可能导致患者死亡。事实证明,在从预防活体感染到减少肺炎病例等一系列医疗活动中,利用清单(备忘录)来确保不遗漏每个关键步骤是十分有效的。

除了非常简单的算法,其他基于人工智能的工具也能在复杂的领域进行更好的因果推理和概率推理。人们天生就有能力建立这个世界的因果模型,以解释事情发生的缘由,这是人工智能系统所不具备的能力。例如,一个医生可以通过讲解治疗给患者身体带来的变化,向患者解释为什么这种治疗有用,但是现代的机器学习系统只能回答:接受这种治疗的患者基本上身体都有所好转。但是,当因果关系变得足够复杂时,比如评估政策干预对整个社会的影响,人类的推理仍然容易出现混乱和错误。在这种情况下,使用更加结构化的人工智能工具辅助人类进行推理会大有裨益。研究人员一直在探索使用贝叶斯(Bayesian)网络。它是一种人工智能技术,可以用于描绘事物之间的因果关系和表示不同领域存在的不确定性的程度,从而为决策提供支持,比如更准确地评估风险。在历史数据不足的情况下,这些技术对评估类似于恐怖袭击或新的生态灾难等新型或罕见的威胁十分有效。

这对我们应该建立的人工智能系统意味着什么

从人工智能在哪些方面能够支持更好的决策的例子中,我们可能注意到两件事。第一,在这些案例中不存在人工智能系统完全接管决策过程的情况,相反,它们被用来提取有用的信息并将这些信息结构化,以帮助我们规避人类推理的一些常见陷阱。第二,许多案例并不涉及遥不可及的精密机器学习方法,而是与分析数据和架构决策相关的简单算法,根据主流定义,这些算法和工具都不会被归为“人工智能”。

人类很难只靠自己收集和分析来预测病毒的传播,提供绘制发展中国家人口密度图所需要的数据。但是,那些以这些信息为依据做出的决策还是需要由人类做出,比如应该实施怎样的卫生干预措施,或是如何在国内分配稀缺资源等。这种决策最后可能深受价值观影响,充满政治性,需要在合理的不同意见中做出权衡。例如,在决定如何在医院之间有效分配资源时,要在病情最严重的患者和最有可能康复的患者之间进行权衡。为了尽可能地确保这些决策公正透明,它们必须由了解全部情况并且能够承担相应责任的人做出。

实际上,最近在社会上,由人工智能的使用产生的诸多问题,都源于它们被用于自动执行那些包含着主观因素的决策:有关某人是否应该被假释,是否应得到这份工作,以及是否应向其提供贷款等问题的决策。算法可以为我们推算来自某一特定群体的人再次犯罪、成功就业或偿还贷款的概率提供统计信息。但是基于这些统计信息,谁应该得到怎样的机会仍是一个没有标准的问题。毫无疑问,遵循算法可能会最终加剧历史上的不公:如果少数族裔在招聘中一向受到歧视,那么数据将会显示他们在工作中成功的概率较低,从而导致他们在未来受到更多的歧视。

但是,如果我们将在这些背景中使用的算法视作一个范围更广的决策中的一项数据分析,那么我们更容易关注并减轻对于偏见的担忧。我们不应该期望人工智能系统能够理解人类价值观的复杂性和细微差别。鉴于人类和人工智能各自的相对优势,这显然不是它们目前最能帮助到我们的地方。

尽管如此,当涉及情况特殊,具有主观性的决策时,算法有时可以帮助我们更清晰地梳理问题,减少我们在认知过程中下的功夫:提取关键信息,确保我们不会忽略重要因素,并帮助我们更清晰地思考复杂系统中的因果关系。回到疾病管控的案例,人工智能系统无法告诉政府如何最大限度地拯救生命,但是不同的工具可以提供有关病毒蔓延及其后果的有效数据信息,确保政策制定者在决策时考虑到所有重要因素,并在他们预判备选政策的影响时提供决策支持。

如果我们把人工智能更多地视作对人类决策的支持与补充而不是后者的替代品,我们可能会发现我们最需要的绝不是如今被大肆宣传和被研究人员高度关注的极其复杂的机器学习能力。对于许多重要的现实问题,最被我们需要的并不一定是最佳的计算机视觉和自然语言处理能力,因为我们的视觉和语言能力已经非常优秀了。我们最需要的是较为简单的大数据分析,以及架构推理和决策的实用性工具。

如果我们明确地将目标定为构建人工智能以帮助人类处理需要应对的重要事情,那么我们的重点研究领域将会与现在的大相径庭。

《未来道德:来自新科技的挑战》,[英]大卫·埃德蒙兹编著,蒋兰译,中国科学技术出版社2023年1月。

    责任编辑:方晓燕
    澎湃新闻报料:021-962866
    澎湃新闻,未经授权不得转载
    +1
    收藏
    我要举报
            查看更多

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈