澎湃Logo
下载客户端

登录

  • +1

专访陈小平:公义创新——人工智能时代的创新模式

2021-03-20 08:59
来源:澎湃新闻·澎湃号·湃客
字号

采访+编辑 / 常莹丽

在国际社会近年来对人工智能伦理等问题的探讨中,人工智能治理逐渐成为一个热点。人工智能何以增进人类福祉,为解决重大社会问题发挥关键性作用?在2020年举行的“第二届全球视野下的人工智能伦理论坛”上,中国科学技术大学计算机学院的陈小平教授引入了“公义创新”这一概念。与强调创新是“生产要素的重新组合”、追求经济增长的熊彼特创新模式不同,公义创新旨在通过平稳渐进地升级创新要素组合机制、社会参与模式、风险预研与应对体系等,实现经济效益和社会效益的协同提升。这种协同提升不是两种效益的“加法运算”而是“升维操作”,将开辟前所未有的创新可能性。

陈小平教授长期从事人工智能理论基础和智能服务机器人关键技术研究,并密切关注人工智能的伦理问题,致力于推动人工智能治理体系建设。2021年初,《信睿周报》以书面形式对陈小平教授进行了专访,邀请他就当下全球人工智能伦理建设的最新进展、公义创新的现实应用等问题分享新近的观察与思考。

陈小平,中国科学技术大学教授,机器人技术标准创新基地主任,中国人工智能学会人工智能伦理道德专委会主任,全球人工智能委员会执行委员。(图片由受访者提供)

随着人工智能技术应用逐渐渗透到人们生产生活的方方面面,其在为我们带来各种便利的同时,所触及的伦理和法律问题也开始凸显。近年来,世界上很多国家、机构、团体等都在尝试针对人工智能伦理制定标准或限制,并已有相关成果出炉,请您介绍一下这方面的最新进展。

陈小平:据不完全统计,目前国内外已提出六十多套人工智能伦理规范和治理建议。2020年国内外形成的一项普遍共识是:只有伦理规范远远不够,治理的实现重在规范的落地[1]。所以从2020年开始,人工智能治理成为一项主要议题。

讨论人工智能治理,首先需要明确治理的中心任务是什么——治理什么,要达到什么效果?一种流行观点认为:随着人工智能发展而出现的问题,如用户隐私、数据安全、“算法独裁”、“数字鸿沟”等,都是人工智能技术催生的,所以治理的对象应是人工智能技术本身,治理的效果则是消除人工智能的负面效应。

然而,现实情况却是:一方面,现行科技创新模式以熊彼特创新模式[2](以下简称“熊彼特模式”)为主导,科技成果主要通过该模式得到实际应用,应用产生的正面和负面社会效应也由该模式的具体实施决定,所以,将人工智能技术本身作为治理对象,不仅“张冠李戴”,而且在客观上掩盖了症结所在;另一方面,人类正面临人口老龄化、产业少人化、社会分化、不公平性问题、环境问题、人的发展等重大社会问题的挑战,并在部分地区或领域产生了严重的社会后果,而新技术却对这些挑战表现得束手无策。既然人工智能伦理的根本宗旨是增进人类福祉,如果人工智能不能为解决重大社会问题发挥关键性作用,那么人工智能治理的现实意义还剩几何?

熊彼特模式大约于100年前被提出,并在过去的半个多世纪中成为科技驱动经济发展的主要路径,为科技推动社会进步发挥了历史性作用。与发达国家相比,目前我国对熊彼特模式的理解、把握和运用仍有提升空间。然而值得注意的是,熊彼特模式的局限性和负面效应已日益显露出来。例如,目前流行的智能化产品往往不适合老年人使用,导致老年人在很大程度上无法享受科技进步带来的成果,甚至出现了一种潜在趋势:时代越进步,老年群体与社会的脱节越严重,形成了不同年龄群体之间的社会不公。除了诸如此类的“数字鸿沟”问题,其他重大社会问题的产生也都与熊彼特模式有关,而且无法通过该模式得到解决。

以上分析表明,人工智能治理的中心任务应该是:根据人工智能时代的社会需求,改良升级创新模式,使人工智能推动社会健康发展的实际效能得到显著提升,并为化解重大社会问题发挥关键性作用。

您在2020年举行的“第二届全球视野下的人工智能伦理论坛”上提到,可以通过人工智能的公义创新,来推动一些重大社会问题解决。您提出这一倡议的背景是什么?何为人工智能时代的公义创新?

陈小平:目前,公义创新理论仍处于早期学术探讨阶段,原始想法是我在2019年的一篇文章中提出的[3],当时使用的术语是“伦理性创新”。在“第二届全球视野下的人工智能伦理论坛”上,我首次使用了“公义创新”这一术语,该发言后来被整理、扩展成《人工智能伦理建设的目标、任务与路径:六个议题及其依据》一文,发表于《哲学研究》2020年第9期上。

概括地说,公义创新模式的构建是以体现经济效益的现行商业机制和体现社会效益的现有社会机制为主要原型素材,经过科学提炼和系统性整合,实现以下六项改良升级:

第一,评价体系升级。以经济效益与社会效益的协调统一为根本宗旨,基于对商业原则和公益原则中有效成分的科学提炼,整合升级为公义原则,并基于该原则构建全社会的公义评价体系。

第二,创新要素组合机制升级。熊彼特模式的创新要素只包含市场要素,公义创新模式的创新要素同时包含市场要素和非市场要素(合称“社会要素”)。熊彼特模式的基础机制是创造新的生产要素的市场化组合,主要实施机制是商业策划;公义创新的基础机制是创造新的社会要素的公义性组合(即基于公义原则的组合),主要实施机制是公义策划。

第三,社会参与模式升级。目前主要有三种社会参与模式——工作、公益和娱乐休闲,在熊彼特模式下它们是互斥的,是工作就不是公益或娱乐休闲。在公义创新模式下,不同社会参与模式之间的绝对界限被打破,同一项活动可以既是工作,又是公益和娱乐休闲,从而可以极大地开拓、激发个人潜能,促进人的全面发展,并支撑创新要素组合机制的升级。

第四,风险预研与应对体系升级。熊彼特模式以“市场选择”为创新成败的终极检验,不适应人工智能时代的社会总体需求和发展方向。公义创新将建立一整套风险预研和应对体系,对风险的普遍性课题和重点课题展开提前研究,在此基础上决定有效的应对策略,并进行风险应对机制的全面升级。

第五,职业道德升级。熊彼特模式基于经济效益原则,导致广义职业道德与狭义职业道德之间存在制度性背离(其中,广义职业道德被归为个人道德修养)。公义创新基于公义原则,对狭义职业道德体系进行全面更新,破除广义职业道德与狭义职业道德之间的鸿沟,将促使社会道德水平提升。

第六,管理体系升级。管理体系包括相关的法治、产业和社会政策,以及薪酬机制、市场监督、质量监督、技术标准、知识产权、风险投资等环节。与上述五项升级相适应,公义创新的管理体系将全面升级,从所有管理环节支撑经济效益与社会效益的协调统一。

公义创新模式的思想基础是公义原则和公义评价体系,通过五种机制(升级的创新要素组合是公义创新的内生动力机制,升级的社会参与模式是人力资源运转机制,升级的风险预研与应对体系是风险应对机制,升级的职业道德是道德伦理机制,升级的管理体系是运行保障机制)的协同作用,在实践中落地实现。

公义创新模式在经济和社会现实中存在大量原型素材和要素雏形。体现经济效益的现行主要商业机制是熊彼特模式;体现社会效益的现有社会机制包括中长期规划、扩大就业的产业政策、缩小地区差距的社会政策、增强行业秩序的技术标准制度等;另外,公益事业中局部尝试的非货币薪酬、基于互联网的内容创业等,也都是公义创新要素的雏形或萌芽。

您提到,公义创新追求经济效益和社会效益的协同提升,经济效益大家都比较熟悉,请您具体谈谈公义创新模式下的社会效益评价体系该如何建构,经济效益与社会效益的协同提升如何实现?

陈小平:事实上,世界各国都有自己的社会效益评价体系,只不过侧重点、作用方式、实施效果不尽相同。面对人工智能时代,我们需要对社会效益的评价原则、方法、体系,展开更加广泛、深入的梳理、深化和扩展,尤其应纳入反映重大社会问题的相关指标。

更大的挑战来自经济效益评价与社会效益评价的普遍分离,其潜在后果的严峻性尚未引起广泛关注。例如,为了应对产业少人化,国际上流行的解决方案是采取税收调节、社会福利等公益性措施。这些措施是有必要的,但往往“治标不治本”,而且在很多情况下“治标反误本”。比如,一些国家提出向所有公民无条件发放“基本收入”,这一方案如果被采纳实施,将极大地助推和加速产业少人化进程,引发“无用阶层”[4]的大量出现。人们不禁要问:这种结果符合人类的根本利益吗?人类社会将无可避免地走向这种结局吗?人类该如何走向更好的未来?

在这些“灵魂拷问”下,公义创新作为一条通向人类更好未来的可能路径而被提出。其基本构思是:通过将两种评价体系整合升级为一个自洽的整体——公义评价体系,实质性地拓展人类应对当代经济社会问题的思维和行动空间,实施科技创新模式的换代升级,激发全社会更广泛、更深刻、更活跃的创造性和建设性,实现效率与公平的协同提升(而不是简单平衡),为重大社会问题的解决和人类更加健康的发展走出一条新路。

例如,面对养老等熊彼特模式无法解决的难题,公义创新模式将探索经济力量与社会力量的新型整合,以调动更多社会资源的投入。其中一项具体措施是:为应对养老服务业的第一难题——人力不足,尝试不再将助老公益行为作为单纯的无偿付出,也不将其转化为传统的付费劳务,而是让服务提供者享有未来获得等量服务回报的机会(简称“工时回报”,这是公义薪酬的具体形式之一)。由于养老是每一个人的刚需,而且多数人不可能依靠纯市场化养老,这一措施可在相关制度保障下吸引大量人力资源投入。为支撑这一措施,现行货币主导型薪酬体系须升级为公义薪酬体系,彻底变革熊彼特模式下只有货币薪酬为“刚性回报”,公益贡献仅仅是无偿付出、主要依靠个人道德修养的格局,从而为社会生产力大解放开辟一条全新路径。当然,公义薪酬机制的建立是一个循序渐进的过程,其有效范围也有待摸索,纯志愿型公益事业将与其长期共存,其他现行经济和社会机制也将在较长时期内继续共存。

值得注意的是,在公义养老模式下,随着越来越多的人力资源投入,必将支撑、带动越来越多的商业化养老业务和新业态开展,推动养老市场和商业价值不断增大,促进社会的养老机能逐步变强,从而催生一种全新的经济-社会增长方式——经济效益与社会效益的相互促进、协同提升,而不仅仅是简单的平衡。这种协同提升能力和新型增长方式并非只为公义养老模式所独有,而是各项事业、各个行业的公义创新模式所共有的。

不仅如此,随着各个行业内部协同提升能力的形成和增强,将产生跨行业的协同提升效应。例如,公义养老模式激发的人力资源投入可吸纳落后产能的员工转移,从而与产业少人化问题的解决形成协同提升;公义养老模式引发的商业效益增长将促进从业人员的货币收入增加,进而为制造业提供更大的市场空间,促进制造业的发展。

经济发展理论
[美] 约瑟夫·熊彼特 / 著
商务印书馆 1990

总之,如果说熊彼特模式与公益事业的叠加是“加法运算”,那么公义创新模式下社会效益与经济效益的整合就是“升维操作”——从两个相互独立的一维空间整合升级为一个自洽的二维空间,该空间不仅可保留传统的熊彼特模式和公益事业,而且包含大量前所未有的创新可能性。例如,传统意义下的“新业态”只是一种商业创新,而在公义创新模式下将出现商业与公益协同创新的“新业型”。

在伦理学内部,有一种意见认为,“基于科学证据的伦理反思是有价值的,但一旦基于超出科学证据所能提供的说明来给出伦理建议,反倒是给科学拖了后腿”,作为人工智能科学家,您如何看待这种观点?进一步考虑“伦理”与“科学”之间的关系,有哪些问题是人工智能治理和公义创新需要解决的?

陈小平:超出科学证据支持范围的伦理建议确实会产生误导作用,而且目前已经出现了这种情况。例如,网络上流行着一些说法,认为人工智能将必然超越人类的控制,甚至很快就会发生,以至于一些人忧心忡忡。

人工智能可能带来的风险有三种:技术失控(人类失去对技术的控制,即“奇点”)、技术误用/滥用(如用户隐私等问题)、应用失误(如技术应用导致劳动岗位的大量减少、“数字鸿沟”等)。对于人工智能技术失控风险的判断,必须以人工智能技术真实状况的客观判断为基础,脱离这种判断的预测是缺乏科学依据的。根据我的分析,现有人工智能技术的成功应用依赖于场景封闭化[5],而封闭化只能由人来实现,所以,现阶段人工智能技术不存在技术失控的可能性,但存在其他两种风险。

不过,未来可能出现的某些类型的人工智能新技术,却不能排除可能导致技术失控的风险[6]。考虑到这种可能性,公义创新模式的风险管控将基于一条升级的基本原则:科学无止境,有底线。对无底线保障的科研课题,包括基础研究课题,将实行新的管理办法。相应地,作为科研人员狭义职业道德的科研伦理需要升级,树立安全底线意识,抛弃“任何科研和科技成果应用都是无条件正当的”传统观念。

公义创新模式下职业道德升级在研发层面的体现是:产品设计不仅要考虑产品的市场化指标,如功能、体验、价格、利润等,也要将用户隐私、数据安全等伦理因素纳入设计指标体系,从而弥补传统设计思维的伦理缺陷,为用户提供更好的产品/服务,同时给企业带来新的发展空间。在公义创新模式下,只关注商业利益的企业将被逐步淘汰,奉行公义原则的企业将大批崛起。

针对现实存在的技术误用/滥用风险,比如大众反映较为强烈的用户隐私和数据安全等问题,公义创新将如何解决?科研人员通常只对项目成果负责,并不对人类的长远利益负责,而且技术的发展和应用可能会背离研发者的初衷,公义评价体系如何处理这种情况?

陈小平:典型情况下,从基础研究到技术成果商业化应用的完整链条,是由三个环节组成的:第一个环节是基础和应用基础研究,也就是狭义的“科研”,通常在大学和科研机构中进行,其任务是探索基本原理或发明新技术,这些原理和技术通常并不能直接应用;第二个环节是产品开发,也就是狭义的“研发”,通常在企业的产品开发部门中进行,其任务是依据产品的商业策划,对相关的一组科研成果进行二次开发和系统集成,从而研制出终端用户(即普通用户)所使用的产品/服务;第三个环节是产品的“商业策划”,包含从产品的功能设计、市场定位到商业推广的一系列决策,在熊彼特模式下,产品的商业策划决定了产品的正面和负面社会效应。

例如,深度学习算法的研究属于科研,其产出是学习算法,这些算法通常不能直接为终端用户所使用,也不构成终端产品。但先进的算法代表着先进的技术水平,是有社会效益的。在产品研发中,如果发现某个学习算法符合产品商业策划的要求,就会对其进行二次开发,并采集应用场景的相关数据,经过训练得到可以实际应用的人工神经网络,用来向终端用户提供服务。至于为用户提供什么样的服务、采集用户的哪些隐私和非隐私数据、如何使用这些数据、企业会获得哪些商业利益等,则主要是由产品的商业策划决定。

上述分析表明,企业的商业策划对其产品是否会出现技术误用/滥用的影响最大,科研和研发的影响相对较小。因此,将科研、研发或技术本身视为技术误用/滥用的主要责任方,是一个重大误判,将严重干扰技术误用/滥用问题的有效治理。

技术误用/滥用的发生具有更深层的原因,特别是要面对以下三个难题:第一,无论商业策划决策者的主观意愿如何,一个产品的正面效应和负面效应总是同时存在的,试图避免所有负面效应通常是不可能的;第二,在熊彼特模式下,商业策划的终极标准是产品能否通过“市场选择”,这种选择主要依据经济效益,不遵守这一商业规律的企业在熊彼特模式下将难以生存;第三,企业决策者是维持企业生存的第一责任人,维持企业生存是其狭义职业道德的基本要求,在激烈竞争下很难出于广义职业道德(社会伦理责任)而放弃狭义职业道德。由此可见,导致技术误用/滥用的深层原因仍然在于熊彼特模式,我们只能在熊彼特模式之外寻找解决方案。

例如,用户隐私数据通常有多种不同的获取和使用方式,其中某些方式的商业利益很大,对用户的损害也很大;另一些方式的商业利益相对较小,造成的损害是用户可接受的。在熊彼特模式下只会采用前一种方式,而在公义创新模式下,将基于公义原则进行充分的专业分析与综合效益权衡,制定相关政策,禁止不可接受的隐私信息采集和使用方式,并以技术标准和行业规范的形式发布执行,从而健全行业秩序。这就使上述三个难题得到较好的解决,因而具有可行性。

事实上,上述解决方案在现行产业管理制度中已经实行多年,实践证明其是有效的。因此,针对技术误用/滥用问题,公义创新将在现行产业管理制度的基础上进行扩展升级,以适应新的社会需要。

有人担心,“机器换人”的趋势发展下去,会造成劳动岗位的大量流失,最终导致“无用阶层”的大量出现。在公义创新模式下有什么办法化解这个风险?

陈小平:“机器换人”主要有两方面原因:一方面,机器的生产效率越来越普遍地高于人工,在熊彼特模式下必然越来越普遍地用机器替代人工;另一方面,在经济、社会诸多因素的影响下,2004年起我国出现“用工荒”[7],且发生的范围和幅度持续扩大,导致“机器换人”成为一种迫切和长期的需求。目前,产业少人化正在成为一个重大社会问题,而且在熊彼特模式下无解。

公义创新基于公义原则综合考虑经济效益和社会效益,为化解产业少人化挑战开辟了新的可能途径。例如,在某行业的产业升级中有两个方案:第一个方案的经济效率提升是最优的,但削减了大量人工岗位;第二个方案的总体经济效率也有提升,但不是最优的,同时对人工岗位和工作参与方式进行了新的设计和拓展,从而避免了人工岗位的大量减少。显然,熊彼特模式将采用第一个方案,而且不会策划出第二个方案。公义创新可以同时策划出两个方案;如果基于公义原则的综合效益分析支持第二个方案,则采用第二个方案。在公义创新模式下,“机器换人”不是“抢饭碗”(机器剥夺人愿意做的工作),而是“捡饭碗”(机器承担人类不愿做的工作)。

公义创新还为产业少人化、人的发展、社会流动等问题提供了其他解决路径。众所周知,人的需求是多层次的,在达到一定物质生活水平的条件下,非物质需求往往会变成主要追求。随着中国经济的发展,总人口中“达到一定物质生活水平”者的比例将越来越高,对非物质的需求也将越来越普遍,进而形成一种越来越强大的积极性社会潜能。然而在熊彼特模式下,这种社会潜能不仅得不到正确引导和开发利用,甚至可能转化成负面力量。从人类福祉的长远考虑出发,只有尽力让全体成员以适合各自愿望和特点的参与方式融入社会建设的进程之中,人才能真正成为“有用的人”。

社会现状和人类长远利益都反映出社会参与模式升级的巨大需求,而现有社会实践正孕育着众多新型社会参与模式的萌芽和雏形。例如,近年来兴起的自媒体内容创业[8],虽然目前属于商业行为,并且存在诸多问题,但在参与内容、参与方式、结果产出、薪酬机制、组织方式等众多方面具有极大的升级和扩展空间,完全有可能转化为公义创新的多种新型社会参与模式,帮助形成产业少人化、人的发展、社会流动等问题的新型解决方案。

人工智能可以在解决诸如贫困与不平等问题方面提供方案,但人们也发现,技术的更新迭代会为一些人建立起新的社会壁垒。您如何看人工智能红利造成的“算法独裁”等问题?

陈小平:新技术应用带来新的社会壁垒是一种长期现象,过去主要以教育和培训作为应对手段,这是完全有必要的,应该长期坚持。不过,以往的经验也表明,只靠教育和培训是远远不够的。公义创新模式不仅提供了更多解决途径,如此前提到的社会参与模式升级,而且蕴含着发展方式的变革——这种变革为“人的解放”创造了新的可能性。

“算法独裁”一般可以理解为:人工智能接管了人类的部分事务,人类丧失了对这些事务的掌控,进而丧失了自己的基本权利。其实,“算法独裁”只有在熊彼特模式下才会产生,因为在这种模式下经济效率决定一切,某种人工智能技术的效率超过人时就可以替代人。所以,公义创新可以成为“算法独裁”等问题的解决方案。

当然,由于公义创新需要较长时间才会占据主导地位,有必要考虑在此之前会不会发生“算法独裁”。我刚刚已经谈到,现有人工智能技术的成功应用需要满足封闭性准则,而封闭性准则意味着:人工智能系统的运行必须完全符合研发者制定的设计规范,这种规范完整、详细地规定了人工智能系统的功能、性能指标和使用条件[9]。也就是说,符合封闭性准则的人工智能系统是遵照人类制定的设计规范运行的,人类对人工智能技术应用的掌控是通过设计规范实现的。事实上,自第一次工业革命以来,人类始终是通过技术型产品的设计规范来掌控技术应用的,这是工业设计传统的一项内在要求,绝大多数人工智能工作者也是坚守这个传统的。因此,所谓的“算法独裁”并不存在,存在的反而是人对算法的“独裁”——人工智能应用出现的问题都是人出的问题。

根据我们对大量案例的分析[10],目前人工智能应用出问题的主要原因有:人工智能应用人员未能充分履行其本职职责、商业策划导致了严重的负面效应、使用了不成熟的人工智能技术或没有正确使用人工智能技术、设计规范不合格或不充分。这些都是人的问题,不是人工智能技术自身的问题。

一种流行观点认为,以阿尔法狗(AlphaGo)为代表的人工智能技术就是深度学习,而深度学习是不可解释的“黑箱”,由此阿尔法狗必然会导致“算法独裁”。然而,这是不符合事实的。以阿尔法狗为例,其核心技术包括强力法和训练法(深度学习是训练法的一种)两大类,而强力法技术是可解释的,阿尔法狗是宏观可解释的(即其主要工作原理是可解释的),所以阿尔法狗并不是“黑箱”[11]。当然,确实有一部分人工智能技术是“黑箱”,但这些技术目前仍处于科研阶段,在很多领域尚不具备可应用性。

为了防止不成熟的技术被误用,需要设立专业性的鉴别标准,从而科学地判别人工智能技术的可应用性和应用条件,不具有可应用性或应用条件的技术不可投入应用。封闭性准则正是一个这样的判别标准,可解释性却不能作为这样的标准,因为仅仅具有可解释性的人工智能技术未必是可应用的,而阿尔法狗是符合封闭性准则的[12]。

人工智能治理必须基于对人工智能技术基本规律的客观观察、准确判断和全面把握,不正确的、不准确的、不全面的判断必然严重误导和干扰人工智能治理。

现代人的焦虑在很大程度上是由对不确定性的担忧引发的,今天人们对人工智能未来的忧虑,也有部分源自技术的不可预见性。在您看来,人工智能伦理准则的制定,或者对人工智能公义创新的倡导,能在多大程度上降低技术的不可预见性?

陈小平:伦理准则是抽象的,与社会现实之间必然存在巨大鸿沟,在应对技术不可预见性中的作用极为有限。为了更有效地应对技术的不可预见性,公义创新将开展风险预研,针对人工智能可能带来的三种风险进行科学实验、假说检验、证据采集和结果评估等。

由于传统的风险预测技术已不够用,在公义创新的风险预研与应对体系建设中,将大力发展基于人工智能、大数据、计算机仿真、人机协作式风险分析等新技术的风险预测新机制、新方法和新平台[13],极大提升人类的风险预研、预测、应对能力,彻底改变以往“技术带来的问题只能用非技术手段解决”的状况。

人类自古以来与不确定性共存共生,今后还将与不确定性继续共存共生下去。人类永远不可能预测或规避一切风险,好的风险应对机制既可促进发展,又能保证不出大问题。公义创新将采取三管齐下的方式应对不确定性和不可预测性:第一是预判新技术的风险等级,对不同风险等级的科研和开发实行分类管理,确保安全底线;第二是通过公义策划,主动引导经济和社会向着风险可控的方向发展,而不是被动等待问题严重之后再治理;第三是提升全社会的组织效能,当意外风险发生时,动员、组织一切人力物力一致应对。我认为,这是现阶段人类应对不确定性的最佳方式,可使各种人工智能风险保持在人类可控的范围之内。

最后,想请您谈谈公义创新面对的困境,特别是公义创新似乎与当下的科研制度存在一些冲突——最能吸引资本的,未必是人类最需要的。您如何看待这些冲突,认为其在多大程度上会阻碍公义创新的实践?公义创新将如何发展起来?

陈小平:在熊彼特模式中,“创新”(innovation)的基本含义是新价值的商业化实现,其中社会效益主要体现为产品须满足用户需求。因此,不能带来足够商业利益的人类需求,无论多么重大、多么紧迫,都无法通过熊彼特创新而得到满足。在这种情况下,就出现了资本利益与人类的最大需要和长远利益不一致。所以,熊彼特创新是一种商业创新。而当科技应用通过商业创新已达成原定的主要目标(如消除商品短缺),其他社会必需品的供给上升为主要需求之时,科技应用目标与路径的重大调整就成为历史的必然。

公义创新是商业创新的升级,二者既有不同的一面,也有相通之处。熊彼特模式与其外部社会条件在发展过程中不断碰撞磨合,逐步达成了相互协调;公义创新模式也将经历一个渐进的发展过程,逐步实现与其外部社会条件的协调。未来15年,人工智能治理和公义创新将面临以下四类重点课题。

第一类:紧急课题,即对人工智能治理具有紧迫性的课题。当前最紧迫的课题是,在不引起严重风险的前提下,推动人工智能技术的大规模产业应用。符合封闭性准则的应用是满足上述前提条件的,而且是可以大规模产业化落地的,应作为当前人工智能应用落地的主要路径。其次,风险预研机制的建立也具有很强的紧迫性,因为该机制的建立和功能的有效发挥需要经过较长期的努力。另外,人工智能治理人才队伍建设也是当务之急,需尽快培养一批既懂人工智能技术又懂社会治理,既有理论研究能力又有实践动手能力的跨学科专业人才。

第二类:先期课题,即在现有的社会条件下可以率先启动的探索性、实验性课题。例如,在多种网络社交场景和其他场景下,进行新型社会参与模式的多种升级方式与路径的实验、试点和示范应用;在敬老、助残等公益事业和家庭、社会服务等行业中,探索多种公义薪酬机制的实验、试点和示范应用;在智慧农业、乡村振兴等熊彼特模式更为薄弱的现实场景中,大胆探索面向“三农”问题的公义创新实施机制。

第三类:关键课题,即对整个公义创新模式的成功具有决定性作用的课题。例如,熊彼特模式具有由内生动力产生的高效能、“自体造血”、“自我驱动”等品质和能力,公义创新模式理论上具有类似的品质和能力,而且潜力更大,但相关实施机制的具体构建充满了挑战性。其中一个关键性实施机制是公义薪酬体系,涉及货币薪酬机制与非货币薪酬机制的系统性整合升级。

第四类:攻坚课题。在以上课题成果的基础上,探索重大社会问题的切实可行的解决路径,在化解产业少人化、人口老龄化、社会分化等突出问题上取得突破,验证公义创新模式的现实可行性和治理有效性,为公义创新模式的全面展开和目标实现奠定坚实基础。

创新是推动社会发展的强大动力。在百年未有之大变局中,随着商业创新模式的局限性日渐显露,与时代需求之间的差距日趋扩大,探索新的创新模式成为历史的必然。对公义创新模式的探索,是对创新模式的创新。探索从“生产要素的市场化组合”到“社会要素的公义性组合”的升级,将以平稳渐进的方式推动人类社会从人工智能治理到思想解放,再到生产力解放,直到“人的解放”的广泛深刻变革,是一条通向崭新文明阶段的挑战之旅和希望之路。

注  释

[1] 陈小平. 人工智能伦理体系: 基础架构与关键问题[J]. 智能系统学报, 2019(4).

[2] 黄阳华. 熊彼特的 "创新" 理论[N]. 光明日报, 2016-09-20.

[3] 同[1]。

[4] 巩永丹. 人工智能催生 "无用阶级" 吗?——赫拉利 "无用阶级" 断想引发的哲学审度[J]. 国外理论动态, 2019(6).

[5] 陈小平. 封闭性场景: 人工智能的产业化路径[J]. 文化纵横, 2020(2); 陈小平. 人工智能中的封闭性和强封闭性——现有成果的能力边界、应用条件和伦理风险[J]. 智能系统学报, 2020(1).

[6] 赵汀阳. 人工智能会是一个要命的问题吗?[J].开放时代, 2018(6).

[7] 赵灵敏. 用工荒,一个时代的终结[J]. 南风窗, 2010(8).

[8] 亚文辉. 自媒体内容创业的时代来了?[N]. 中国文化报, 2015-11-27.

[9] 陈小平. 人工智能伦理导引[M]. 合肥: 中国科学技术大学出版社, 2021: 1-60.

[10] 同上,61-231.

[11] 陈小平. 封闭性场景: 人工智能的产业化路径[J]. 文化纵横, 2020(1).

[12] 陈小平. 人工智能中的封闭性和强封闭性——现有成果的能力边界、应用条件和伦理风险[J]. 智能系统学报, 2020(1).

[13] 陈小平. 人工智能伦理体系: 基础架构与关键问题[J]. 智能系统学报, 2019(4).

(选自《信睿周报》第46期,原题为“公义创新:人工智能时代的创新模式——专访中国科学技术大学陈小平教授)

    本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问http://renzheng.thepaper.cn。

    +1
    收藏
    我要举报
            查看更多

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈