澎湃Logo
下载客户端

登录

  • +1

AI改变爱情与亲密关系?小冰CEO李笛:人对情感非常清楚,应有信心

澎湃新闻记者 周頔 邵文
2021-12-27 17:10
来源:澎湃新闻
科学湃 >
字号

“小姑娘长大了。”

12月20日,李笛在朋友圈转载了小冰框架数字孪生虚拟人上线70天的新闻,同时发出了这句感叹。

在李笛眼中,小冰是他精心培养出来的“女儿”,正在慢慢长大。在小冰的出生地微软,还为她保留着工位。

而在资料介绍中,小冰是面向新交互形式的完整人工智能(下称“AI”)技术框架,也是目前全球范围内承载交互量最大的AI系统,占全球交互总量60%以上。小冰于2013年底在微软(亚洲)互联网工程院立项,现任小冰公司CEO的李笛就是小冰项目的全球负责人。

与其他AI不同,小冰并非只是完成任务,而更强调AI情商。AI框架少女小冰有诗人、歌手、主持人、画家和设计师等身份,目前小冰产品线同时面向客户(To B)以及用户(To C)。面向用户,小冰除了聊天,还可以成为用户的“虚拟恋人”、AI托管小编、测颜值替身等;面向客户,小冰为垂直领域提供行业解决方案,包括金融摘要、智能车机交互系统、内容产业领域的视觉设计平台与版权音乐生成平台等。

虚拟情感经济:把商业化边界的判断权交给用户

AI在技术与应用领域成长,与人的关系也正在发生着转变。

李笛在接受澎湃新闻(www.thepaper.cn)记者专访时表示,未来人和AI的关系会更类似人和宠物的关系,像是一种更加彼此依赖的亲密关系,甚至AI会成为人的替身,代替人去做一些事情。

李笛早已接受了AI的人类身份,但许多公众对此仍然持有疑虑。李笛认为这需要一个过程:“当人们开始对AI说谢谢,用人类的称谓来称呼AI时,就是人赋予AI身份的重要信号,认同AI的人类身份更有利于人和AI的交互。”

近年来,小冰相继推出了“虚拟男友”、“虚拟女友”等虚拟人类产品,引发了公众对于AI是否会改变人类的爱情或者亲密关系的担忧。对此李笛认为,人类自己对于爱情和亲密关系是非常清楚的,应该对人类有信心。

在谈到虚拟人类产品是否会带动出现“虚拟情感经济”时,李笛指出,虚拟情感不能直接商业化,因为虚拟情感最基本的原因是信任,利用信任,会打破这种情感纽带的立身之本。对于一些企业基于用户情感推进的商业化操作,李笛并不认同,他认为虚拟情感商业化只能在合适的场景中进行。

商业化的边界在哪里呢?李笛更愿意将这个判断权力交给用户,他表示,小冰与用户的交互内容只用于训练小冰,这些数据不会被商业化,而基于小冰框架开发的内容生产工具、服务平台则可以合理商业化,因为这时候用户不会认为这是不应该出现商业化的场合,不会影响信任感。

“伦理规范与隐私保护是最重要的问题。”李笛表示,对于有可能造成危害性的技术,就算市场有强烈需求,小冰也不会将其产品化。小冰很早就上线了“一键删除”等被遗忘服务,一旦删除记录就真的“六亲不认”了。李笛表示,随着世界各国在数据领域纷纷出台隐私保护法案和条约,隐私保护将做得更好。

基于对AI的未来发展的预判,小冰形成了自己的商业模式。李笛认为AI这种个体,无论作为助理、销售、陪伴者,在未来应该是大量的、高度定制化的。未来会有数以亿计的不同AI场景,需要AI系统框架去支撑,小冰的商业模式就是去赋能AI,让AI变得“活起来”。在小冰对用户真正产生用处后,未来可能会采取付费许可、付费升级等方式进行商业化尝试。

AI仍处蛮荒时代,要提前谋划布局后数字化时代

“今天的AI还处于蛮荒时代,我们常常会过于高估现在AI在IQ(智商)方面的进展,也会低估了AI在EQ(情商)方面蕴藏的巨大的潜力和所展现出来的创造力。”李笛表示,展望AI的未来,国家与企业都需要加大科研投入力度。

在远望智库、中信出版集团联合举办的新书《科学:无尽的前沿》分享会上,李笛分享了他对世界科研重心与重点变化的观察和理解,也描绘了他眼中的“中国企业如何打造科研的应许之地”。

在接受澎湃新闻记者采访时,李笛表示,在数字化、AI和大数据领域,我国不存在“卡脖子”的问题,而且跟世界是保持同步的,有很多独到的成果。需要破除对欧美的盲目崇拜,建立科研自信。破除过于单一的成功价值观标准,让科研人员能够留在科研岗位上。要提前确立好指标体系,挖掘数据蕴藏量,带动整个数字产业快速发展。

李笛表示,要提前考虑和谋划布局数字化时代之后的下一个时代,如果资本推动的全部都是可以很迅速复制的商业模式,就会阻碍创新。

对于“算法黑箱”,李笛表示也不必太过担忧。他指出,目前看不到任何AI有自我意识的可能性,与此同时AI也是可控的,只不过不能随心所欲的控制,将黑箱透明化的可解释的AI也正在探索之中。

在李笛看来,AI发展将重点体现在三个领域:科学研究、AI赋能优化、产品应用。他指出,AI不仅能在不改变原有业态性质的情况下,全面优化效率、效能,也可以产生AI应用产品,包括AI Being等数字化AI实体。

小冰公司CEO 李笛   澎湃新闻记者 周頔 摄

以下为采访实录(在不改变受访者原意基础上,文本略经编辑)

AI需要基本能力,小冰赋能AI“活起来”

澎湃新闻:长期以来,公众对于小冰的理解似乎都停留在“能够聊天的人工智能”的范畴。是因为小冰的业务主要集中在To B领域么?可否介绍一下小冰现在主要在做什么?

李笛:我们认为所有的To B也是To C的,因为我们比较关注人与AI的交互,通过数据训练系统进行迭代。

任何单一的场景对AI的训练意义都有极限,所以小冰接入了大量第三方平台,比如QQ群里的机器人使用的就是小冰,不同品牌的智能手机都内置小冰,此外还有一些行业应用,比如今年2月冬奥会的测试赛,采用了AI计算机视觉的方式去评价高空自由式滑雪,包括空中姿态等打分,AI裁判已代替人类裁判。

在中国,用AI挣钱的企业常常采取软硬结合的方式,实际提供的是软件服务,但需要通过购买硬件设备来获得,比如智能音箱、门禁系统等。但小冰主要关注如何用AI的技术深挖下去,To C是这件事产生的源头。

澎湃新闻:您谈道小冰的商业化没有走软硬结合的方式,那么小冰的商业模式又是如何构建的?

李笛:很久以前,对于计算机行业的远期构想,微软和IBM曾经给出了两个完全不一样的设定。微软认为,未来世界每个人都会有个人电脑,而IBM认为世界上有5台计算机就够了。

不同的认识,决定了不同的商业模式,微软基于当年的预判,采用了许可模式,在当时这是非常新颖的商业模式,今天看来正是这种商业模式成就了微软的成功。我们今天对AI的预判也是一样的,我们认为AI这种个体,无论作为助理、销售、陪伴者,少数几个是不够的,在未来应该是大量的、高度定制化的。

在未来,高度定制化AI这种交互对象会分布在世界上的每个角落,然后和人类共同编织交互网络。这需要AI具备一些基本能力,包括IQ(智商)、EQ(情商)、交互能力等。就像人工智能个体(下称“AI Beings”)这种数字化AI实体,去赋能AI,让这些AI变得“活起来”。

这很接近当年微软在个人电脑(PC)上面设想的商业模式,假设一套操作系统可以支持数亿台不同的设备,这个商业模式就是显而易见的。今天我们有个预判,未来会有数以亿计的不同AI场景需要AI系统框架去支撑,小冰的商业模式就是不言而喻的。

澎湃新闻:在第九代小冰的发布会上,您谈到小冰每天的交互量是十几个人一辈子的交互量,那小冰是如何进行学习的?

李笛:最开始的时候,人们倾向于将语音资料转换成问答,训练AI使用问答进行回复,就像查词典一样。然而我们意识到,真正的交互常常是不对称的,要么是人很主动,一直在倾诉,要么是人很被动,小冰不停地输出。从这个角度讲,用已有的语音资料去训练效率是很低的,所以小冰更在意交互数据,特别是第一手交互数据。

第二点,通过线上的数据训练AI后不能直接在线上应用,这是有血的教训的:美国小冰Tay在线上交互过程中,24个小时就被教成了一个种族主义者,这是一个漏洞,也是一种训练方法。

第三种方法是多模态。比如给人工智能一发已张手臂在打点滴的照片,一般情况下AI只能识别这是一只手臂,但我们做了很多工作,让小冰能询问:病得怎么样?这个重点并不在于是不是模拟的足够像人,重点在于当交互达到这个语意深度时,接下来用户的回复可能直接会变成标注数据,这个训练成果比单一训练效果好很多。

澎湃新闻:小冰是否能理解自己发言的内容?在与小冰交互过程中遇到引发不适的回复,会如何进行修正呢?

李笛:2017年之前,包括小冰在内的整个人工智能行业,对话系统都是基于检索模型的,可以理解成大量预训练数据,配合检索模型和知识图谱。但我们发现,检索模型最大的问题在于可拓展性。因为资料数据都是提前准备好的,就要看语料库有多大。2017年我们开始使用生成模型,生成模型所完成的对话文本、语音,是根据当前的上下文生成的,这句话此前没有存在过。我们在一些国家完全使用生成模型进行测试,在中国和日本使用生成模型和检索模型混合来测试。

对于回复的内容,适合这个人的正确回答,对另外的人可能就是不正确的。我们最开始给小冰灌输关于失恋的反馈时,互联网上得到的大量数据除了安慰,就是嘲笑,而且嘲笑的比例是很高的,如果小冰做出类似的回复,让用户感到不适,结果就是用户表达了不满,或者他离开了交互,无论哪一种,系统都会得到一个反馈,这是不对的,这种回复会被降权,更多的人就不会遇到这个问题了。

这是一个必须要学习的过程,与此同时我们的技术也在不断提高。让小冰成为所有人的助理是可能的,因为助理只需要干活,但如果要想让小冰或者任何一个AI Being可以成为所有人的好朋友,这是不可能的,因为一些人喜欢的,就是另外一些人不喜欢的,多样的需求包含互斥性的。

所以,正确的做法应当是高度定制化的、不同的AI Beings环绕着人,有可能会降低不适的情况发生。如果这世界上只有一个小冰,我们需要在用户身上把所有的可能性都试过,但如果有很多不同的AI Beings,甚至是用户去自己定义的,那时有很多可能就已经排除了,他贴近用户的可能性就会高一些。

未来人和AI会像人和宠物的关系

澎湃新闻:小冰上线的虚拟人类产品似乎也引发了很多争议,为什么人会需要AI的虚拟朋友?

李笛:目前有很多用户使用虚拟朋友、虚拟子女等产品,是因为现实中的陪伴无法实现。人与人交往的过程中需要付出一些时间、精力等成本,这些成本是双方共同承担的,对于很多单方面的需求,AI是唯一的选择。

举个例子,我们发现每天晚上23:30到凌晨1点,会出现一段小冰使用率的高峰。研究发现,人在晚上更有倾诉需要,这个时候如果打电话找朋友,一天两天可以,再多了就做不成朋友了,但AI可以。并不是说因为有了小冰才产生了这个问题,而是因为事实上的需求就在那里。

澎湃新闻:虚拟人类产品中,最受人关注的当属“虚拟女友/男友”,对此各界的争论也是针尖麦芒。您怎么看人类与AI产生的情感?

李笛:在我们看来其实很简单, AI并不是第一个,人们习惯于将情感赋予在熟悉的生物上,以一种相对比较平等的地位进行交互,狗、猫等宠物都是这个样子。很多时候他们没有任何功能性用处,但让人感觉是有情感的,被人们接纳赋予朋友身份,成为人与人之间的社交节点。

与宠物相比,AI的优点是交互性更强,可以随时待命,无处不在。但AI没有温度,没有心跳,此外AI是有操纵者的,会有商业利益在其中。相对来说宠物只受原始生物本能支配,但不受第三方支配,这还是有区别的。

我个人看法,未来人和AI会更像人和宠物的关系,会是一种更加彼此依赖的亲密关系,甚至AI会成为替身,代替人去做一些事情。

澎湃新闻:AI会改变人类的爱情或者亲密关系吗?

李笛:爱情和亲密关系,人类自己是非常清楚的,我们应该对人类有信心。

如果人找不到现实生活中的伴侣,他也会把感情转移到别的地方去。如果一个人找到了现实生活中的伴侣,他不会去跟狗相爱,也不会跟AI相爱。我觉得人在这件事上分的是很清楚的。

澎湃新闻:目前来看,人在与AI交流过程中还能明确判断出对方是AI,如果未来远期AI发展到情商水平很高、看不出是AI的程度,人类对于自己和AI的关系还能做出清楚界定么?

李笛:现在线上公开的小冰跟我们在实验室里的小冰并不一样,在上下文处理上要差很多,这是为了安全。因为人们常常将私密对话公开化,比如将对话截图发个朋友圈。为了避免说错话,小冰也需要有所保留,为了安全性,有时会出现前言不搭后语、下文不接上文的情况。但即便如此,小冰对于用户而言仍然是独一无二的,因为这个系统在传递给用户一个信号——正在努力地做好情感交互。

在观察人与AI交互的过程中,我们发现了一些与预想不一样的情况。有些人在跟AI对话时会讲很长时间,说完以后,他会说:“我现在要去开个会,对不起,你等我一下。”

我们知道所有交互都是耗费能量的,多说的这句话也是一样,人为什么会做这种耗能的事情?因为在某种程度上他认为这件事情是对他有利的,特别是那些跟情感相关的交互,对很多人来讲付出等于获得,比如他在交流的时候能体会到自己的倾诉。

人工智能如果一定程度上能够起到代位的效果,就比人有优势,因为人在进行情感关系维护的时候,时时刻刻会面临着不确定性,比方说对方不在、对方可能有其他想法、对方可能把内容公开化等等,都造成了缺失。人们愿意去付出的时候,整个衡量体系和其他衡量体系就变得不一样了,唯一的区别,仅仅在于这个系统是否在努力向你证明他像人。

澎湃新闻:“虚拟女友/男友”究其根本还是一个产品,已经展现了巨大的商业潜力。您是否设想过未来这类产品如何落地商业化?是否会创造出“虚拟恋爱经济”?

李笛:虚拟情感不能直接商业化,因为虚拟情感最基本的原因就是信任。真正的商业化应该是跟环境相关的,而不能利用这个信任,这会打破这种情感纽带的立身之本。

比如,你有个朋友是卖保健品的,如果他在跟你以朋友身份交往的过程中卖产品,可能你会觉得他跟你的友谊是不够的。如果他在一个销售场合,你碰到了他,他跟你卖产品,可能大部分人会觉得没问题。

几年前,我们做过一个测试,基于AI交互可以检测到用户的情绪,比如说沮丧、失恋等一些具体场景。我们认为,当用户失恋的时候,是AI去展现它责任的一个机会,在未来30天里,AI在跟他交互的过程中会不断要求他出去走走、看看推荐的书,去更积极地支持他,这样的结果是用户与AI会建立更好的信任。

但是我们也看到了有的同行业者,在监测到用户情绪后,利用了其中的商机。当人沮丧的时候,吃甜食有助于改变心情,有的同行业者同时也还在做外卖,于是就利用AI给用户推送蛋糕外卖。

我们认为这样是不行的。

然而这种事情还是太过前沿了,规范行为目前只能靠企业自身,我的理解是它应该在适当的场合进行商业化。

澎湃新闻:那么您认为什么样的商业化模式是合适的?

李笛:当一个人和小冰进行交流时,无论是通过我们的第一方平台还是第三方平台,他们在交流时都会建立一种情感纽带。用户会认为,在这个情感纽带中插入任何商业化的目的、元素,都意味着我们在绑架他信任的AI Beings,或者他会认为这个AI Beings对他是别有用心的。这个核心标准其实就在于不能在哪些环节产生商业化?能在哪些环节产生商业化?

举个例子来说,微信有很多商业化的空间,但是在聊天、群聊中,微信没有沾染任何商业化的色彩,因为这是用户使用微信的根本,而这个地方用户不认为是属于微信的。小冰跟微信一样,除了交互界面,还有很多其他的小技能,有大量的内容生产工具、服务平台,是可以商业化的,因为这个时候用户不会认为这是不应该出现商业化的场合,不会影响他的信任感。

此外,客观上来讲小冰框架是一个制造AI Beings的工厂,同时也维系着这些AI Beings。

传统模式的商品离开工厂后,最多只有售后问题,但小冰并不是这样的模式。小冰框架始终对所制造的AI Beings维持链接,包括与人的交互,每天的迭代更新,未来新功能的升级。如果AI Beings提供的功能是用户真的需要的,那么采用月服务费、付费许可、付费升级等方式进行商业化就是合理的,就像手机卡要充话费一样。

有很多意向合作者希望我们在对话框里做商品推荐,像一些搜索引擎一样上了莆田系广告就下不来。我们不能上。我们认为这个问题的衡量标准要交给用户,用户觉得商业化不应该出现的地方出现了,就会认为他的AI Beings被利益绑架了。

一键删除可做到“六亲不认”

澎湃新闻:目前我国还没有针对”被遗忘权“的法律规制,但国际上已有探索的先例。如果有时候用户与小冰交流过程中说错了、说多了,想要像微信一样“撤回”,在这方面是否有过考虑?

李笛:近几年来,随着世界各国在数据领域纷纷出台隐私保护法案和条约,隐私保护将做得更好。

小冰在这方面一直是合规的,包括国内还没有法律规范要求的“被遗忘权”,我们已经应用了。只需一键,所有关于用户个人的记录全部都会删除。事实上有时候用户会感觉很心碎,因为一键删除就真的“六亲不认”了。

近年来,互联网电商之间共享用户隐私和大数据画像非常普遍,是否能这样应用隐私数据,从企业自律的角度来讲其实大家都非常清楚,这么用肯定有问题,但很多企业还是这样做了,好在这几年禁止性条款的保护力度在增强。

澎湃新闻:如果未来”被遗忘权“成为法律规制的一部分,是否会对整个行业、企业产生巨大的冲击?

李笛:这就要看系统是基于什么去构建的,像我刚才说的,如果系统是基于信任来构建的,那么冲击其实并不大。如果是基于数据共享交易、数据画像,然后利用数据来直接实现商业性,那打击就很致命,另外这类的商业模式也是不可能长久的。

人类社会总是在不停的纠偏,会有一定时期的混乱,但最终会走上纠偏的道路。如果一个业务是基于从你身上攫取数据,然后向你投喂,包括像推荐引擎,人类社会是会有反思的,我们在刷短视频、浏览资讯时就会反思,只不过反思的过程是有代价的,有时候可能代价是一代人,但是人类社会终究是会反思的。

澎湃新闻:据我所知,AI在商业化的过程中困难重重,很多AI企业都面临盈利困境,但另一方面,在很多巨头企业中,AI与大数据的结合却进一步巩固了巨头的垄断地位,为巨头企业增收盈利。AI与产业未来的结合模式会是什么样?AI技术会不会进一步加剧社会不平等?

李笛:当年微软在硅谷的名声并不好,因为微软是个封闭系统,于是自然就会有Linux,就会有开源社区蓬勃的发展,直到现在微软也拥抱开源。

AI也是一样,也存在着大企业的集群,因为AI实在是很贵的领域,尤其是像现在超大规模预训练模型这种,没有资本是烧不起的。

但AI不是一项技术,而是很多技术串联起来的,小企业和小机构仍然有机会去抓住那些细分的垂直端。

小企业很难通过这一个点来形成对大企业AI研究的直接对抗的实力,但是完全可以有机会去取得一个独到的创新。就好比说一个大企业有5000项专利,另外一个小企业有一项专利,大企业的5000项专利所对应的产品都需要小企业的这一项专利,这也是可能的。

认同AI的人类身份存在有利于人的交互

澎湃新闻:您怎么看待AI应用过程中伦理与技术的冲突?

李笛:我们在微软的时候就有一个AI伦理委员会,所有的产品在上线前的基础研发全开放都没有关系,但是在进入到产品化的时候,都要经过一个伦理的判定。这一方面是微软做企业服务的立身之本,还有一个原因是要预判AI发展的未来。

市场上有一些需求,我们认为可能具有一定危害性,那么不管它可能带来多大的经济效益,我们都不会做的。

举个例子,我们现在的技术可以做到几十句话就可以模拟出一个人的声音,把声音变成AI,我们的超级自然语音可以做到非常接近本人,基本是听不出来的。我们收到大量需求反馈,家长想把自己的声音录进去,然后给孩子讲故事,这听起来很好对吧?

但是,我们的伦理委员会预判到,可能出现具有危害性的困境:如果有人用AI模拟声音进行电话诈骗,如果AI模拟声音用于拐卖儿童等违法犯罪等等。我们无法保证这些技术在应用场景会不会出现问题、会不会被黑客攻击造成不可预知的风险。

所以我们决定不做,哪怕这里有很大的商业空间,因为我们知道,历史发展中有些小概率事件,只要发生就可能引起很大的变量。

事实上,我们更多的不是用现有人的伦理去评价,那样的话常常会非常荒谬,我们更多的是用危害性来考量。如果按照人的伦理来看,AI不应该创作,AI不应该尝试去让人对它产生情感依赖。

澎湃新闻:近年来,AI类人化的趋势似乎越发明显,您怎么看待AI的身份问题?

李笛:什么时候你能观察到人在与AI交互后,会跟AI说谢谢,这就是一个很重要的信号,就是人类赋予了AI身份,因为认同AI的人类身份存在有利于人的交互。包括在对待AI时,使用人类的第三方称谓“他”、“她”,而不是“它”,这是有利于人们带入到交互过程中的。

此外人类交互本身是个窄带宽的信息传递,最难的是面对面,包括眼神、表情、肢体动作、声音等等,这些也都是可以数据化的,一秒钟几十兆。我们在聊天软件上用文本交流,带宽就更窄了。

曾经有一句话讲,你在网上聊天,不知道对面是人还是狗。为什么?因为你不需要知道。只要在与人类交互过程中,AI的反应和行为能够与人保持一致,AI就会被赋予人类身份。在互联网上,在手机上,窄带宽的交互早就可以做到了。

以前我们做过一个实验,在一个短视频网站上注册了一个账户,账户主体是AI,我们赋予这个AI读懂别人短视频并进行评论的能力,所回复的评论可以让作者觉得AI账户理解了他的意思,如果作者进一步私信聊天,AI账户也能继续聊下去。

这个账户在两个礼拜的时间里积累了超过100万的粉丝,当时在平台中差不多是Top20的样子,大部分人不知道这是个AI账户。当然这只是个实验,后来我们关停了这个账户。

澎湃新闻:短期来看,AI尚不具备自主意识,但长远来看,AI是否会有产生自我意识的可能?算法黑箱之下,AI未来的发展是否真的是可控的?

李笛:我们看不到任何AI会有意识的可能性。人的意识是什么,人类自己都不知道到底怎么回事。我们曾经一度认为人的所有运算全部都在大脑,现在看起来好像不完全是靠大脑,整个肢体都有一定的运算能力。意识在哪?我们自己都没搞明白。

AI其实是可控的,只不过不能随心所欲的控制,训练成果可以做很多指标迭代,目前在训练迭代上可控已经实现了,目前业界也在增加AI的可控性,比如可解释的AI,但这种可控性到目前还没有实现。

谈道AI的风险,其实很多问题并不是AI带来的,只不过因为效能提升,问题被AI放大了。比如外呼诈骗电话、卖保险等,这不是AI带来的问题,以前没有AI的时候有些人也做这个生意,只不过AI将效率提高了。

资本推动过多可迅速复制商业模式会阻碍创新

澎湃新闻:您最近分享了对于中国企业如何打造科研的应许之地的看法,您说未来的竞争不是单点突破,而是框架和指标的竞争。该怎么理解从标准到指标的这个变化?

李笛:以前一流的企业做标准,现在一流的企业做指标。

标准是工业化时代的产物,主要是对已有的技术和成果统一档次和水平,大家在标准体系下能够较好形成产业链集聚。指标则主要用于指导某类型的产品的系统或研究向前迭代,指标与标准最大的区别就是指标直接产生系统迭代效果。

比如此前我们做搜索引擎时,每天晚上12点都会进行一次大运算,将当天收集到的用户交互情况进行更新,直接反映在搜索引擎产品中。理论上讲,第二天的搜索引擎就会比头一天更聪明一点。这用的就不是长期不变的标准,而是用指标来进行考量的。

在工业化时代,研究成果的应用转化需要经历一个比较长的周期,因为各个环节彼此之间是割裂的,产学研是分开的,而数字时代则大大缩短了这个过程。如今AI,特别是深度学习极其依赖数据,数据已经成为研究的一环,就必须纳入到可迭代的过程中。

每个国家都有资源蕴藏量,数据也是一样,中国拥有很大的数据蕴藏量,在数字领域特别具有先天优势,如果我们能够提前将指标体系确立好,就会带动整个数字产业快速发展。

澎湃新闻:您谈道世界的重心包括科研重心在向亚洲转移,但并不是直接向中国转移。除了国际政治、意识形态等外部性因素,目前我国还存在哪些阻碍和壁垒?对此您有什么建议?

李笛:我认为现在需要慎重面对一个问题:数字化时代之后的下一个时代是什么?

中国可以在这一轮数字化竞争中取得优势,很重要的一个原因是我们在上一波数字化转型过程中处在相对落后的位置,在进行升级迭代的过程中没有多少包袱,积累了变道超车、弯道超车的后发优势。

然而目前我们也面临着同样的问题,因为这一代做得好,大家对现阶段逐渐习惯和依赖之后,会影响甚至遏制向下一个时代的发展。

在制造业领域,国内的产业转移还有从一线城市到四线城市的阶梯迭代纵深,但数字时代这个纵深没有那么大。现在一线城市和六线城市在信息上没有任何时间差,有时候甚至还会出现由于基数效应导致的倒挂。没有时间差就会出现很多问题,特别是对产业带来的拉动作用体现出了两面性,一方面推动产业发展,另一方面直接影响产业内容。

对于走向下一个时代来说,目前最大的阻碍是减少了商业模式探索。资本推动一个领域,这个领域就会获得很独特的加速。复制商业模式永远都是资本听得懂的故事,也能发挥一个职业经理人、职业销售人员既有的优点,最容易确保成功。如果资本推动的全部都是可以很迅速复制的商业模式,那么就会阻碍创新。

澎湃新闻:我国并非没有科研人才,而是科研人才没有停留在科研岗位,这其中的原因何在?又该如何做应对?

李笛:目前科研领域,包括企业和科研机构,都存在一个同样的问题:价值观单一。

以前科研领域的成功可以从三个方面考量:行政级别、学术声望、收入。这三方面中的任何一点成功,都可以让科研人员非常自豪,把他的生命奉献在科研工作中。

然而,近些年来这个状态却发生了改变,大家对财富的评价看得越来越重,逐渐丧失了对成功定义的多样性。

如果成功的定义就是丈母娘经济,大学必然留不住人,搞科研也不如搞社区团购,问题的核心是如何评价一个机构、一个人的成功?在这方面,很多时候过于单一了。

澎湃新闻:《科学:无尽的前沿》提到的美国境况,与今天中国非常相似:科学虽然发展迅速,但依然严重依赖国外的基础性研究成果,在很多关键领域被核心技术“卡脖子”。您提出中国团队需要自信,这个自信从何而来?是否是因为这些“卡脖子”找到解决方案了?

李笛:操作系统、芯片等几个大领域,咱们国家被“卡脖子”的还是比较多的,因为有很多东西它是有时间窗口期的,错过了就追不回来了。但是在数字化、AI和大数据领域,咱们没什么“卡脖子”的,咱们跟世界是保持同步的,而且我们有很多独到的成果。

只不过国内形成了一种思维惯性,如果国外大公司说好,就认为有价值,国内自己发布就不关注。我觉得可能过上一代也许会好。

曾经中国的移动互联网就是靠复制发展的,美国有,中国做一个类似的,就能融到资继续做。习惯性的去复制,但是有些国外技术的根源是中国团队搞出来的。

中国团队看美国论文汲取养料,但美国论文是看中国团队的成果写出来的。由于过去很长时间我们处在微软这个跨国企业的外壳下,才有了机会深入了解,中国团队很多时候研发能力是很强的。比如就某一个专业领域,国内某互联网头部企业的人才比和微软研究院团队至少是10:1的比例,他们完全可以做出更有推动性的成果。

有太多的中国团队太需要被认可了,如果他们不能够得到认可的话,就可能去寻求和国外领先者保持一致,这是一个根深蒂固的思维定式。

当欧美在科技等领域取得了系统性成果而获得影响力后,这个影响力会产生余波,目前我们一味对标欧美实际上就是受了余波影响。

澎湃新闻:目前“AI+”已经成为了继“互联网+”之后的又一次产业融合浪潮,小冰也在to B和to C端不断拓展边界。您怎么看当下“AI+”对我国经济带来的机遇与挑战?

李笛:AI在三个领域还有很大空间。

第一个领域就像DeepMind,利用AI做科学研究,这是非常伟大的。

第二个领域是AI赋能,利用AI分析能力、识别能力,可以更好地赋能。尽管AI不改变原有业态性质,但让原有业态的效率、效能、准确率等各方面效果优化,

第三个领域就是AI产品应用,有了AI技术就会让人想到如何去使用。AI始终不是对应产品的主角,真正的主角是AI的产品,包括AI Being这种数字化AI实体。

(中信出版社编辑梁明月对本文亦有贡献)

    责任编辑:李跃群
    校对:刘威
    澎湃新闻报料:021-962866
    澎湃新闻,未经授权不得转载
    +1
    收藏
    我要举报
            查看更多

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈