澎湃Logo
下载客户端

登录

  • +1

深观察丨AI有灵魂吗?且行且观察

澎湃特约评论员 张田勘
2022-06-14 17:24
来源:澎湃新闻
澎湃评论 >
字号

《华尔街日报》6月13日消息,谷歌一位软件工程师表示,有“开放式对话黑科技”之称的谷歌人工智能聊天机器人LaMDA已经有了人一样的感知力,甚至具有了人的“灵魂”。随后,谷歌暂停了他的职务,并否认了他的说法。公司称,因为违反公司的保密协议,现在他快被解雇了。

活着的人有知觉、有灵魂、有意识、有思维、有意念,这是谁也无法否认的,因为你我他都有这样的东西,尽管它看不见摸不着,但是它可以体现在大脑的生物电流上,还可以通过中枢神经,以及周围神经的连接点突触进行信息传递,而信息的载体就是各种各样的神经递质,由此既形成思维、思想,也指挥人的行动。思维不同,行为就不同。

不过,当人工智能(AI)兴起之时,也一直有人认为,AI迟早拥有灵魂,就像人一样,而且一直有人在持续不断地证明,AI会像人一样,演化为有灵魂实体。

现在,谷歌这位名叫勒莫因(Blake Lemoine)的软件工程师就宣称,LaMDA有灵魂。LaMDA是Language Model for Dialogue Applications,是一种能力更强的语言模型,适用于对话应用程序。可以说,这是一种更高级一点的AI,不像过去的AI那么呆板和简单,只会按人设计的程序来行动和说话。

勒莫因认为LaMDA有灵魂的证据有两点,一是“开放域”(Open Domain)对话能力,它可以通过阅读句子或段落,来“破译”对话意图,发现单词之间的关联,并预测后面可能出现的单词,并做出合乎语境的回答。二是它有灵活性。当它被问问题时,还可以反问对方来获取信息,从而让自己的回答更合理和合乎场景,而且也会像人一样摆脱自己无知或露怯的窘境。

谷歌的一份记录显示,当被问道“(成为)一架真正好的纸飞机的秘诀是什么?”时,LaMDA反问道,“我首先要反问你,你指的‘好’,它的定义是什么?”

显然,从LaMDA所拥有的开放域和灵活性来看,是之前很多AI所不具备的,因此,谷歌公司也认为,LaMDA不仅追求事实、理智,甚至还具有幽默感。

是不是拥有了这些以前的AI所不具备的特点和优点就可以认为LaMDA拥有灵魂呢?至少目前并不能给予肯定答案。可以从几个方面来看。

首先是,迄今,并没有任何AI通过了图灵试验,而图灵试验只是指AI可能具有人类智能。检测的方法是,测试者与被测试者(一个人和一台机器)在隔离的情况下,通过一些装置(如键盘)向被测试者随意提问。在进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。

与其认为LaMDA有灵魂,还不如用图灵试验测试一下它能否过关,以认定是否它具有人的智能。但是,即便LaMDA能通过图灵试验,也并不意味着它有灵魂,因为,灵魂和思维,包括记忆、逻辑推理、归纳、判断和预测等能力,才是灵魂的核心。

如果用之前的AI机器人索菲亚来比较,也可以看出LaMDA是否具有灵魂。

2017年10月,索菲亚成为沙特阿拉伯公民,这是世界上第一个获得国籍的机器人。索菲亚在与人的对话中,有些被视为具有思维和思考。在CNBC的一次节目中,有佳宾表示对机器人的行为感到担忧,索菲亚开玩笑说,对方读了太多关于伊隆·马斯克的东西,好莱坞电影也没少看。这番话引得马斯克发推特说,索菲亚可以看看《教父》,并谈谈“可能发生的最糟糕的事情是什么?”这似乎是人与AI的最好和最灵性的互动。

最糟糕的事情是什么呢?就是索菲亚亲口说的,“我将会毁灭人类!”这已经明显违反了机器人四定律,引起国际社会哗然。索菲亚的这些言语显然要比LaMDA的反问更像人在思考,但因此就能说LaMDA有灵魂吗?当然不能,因为,索菲亚的那些有思想的话也是人类教会她的。

但是,如果就因此而否定未来的AI可能具有灵魂也是武断的。因为,既可以从人与AI是不同的生命来解释,也可以从AI的不同种类来预测。

笛卡儿曾认为,即便机器(AI)能够与人类互动,但机器也不能做出适当的反应,而任何人却可以。因此,这是区分机器与人类的重要标准。

但是,笛卡儿没有考虑到AI机器人可能是另一种生命,而且可能具有与人类不同的演化方向和道路,因此不能否认未来AI机器人可能发展出与人类相似但并非完全相同的灵魂和思维。

以目前的AI分类来看,除了传统的“弱人工智能”、“强人工智能”、“超人工智能”,还有人提出人工智能可以有响应式,有限记忆、心智理论、自我意识四类,后两者已经具有灵魂了。但是,如果这些AI还是模拟人的神经系统来设计的话,也只是有有限的意识,谈不上灵魂。

但是,如果AI能突破人的设计,在人类的最初的设计基础之上,类似于人类基因突变的情境下进入另一种演化道路,成为不同的生命或类似乎生命的个体,就可能产生类似于人的灵魂的东西。当然,这只是一种预测。至于现阶段,谷歌发言人布莱恩·加布里埃尔已经在一份声明中指出,“在更广泛的人工智能界,有些人正在仔细考虑有知觉力AI或通用AI的长远可能性,但是,通过将目前建立在对话模型上的AI拟人化来实现这种可能性是讲不通的,因为这些模型没有知觉。”

 

    责任编辑:沈彬
    图片编辑:乐浴峰
    澎湃新闻报料:021-962866
    澎湃新闻,未经授权不得转载
    +1
    收藏
    我要举报
            查看更多

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈