澎湃Logo
下载客户端

登录

  • +1

蚂蚁集团副总裁李俊奎:要为AI健康发展设立“红绿灯”

澎湃新闻记者 杨佳吟
2024-11-21 20:16
来源:澎湃新闻
长三角政商 >
字号

11月21日,在2024年世界互联网大会乌镇峰会“人工智能负责任开发与应用分论坛”上,蚂蚁集团副总裁李俊奎在发言中指出,要为AI健康发展设立“红绿灯”:对会给人类价值观和社会稳定造成严重冲击的AI应用,必须进行防御和抵制;对具有潜在风险的AI应用领域,要做充分、深度的分析和研究,建立完善的伦理和安全框架;对那些有益于人类的AI应用,应亮起通行信号。

李俊奎将AI比作高速行驶的列车,“它既带来了前所未有的机遇,如促进经济发展、社会进步、助力公益事业,但如同列车需要轨道和信号的引导一样,AI的发展也不能毫无约束地狂奔,必须为其设立红绿灯,保障其健康前行”。

红灯,就是做好风险的控制。“我们要警惕AI技术被恶意利用,比如用于制造虚假信息、发动网络攻击或者加剧社会不平等。深度伪造技术就是一个例子,如果不加以限制,它可能会破坏社会的信任体系,引发混乱。”李俊奎表示,必须对抗这种会对人类价值观和社会稳定造成严重冲击的应用,让红灯成为不可逾越的红线。

黄灯,就是在技术之外,做好AI制度管理,谨慎对待那些具有潜在风险的AI领域。“例如,自动驾驶领域虽然前景非常广阔,但目前还存在很多复杂的伦理问题,比如当自动驾驶汽车面临不可避免的碰撞时,它应该优先保护车内乘客还是行人?”李俊奎认为,面对类似情况,要进行充分、深度的研究和讨论,建立完善的伦理和安全框架,只有当风险可控时,才允许其继续前行。

李俊奎介绍,蚂蚁集团在去年年初建立AI安全伦理委员会时便期望用“善治”应对“善智”。集团的任何AI应用在出台前,都会经过包括科技伦理在内的评测,真正做到用制度引导AI驱动的业务符合“以人为本,科技向善”。

绿灯,就是为那些有益于人类的AI应用亮起通行信号。“安全是手段,最终目的是促进AI健康发展,广泛应用于产业和方便人民的生活,缩小AI引发的技术鸿沟。”

李俊奎表示,为AI的发展设立“红绿灯”的过程也是构建负责任AI的过程。负责任AI的建立从长远来看面临三大趋势:第一,从“准确性”到“人情味”。除了保证AI的可靠性和准确性之外,也要真正让AI更好地服务人类。第二,从“显性风险被动防控”到“隐性风险主动防控”。第三,从“对话交互”到“有效协同”。

李俊奎认为,负责任AI的建立需要各界多方共同努力。对于政府来说,要制定合理的法规政策,明确红线和监管的机制;对于社会组织、科研机构来说,要加强对AI伦理和风险的研究,为决策提供科学依据;对于科技企业来说,要自觉遵守道德和伦理准则,将社会责任融入技术研发中;对于公众来说,要积极关注和参与AI发展的讨论,共同构建负责任的AI。“总之,设立好红绿灯,建立负责任AI,是一个系统性、开放性的命题,既刻不容缓,也需要长期主义。”

    责任编辑:徐益平
    图片编辑:朱伟辉
    校对:张艳
    澎湃新闻报料:021-962866
    澎湃新闻,未经授权不得转载
    +1
    收藏
    我要举报
            查看更多

            扫码下载澎湃新闻客户端

            沪ICP备14003370号

            沪公网安备31010602000299号

            互联网新闻信息服务许可证:31120170006

            增值电信业务经营许可证:沪B2-2017116

            © 2014-2024 上海东方报业有限公司

            反馈