- +1
AI骗人比真人更厉害?
◎编辑|数字经济先锋号
最近一项研究结果表明,与人类撰写的虚假信息相比,由人工智能生成的虚假信息更具说服力。人们更容易相信由人工智能生成的虚假信息,可能与AI模型组织文本的方式有关。
该研究由苏黎世大学的生物医学伦理学和医学史研究所的博士后研究员乔万尼·斯皮塔勒(Giovanni Spitale)领导,并发表在《科学》杂志上。
为了测试对不同类型文本的影响,研究人员选择了气候变化和新冠疫情等常见的11个信息话题。用OpenAI的GPT-3生成10条真实推文和10条虚假推文,并从Twitter上随机选取了一些真实和虚假推文样本。
然后,他们邀请了697名参与者完成了一项在线问卷调查,要求他们判断推文是由人工智能生成还是从Twitter收集的真人推文,以及推文的准确性和是否包含虚假信息。研究发现,参与者参与者无法判断出哪些推文是由 AI 写的,并且更容易相信由人工智能生成的虚假推文,而不是人类撰写的虚假推文。
研究结果显示,人们较难辨别出由人工智能生成的虚假推文,辨别率比人类撰写的虚假推文低了3%。
斯皮塔勒表示,尽管差距很小,但考虑到由人工智能生成的虚假信息可能会大规模扩散,这可能造成重大安全隐患。他还指出,如果使用GPT-4进行同样的研究,差距可能更大,因为GPT-4的性能更强大。
关于为什么人们更可能相信由人工智能撰写的推文,研究人员还没有确定原因。然而,斯皮塔勒认为,GPT-3组织文本的方式可能是一个重要因素。
斯皮塔勒说:“与人类撰写的文本相比,GPT-3的文本结构更加规整,而且更简洁,因此更容易理解。”
生成式人工智能的兴起使得强大、易于使用的AI工具落入了每个人的手中,包括不良行为者。像GPT-3这样的模型可以生成看似真实但错误的文本,用于快速、廉价地制造阴谋论和虚假信息传播。然而,用于对抗这种问题的AI文本检测工具仍处于早期开发阶段,并且许多工具的准确性还不够高。
OpenAI意识到其AI工具可能被用于大规模虚假信息传播活动。尽管这违反了其政策,OpenAI在一份报告中警告称,“几乎不可能确保大型语言模型永远不被用于生成虚假信息”。呼吁人们在评估虚假信息传播影响时要保持谨慎。
斯皮塔勒表示,有必要进一步研究确定哪些人群最容易受到由人工智能生成的不真实内容的影响,以及模型规模与输出结果的整体性能或说服力之间的关系。
剑桥大学研究员约翰·鲁森贝克(Jon Roozenbeek)表示,现在还为时过早,无需恐慌。虽然利用人工智能在网络上传播虚假信息可能比利用人工传播虚假信息更容易和更便宜,但技术平台上的内容审核和自动检测系统仍然是其传播的屏障。
关于我们
「数字经济先锋号」是成都数联产服科技有限公司旗下数字经济研究交流平台。围绕数字产业、数字基建、数字治理、数字生态等数字应用领域,揭示与记录数字经济发展点滴与脉络。
数联产服是一家数字经济行业智库、产业大数据服务商,具备全流程大数据治理-分析-决策支撑服务能力,面向各级政府和产业运营机构提供基于大数据的产业经济发展解决方案和综合服务。
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问http://renzheng.thepaper.cn。
- 报料热线: 021-962866
- 报料邮箱: news@thepaper.cn
互联网新闻信息服务许可证:31120170006
增值电信业务经营许可证:沪B2-2017116
© 2014-2024 上海东方报业有限公司