- +1
前OpenAI首席科学家成立新公司:安全超级智能是唯一目标
OpenAI联合创始人、前首席科学家伊尔亚·苏茨克维
从OpenAI离开一个月后,伊尔亚成立了一家公司。
6月20日,OpenAI联合创始人、前首席科学家伊尔亚·苏茨克维(Ilya Sutskever)在社交平台X上发文宣布成立新公司SSI(safe superintelligence,安全超级智能)。
他表示新公司将致力于追求安全超级智能,“只有一个重点、一个目标和一个产品。我们将通过一支精干的小团队取得革命性的突破,从而实现这一目标。”
伊尔亚的推文
根据SSI的公告,该公司由伊尔亚以及丹尼尔·格罗斯(Daniel Gross)和丹尼尔·利维(Daniel Levy)共同成立。格罗斯为前苹果高管、Y-Combinator合伙人,利维是前OpenAI研究员。
“不让商业压力影响技术安全和进步”
三位SSI的创始人在公告中表示,超级智能已经触手可及,构建安全超级智能(SSI)是这个时代最重要的技术难题。
公告称:“我们已经启动了世界上首个专注于SSI的实验室,目标和产品都只有一个:安全超级智能。这个实验室名为Safe Superintelligence Inc。SSI是我们唯一的关注点,我们的团队、投资人和商业模式都致力于实现SSI。我们将安全性和能力视为通过革命性工程和科学突破来解决的技术难题。我们计划尽快提高能力,同时确保安全性始终保持领先地位。这样我们就可以安心扩展规模。我们专注于一个目标,这意味着不会受管理开销或产品周期的干扰。我们的商业模式可以保证安全和进步等都不受短期商业压力的影响。”
该公告或许也解释了伊尔亚为何离开OpenAI。
日前,据外媒报道,自去年12月以来,OpenAI的年化收入翻倍,达到34亿美元,其中32亿美元来自订阅和API(应用接口)访问。而公司CEO山姆·奥特曼(Sam Altman)也被曝已告知股东,公司正在考虑调整治理结构,将转为不受非营利性董事会控制的营利性公司,此举被指意在为IPO(首次公开募股)铺路。
伊尔亚在5月宣布离职时表示,OpenAI的发展轨迹堪称奇迹,相信OpenAI将在山姆·奥特曼(Sam Altman)、总裁格雷戈里·布罗克曼(Greg Brockman)、首席技术官米拉·穆拉蒂(Mira Murati)以及雅库布·帕乔基(Jakub Pachocki,新任首席科学家)的领导下,打造既安全又有益的AGI(通用人工智能)。
伊尔亚在2015年参与创立了OpenAI。当年,他参加了时任Y Combinator总裁奥特曼的一场晚宴,并遇到了埃隆·马斯克(Elon Musk)和布罗克曼,当时他们就公司的非营利性达成一致。
2022年底,聊天机器人ChatGPT发布,OpenAI瞬间出圈,走红全球。
此后,OpenAI每年都会推出重磅新品,2023年3月,GPT-4发布;今年5月,多模态全能大模型GPT-4o发布,此后与苹果合作接入GPT。
要“光鲜的产品”还是安全
人们对GPT-5、超级智能更加期待的同时,对于安全的担忧也开始出现。
2023年底,奥特曼就曾因此陷入“宫斗”风波,被OpenAI董事会解雇。事件最终以奥特曼重返公司复职并重组董事会告终,伊尔亚也从董事会名单中消失。
彼时,据消息人士称,穆拉蒂曾告诉员工,一封关于Q*(发音为 Q-Star)AI取得突破的信件促使董事会采取了解雇行动。
OpenAI在Q*上取得的进展,让部分公司内部人士相信,这可能是他们找到“超级智能(即AGI)”的突破。OpenAI将AGI定义为“比人类更聪明的AI系统”。
伊尔亚是否真的看见了Q*也一直是人们关注的焦点,奥特曼在公开采访中也被多次问及,而他反复表示了对伊尔亚的爱戴和尊敬。
今年5月,伊尔亚宣布离职,几小时后,OpenAI核心安全团队“超级对齐”的负责人杨·莱克(Jan Leike)也宣布离职。据报道,随着两位领导的离开,超级对齐团队也被解散,将纳入其他研究工作当中。
消息人士透露,注重AI系统安全的员工已对奥特曼的领导失去信心。莱克在宣布离职后,也发帖怒斥OpenAI及领导层“重视光鲜的产品,安全文化和流程不再受到重视”。
作为OpenAI早期投资人的马斯克也多次抨击OpenAI忘记初衷,并一度将其告上法庭,要求OpenAI恢复开源,并要求法院下达禁令,禁止OpenAI、布罗克曼和奥特曼以及微软从该公司的通用人工智能技术中获利。
在OpenAI与苹果合作后,马斯克更是炮轰称集成了OpenAI技术的iPhone将会是令人毛骨悚然的“间谍软件”。
OpenAI也采取了多项措施,包括引入新的团队、成立由董事会主导的安全委员会,也不止一次发布声明强调对于安全的重视。
当地时间6月11日,穆拉蒂在一场《财富》杂志的活动上就IPO传闻及马斯克的批评等作出了回应,她表示近期OpenAI的招聘意味着公司将进入下一阶段,而最大的风险是利益相关者误解了技术。
穆拉蒂在活动上透露,OpenAI实验室里的模型,其实与公开模型之间不存在很大差距。
她表示:“这是一种与以往完全不同的技术推广方式。这是个很好的机会,因为它能让人们参与进来,并对这些技术的能力和风险有更直观的了解,从而为先进AI的到来做好准备,这里面蕴含着巨大的机会。”她认为,经常谈论风险是正常的,因为确实非常重要,“但如果我们不相信这些机会是巨大的,我们也不会去做这件事。”
- 报料热线: 021-962866
- 报料邮箱: news@thepaper.cn
互联网新闻信息服务许可证:31120170006
增值电信业务经营许可证:沪B2-2017116
© 2014-2024 上海东方报业有限公司