去年年初,一名黑客闯入了ChatGPT制造商OpenAI的内部消息系统,窃取了该公司人工智能技术设计的详细信息。
据知情人士向《纽约时报》透露,黑客从一个在线论坛的讨论中获取了信息,该论坛的员工谈论了OpenAI的最新技术,但并未访问OpenAI存储该公司的最新技术的系统。据悉,OpenAI高管于2023年4月在公司旧金山办事处举行的全体会议上向员工披露了这一事件,并向董事会通报了此事。
高管们决定不公开这一消息,因为没有客户或合作伙伴的信息被盗。高管们认为该事件对国家安全不构成威胁,因为他们认为黑客是与外国政府没有联系的个人。该公司也没有通知联邦调查局或任何其他执法机构。
对于一些OpenAI员工来说,这一消息引发了担忧,即中国等外国对手可能会窃取人工智能技术,从而危及美国的国家安全。这也引发了对OpenAI安全问题重视程度的质疑,并暴露了公司内部在人工智能风险方面的分歧。
漏洞发生后,OpenAI技术项目经理Leopold Aschenbrenner致力于确保未来的人工智能技术不会造成严重损害,他向OpenAI董事会发送了一份备忘录,认为该公司在阻止中国政府和其他外国对手窃取其秘密方面做得不够。
Aschenbrenner表示,OpenAI今年春天解雇了他,因为他泄露了公司外部的其他信息,并辩称解雇他是出于政治动机。他在最近的播客中提到了此次泄露事件,但此前并未报道过该事件的细节。他表示,如果外国行为者渗透到OpenAI,OpenAI的安全措施还不够强大,无法防止重要机密被盗。
OpenAI发言人Liz Bourgeois表示:“我们感谢Leopold在OpenAI工作期间提出的担忧,这并没有导致他离职。”她补充道:“虽然我们与他一样致力于构建安全的通用人工智能,但我们不同意他所做的许多声明。我们的工作包括他对我们安全的描述,特别是这起事件,我们在他加入公司之前已解决并与董事会分享了这一事件。”
对美国科技公司遭受的黑客攻击可能与中国有关的担忧是有道理的。上个月,微软总裁布拉德·史密斯在国会作证,讲述中国黑客如何利用这家科技巨头的系统对联邦政府网络发起广泛攻击。
根据联邦和加州法律,OpenAI不能因为国籍而阻止人们在该公司工作,政策研究人员表示,禁止外国人才参与美国项目可能会严重阻碍美国人工智能的进步。
“我们需要最优秀,最聪明的人才来研究这项技术,”OpenAI安全主管马特·奈特在接受《纽约时报》采访时表示。“这伴随着一些风险,我们需要弄清楚这些风险。”
OpenAI并不是唯一一家使用快速改进的人工智能技术构建日益强大的系统的公司。其中一些人——最著名的是Facebook和Instagram的所有者Meta——正在将他们的设计作为开源软件与世界其他地方分享。他们认为,当前人工智能技术带来的危险很小,共享代码可以让整个行业的工程师和研究人员发现并解决问题。
当今的人工智能系统可以帮助在线传播错误信息,包括文本,静态图像以及越来越多的视频。他们还开始抢走一些人的工作。
OpenAI等公司及其竞争对手Anthropic和谷歌在向个人和企业提供人工智能应用程序之前为其添加了保护措施,希望防止人们使用这些应用程序传播虚假信息或引发其他问题。
没有太多证据表明当今的人工智能技术对国家安全构成重大威胁。OpenAI,Anthropic等公司过去一年的研究表明,人工智能并不比搜索引擎危险多少。Anthropic联合创始人兼总裁Daniela Amodei表示,如果其设计被盗或与他人自由共享,其最新的人工智能技术不会构成重大风险。
“如果是别人的,会不会对社会上很多人造成很大的伤害?我们的答案是‘不,可能不会,’”她上个月告诉《纽约时报》。 “这会加速坏演员未来的发展吗?或许。这确实是猜测。”
研究人员和技术高管长期以来一直担心人工智能有一天可能会刺激新生物武器的制造或帮助侵入政府计算机系统。有些人甚至认为它会毁灭人类。
包括OpenAI和Anthropic在内的一些公司已经开始锁定其工程业务。OpenAI最近成立了一个安全委员会,以探讨如何应对未来技术带来的风险。该委员会成员包括曾领导国家安全局和网络司令部的前陆军将军保罗·中曾根(Paul Nakasone)。他还被任命为OpenAI董事会成员。
“我们在ChatGPT诞生前几年就开始投资安全,”Knight先生说。“我们不仅要了解风险并保持领先地位,还要增强我们的抵御能力。”
联邦官员和州立法者也在推动政府制定法规,禁止公司发布某些人工智能技术,如果他们的技术造成损害,将处以数百万美元的罚款。但专家表示,这些风险仍需要数年甚至数十年才能出现。
中国公司也在构建自己的系统,其功能几乎与美国领先的系统一样强大。从某些方面来看,中国已经超过美国,成为最大的人工智能人才生产国,全球近一半的顶尖人工智能研究人员都来自中国。
“认为中国很快就会超越美国的想法并不疯狂,”Hugging Face公司的首席执行官克莱门特·德兰格表示,该公司拥有全球许多开源人工智能项目。
一些研究人员和国家安全领导人认为,当前人工智能系统的核心数学算法虽然现在并不危险,但可能会变得危险,并需要对人工智能实验室进行更严格的控制。
拜登总统前国内政策顾问,拜登前国家安全顾问苏珊·赖斯表示:“即使最坏情况发生的可能性相对较低,但如果它们产生很大影响,那么我们就有责任认真对待它们。”美国总统巴拉克·奥巴马上个月在硅谷的一次活动中说道。“我不认为这是科幻小说,正如许多人喜欢声称的那样。”