OpenAI陷入安全危机:攻击者成功入侵内部消息系统

时间:2024-07-08来源:电子产品世界

位于旧金山的人工智能巨头OpenAI,近日陷入了一场安全危机。据外媒报道, 2023年年初OpenAI发生安全事件,攻击者成功入侵OpenAI的内部消息系统,窃取了有关该公司人工智能技术和研究材料的敏感讨论,但黑客并未进入托管人工智能源代码的服务器。

640-2.jpeg

由于没有泄露客户数据,OpenAI并没有披露本次安全事件,也没有向任何执法部门报告,只是在去年4月的全体员工大会上通报了这一漏洞。这一事件不仅暴露了OpenAI在网络安全方面的潜在漏洞,更引发了外界对人工智能技术安全性的广泛担忧。

本次安全事件导致员工质疑OpenAI对安全的重视程度,且成为新的导火索,导致了内部员工出现分裂。OpenAI原技术项目经理Leopold Aschenbrenner曾向董事会发送备忘录,提出了安全担忧,认为OpenAI在防止其技术机密被盗方面做得不够。然而,他随后被解雇,这一举动进一步加剧了外界对OpenAI内部管理和安全策略的质疑。

值得注意的是,OpenAI发言人Liz Bourgeois回应称Leopold的离职并非源于此,并表示“虽然我们和他一样致力于打造安全的通用人工智能,但我们不同意他后来对我们的工作提出的许多说法,包括他对我们安全措施的描述,尤其是这次入侵事件。在他加入公司之前,我们已经解决了这个问题,并向董事会报告。”

简单事实是,AI公司已经成为非常有价值数据的看门人,包含三种数据:高质量的训练数据、大量用户交互以及客户数据。就像其他任何SaaS产品一样,AI提供者具有特权访问权限,可能是一些枯燥的旧预算表或人员记录,也可能是一些尚未发布的软件代码。AI公司突然成为这些机密的核心,这一行业的新颖性带来了一个特殊风险,因为AI流程尚未被标准化或完全理解。

但也许更有价值的是OpenAI庞大的用户数据库 —— 可能包含数十亿与ChatGPT进行的数百万话题的对话。今年5月,OpenAI表示已经阻止了五次试图滥用其AI模型进行网络欺骗活动的行为,暴露了即便是行业巨头也可能面临严重的安全威胁。AI公司成为黑客攻击目标的新趋势,安全防护措施重要性凸显,即使没有严重数据泄露,也应引起关注。

这一事实表明,人工智能技术不仅面临被窃取的风险,还可能被恶意利用,对社会造成更广泛的负面影响。如何在推动技术创新的同时,确保AI系统的安全性和可控性,成为了全球科技界和政策制定者需要共同面对的挑战。

关键词: OpenAI 人工智能

加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW

或用微信扫描左侧二维码

相关文章

查看电脑版