
背景图片来源/Dynamic Wang on Unsplash
纽约时报报导,OpenAI于2023年遭骇客存取公司系统,但该公司认为不严重而未公告亦未通报主管机关。不过OpenAI因此事后因相关事件解僱了员工。
报导引述消息人士指出,OpenAI去年被一名外部人士存取了内部系统,但并未存取开发和储存ChatGPT或其他AI系统的系统,而是员工讨论区。OpenAI认为,由于并没有涉及敏感资讯,且存取者是一个人而非已知骇客组织,故OpenAI认为这并非重大安全事件,因而未公开此事,也未通报主管机关或联邦调查局(FBI)。
但是有员工仍对此感到忧心而提出建言,不过遭到公司惩处。OpenAI前技术计画经理Leopold Aschenbrenner上周在其podcast讨论此事。Aschenbrenner是公司AI superalignment团队成员。Superaligment是OpenAI为了在AGI发展过程中,确保AI符合人类利益而推动管理及安全设计而设立。Aschenbrenner也是今年稍早离职的OpenAI首席科学长Ilya Sutskever的重要副手,后者和执行长Sam Altman因AI安全理念不和而另创公司Safe Super Intelligence。
Aschenbrenner提及,他在公司一起「重大资安事件」后,向公司董事会提出呼吁。他将一份OpenAI建构AI模型防护的备忘录分享给了董事会成员,他事后公布备忘录内容,其中并无涉及技术或商业敏感内容。但董事会为此问责公司的AI伦理措施是否确实,包括现有保护机制是否足以阻挡中国国家骇客的间谍入侵,显然这令高层不满,他在今年4月和另一名员工被HR解聘,理由是洩密为由解聘。
OpenAI尚未对此回应。
Techcrunch指出,这事件也显示,像OpenAI这类拥有众多AI技术及用户的供应商,对骇客来说是多么令人垂涎的攻击目标。