最新消息:关注人工智能 AI赋能新媒体运营

十多名OpenAI及DeepMind员工签署公开信,期望获得警告AI风险的权利

微信运营 admin 浏览 评论

Photo by Steve Johnson on Unsplash

有11名OpenAI的前任及现任员工,再加上两名DeepMind的前任与现任员工,在本周签署了一封公开信「对先进AI发出警告的权利」(A Right to Warn about Advanced Artificial Intelligence),在这13名AI从业人员中,有6名现任员工,但有5位是匿名的,或许是担心遭到报复或受到杯葛。

他们在信中表示,相信AI对人类带来好处的潜力,但也理解AI可能带来的严重风险,包括强化现有的不平等、操纵、不实资讯,或是失去对AI系统的控制而造成人类灭绝等,它们是AI领域公开承认的风险,原本期望可在科学界、立法者与公众的充分指引下得到缓解,然而,他们认为AI公司有很强的财务动机来避免有效的监督。

此外,AI公司拥有大量的非公开资讯,包括系统能力与侷限性,保护措施的充分性,以及不同伤害的风险等级等,但它们现阶段只有与政府分享部分资讯的微小义务,而未与民间分享。当政府未能对其有效监督之际,员工就是少数能够督促它们负责的人,但他们担心各种的挟怨报复。

因此,他们提出了几点的呼吁,包括不强制员工签署禁止批评公司的协议,也不报复那些提出风险批评的员工;AI公司应建立一个匿名举报机制,以允许前任或现任员工可向董事会、监管机构或独立组织来检举风险问题;AI公司应该在贸易机密与智慧财产权受到适当保护的情况下,支持开放批评的文化;不报复那些在其它检举途径失效,而公开分享风险机密讯息的员工。

该活动的召集人之一是OpenAI治理部门的前研究员Daniel Kokotajlo,他透过X解释,他在失去对OpenAI可负责任建置通用AI的信心之后,于今年4月辞职。

Kokotajlo表示,他在加入OpenAI时,曾经希望随着系统变得更强大,会在安全研究上投入更多的资金,但OpenAI从未有此转变,意识到此事的同事开始离职,他不是第一个,也不会是最后一个。此外,在他离职的时候,OpenAI要求他签署一份协议,阻止他批评公司,若不签署就会失去他的OpenAI股权。

Kokotajlo认为,AI系统并非普通软件,它们是从大量资料中学习的人工神经网路,对于这些系统的运作、可能超越人类智慧,或是能否具备与人类一致的利益,都有许多的未知,与此同时,相关技术几乎缺乏监督,反而是由AI企业自治,而经济动机与对技术的兴奋,不时令这些业者快速行动并打破常规。

最后决定拒绝签署噤声协议的Kokotajlo强调,让研究人员噤声并使他们害怕报复是危险的,因为他们是目前唯一能够警告公众的人。

发表我的评论
取消评论

表情

您的回复是我们的动力!

  • 昵称 (必填)
  • 验证码 点击我更换图片

网友最新评论