最新消息:关注人工智能 AI赋能新媒体运营

哈萨比斯警告:AI竞赛已失控,或致人类灭绝

科技资讯 admin 浏览

当AI竞赛跑得太快,人类还能刹车吗?

近日,DeepMind联合创始人德米斯·哈萨比斯在一次闭门会议上坦言:“我们正站在一个危险的十字路口。如果再不认真对待,下一代AI系统可能真的会超出人类的控制。”这不是科幻电影里的台词,而是一位亲手推动AI革命的人,第一次公开承认——我们可能已经失去了对技术的主导权。

哈萨比斯不是危言耸听。他亲眼见证了AI从实验室走向全球商业战场的全过程。2022年底,OpenAI推出ChatGPT,短短两个月内用户突破一亿。谷歌、Meta、Anthropic、微软……所有巨头瞬间进入“紧急状态”。研发节奏从“按季度推进”变成了“按小时抢跑”。安全审查、伦理评估、风险测试——这些曾经被视作铁律的流程,如今被压缩到几周甚至几天内完成。

“我们不是不想安全,”一位知情人士透露,“是根本没时间。”一位曾在谷歌AI安全部门工作的工程师告诉我:“我们团队曾花六个月做一次模型对齐测试,现在,同样的工作要在三天内交出结果。不是没人发现隐患,是没人敢说‘停一下’。”

制度失效,伦理委员会成了摆设

曾经,AI安全靠的是层层把关:独立伦理委员会、第三方审计、政府监管框架。但现实是,这些机制在商业压力面前几乎形同虚设。

2023年,谷歌内部曾成立“AI风险评估小组”,由哈萨比斯亲自挂帅。但随着Gemini项目被列为公司“最高优先级”,该小组的预算被削减40%,人员被调往核心研发团队。一位前成员在离职信中写道:“我们不是在守护安全,我们是在为速度铺路。”

类似的情况在全球上演。欧盟的《AI法案》仍在议会辩论,而美国的AI初创公司已融资数十亿美元,只因“模型表现优于GPT-4”。中国、英国、以色列、加拿大……各国政府都在加速布局,但没人愿意率先“踩刹车”,怕的就是被落下。

联合国教科文组织2024年初发布的《全球AI治理报告》指出:目前全球仅有不到12%的AI公司接受过独立安全审计,而超过70%的企业将“市场领先”作为研发第一目标。

最后的防线,只剩几个人的良知

面对失控的局面,哈萨比斯的选择令人唏嘘:他不再指望制度,而是选择亲自坐上驾驶座。

如今,他同时掌控DeepMind的科研方向、谷歌AI的资源分配,以及与美国国防部、英国政府的敏感合作项目。他不再公开谈论“伦理框架”,而是私下要求团队:“如果一个模型能自我生成欺骗性内容,哪怕它性能再强,也要停掉。”

这不是制度,这是个人的决断。他成了少数几个能说“不”的人之一。但问题在于——谁来监督他?如果有一天他退休、生病,或被商业利益裹挟,谁来接住这根脆弱的绳索?

更令人不安的是,类似的角色正在全球出现:OpenAI的山姆·阿尔特曼、Anthropic的达里奥·阿莫迪、微软的萨提亚·纳德拉……他们手握全球最强大的AI系统,却没有任何民选授权,也不对公众负责。他们的决定,可能影响下一代人类的生存环境。

我们还能做点什么?

这不是技术问题,是文明的抉择。

2024年5月,斯坦福大学发布的一项调查显示:超过68%的AI工程师承认,他们曾被要求跳过安全测试;43%的人表示,如果上司坚持上线有风险的模型,他们会选择离职。但真正辞职的,不到7%。

普通人能做什么?

  • 关注你使用的AI产品是否公开过安全报告(如Google AI Safety、OpenAI的“模型卡”)
  • 支持那些坚持透明、拒绝“黑箱”的公司
  • 在社交媒体上追问:这个AI是谁在负责?它有没有经过独立验证?

哈萨比斯说:“我们这一代人,可能是人类历史上第一代亲手创造能毁灭自己的工具的人。”他没有给出答案,但他提醒我们:技术不会自己刹车,只有人,才能踩下那脚刹车。

撕逼 斗争战斗,PK,机器人,对抗,战争

图源备注:图片由AI生成,图片授权服务商Midjourney