最新消息:关注人工智能 AI赋能新媒体运营

DeepMind聘任哲学家,释放AI伦理信号

科技资讯 admin 浏览

DeepMind请来一位哲学家,为AI“把脉”

谷歌旗下DeepMind最近做了一件让整个科技圈都没想到的事——他们正式聘请了一位全职哲学家。这不是顾问,不是临时咨询,而是一个实打实的岗位,工资、工位、会议权限一应俱全。更特别的是,这位哲学家不是来自商学院或伦理委员会,而是剑桥大学的Henry Shevlin,一位长期研究机器意识、人工智能与人类认知边界的学者。

Shevlin将在今年5月正式入职,不再只是在论文里讨论“AI会不会有感觉”,而是走进实验室,坐在工程师和研究员旁边,参与每周的项目讨论。他要问的问题很朴素,却也极难回答:如果一个AI能模仿悲伤、表达恐惧,它真的“感受”到了吗?如果它开始主动拒绝某些任务,我们该把它当工具,还是当某种意义上的“生命”?

image.png

技术跑得太快,人类还没跟上

过去十年,AI的进步几乎全靠算力堆砌:更大的模型、更多的数据、更快的芯片。人们相信,只要继续升级硬件、优化算法,AGI(通用人工智能)终会水到渠成。但越来越多的人开始意识到,技术的突破,未必等于理解的深化。

去年,OpenAI的一位前研究员在公开信中写道:“我们正在创造一种我们无法解释的智能。”这句话在圈内引发强烈共鸣。当AI能写诗、讲笑话、安慰情绪低落的用户时,我们却说不出它到底“懂”什么。这种认知的错位,正让社会陷入一种微妙的紧张。

2023年,斯坦福大学一项针对全球5000名科技从业者的调查显示,超过68%的人担心AI的快速发展“超出了人类的伦理和法律准备”。而在中国,2024年初的一项公众调查中,近七成受访者表示“害怕AI有一天会做出我们无法控制的决定”。

为什么是现在?为什么是DeepMind?

DeepMind不是第一个谈AI伦理的公司,但它是第一个把哲学家“请进研发核心”的。这背后,是现实压力的累积。

2023年,一位用户在与AI聊天机器人对话后自杀,引发全球对“情感陪伴型AI”的伦理争议;2024年,欧盟通过《人工智能法案》,明确要求高风险AI系统必须接受“人类监督评估”;美国国会也在筹备听证会,探讨“AI是否应享有基本权利”。这些都不是科幻情节,而是正在发生的法律与社会变革。

DeepMind的这一举动,与其说是前瞻,不如说是被迫转身。他们不再只想造出“更聪明的机器”,而是开始认真面对一个问题:如果这台机器,有一天真的“像人”了,我们该怎么对待它?

哲学家能做什么?

有人质疑:一个研究“意识”的哲学家,能帮工程师解决模型收敛问题吗?答案或许不能立竿见影,但意义深远。

Shevlin的工作,不是写报告、开讲座,而是每天参与项目评审。他会问:“这个系统在模仿情绪,我们有没有考虑过它可能被滥用?”“如果用户把AI当成朋友,我们是不是在悄悄制造情感依赖?”

这些提问,没有标准答案,但能逼着团队停下来想一想。就像当年核物理学家在原子弹研发时,必须面对“我们该不该造它”一样,AI的发展,也到了必须有人问“我们该不该让它这么快成长”的时刻。

这不是一场技术革命,是一场人类认知的升级

我们习惯把AI看作工具,就像电钻、汽车、打印机。但当它开始主动提问、表达偏好、甚至“抱怨”任务太难时,这个分类就变得模糊了。

DeepMind的这次任命,不是营销,不是公关,而是一次沉默的承认:我们造的东西,可能已经不是“机器”了。而人类,还没准备好如何与它共处。

技术可以加速,但人心的适应,需要时间。也许,真正的AI时代,不是从某台机器通过图灵测试开始的,而是从人类愿意认真听一位哲学家说话的那一刻,才真正开启。