最新消息:关注人工智能 AI赋能新媒体运营

超75%美国人质疑AI,行业深陷信任危机

科技资讯 admin 浏览

美国人对AI的信任正在崩塌

最近一项由皮尤研究中心和斯坦福大学联合发布的调查揭示了一个令人震惊的事实:76%的美国成年人表示,他们对人工智能的发展感到不安,其中近半数人明确表示“不信任任何AI系统”。这不是科幻电影里的预警,而是真实发生在我们身边的认知危机。

人们最担心的,不是机器人取代人类,而是那些看不见的算法在悄悄决定他们能看什么、买什么、贷多少款,甚至影响他们的医疗诊断和求职机会。一位来自俄亥俄州的退休教师玛丽·科尔曼说:“我上周收到一封‘银行客服’的邮件,说我的账户异常,让我点击链接核实。后来才知道是AI伪造的。我差点就信了。”这类案例正越来越多——AI生成的虚假新闻、伪造的政府通知、甚至模仿亲人声音的诈骗电话,正在让普通人对数字世界失去基本判断力。

透明度为零,监管还在睡觉

当AI系统做出一个影响你生活的决定——比如拒绝你的贷款申请、降低你的医保评级,或在招聘系统中淘汰你的简历——你几乎不可能知道为什么。大多数公司拒绝公开算法逻辑,称其为“商业机密”。但公众不买账。加州大学伯克利分校2024年的一项研究显示,超过80%的受访者认为,“如果AI能决定我的人生,那它至少该能解释清楚自己在做什么。”

更令人担忧的是监管的滞后。美国至今没有一部全国性的AI监管法案。联邦贸易委员会(FTC)虽多次警告AI歧视风险,但缺乏执法权。相比之下,欧盟《人工智能法案》已对高风险AI系统实施严格审查,中国也出台了《生成式人工智能服务管理暂行办法》。而美国,仍在让科技公司自己“自律”。

一位曾在谷歌AI部门工作的前工程师匿名告诉《纽约时报》:“我们内部早就知道模型会放大种族偏见,但产品上线的KPI压倒了一切。没人愿意为‘道德风险’耽误发布。”

企业喊着“负责任AI”,但没人真敢改

大公司嘴上说着“AI向善”,行动却截然相反。Meta、OpenAI、Anthropic等企业纷纷推出“AI透明度报告”,但内容空洞,只谈技术参数,不讲实际影响。2023年,美国消费者报告测试了12款主流AI客服系统,发现其中9款在回答关于医保、税务、移民政策等关键问题时,给出错误或误导性信息的概率高达43%。

更讽刺的是,当用户要求“关闭AI推荐”或“删除训练数据”时,多数平台要么藏在层层菜单里,要么干脆不提供选项。一位纽约的律师在起诉某招聘平台后发现,该公司使用AI筛选简历时,对女性求职者的简历自动打低分——而这个“权重调整”从未告知任何应聘者。

真正的出路:让普通人能看见、能质疑、能控制

信任不是靠口号重建的,而是靠可验证的行动。一些小公司已经开始带头:

  • Hugging Face 推出“模型卡片”功能,要求所有上传的AI模型必须公开训练数据来源、潜在偏差和测试结果。
  • California’s Algorithmic Accountability Act(加州算法问责法案)已通过初审,要求政府使用AI系统前必须进行独立审计,并向公众开放报告。
  • 美国国家科学院今年3月发布报告,建议建立“AI影响登记册”,类似药品审批系统——任何用于医疗、司法、金融的AI,必须注册并接受第三方监测。

这不是技术问题,是权力问题。当算法能决定谁获得贷款、谁被监控、谁被裁员,我们不能再把决定权交给硅谷的工程师和投资人。公众需要的不是更聪明的AI,而是更透明的规则、更强的监督,和真正属于自己的控制权。

未来的赢家,不会是模型参数最大的公司,而是第一个敢把“黑箱”打开、敢让用户说了算的企业。信任一旦崩塌,再炫的技术也救不回来。现在,是时候让AI回归为人服务,而不是让人适应AI了。