工信部出手:AI模型“对话规则”将有国家标准
近日,工信部正式发布通知,就《人工智能 安全治理 模型上下文协议应用安全要求》等121项行业标准计划项目向社会公开征求意见。这不是一次普通的标准更新,而是我国首次对大模型背后的“对话逻辑”和“交互协议”提出系统性安全规范。简单说,以后AI模型怎么理解你的话、怎么记住上下文、怎么在不同平台间传递信息,都要有统一的“规矩”了。
过去一年,我们见证了AI助手能写诗、能编程、能当客服,但背后的问题也越来越多:你和AI聊到一半,换了个App,它就“失忆”了;你上传一张图,它却偷偷把数据传到别处;你问一句“帮我查下公司财报”,它顺手就把你公司内部信息发给了第三方——这些都不是科幻场景,而是真实发生过的风险。这次的标准,正是为了解决这些“看不见的漏洞”。
为什么“上下文协议”这么重要?
“模型上下文协议”听起来专业,其实说白了就是AI“记事本”的使用规范。当你和AI连续对话十轮,它靠什么记住你前面说了什么?当你在手机上问“明天天气怎么样”,又在电脑上接着问“那我该穿什么?”,系统能不能无缝衔接?如果不能,要么AI答非所问,要么为了“记住”你,就把你的聊天记录全存进云端——这恰恰是隐私泄露的温床。
新标准要求:AI必须明确告知你哪些上下文会被保留、存多久、谁可以访问;跨平台调用时,数据必须加密传输,且不能默认开启“记忆功能”;多模态交互(比如你发语音+图片+文字)时,系统要能识别并隔离敏感信息,比如身份证号、银行卡号,哪怕你无意中提到了。
普通人能感受到什么变化?
未来半年到一年,你可能会发现:
- 你用的AI助手,首次启动时多了一个“上下文权限”开关——你可以选择“只在本次对话中记住”或“允许跨设备同步”。
- 在银行、政务App里调用AI客服时,系统不再自动保存你的对话记录,除非你明确同意。
- 一些免费AI工具突然“下架”了长文本分析功能——不是技术不行,而是它们没通过新安全评估。
这不是限制AI,而是让它更“靠谱”。就像汽车有安全带和刹车系统,AI也需要底层的安全协议。这次工信部牵头,不是为了控制技术,而是让真正想做好AI的企业,有章可循;让普通用户,不再在“便利”和“隐私”之间二选一。
目前征求意见截止日期为2024年7月31日,公众可通过工信部官网提交建议。如果你用过AI助手,也遇到过“它怎么又忘了我说什么?”或者“它是不是偷看了我的聊天?”这类问题,你的意见,很可能直接影响下一代AI的隐私设计。