最新消息:关注人工智能 AI赋能新媒体运营

微软Edge升级AI管控:强制引导用户使用Copilot,阻断“影子AI”

科技资讯 admin 浏览

微软将限制员工私自使用AI工具,强制转向Copilot

微软近日宣布,将于下月对企业版Edge浏览器推出一项重要更新,重点管控员工在工作中私下使用第三方AI工具的行为。这一变化并非技术炫技,而是针对越来越多企业暴露的数据泄露风险所做出的务实调整。

过去一年,不少公司发现员工在处理合同、客户资料或内部报告时,直接将敏感内容粘贴进ChatGPT、Gemini等公开AI平台,试图快速生成内容。这种“影子AI”使用行为,虽提升了个人效率,却让企业核心数据面临外泄风险。据Gartner预测,到2025年,超过30%的企业数据泄露事件将与员工误用AI工具直接相关。

一键屏蔽主流AI平台,覆盖国内外主流工具

此次更新后,IT管理员可通过Microsoft 365管理中心,直接在Edge浏览器中启用“AI工具访问控制”功能。一旦开启,系统将自动拦截员工对以下平台的访问:

  • OpenAI的ChatGPT(包括网页版和API调用)
  • Google的Gemini(原Bard)
  • 阿里云的通义千问(Qwen)
  • 深度求索的DeepSeek
  • 马斯克旗下的Grok
  • Notion AI、Adobe Firefly等创意类AI服务

该名单并非固定不变,管理员可根据企业需求自定义添加或移除被禁用的AI服务。企业可针对不同部门设置不同策略——例如市场部可允许使用Adobe Firefly,但财务部则全面禁用所有外部AI。

拦截后不“卡死”,直接引导至安全通道

当员工尝试访问被禁用的AI网站时,浏览器不会弹出冷冰冰的“访问被拒”页面。相反,系统会显示一个醒目的提示框,上面写着:“为保障数据安全,本工具暂不可用。点击下方按钮,使用公司批准的AI助手。”

点击按钮后,页面将自动跳转至Microsoft 365 Copilot的专属工作区,用户可直接在文档、邮件、Excel中调用企业级AI辅助功能。所有交互数据均在企业租户内处理,不会上传至公有云,且符合GDPR、等保2.0等多项合规要求。

为什么Copilot更安全?企业最关心的三点

微软强调,Copilot不是“另一个AI聊天框”,而是深度集成在Office套件中的企业级工具:

  • 数据不外流:员工输入的文档、邮件、会议记录等内容,不会用于训练任何公开模型。
  • 权限可控制:管理员可设定谁有权使用Copilot,以及能访问哪些共享文件夹或数据源。
  • 审计留痕:所有AI操作均有日志记录,便于合规审查和内部稽核。

目前,全球已有超过5000家大型企业部署了Copilot,其中金融、医疗、律所等对数据敏感的行业占比超过60%。一位某跨国银行IT负责人表示:“我们不是反对AI,而是不能让员工用AI把客户信息发到互联网上。”

这不是“封杀”,而是给AI使用定规矩

这次更新,不是微软在打压竞争,而是在回应企业最真实的痛点:AI用得好,是效率引擎;用得乱,就是风险炸弹。

越来越多的员工开始主动要求公司提供“安全可用的AI工具”。与其让员工偷偷摸摸用ChatGPT,不如提供一个更好用、更合规的替代方案。微软这次的调整,更像是在帮企业把AI用在刀刃上——不是堵,而是引。

对普通员工来说,这可能意味着少了一点“自由”;但对企业而言,这是一次从混乱走向可控的关键一步。真正的AI落地,从来不是靠技术多炫,而是靠规则多清晰。