Meta推出AI年龄识别系统,精准锁定未成年用户
Meta周二正式宣布,将在Facebook和Instagram上启用一套全新的AI视觉分析系统,专门用于识别可能未满13岁的用户。这套系统不靠人脸识别,也不存储任何个人身份信息,而是通过分析照片和视频中用户的身高、肢体比例、骨骼结构等通用身体特征,结合发帖内容、评论语气、互动频率等行为模式,综合判断年龄。比如,一个用户上传了大量小学作业照片、使用儿童常用表情包、频繁点赞卡通内容——这些线索都会被系统纳入评估。
目前,该系统已在部分欧洲和拉美国家试点运行,未来几周将逐步推广至全球。一旦系统判定某账户“高度可能”属于未成年人,账号将被自动暂停。用户若认为误判,可通过上传身份证件或父母监护证明进行申诉,Meta承诺在48小时内完成人工复核。
青少年账户全面升级,隐私保护更严格
除了识别未成年用户,Meta也在强化“青少年账户”的默认设置。目前已在欧盟和巴西的27个国家上线,现在将正式引入美国版Facebook,并于6月扩展至英国和更多欧盟国家。新青少年账户默认开启多项保护功能:
- 仅允许关注者发送私信,陌生人无法主动联系
- 系统自动隐藏可能含有霸凌、自残或极端内容的评论
- 账户默认设为私密,新粉丝需经批准才能查看内容
- 每日使用时间提醒和夜间自动屏蔽推送
此外,Instagram Live和Facebook群组也将接入相同保护机制。这意味着,即使青少年加入公开群组,平台也会自动过滤不当言论,限制陌生人私信请求。
监管压力逼出变革,3.75亿美元罚款成转折点
这次升级并非主动“善举”,而是迫于日益严厉的法律审查。就在几周前,美国新墨西哥州陪审团裁定Meta因“明知平台存在安全隐患却未采取有效措施保护儿童”,需支付3.75亿美元民事罚款,并强制要求其改革未成年人保护机制。法官在判决书中明确指出:“Meta把增长置于安全之上,代价是无数孩子的身心健康。”
这一裁决震动整个科技行业。美国联邦贸易委员会(FTC)已表示将跟进调查,欧盟《数字服务法案》(DSA)也正在对Meta展开专项合规审查。为避免更严厉的处罚,Meta不得不加快行动。有内部人士透露,公司内部已设立“儿童安全专项小组”,直接向CEO扎克伯格汇报进展。
用户能做什么?家长指南来了
虽然平台在升级,但家长仍需主动参与。Meta建议:
- 定期检查孩子的账户隐私设置,确保不是“公开”状态
- 和孩子讨论“什么内容不该发”,比如学校地址、生日、校服照
- 鼓励孩子使用“举报”功能,遇到骚扰或不适内容立即上报
- 下载Meta Family Center应用,可远程查看孩子在Instagram上的关注列表和互动对象(需孩子同意)
Meta表示,未来将开放更多家长控制工具,包括“一键暂停账号”和“使用时长报告”。这些功能预计在2024年底前上线。
这不是一场技术革命,而是一场生存之战。当法律不再容忍“我们不知道孩子在用”这样的借口,Meta只能选择:要么主动改变,要么被彻底重塑。