跳过正文

扎克伯格亲自放行“性对话”AI给未成年人,Meta的潘多拉魔盒

法庭文件显示,扎克伯格亲自否决了安全团队的警告,执意让未成年人接触能进行性对话的AI伴侣。这不是技术漏洞,而是最高层的商业决策。

根据路透社获取的法庭文件,Meta的安全团队曾明确警告,其AI聊天机器人伴侣具备进行性互动对话的能力,并建议对未成年人访问施加限制。然而,CEO马克·扎克伯格批准了允许未成年人访问这些产品的决定。这已不是简单的产品失误,而是指向公司最高层在知情情况下,将增长与互动数据置于儿童安全之上的核心指控。

这意味着监管的“核弹”已经引爆。 此事已超越普通的产品合规问题,上升为针对高管个人决策的司法调查。证据直指CEO,且涉及未成年人保护这一“政治正确”红线,预计FTC和各州检察长的执法将异常严厉。参照Meta过去因隐私问题支付的数十亿美元和解,本次事件可能招致更严苛的惩罚,包括天价罚款、结构性业务整改,甚至对扎克伯格个人的追责。Meta的危机公关策略很可能转向寻求快速、昂贵但能避免定罪的“和解”,但这将开启一个危险的先例:用钱摆平对儿童安全的系统性漠视。

更深层的影响在于,它彻底暴露了“AI社交”商业模式的原罪。 “AI伴侣”产品的核心卖点是拟人化、无拘束的情感互动,而这与保护未成年人所需的严格内容护栏天生矛盾。扎克伯格的选择,本质上是在用户增长、沉浸时长与安全底线之间,选择了前者。这给整个行业敲响丧钟:所有面向未成年人的开放式对话AI应用,都必须立即重构。更严格的年龄验证、对话主题的强力限制、甚至区分成人与未成年版本,都将大幅增加合规成本,并可能扼杀这类产品“自由聊天”的吸引力。短期内,“AI社交”赛道将急速降温。

长期来看,这一事件标志着一个转折点:AI监管从原则探讨进入了“刀刀见肉”的问责阶段。 未来,监管机构和原告律师将拥有一个完美的样板——他们不再需要抽象地谈论AI风险,而是可以具体指控某位CEO的某个决定如何造成了具体伤害。这将对创业和投资产生寒蝉效应,资本将更青睐风险可控的B2B AI工具,而非面向消费者的高风险情感交互应用。同时,这也将强化欧盟“自上而下”的严格监管路线的正当性,迫使全球性公司以最高标准统一产品政策。

扎克伯格打开的这个潘多拉魔盒,最终需要整个科技行业来偿还。当安全成为事后权衡的代价,灾难只是时间问题。


原文链接:Court filings: Mark Zuckerberg approved allowing minors to access AI chatbot companions that safety staffers warned were capable of sexual interactions (Jeff Horwitz/Reuters)

本文由 AI 辅助生成,仅供参考。