一项声称“社交媒体禁令对青少年长期心理健康无效”的英国大型研究,正遭到科技媒体的猛烈炮轰。这不仅是学术争论,更是一场关于如何有效监管科技巨头的路线之争。
《Platformer》的批评一针见血:该研究的“道德恐慌”框架,本质上是在用错误的靶子转移火力。它把问题简化为“用不用”和“用多久”,却刻意回避了真正的病灶——平台那些精心设计、旨在成瘾的具体功能。无限滚动、算法推荐瀑布流、点赞计数、深夜推送……这些才是硅谷产品经理们用来劫持青少年注意力的精密工具。讨论“社交媒体”这个整体有没有害,就像讨论“汽车”有没有害一样空洞。关键是你开多快、有没有安全带、以及道路规则是什么。监管盯着屏幕时间这个“里程表”看,却对“发动机”和“交通规则”视而不见,完全是本末倒置。
这意味着监管思路必须来一次彻底的“版本升级”。
- 从“时长管控”到“设计审查”:未来的监管压力将直接施加于产品功能本身。平台可能需要证明其算法推荐对青少年是安全的,或者为未成年用户默认关闭“点赞”等社交比较功能。这比简单设置使用时长上限复杂得多,也致命得多。
- 商业模式的根本冲突:Meta、TikTok们的核心商业模式建立在最大化用户参与度上。要求它们进行“安全设计”,无异于要求烟草公司生产不上瘾的香烟。短期内,这必然导致平台在青少年市场的增长和收入承压,但也可能催生专注于“健康设计”的新玩家。
- 为AI治理铺路:这场争论的核心方法论——即追溯有害结果并规范其技术实现过程——正是下一代AI治理的预演。如何监管生成式AI的偏见、推荐算法的信息茧房?社交媒体上的这场攻防战,将为更复杂的技术监管提供剧本和先例。
别指望科技巨头会坐以待毙。它们最可能的策略是:资助“危害证据不足”的研究,推出一些不痛不痒的“青少年模式”作为公关筹码,同时加大游说力度,把任何精细监管描绘成“扼杀创新”。监管者面临的挑战是巨大的,需要建立前所未有的技术审计能力。
这场辩论标志着,天真的“一刀切”监管时代结束了。真正的硬仗——深入到算法的黑箱里,为数字世界的“建筑规范”立法——才刚刚开始。谁赢了这场定义“伤害”的战争,谁就掌握了未来十年科技监管的钥匙。
本文由 AI 辅助生成,仅供参考。