美国交通部(DOT)正计划用谷歌的Gemini大模型来起草联邦法规,目标是将长达数年的流程压缩到30天。这不仅是政府效率的“技术实验”,更是一次将AI决策权嵌入国家治理核心的危险试探。
本质上,这是一场“监管生产力”的豪赌。 DOT的算盘很直接:用AI替代部分法律专家和官僚的文书工作,快速生成法规草案,以跟上自动驾驶、电动航空等领域的创新速度。如果成功,这将成为“监管科技”的标杆案例,可能被全球效仿。但问题在于,法规不是产品说明书,而是具备强制力的法律文本,其每个用词都可能涉及数十亿美元的商业利益和公共安全。Gemini生成的草案,其逻辑严密性、潜在偏见和法律漏洞,都需要人类专家花费同等甚至更多精力去审查。所谓的“30天”,很可能只是将耗时环节从“起草”转移到了“纠错”,是一场华丽的效率魔术。
更致命的隐患在于程序正当性与责任黑洞。 美国联邦规则制定受《行政程序法》严格约束,要求透明、可追溯并给予公众评议期。用“黑箱”AI起草规则,如何向法庭和公众证明其决策过程是理性、无歧视且可审计的?一旦基于有偏见的模型草案出台了有问题的法规,责任该由DOT承担,还是背后的谷歌承担?这为未来的法律挑战埋下了无数地雷。对于受监管的航空公司、汽车制造商而言,这意味着他们未来面对的,可能是一个迭代更快、但潜在风险也更高的监管环境。大公司尚可组建快速响应团队,中小企业则可能被频繁变化的规则压垮。
无论这个试点最终被证明是“革命”还是“闹剧”,它都标志着一个不可逆的起点:AI正从分析工具升级为政策起草的“协作者”。这倒逼所有利益相关方——企业、律所、咨询公司——必须升级自己的“政策智能”能力。对于投资者,服务于政府和企业的“合规科技”赛道价值凸显;但对于公众,我们需要立刻开始讨论:让算法参与制定规则,它的底线和边界到底在哪里? 效率不能以牺牲程序的正义和责任的清晰为代价。
本文由 AI 辅助生成,仅供参考。