人工智能撰写政府法规的设想,听起来像是科幻小说中的情节,但美国特朗普政府正计划将其变为现实,由AI,特别是像Google Gemini这样的大型语言模型,起草联邦交通法规。此举标志着传统政策制定模式的重大转变。尽管支持者们高呼前所未有的效率和速度,但算法塑造关键安全标准的可能性,已引发了一场激烈辩论,关于问责制、准确性乃至公共安全的深刻问题浮出水面。
这一大胆举措的背后,是特朗普政府对AI技术力量的深信不疑。据报道,美国交通部总法律顾问格雷戈里·泽尔赞将该部门定位为“先锋”,是“第一个全面启用AI起草规则的机构”,预示着更广泛的联邦政府层面应用。其核心驱动力在于对“速度”和“数量”的极致追求。他直言不讳地表示,目标不是“完美或非常好”的规则,而是“足够好”的规则,旨在“淹没”监管领域。这种对效率的极致渴望,显然是为了压缩传统上耗时数月的规则制定流程,期望AI能在短短几分钟内生成初稿。这反映了一种效率至上的治理理念,试图以技术革新应对日益增长的监管需求。
然而,这种“快餐式”的立法模式引发了广泛而深切的担忧。交通部法规涉及航空安全、管道防爆以及有毒化学品运输等关键领域,任何微小瑕疵都可能导致灾难性后果。部门内部许多工作人员对将如此关键的标准制定权下放给尚不成熟、以“犯错”著称的技术表示震惊。学者和研究人员警告,若过度依赖AI而非将其作为受监督的辅助工具,将可能导致法规缺陷,违反联邦“基于理性决策”原则。将保障数百万人生命财产安全的重任,托付给一个连其开发者都承认可能产出“空洞文字”(word salad)的系统,这无疑是在玩一场高风险的赌博,潜在的法律诉讼、人员伤亡绝非“足够好”能搪塞。
此举并非孤立事件,而是置于特朗普政府更为宏观的AI政策框架之下。2025年7月发布的《美国AI行动计划2》明确将AI领导地位和创新置于美国AI政策的核心,采取了一种相对宽松和鼓励创新的监管态度。这与欧盟以及科罗拉多州等一些地方政府所采取的“风险优先”型AI监管方法形成了鲜明对比。在“移除美国AI领导力障碍”的行政命令下,所有与“增强美国全球AI主导地位”不符的政策都面临修订或废除。这种以“主导地位”为导向的政策,在规则制定领域,似乎意味着可以为追求速度和规模而牺牲部分审慎性,为AI执笔法规的尝试提供了政策土壤。然而,当技术创新触及公共安全底线时,一味追求速度和优势,其潜在的社会成本是巨大的。
人工智能在辅助翻译、数据分析等领域展现出巨大潜力,但在直接起草具备法律约束力的联邦法规上,其能力边界与可靠性仍有待严格验证。交通部高层官员直言不讳地指出,大型语言模型目前“主要用于产出‘空洞文字’”,这本身已暴露该技术在生成严谨、有效法规方面的局限性。在追求所谓“数字政府”和“AI赋能”的时代,我们必须清醒认识到,效率固然重要,但法治的严谨性、决策的理性基础以及对公共安全的最终责任,是任何技术都不能轻易取代或削弱的核心价值。AI或许能成为监管者的强大助手,但绝不能成为独立决策者。如何在拥抱技术创新的同时,坚守法律和伦理底线,确保人工智能以负责任的方式服务于人类福祉,而非仅追求表面的效率,这将是未来治理面临的最严峻挑战。