当人工智能的浪潮以前所未有的速度席卷全球,其触角正逐步延伸至我们社会最核心、最敏感的领域——政府治理。最近,一则来自美国的消息在全球范围内引发了广泛关注与深刻思考:特朗普政府正计划利用尖端的人工智能技术,特别是谷歌的Gemini模型,来全面参与联邦交通法规的起草工作。这项在2025年12月首次演示、2026年1月持续讨论的大胆计划,被视为美国联邦政府采纳AI技术、实现“法规制定革命化”的“矛尖”,预示着一个由算法深度参与国家决策的新时代。这一里程碑式的举动,无疑挑战了我们对法律制定严谨性、人类专业知识不可或缺性以及公共政策制定透明度的传统认知。这不仅仅是一项单纯的技术革新,更是一场关于效率、责任、速度与安全之间如何平衡的深刻社会实验,其潜在影响远超交通领域本身。

对于这项前瞻性计划,特朗普政府内部表现出了非凡的热情与信心。美国交通部总法律顾问格雷戈里·泽尔赞(Gregory Zerzan)明确表示,总统本人对此“非常兴奋”。交通部官员们坚信,人工智能能够大幅提升工作效率,彻底革新原本耗时且资源密集的法规起草流程。他们乐观地估计,AI有望承担80%到90%的起草任务,将过去需要法律和政策专家数周甚至数月才能完成的工作,压缩到令人惊叹的“不到20分钟”便可生成初稿。泽尔赞甚至直言不讳地指出,交通部“不需要完美的规则”,他们只“想要足够好的规则”,目标是“泛滥”式地快速制定规则,以填补监管真空。这种对速度、规模和“足够好”的优先追求,无疑是推动此次AI立法实践的核心理念,它反映了行政机构对传统官僚流程效率低下的不满,并试图通过技术实现跨越式发展。

然而,这种激进的“速度优先”策略,随即招致了来自前政府官员、学者以及法律专家的强烈质疑与严厉警告。交通部前代理首席人工智能官迈克·霍顿(Mike Horton)将使用Gemini起草法规比作“让一个高中实习生来做你的法规制定工作”,他担忧这种“快速推进,打破常规”的做法,最终将导致“人们受伤”。更令人不安的是,交通部的职责范围涵盖航空、汽车、管道等事关公共安全的关键领域,任何由AI生成、未经充分人类审查的规则,一旦存在错误或漏洞,都可能带来灾难性的后果,直接危及无数生命与财产安全。俄亥俄州立大学研究行政法的教授布丽奇特·杜林(Bridget Dooling)警示道:“仅仅因为这些工具能够产生大量文字,并不意味着这些文字累加起来就是高质量的政府决策。”她强调,尽管尝试运用这些工具“诱人”,但必须“抱有极大的怀疑态度”。这些担忧的核心直指:人工智能模型尽管擅长信息整合与文本生成,却在理解复杂社会背景、进行伦理判断、权衡多方利益以及确保决策公正性方面存在固有缺陷,这些恰恰是高质量法规不可或缺的要素。

这项计划所引发的深层忧虑,已不仅仅局限于法规本身的质量问题,更触及了现代政府治理的核心原则。当行政机构将“足够好”凌驾于“严谨完善”之上,并以“泛滥”的姿态推动规则制定时,传统的“善治”理念——即透明、负责、高效且以公众利益为导向的治理——便可能面临被侵蚀的风险。法律法规的制定是一个高度复杂的过程,它不仅需要深厚的法律知识和政策理解,更需要专家们的集体智慧、反复的论证、利益相关者的协商,甚至是对未来潜在影响的预判。人工智能即便再先进,目前也无法完全复制人类政策制定者所具备的实践智慧、伦理考量以及在复杂社会背景下达成共识的能力。过度依赖AI起草关键法规,不仅可能导致法规在法律上站不住脚,还可能因其内在的偏见或信息盲区而产生难以预料的政策风险与社会矛盾,最终损害政府的公信力与合法性。 更重要的是,一旦AI产出错误,责任归属的模糊性也将成为一个巨大的挑战。

总而言之,特朗普政府利用人工智能起草联邦法规的尝试,无疑为我们描绘了一幅未来政府治理的宏伟蓝图。它既彰显了人工智能改变世界、提升效率的巨大潜能,也同时敲响了警钟,提醒我们必须正视其伴随的风险和挑战。在拥抱技术创新、追求行政效率的同时,我们绝不能忽视法规制定所必需的严谨性、专业性、决策的透明性以及对公共安全的终极责任。未来的政府治理,需要在人工智能强大的辅助能力与人类专家不可替代的判断力、伦理洞察力之间,找到一个审慎且负责任的平衡点。 这场在美国交通部展开的“算法治国”实验,其最终结果将不仅深刻影响美国未来的交通安全与治理模式,更可能为全球范围内日益兴起的AI治理实践提供宝贵的经验与教训,促使我们深思如何在技术飞速发展的时代,更好地守护公共利益。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注