将人工智能用于起草法律,这听起来像是科幻小说中的情节。然而,最新报道显示,美国特朗普政府正积极推行一项计划,授权人工智能(具体为谷歌Gemini)起草联邦法规,并首先从交通部(DOT)开始试点。这项大胆的举措,被宣称为治理模式的一场革命性飞跃,却立即引发了一场关键的辩论:尽管效率的承诺诱人,但其对准确性、问责制和公共安全的影响却是深远的。这不仅仅是简化官僚程序的问题;它从根本上重新定义了人类判断在我们监管框架中的作用。
从行政部门的角度来看,这项举措背后的主要驱动力似乎是对速度和数量的强烈追求。交通部总法律顾问格雷戈里·泽尔赞据称力主这种方法,强调目标不一定是“完美的规则”,甚至也不是“非常好的规则”,而是追求“足够好”的监管。这种“大量出击”的策略,意在迅速覆盖政策领域,将交通部定位为这一联邦层面广泛尝试的“先锋”。前总统唐纳德·特朗普本人对此表现出极大的热情,认为这是政府效率的一次重大飞跃,通过技术赋能来革新规章制定流程。这种对数量而非质量的优先考量,无疑是理解该计划核心理念的关键。
过去,人工智能在联邦机构中的应用主要局限于辅助性任务,例如翻译文档、分析海量数据以及分类公众意见。这些应用虽然提升了效率,但AI始终扮演着“幕后助理”的角色。然而,将Google Gemini这样的先进大型语言模型(LLM)直接投入到法规草拟这一核心职能中,标志着AI在政府决策链条中扮演角色的根本性转变。这不再是辅助人类工作,而是让机器承担起直接“创作”的责任,将自动化写作从概念变为现实。这种转变不仅带来了技术上的挑战,更带来了深远的伦理和法律考量。
然而,这项计划在交通部内部和外部都激起了强烈的担忧。交通部的规章制度关乎国民日常生活的方方面面,从确保航班安全升空,到防止天然气管道爆炸,再到阻止载有危险化学品的货运列车脱轨,任何微小的失误都可能导致灾难性的后果。许多内部人员和专家质疑,将如此关键的标准制定工作外包给一个以“犯错”闻名的新兴技术,无疑是引入了巨大的法律和政策风险。大型语言模型固有的不确定性,可能导致关键法规出现漏洞,甚至引发法律诉讼、人员伤亡。联邦法规需建立在“合理决策”的基础之上,而AI的“黑箱”操作和潜在的偏见,都可能使这一基本原则受到侵蚀。
“我们不需要完美的规则,我们甚至不需要非常好的规则,我们只需要足够好。”这句“大白话”揭示了该计划背后一种令人不安的治理哲学:为了追求速度和数量,愿意承担并接受潜在的风险。这不仅仅是对AI能力的误读,更可能意味着在某种程度上,政府正在放弃对“良好治理”的坚持,转而追求“快速出击”。当AI被视为能够生成“词语沙拉”而非强有力法规的工具时,它的最佳定位显然应是辅助角色,而非核心决策者。在公共安全和基本权利面前,“足够好”绝非一种可接受的标准,它模糊了效率与责任之间的界限,挑战了我们对政府应有角色的基本认知。
随着人工智能技术以前所未有的速度融入社会各领域,它在政府治理中的应用已是不可逆转的趋势。然而,将AI从数据分析师提升为立法者,无疑触及了现代治理的核心伦理与实践。当决策者鼓吹“足够好”的规则时,我们必须警惕这种对速度和数量的过度追求,是否会牺牲法规的质量、公平性乃至安全性。未来的“算法治国”之路,绝不能仅仅停留在技术革新层面,更应深入审视其对公民福祉、法律公正和民主问责制的深远影响。我们真正需要的,是智能的辅助,而非盲目的授权。