近年来,人工智能技术以前所未有的速度渗透到社会生活的方方面面。然而,当这项前沿技术被提议用于联邦政府的核心职能——例如立法——时,无疑会引发一场关于效率、准确性与公共安全的深刻辩论。最近,有报道指出,特朗普政府正计划在美国交通部(DOT)率先试行一项大胆举措:利用人工智能,特别是像谷歌Gemini这样的大型语言模型,来起草联邦交通法规。此举被该部门高层视为“彻底改变我们制定规则的方式”的契机,甚至将交通部定位为联邦政府广泛推广AI应用的“先锋”。这一愿景描绘了一幅未来治理的图景,即算法不仅辅助决策,更直接参与规则的生成,预示着一个由智能机器辅助乃至驱动的行政时代可能正在悄然开启。
这种对AI赋能立法的热情并非空穴来风。在政府工作中,法规制定往往是一个耗时费力的过程,涉及大量研究、咨询和文书工作。因此,AI所承诺的“更快、更好”无疑极具诱惑力。据透露,交通部总法律顾问格雷戈里·泽尔赞先生对此项目“非常兴奋”,并展望通过AI在“短短20分钟内”生成法规草案,将能把80%到90%的工作量从法律和政策专家手中转移出去。更引人注目的是,泽尔赞先生明确表示,他们“不需要完美的规则”,“只需要足够好的规则”,甚至提出要“用数量淹没领域”(flooding the zone)。这种“够用就好”的实用主义理念,旨在以前所未有的速度和规模推动法规出台,似乎将效率置于严谨性和极致准确性之上,反映出一种对行政效率的极致追求。
然而,当这项创新计划触及现实,担忧与质疑之声便随之而起。前交通部代理首席人工智能官迈克·霍顿直言不讳地指出,让Gemini起草法规无异于“让一个高中实习生来做你的规则制定工作”,并警告“求快求破”可能导致“人民受伤”。俄亥俄州立大学研究行政法的教授布里奇特·杜林也提醒道,“工具能产生大量文字,不代表这些文字就能形成高质量的政府决策”,她呼吁在尝试AI立法时务必保持高度的怀疑态度。毕竟,交通法规关乎航空安全、汽车标准和管道运营,每一条都可能直接影响公众的生命财产安全。一旦人工智能因其内在局限性,如产生错误、缺乏事实依据或制定出不当政策,所带来的后果将是灾难性的,这凸显了在攸关生命的领域,对AI过度依赖的巨大风险。
深入审视,这项AI立法计划不仅仅是技术工具的简单应用,它触及了治理模式的深层转型。法规的制定不仅仅是文字的组合,它承载着复杂的政策意图、价值观权衡、多方利益协调,以及深厚的专业知识和经验智慧。人类专家在起草过程中,不仅要考虑法律的严谨性,还要预见其社会影响,并能在不同观点之间寻求共识。大型语言模型,即便再先进,也难以复制这种人类特有的“智慧”和“共识构建”能力,更无法对潜在的法律和政策风险进行预判和规避。这种“用数量淹没领域”的策略,在加速行政进程的同时,也可能以牺牲规则的质量、细致性和适应性为代价,甚至可能模糊责任边界,使得一旦出现问题,难以追溯和问责。这种对“足够好”的追求,在某种程度上是对“良好治理”核心原则的一种潜在偏离。
总而言之,特朗普政府利用AI撰写联邦交通法规的尝试,无疑为我们展现了未来政府运作的一种可能性。它点燃了人们对行政效率提升的希望,也以前所未有的方式将人工智能推向了公共政策制定的最前沿。然而,在拥抱技术带来的便利时,我们必须保持高度的警惕与审慎。交通法规是守护社会正常运转和公民生命安全的基石,其重要性不言而喻。将如此高风险的任务过多地委托给尚不成熟的AI系统,不仅可能导致无法预见的错误和危险,更可能在追求速度和数量的过程中,削弱立法本身的严谨性、公正性和公信力。未来的治理,或许会是人机协作的模式,但绝不能是AI单方面取代人类智慧和责任的模式。如何在利用AI潜力的同时,确保法规的质量、保障公共安全,并维护民主问责制,将是摆在所有决策者面前的复杂而紧迫的课题。