美国前总统特朗普政府的一项大胆计划,正将人工智能推向联邦政府治理的核心舞台。根据美国交通部(DOT)的记录和内部人员透露,该部门正积极探索利用人工智能,特别是谷歌的Gemini大语言模型,来起草联邦交通法规。这一举动被视为“彻底改变我们起草法规方式”的潜力之举,旨在通过“令人兴奋的新AI工具”提升工作效率和速度。交通部总法律顾问甚至将该部门形容为“联邦层面更广泛努力的矛头”,预示着一场由算法驱动的行政革命可能正在酝酿之中。这项计划不仅是技术应用的飞跃,更深刻触及了政府职能、决策质量与公共利益之间的复杂平衡。
在追求效率的旗帜下,特朗普政府对AI在法规制定中的应用表现出极大的热情。部门官员公开宣称,AI可以将法规起草过程中“80%到90%”的工作外包出去,并自豪地表示“用Gemini起草一份规则草案不应该超过20分钟”。这种“足够好”(good enough)而非追求完美规则的理念,以及“淹没战场”(flooding the zone)的策略,似乎将速度和数量置于了首位。诚然,人工智能在处理大量信息、提炼技术细节并将其转化为清晰易懂的文本方面具有独特优势,这在法规透明化和简化复杂信息方面可能带来积极影响。然而,当“足够好”成为衡量公共安全和治理质量的标准时,其潜在的风险不容忽视。
将联邦法规的起草重任大比例地委托给AI,尤其是在交通等高风险领域,引发了对法规质量和公共安全的深切担忧。飞机、汽车和管道的安全直接关乎无数生命,这些法规的任何微小疏漏都可能带来灾难性后果。人工智能模型,即使再先进,也可能产生事实错误、缺乏充分的证据支持,或在复杂情境下给出误导性的政策建议。更重要的是,法规制定远不止文本生成,它需要深度的专业知识、对社会影响的全面评估、利益相关者的协商与共识,以及对法律和伦理原则的精准把握。过度依赖AI可能导致法规缺乏必要的严谨性、洞察力和适应性,甚至可能无意中制造出新的法律漏洞或社会不公。
此次AI法规计划的争议核心,在于对“工作”本身的理解和尊重。有评论指出,那些推崇将繁琐、细节导向的政府工作交由AI完成的人,或许是出于对这类工作的某种“轻蔑”,甚至是对工作本身概念的怠惰。政府的运作,如同法律实践一样,充满了需要耐心、细致和人类判断力的“磨鼻子工作”。AI虽然能够辅助律师提高效率,但它无法替代人类专家在理解复杂社会语境、平衡多元利益、促进民主参与和做出最终价值判断方面的核心作用。缺乏人类智慧和伦理考量的算法,即便能快速生成文本,也难以承载起治理的重担,更无法建立起公众对政府决策的信任。
特朗普政府的AI法规计划,无疑为全球范围内的政府治理现代化提供了一个极具争议的案例。它迫使我们深入思考:在追求技术效率和创新行政的道路上,我们愿意在多大程度上让渡人类的判断力和责任?人工智能无疑是强大的工具,能够显著提升行政效率,但其应用的边界和风险必须得到审慎评估和严格管理。真正的进步,在于如何巧妙地将AI融入人类的智慧体系,使其成为辅助而非取代复杂治理的工具,确保技术发展始终服务于公共利益和更高质量的民主治理。 在探索AI与政府结合的未来时,我们必须坚守对人类专业知识、伦理考量和民主参与的承诺,以避免效率的诱惑最终侵蚀治理的基石。