近年来,人工智能技术以前所未有的速度渗透到我们生活的方方面面,从日常助手到复杂的数据分析。然而,当这项前沿技术触及国家治理的核心——法律法规的制定时,其影响无疑将是深远且具争议的。最近,特朗普政府的计划浮出水面,意图在联邦交通部(DOT)率先引入AI,利用人工智能撰写联邦法规,此举被其总法律顾问格雷戈里·泽尔赞(Gregory Zerzan)誉为联邦机构的“先锋部队”。这一雄心勃勃的倡议,旨在彻底改革法规制定流程,承诺以前所未有的速度和效率推动政策出台,预示着一个由机器辅助治理的时代可能正在悄然降临。然而,这一前景在带来巨大潜力的同时,也引发了关于效率与责任、速度与质量之间微妙平衡的深刻思考。

那么,究竟是何种动力,让美国政府对AI执笔法规如此热衷?答案似乎聚焦于一个词:速度。传统的联邦法规制定过程,往往耗时数月甚至数年,涉及繁琐的草拟、审查和公众意见征集。而AI,特别是像Google Gemini这样的大型语言模型,被视为能够将这一漫长周期压缩至惊人的几分钟。泽尔赞先生直言不讳地表示:“我们不需要关于某个特定事项的完美规定,甚至不需要非常好的规定……我们想要的是‘足够好’,我们要‘淹没’(flood the zone)这个领域。”这种对“足够好”和“高产”的强调,无疑揭示了政府背后的一个核心诉求:用量来解决问题,用速度来推动变革。据悉,交通部已尝试用AI草拟了一项未经发布的联邦航空管理局(FAA)规定,这表明AI工具的实际应用已悄然启动,预示着一个全新的法规生产模式正在成形。

然而,这种对速度和数量的极致追求,也引发了广泛的担忧和质疑。特别是在交通安全这一性命攸关的领域,法规的严谨性和准确性至关重要。交通部的法规涉及飞机安全、天然气管道防爆以及有毒化学品货运列车防脱轨等多个方面,任何微小的疏忽都可能导致灾难性后果。因此,一些交通部员工和学者对将如此关键的标准制定工作外包给“以容易犯错著称的新兴技术”深感忧虑。学界普遍认为,如果AI仅作为研究助理,在充分监督和透明度下运作,或能提升效率;但一旦机构将过多责任拱手让给AI,就可能导致关键法规的缺陷,甚至与联邦法规所要求的“基于合理决策”的原则相悖。斯坦福大学法学院的研究报告也曾提及“算法治理”的潜在影响,提醒我们警惕技术在行政机构中可能带来的风险。

更深层次的忧虑,源于特朗普政府官员对AI能力和法规质量的某些“不经意”言论。当有官员暗示许多法规条文不过是“文字沙拉”(word salad),因此AI应该能够胜任时,这无疑是对法规制定严肃性的一种轻视。泽尔赞那句“我们不需要完美的规定……我们想要足够好”,以及“我们要‘淹没’这个领域”的表述,似乎在不经意间透露出一个危险的信号:即在某些人眼中,良好的治理目标,已让位于单纯的产出量和效率。这种观念暗示,即便AI目前的专长是生成“文字沙拉”而非严谨的有效规定,它也被视为达成某种目的的最佳工具——即便这个目的可能是“搅浑水”。这与AI的理性、准确、客观的普遍认知背道而驰,也让人们不得不重新审视,将AI置于法规制定核心位置的真正意图与潜在风险。

总结而言,特朗普政府利用AI撰写联邦法规的尝试,无疑为我们展现了人工智能在公共治理领域应用的巨大潜力和复杂挑战。它清晰地描绘了效率的诱惑与治理责任之间的尖锐对立。虽然AI能够极大地提升效率,减少耗时,但它的局限性、犯错的可能性以及对“基于合理决策”原则的潜在冲击,绝不能被忽视。未来的治理模式,或许需要AI作为强大的辅助工具,在数据分析、信息整理等方面发挥优势,但对于涉及公众安全、社会公平的法律法规的最终形成,人类的智慧、经验、伦理判断和不可或缺的监督,仍将是不可替代的核心。如何在拥抱技术创新的同时,坚守治理的底线和责任,确保AI不成为“数字沙拉”的制造者,而是真正成为提升治理水平的利器,将是摆在所有决策者面前的一道时代命题。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注