想象一下,未来的法规不再由专家逐字推敲,而是由人工智能在短短几分钟内生成。这并非科幻小说,而是前特朗普政府交通部(DOT)曾雄心勃勃推行的一项计划。根据披露的信息,该计划旨在利用谷歌Gemini等大型语言模型(LLMs)来草拟联邦交通法规,期望以此“彻底改变我们制定规则的方式”,将大部分的法律起草工作自动化。这一愿景无疑描绘了一个高效、快速的政府治理蓝图,然而,当人工智能开始触及法律制定的核心,我们不禁要问:这究竟是治理效率的革命性飞跃,还是潜藏着难以估量的风险?

这项“人工智能立规”的倡议并非孤立事件。据悉,特朗普政府对此表现出极高的热情,视交通部为在联邦层面推广AI应用的“先锋”。该部门的总法律顾问曾表示,前总统特朗普对这一举措“非常兴奋”,并且计划让交通部成为首个全面运用AI起草规则的机构。这种对速度和数量的追求,似乎超越了传统上对规则质量和完善性的执着。此前,联邦机构虽已在数据分析、文件翻译和公众意见分类等辅助性任务中运用AI,但让AI直接参与具有法律约束力的规则起草,无疑是人工智能在政府职能中应用的一个重大突破。

诚然,人工智能在提升工作效率方面潜力巨大。它能够迅速处理海量信息,生成初稿,从而可能大大缩短冗长的立法周期。然而,法规制定绝非简单的文字堆砌。它需要对社会复杂性、技术细节、经济影响以及公平正义原则的深刻理解。交通法规,尤其关乎飞机、汽车和管道安全等国民生命财产的关键领域,任何微小的疏漏都可能带来灾难性的后果。专家们担忧,像Gemini这样的大型语言模型,尽管能产出大量文本,却未必能真正理解法律的精髓、政策的意图和社会伦理的考量。

对此,许多业内人士和学者表达了强烈的担忧。前交通部代理首席人工智能官迈克·霍顿直言,让Gemini起草法规,无异于“让一个高中实习生来做政策制定工作”,暗示了AI产出内容的潜在肤浅和不成熟。俄亥俄州立大学研究行政法的教授布里奇特·杜林也指出,工具能够快速生成文字,不代表这些文字就能构成高质量的政府决策。如果仅仅追求“勉强及格”的规则,甚至抱持着“快速大量产出”而非精益求精的态度,那么由此带来的法律诉讼、经济损失乃至生命伤亡的风险将是巨大的。过度依赖AI制定复杂且后果深远的法规,无疑是在公共安全和治理质量上玩火。

当我们将法律制定的重任托付给机器,我们不仅要思考效率的提升,更要审视其对民主治理、公共问责制以及社会信任的深远影响。AI能否替代人类的专业知识、经验智慧以及在多方利益中寻求共识的能力?当人工智能生成的规则出现问题时,责任该如何界定?法规的“好坏”标准是否会因技术介入而发生根本性改变?前特朗普政府的这项大胆尝试,无疑为我们提供了一个审视未来政府治理模式的窗口。它迫使我们深入思考,在拥抱技术革新的同时,如何坚守人类社会的核心价值和公共利益的底线,确保科技进步真正服务于更好的治理,而非带来新的风险和挑战。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注