当人工智能的浪潮席卷全球各个角落,其影响力如今已触及传统上最受人类智慧和经验主导的领域——政府法规的制定。美国交通部(DOT)近期透露的计划,拟利用先进的AI模型,特别是Google Gemini,来起草联邦交通法规,无疑在全球范围内引发了广泛关注。这项雄心勃勃的尝试,被视为本届政府推动AI融入国家治理体系的“尖刀”,意图彻底革新规章制度的起草方式。然而,这一创新举措并非没有争议,它在承诺带来前所未有效率的同时,也开启了一场关于技术边界、人类责任与公共安全之间平衡的深刻对话。这不仅仅是政府工作流程的优化,更是一次对未来治理模式的哲学性探索与实践。

推动这项计划的背后,是特朗普政府对AI技术变革力量的坚定信念与近乎狂热的追逐。交通部总法律顾问直言,总统本人对这一倡议“非常兴奋”,并将该部门定位为联邦政府AI应用的“排头兵”,旨在“更好地更快地完成我们的工作”。这种对效率的追求,渗透在“我们不需要一个完美的规则……我们想要足够好的”这样的表态中,显示出一种旨在“淹没区域”(flooding the zone)的策略,即通过快速、大量地生成规则,以应对复杂且不断变化的监管需求。这种哲学,无疑颠覆了传统上法规制定所强调的严谨、细致和审慎,将焦点转向了速度和产出。这种对速度和体量的极致追求,反映出一种将行政效率置于首位,并希望通过技术手段实现快速治理的决策倾向。

具体而言,交通部的设想是让AI大型语言模型承担法规草案中“80%到90%”的工作量,将原本耗时数月甚至数年的密集工作,例如法律条文的撰写、相关案例的梳理和背景资料的整合,在短短“20分钟内”通过AI完成初稿。这与联邦机构过去将AI用于翻译、数据分析或分类公众评论等辅助性功能有着本质区别。现在,AI被提升到了决策链条的核心位置,直接参与到政策文本的生成。这一转变意味着,AI不再仅仅是提升效率的工具,而是直接介入了国家法律框架的构建过程,其影响力之深远,不容小觑。因此,如何在AI生成的初稿基础上进行有效的人工审查和把关,以确保法规的全面性、准确性与公平性,将成为一项关键挑战。

然而,面对如此激进的AI应用策略,各界专业人士表达了深刻的忧虑。一位前交通部AI官员将此举比作“让高中实习生做立法工作”,并严厉警告道:“追求速度和破坏规矩,意味着人们会受伤。”俄亥俄州立大学研究行政法的教授也指出,AI工具即便能产出大量文字,也无法保证这些文字能够形成高质量的政府决策。更深层次的担忧在于,AI模型在缺乏人类专家经验、批判性思维和伦理判断的情况下,可能生成存在事实错误、缺乏证据支持、甚至与现有法律框架相冲突的法规。在交通安全这一攸关亿万民众生命财产的领域,任何微小的AI失误都可能带来灾难性的后果。专家们普遍认为,对AI的过度依赖可能导致政策缺乏深度考量、忽视复杂情境,最终带来不可预见的法律和公共安全风险。

交通部利用AI起草法规的计划,远不止是一项简单的技术试点,它触及了现代社会治理的深层议题:人类智能与人工智能如何协同工作?在追求极致效率和速度的同时,我们能否坚守法规制定的严谨性、公正性和人文关怀?当决策过程越来越多地依赖算法,公众对政府的信任是否会受到影响?未来的政府,是会变得更加高效、更具响应性,还是会因算法的偏见和错误的判断而偏离正轨?这一事件无疑为我们敲响了警钟,提醒我们在拥抱技术进步的同时,必须审慎权衡其带来的伦理、法律和社会影响。最终,无论技术如何发展,法规制定的核心始终应以人类福祉为依归,确保每一项规则都能经得起实践的检验和时间的考验,而非仅仅是“足够好”的快速产物。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注