在科技飞速发展的今天,人工智能正以前所未有的速度渗透到我们生活的方方面面。然而,当这种渗透触及政府最核心的职能——立法和监管时,我们不禁要问:我们是否已经准备好迎接一个由算法塑造的未来?近期,特朗普政府关于利用AI(特别是Google Gemini)起草联邦交通法规的计划,无疑将这一深刻的疑问推向了前台。此举被交通部(DOT)高层视为“革命性”的尝试,旨在让法规制定过程“更好、更快”。然而,这一大胆的设想也即刻引发了广泛的讨论,关于效率与风险、创新与责任之间的复杂权衡,成为摆在我们面前的一道难题。这不仅仅是一项技术升级,更是一场可能重塑政府运作模式和公共信任根基的深刻变革。

支持者将AI视作提升政府效率的灵丹妙药。据报道,特朗普总统对这一倡议“非常兴奋”,交通部更是被定位为“先锋”,走在联邦政府广泛采用AI的前沿。从其提出的“我们不需要完美的规则,我们只需要足够好的”这一理念中,不难看出,其核心驱动力在于快速消除繁文缛节,提升行政效率。过去,联邦机构已在文件翻译、数据分析和公众意见分类等方面逐步引入AI,但此次将AI用于“生成性”的法规起草,无疑将AI的角色从辅助工具推向了核心决策过程。特朗普政府此前已发布多项行政命令,强调AI的国家领导地位,并寻求建立统一的联邦AI框架,限制州层面的监管,这些都印证了其加速AI在政府部门应用的一贯策略。这种对“速度”和“效率”的极致追求,预示着一个由算法驱动的、更精简的政府愿景。

然而,这种对效率的追求并非没有代价。批评者对将大型语言模型(如Gemini和ChatGPT)应用于如此复杂且影响深远的治理职责表示严重担忧。俄亥俄州立大学研究行政法的教授布里奇特·杜林指出:“这些工具能够生成大量文字,并不意味着这些文字就能构成高质量的政府决策。”她强调,AI模型易于出错,且缺乏人类特有的推理能力,这在涉及飞机、汽车和管道等公共安全领域的交通法规制定中尤其危险。交通部前代理首席人工智能官迈克·霍顿更是直言不讳地将此比作“让高中实习生来制定规则”,并警告说“快速行动并打破常规,意味着会有人受伤”。这些尖锐的质疑直指AI的核心局限性:在缺乏人类判断和道德考量的情况下,技术输出的效率,能否真正转化为公共利益和安全保障。

将AI引入核心立法环节,还牵涉到更广泛的治理哲学与权力结构议题。特朗普政府此前通过行政命令试图限制州层面的AI监管,并推行全国统一的创新驱动型AI框架,这反映出联邦政府试图在AI治理领域集中权威的倾向。如果AI能够自动化法规起草,那么其在政府中的应用边界又将在何处?埃隆·马斯克的“政府效率部门”(DOGE)曾提出利用AI消除一半联邦法规的设想,这与当前交通部的计划异曲同工,都指向了通过技术手段大规模重塑监管格局的可能。这种对AI赋能的政府变革,不仅关乎技术本身,更触及了现代民主制度中权力制衡、透明度和问责机制的根本问题。由AI主导的法规制定,可能在无形中改变公民与政府之间的互动模式,甚至颠覆传统意义上的治理内涵。

总而言之,特朗普政府将AI用于起草联邦法规的探索,无疑为全球各国政府如何拥抱新兴技术提供了一个引人深思的案例。一方面,AI在提升效率、简化流程方面的巨大潜力不容忽视;另一方面,其在准确性、判断力和责任承担方面的固有缺陷,尤其是在关乎公共福祉和安全的关键领域,更应引起高度警惕。我们正站在一个十字路口,前方是AI赋能的无限可能,身后是人类智慧和经验积累的坚实基石。未来的治理模式,不应是简单的技术替代,而应是人类智能与人工智能的有机融合,在充分发挥AI优势的同时,确保人类的道德、伦理和价值判断始终处于主导地位。 如何在追求科技进步的同时,有效防范潜在风险,维护社会公平正义,这需要我们以最大的审慎和远见去探索和实践。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注