想象一下,未来的某一天,制定国家法律和法规的不再是人类,而是冰冷的算法和智能机器。这听起来像是科幻小说的情节,但如今,它正逐渐成为现实。近期的一系列报道揭示,特朗普政府正积极推动一项开创性的计划:利用人工智能(AI)来起草联邦交通法规。这项举措被视为一项“箭在弦上”的广泛联邦行动,旨在通过前所未有的速度和效率,“彻底改变我们制定规则的方式”。美国交通部(DOT)甚至被其总法律顾问格雷戈里·泽尔赞(Gregory Zerzan)称为“率先全面使用AI起草规则的机构”,预示着一个由AI深度参与政府治理的新时代可能即将到来。

这项“AI立法”的雄心壮志,其核心驱动力是显而易见的:速度和效率。据报道,一份内部演示文稿显示,大型语言模型(LLMs)如Google Gemini,能够在短短20分钟内生成一份规则草案,而传统的人工起草过程往往需要数月之久。泽尔赞曾直言不讳地表示:“我们不需要XYZ的完美规则。我们甚至不需要非常好的规则。我们想要足够好。” 他甚至提出要“淹没这个区域”,强调AI生成法规的数量优势。这种“足够好”的心态,无疑将速度置于了精度之上,体现了政府内部对加快监管进程、削减繁文缛节的强烈渴望。此外,此前白宫发布的《美国AI行动计划》以及特朗普总统关于“移除阻碍美国AI领导力障碍”的行政命令,也为这种激进的AI应用策略提供了政策层面的支持。

然而,当“足够好”的AI开始执笔立法,随之而来的却是一系列深重的担忧和潜在的风险。批评者普遍认为,将如此关键且影响数百万美国民众的复杂法规交由新兴技术起草,其准确性和可靠性堪忧。大型语言模型在生成“文字沙拉”而非严谨有效法规方面的能力,让许多人质疑其是否真正适合承担如此重大的责任。如果AI在起草交通法规时出现哪怕是微小的错误,都可能导致严重的法律诉讼,甚至引发真实的伤害和死亡。这不仅仅是效率与否的问题,更是关乎公共安全和政府公信力的根本性挑战。以往,联邦机构将AI用于数据分析和翻译,但从未让其直接参与规则的制定,这本身就划出了一条此前未曾逾越的界限。

从更深层次来看,这项计划触及了现代民主治理的基石。当规则的制定过程日益自动化,人类的监督、判断和问责机制将如何保障?如果法规是由AI生成,那么当出现问题时,谁该承担最终的责任?是AI的开发者、部署者,还是最终批准它的人?“好治理”的目标,是否会在这场追求速度和数量的竞赛中被逐渐抛弃?这种将“速度和产量”置于“质量和治理”之上的态度,无疑引发了关于人与机器在治理中的角色界限的深刻思考。美国采取的这种相对宽松的AI监管态度,与欧盟等地区更为审慎、侧重风险的策略形成了鲜明对比,也使得其潜在的后果更加难以预测。

特朗普政府利用AI起草法规的尝试,无疑是人类社会迈向AI治理新阶段的一次大胆实践。它既展现了技术革新在提升政府效率方面的巨大潜力,也暴露了在缺乏充分考量和制衡机制下可能引发的伦理、法律和社会风险。在追求效率的道路上,我们能否确保不迷失对公正、精确和人文关怀的坚守?如何在拥抱AI所带来的便利与维护民主治理的严谨性之间找到一个审慎的平衡点,将是未来很长一段时间内,所有政府和公民都必须共同面对和深思的时代命题。这场“AI立法”的试验,其最终的成败和影响,必将为全球范围内的AI治理提供宝贵的经验和深刻的教训。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注