在数字时代浪潮席卷全球的背景下,人工智能正以惊人的速度渗透进我们生活的方方面面,如今,它甚至被推上了联邦政府的立法舞台。据报道,特朗普政府正计划将谷歌的Gemini AI应用于联邦法规的起草工作,首个试点机构即是关系国计民生的交通部。这一大胆的举措,无疑标志着传统官僚流程的重大革新,预示着一个由算法辅助甚至主导立法的新纪元的到来。这不仅是一个关于效率提升的实验,更是一场对治理本质和未来社会形态的深刻拷问。

支持者们热情洋溢地宣称,AI将“彻底改变我们起草规则的方式”,使其“更好、更快”。他们认为,在联邦政府缓慢而冗长的规章制度制定过程中,人工智能能够自动化大量重复性文本工作,从而显著提升行政效率。然而,这种乐观论调很快便遭遇了审慎的质疑。批评者指出,联邦法规的制定并非简单的文字堆砌,它需要深厚的法律专业知识、对社会复杂性的深刻理解、道德考量以及对长远影响的预判,而这些正是当前大型语言模型所欠缺的。将复杂的治理责任托付给尚不完善的AI工具,其潜在的错误率和对人类判断力的缺失,可能导致不可预见的后果。

交通部的这一先锋实践并非孤立事件,而是特朗普政府更宏大AI战略的缩影。其核心在于通过一系列行政命令和“美国AI行动计划”,移除被视为阻碍AI创新的障碍,加速联邦机构对AI技术的采纳,并明确宣示“提升美国在全球AI领域的领导地位”。这种以创新为核心、相对宽松的监管姿态,与欧盟等地区更为谨慎、以风险为导向的AI治理路径形成鲜明对比。政府的目标显然是希望通过全国性的框架,甚至考虑联邦立法,优先于各州层面可能出现的AI法规,确保统一且有利于技术发展的政策环境。

尽管效率的承诺诱人,但将AI置于立法核心位置,无疑将我们推向一片未知的水域。交通部监管着航空、汽车和管道等关键领域的安全,其法规直接关系到公众的生命财产。有前任官员警告,这种“快速行动、打破常规”的模式,在缺乏严谨审查和人机协作的情况下,极可能导致“有人受伤”。AI生成的文本,无论多么流畅,其背后是否蕴含了高质量的政府决策所需的深度分析、公众意见考量和潜在风险评估,都值得深思。用AI起草规则,从根本上改变了权力制衡和问责制的传统模式,将责任模糊化。

面对人工智能深入政府核心的不可逆趋势,我们不能简单地全盘否定,但更不能盲目乐观。必要的审慎与严谨的实验性探索是并行不悖的。与其将AI视为替代人类立法的工具,不如将其定位为辅助人类决策的增强型伙伴。这意味着建立强健的伦理审查机制、透明的AI应用指南,以及确保最终决策权始终掌握在具备人类智慧和道德责任的官员手中。只有在充分理解其能力边界和风险的前提下,并通过严格的测试和公众监督,我们才能负责任地驾驭AI的力量,确保它服务于公共利益,而非危及之。未来的“算法治国”之路,唯有在智慧与警惕并存中,方能行稳致远。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注