2023年8月31日,我国首批通过《生成式人工智能服务管理暂行办法》备案的百度文心一言、抖音云雀大模型、百川智能、紫东太初、商汤商量SenseChat等语言类大模型陆续向全社会公众开放服务,标志着我国生成式人工智能监管正式迈向实践。当前,人工智能(AI)的发展和治理已经成为世界大国竞争的焦点。如何在促进创新和保护公众利益之间取得平衡,如何把握AI监管的尺度和强度,是世界各国监管机构的难题。
一是AI生成信息的可靠性、准确性问题。目前,生成式AI模型可能输出错误、不真实的信息是社会各界关注的核心问题。这一问题被业界称为AI的“幻觉”或“事实编造”,直接危害是导致虚假新闻、谣言的传播,对社会舆论的安全稳定带来极大负面影响。
二是AI的数据安全风险。AI的发展依赖于利用数据训练和算法。AI应用中,海量的个人信息、个人隐私(如个人生物体征、健康、家庭、出行)等敏感信息被采集、挖掘、利用,个人隐私和信息的保护面临巨大挑战。
三是AI大模型的价值观对齐问题。AI的价值对齐是让AI系统的行为符合人类的偏好或伦理原则。如果AI系统生成的信息与人类的真实目的、意图、价值观不一致,将会给人类带来灾难性后果。
四是大语言模型本身的可解释性问题。可解释性是对模型如何产生其输出的深度理解。但在实际应用中发现,大语言模型的输出并不完全是可预测、可解释的。大语言模型越来越成为全知全能但却不可掌控的机器,模型在自主学习和自我编程过程中产生了“算法黑箱”,它们究竟学到了什么以及为何产生特定输出内容,常常是人类(模型的设计开发人员)所不能知晓和理解的。这一问题是现阶段AI监管及治理最大的挑战。
面对以上已知或可预测的AI可能带来的社会风险,目前全球主要存在两种不同的监管路径。
一种是以美国和英国为代表的轻监管路径。该思路倡导具体应用场景和风险大小的行业分散监管,聚焦于监管AI技术的使用而非AI技术本身或整个行业。英国政府认为,AI技术进化速度极快,需要采取敏捷、迭代性强的监管路径。制定僵硬且严苛的立法可能抑制AI创新,并限制对未来技术突破进展作出快速响应的能力。美国采取了和英国类似的路径,强调行业监管和行业自律相结合的AI治理路径。
另一种是以欧盟为代表的强监管路径。欧盟监管AI的思路是像监管药品一样严苛,计划成立专门的监管机构,AI应用需要经过严格测试以及上市前的审批。2023年6月14日,欧洲议会高票通过《人工智能法案》草案(以下简称《AI法案》)。若后续成员国投票顺利,《AI法案》预计在2024年生效。该法案将AI系统分为不可接受的风险、高风险、有限风险、轻微风险4种类型,并根据不同的风险等级实施不同的限制措施。
从美英和欧盟对AI监管的差异可以看到,美国更希望由市场决定监管思路,以市场为导向促进AI的创新;欧盟采用了预防的方法,在伤害出现之前先对其进行监管,更加注重安全。
欧盟《AI法案》是现今世界综合性AI立法探索中最为全面系统的,如果该法案通过并正式实施,可能成为全球首部AI领域的综合性立法。我们有必要分析研究该法案内容,借鉴符合我国国情的监管要素,确保我国AI创新发展与安全的平衡。
(一)分级分类监管模式对比
在AI的监管模式上,我国和欧盟都提出了分级分类监管。欧盟《AI法案》采取横向监管模式,通过划分4个不同风险等级将所有AI技术和应用场景纳入监管范围,努力构建统一完整的体系化监管规则。针对不可接受风险的AI应用系统,欧盟禁止任何企业或个人部署。针对高风险,欧盟允许相关主体在履行事前评估等义务后投放市场或投入使用并进行事中、事后的持续监测。针对有限风险,欧盟虽然不要求相应主体履行事前评估等义务,但其仍需遵循相应的透明度义务。针对轻微风险,相应主体则可依据自由意志部署和使用。
与欧盟不同,我国采取纵向监管模式,针对生成式AI技术、深度合成等技术领域分别出台了《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》,这些法规中也都明确提出了分级分类监管。
然而,随着AI技术不断发展,越来越多的关键行业和领域开始采用AI,我国的纵向监管模式可能无法囊括所有新兴且高风险的AI技术或应用领域(如医疗诊断、金融风险评估、自动驾驶等)。因此,根据不同行业和应用领域,监管部门应尽快结合AI应用场景“量体裁衣”,制定差异化的监管政策,以促进合理的市场竞争和技术创新。此外,我国现行AI监管法规存在交叉重叠、执法衔接、企业合规成本高等问题,这可能导致不公平市场竞争影响AI的创新和发展。
(二)安全评估举措和方法对比
欧盟《AI法案》提出了对高风险AI算法和模型采取事前评估、检测、认证和全生命周期监管的思路。我国采取企业自评估、监管部门安全评估以及算法备案的综合治理思路。然而,不论是自评估还是监管部门评估,我国尚缺乏具体评估规则指引。
为此,可参考欧盟《AI法案》中提出的CE认证义务,在欧盟市场CE是欧盟对产品安全性的强制性认证标志。《AI法案》自2021年提案起即引入欧盟CE合格认证机制,对存在高风险的AI产品和服务,经评估被认证合格后,方可贴上CE认证标志投入使用。
鉴于此,针对较高风险的AI技术应用,我国监管部门可考虑在算法及模型备案的基础上增设符合我国国情的安全认证机制,这有助于健全我国AI市场信任机制,促使企业开发可信任的AI,促进我国AI产业健康发展。
(三)未成年人、弱势群体保护的对比
欧盟《AI法案》提出了诸多关于弱势群体保护的要求,将AI可能会伤害未成年人、精神或身体残疾人心理健康的算法模型全部禁止,并附以4000万欧元或全球年总营收额7%的超严惩罚机制。
我国《生成式人工智能服务管理暂行办法》规定,人工智能技术提供者采取有效措施防止产生性别、年龄、健康等歧视;不得危害他人身心健康,提供者应当采取有效措施防范未成年人用户过度依赖或者沉迷生成式AI服务等明文要求。但是,这些条款具有原则性倡导的性质,缺乏更为细化的指引和更为明确的、严格的惩罚机制加以保障。
在未来我国的AI立法中,应更多关注弱势群体保护问题,制定可操作性强的惩罚机制得以保障的条款,切实防范弱势群体心理和身体受到伤害。
(四)坚持源头治理,加强数据安全管理
AI大模型的发展与进步依赖海量数据,数据的规模、均衡程度以及标注的准确性都会影响大模型输出内容的质量,低质量的数据可能会在算法决策中导致不安全的结果。无论是欧盟《AI法案》,还是我国《生成式人工智能服务管理暂行办法》,都对训练数据的合法性、真实性、准确性、客观性、多样性提出了要求。
但依据实践来看,企业在开展模型预训练时是否保证数据来源合法,是否采取了有效措施保障训练数据的真实性、准确性、客观性,以及个人信息是否已得到主体的知情同意后获得,在核实方面难以操作。一旦出现侵权违法事件,受害者举证难度大。因此,关于数据合法来源的监管,仍需在未来的实践中不断探索行之有效的举措和方案。