二、欧盟《人工智能法案》要点解读
1、风险等级与分级管理欧盟《人工智能法案》开创性地提出了“分级管理”的监管思路,根据目前流出的信息,欧盟《人工智能法案》将AI产品划分为四个风险等级,每个风险等级都规范了具体应用类别,以及相应的监管措施:a. 不可接受的风险(完全禁止)b. 高风险(投放前严格管控,履行安全评估义务,活动记录可追溯)c. 有限风险(透明义务)d. 极低风险(不做干预)这一部分非常重要,也在草案发布后几经修改,正式文件发布后,我们将进一步拆分解读。2、通用模型限制与开源模型豁免
尽管受到了以法国为首的反对,此次谈判最终还是确定了欧盟对于大型、强大的通用模型的部分限制,包括但不限于:通用模型公司必须起草技术文件;遵守欧盟版权法;对训练数据做详细说明;构成“系统性风险”的通用模型的额外审查等。(约等于为OpenAI量身定做)
同时,为争取法国与德国的支持,《法案》最终也通过了对于开源模型的广泛豁免。3、责任主体的细分《法案》进一步将“经营者”拆分为“提供者、授权代表、分销商、进口商、部署商”等主体,明确了在不同风险下,各类经营者应当具体承担何种义务。
4、高额罚款不遵守规定的公司,将被处以最高3500万欧元或全球营业额7%的罚款。
5、本次谈判的主要分歧点本次谈判的主要分歧点在于,是否应该允许执法部门使用面部识别或其它类型的生物识别技术来实时/回顾性地识别人员身份。
这一点在此前公布的《人工智能法案(草案)》中,被列为“不可接受的风险”而被严格禁止,在此次谈判中,该条款最终因打击儿童性犯罪与恐怖袭击等恶性案件的理由而得到部分豁免。