在周三,欧洲议会批准了《人工智能法案》,这标志着对人工智能技术最全面的政府监管措施的出台。该法案根据风险等级对不同类型的AI系统进行监管,明确禁止某些AI的用途,同时对“高风险”AI系统的部署者设定了更为严格的要求。
此外,该法案还针对“通用型”AI模型的使用以及具有生成深度伪造能力的AI工具制定了规则。
Vanta公司首席信息安全官Jadee Hanson在接受SCMedia采访时表示:“任何新强大技术的引入,都需要适当的限制和护栏以确保安全。《人工智能法案》在这方面提供了一定的思考框架,指明了公司在应用此技术时应注意的事项。”
据预计,该法案将在欧盟立法会期结束前正式生效,禁止“不可接受的风险”AI系统的规定将在六个月后生效。对于通用型AI系统的要求将在法案生效后12个月生效,而大多数“高风险”系统的合规截止日期则是在法案发布后两年。
该法案大约有300页,分为113个条款和13个章节。第一章处理一般规定和定义,第二至五章分别涵盖禁止的AI实践、高风险AI系统及低风险工具的透明度要求,包括通用型AI模型。
该法案禁止八种特定的AI用途,包括使用“潜意识技术”操纵人类进行有害行为、从互联网上或监控视频中提取面部图像以用于数据库收集的工具,以及执法机关在公共场所实时远程生物识别的使用(在特定情况下如失踪人员搜索和防止即将发生的恐怖袭击中可以例外)。
Hanson对此表示:“这些限制是必要的保护措施,我预计大家会广泛支持这一法律来维护这些关键限制。”
根据该法案的定义,所谓的“高风险”AI系统包括在关键基础设施中使用的安全组件、教育及就业过程中的系统、影响人们获得基本服务(如紧急服务)的工具、执法机关使用的工具、涉及移民调控的系统,以及在司法和民主管理中使用的系统。
这些系统必须在欧盟委员会建立的数据库中注册,并在部署前进行合规性评估。这些系统的提供者需要满足更高的数据质量、错误韧性、抗干扰能力和抗网络攻击能力的标准。
高风险AI系统的提供者还必须持续监控和记录系统性能,提供透明的信息,说明系统的能力和局限,并在AI系统的操作中纳入人类监督。
CyCognito公司EMEA销售工程负责人Graham Rance告知SCMedia:“AI模型的质量显然依赖于用于训练的数据集,而数据集的透明度、完整性和准确性有望带来更好的结果。”
对于较低风险及能够执行广泛任务的通用型AI模型,法规的义务主要集中在透明度、治理和风险管理上。值得注意的是,法案要求用户在与AI系统互动时应被告知,并且AI生成的媒体(如深度伪造)必须通过元数据识别或等方式进行标识。
具有“系统性风险”的通用型AI模型(由于其庞大的规模、庞大的用户群体或访问敏感信息的能力),也必须建立实践规范,概述评估和降低这些风险的措施。
法案第六章要求欧盟27个成员国为AI提供商设立国家AI监管沙箱,以便测试系统的性能、稳健性、安全性和合规性。沙箱环境必须向所有提供商开放,包含中小型企业和创业公司。
第62条和第63条特别列出支持中小企业和初创公司的创新的额外条款。
Rance表示:“合
Leave a Reply