中华视窗是诚信为本,市场在变,我们的诚信永远不变...
2022年12月01日,巴西联邦参议院某委员会提交并公布了一份关于人工智能监管的研究报告和一份人工智能法草案,开启了巴西的人工智能立法之路。在这份908页的报告中,巴西联邦参议院委员会综述了巴西早期人工智能监管提案、经合组织成员国在人工智能监管(或计划)方面的成果,也汇总了政府在公开听证会中收集的意见。
《巴西人工智能法(草案)》的特点集中在如下13个主要方面:明确12大项原则、界定“人工智能系统”含义、明确人工智能系统的风险评估和评估结果公示要求、高风险人工智能系统的标准、禁止性人工智能系统范围、受人工智能影响着的个人权利、人工智能系统的治理和行为准则、人工智能提供者和使用者的民事责任(推定过错、严格责任)、严重安全事件的报告义务、版权的合理使用、强制执行等。具体如下:
(1) 原则
The Draft AI Law says that the , and use of AI in must to the of good faith, as well as (among ): self- and of ; , , , , and (to avoid risks of both and uses); human in (and of) the “AI life cycle”; non-, , , and ; legal , , and ; and of AI and ; and / when using AI.
《巴西人工智能法(草案)》表示,在巴西开发、部署和应用人工智能必须遵循诚信原则以及自主决策和自由选择、透明度、可解释、可理解、可溯源和可审核(以防止故意和非故意利用风险),“人工智能生命周期”的人类参与,非歧视、争议、平等和包容,程序法定、可竞争性和损害可救济,人工智能和信息安全的可依赖和鲁棒性,以及人工智能利用中的比例/功效原则。
(2) of an “AI ” “人工智能系统”的定义
The Draft AI Law an “AI ” as a with of , to infer how to a given set of , using based on and/or logic and , via input data from or , with the goal of , , or that can the or real . This , at least , with the the same term, which other have also or drawn from when their own AI .
《巴西人工智能法(草案)》将“人工智能系统”定义为具备不同程度自动性,被设计用于infer如何实现一个既定目标集合、利用基于机器学习和/或逻辑以及知识代理路径,通过从机器或人工输入数据,以产生能够影响虚拟或真实环境的预测、建议或决定为目标的计算机系统。该定义至少有部分和经济合作和发展组织(简称“经合组织”、OECD)对“人工智能系统”的界定一致,其他国家或地区在其人工智能立法中也采纳或借鉴了经合组织的定义。
(3) Risk 风险评估
and users of AI must and a risk prior to on the .
人工智能系统的提供者和使用者在将任何人工智能系统投放到市场前必须实施风险评估并记录。
(4) High-Risk AI 高风险人工智能系统
The Draft AI Law an list of “high-risk” AI , which AI used in the : the of ; and ; ; ; use of (if such use could cause harm to ); and . , the Draft AI Law also (e.g., ) as high-risk AI . The (see “” below) is for the list in with a of set out in the Draft AI Law.
《巴西人工智能法(草案)》列举了“高风险” 人工智能,其中包括在下列场景中使用的人工智能系统:确保重要基础设施运营安全、教育和职业培训、信用评估、使用自动驾驶机动车(如果该使用可能对自然人造成身体伤害)以及生物识别。值得注意的是,《巴西人工智能法(草案)》还界定了作为高风险人工智能系统的医疗卫生应用(例如医疗设备)。有权机构(见下文“强制执行”)有义务根据草案所规定的标准定期更新清单。
(5) of High-Risk AI 公开高风险人工智能系统数据库
The is also with and a of high-risk AI , which will (among other ) the risk of and users of such . Such will be under and trade laws.
有权机构还应当建立和维护一个公众可访问的高风险人工智能数据库,该数据库应包括人工智能系统提供者和使用者已经完成的风险测评。该等测评结果受相关知识产权和商业秘密法律保护。
(6) AI 禁止性人工智能系统
’s Draft AI Law a on AI that (i) , or (ii) the of of , such or is or has the of being to the or of the end user. , ’s Draft AI Law also from and the use of in , there is a law or court order that the use of such (e.g., for the of ).
《巴西人工智能法(草案)》明确规定禁止如下人工智能系统:(i)部署潜意识教化技术,或(ii)利用特定自然人群体缺陷,无论此类技术或利用是否以损害终端用户的健康或安全为目的或有此影响。与此类似,《巴西人工智能法(草案)》还禁止公权力机构实施社会评分和在公共场所使用生物识别系统,除非有特别法或法院命令明确授权使用此类系统(例如为侦查犯罪)。
(7) of 个人的权利
The Draft AI Law by AI the -à-vis“” and “users” of AI , of the risk- of the AI :
·Right to their with an AI prior to using it – in , by that (among other ): the use of AI, a of its role, any human , and the (s)/ (s)/ (s) it is used for (and their ); of the of the AI and ; of data used; and to , non-, and ;
·Right to an a , , or made by an AI 15 days of the – in , about the and used, and the main the or (e.g., and logic of the , how much it the made, and so forth);
·Right to or of AI that legal or the of the party;
·Right to human made by AI , into the and the state of the art of ;
·Right to non- the of bias, where it from the use of data to (a) a from , or (b) / for to a group, even when are used; and
·Right to and the of data, in with the Data Law (“LGPD”).
《巴西人工智能法(草案)》确认受人工智能系统影响的人相对于人工智能系统的“提供者”和“使用者”而言享有以如下权利:
·知情权。在人工智能系统被使用之前,有权获取有关其与人工智能系统交互的信息,特别是通过提供披露的信息(其他事项除外):人工智能的使用,包括对其角色的描述、任何人类参与,以及使用人工智能的决策/建议/预测(及其后果);人工智能系统提供者的身份和所采取的治理措施;使用的个人数据类别;以及为确保安全、非歧视和可靠性而采取的措施。
·解释权。有权要求在收到请求后15天内对人工智能系统做出的决定、建议或预测作出解释,特别是关于所使用的标准和程序的信息,以及影响特定预测或决策的主要因素(例如系统的原理和逻辑,对所做决定的影响程度等)。
·质询权。有权质疑人工智能系统所做出的、会产生法律效力或对受影响群体利益产生重要影响的决定或预测。
·人工干预权。考虑到技术开发的背景和现状,有权干预仅由人工智能系统做出的决策。
·免受歧视和纠正歧视性偏见的权利。有权反对歧视并纠正歧视性偏见,特别是在使用个人敏感数据导致:(a)对受保护的个人特征造成不成比例的影响,或(b)特定群体的人处于劣势/脆弱,即使使用了明显中立的标准。
·隐私权和个人数据受保护的权利。根据《巴西通用数据保护法》。
(8) and Codes of 治理和行为准则
and users of all AI must , and of of such and the of , (among ) and -by- .
所有人工智能系统的提供者和使用者必须建立治理结构和内部流程,以确保此类系统的安全,并保护受影响个人的权利,包括(除其他外)测试和设计隐私保护措施。
and users of “high-risk” AI must , such as: an that must be made , which may need to be ; a team to the AI is by ; to with .
“高风险”人工智能系统的提供者和使用者必须采取安全强化措施,例如:进行算法影响评估,评估结果必须公开并且可能需要定期重复进行;指定一个团队确保人工智能系统接收到不同意见;采取技术措施协助解释。
, and users of AI may also draw up codes of and to the of the Draft AI Law’s .
此外,人工智能系统的提供者和使用者还须制定行为和治理准则,以支持《巴西人工智能法(草案)》要求的具体落实。
(9) 严重安全事件
and users of AI must the of the of , where there is risk to human life or the of , of , to or the , as well as any other of human .
人工智能系统的提供者和使用者必须向主管部门通报发生的严重安全事件,包括危及生命安全或身体健康、关键基础设施运营中断、财产或环境严重受损以及任何其他严重侵犯基本人权的情况。
(10) Civil 民事责任
and users of AI are for the (s) by the AI , of the of of the . , and users of “high-risk” AI the of their in the , and their fault in the is .
无论人工智能系统的自主程度如何,该系统的提供者和使用者都应对人工智能系统造成的损害承担责任。此外,“高风险”人工智能系统的提供者和使用者根据其参与损害的程度承担严格责任,并推定其对造成的损害存在过错。