全球首个人工智能公约对我AI领域的影响

来源:大河网
时间:2025-01-22 09:33

2024年9月5日,欧洲委员会宣布AI领域全球首个具有法律约束力的国际框架公约《人工智能与人权、民主和法治框架公约》(以下简称《公约》)正式开放签署。除欧委会46个成员国外,美国、英国、欧盟等10个国家或组织亦作为观察员位列首批签署名单中。欧盟、美国等国意在通过此举先行建立人工智能规范方案,获取话语主导权,并在实力优势的帮助下逐渐将自身的人工智能治理方案转为全球方案,显然,这种策略具备再次成功的可能。我国应积极利用、借鉴《公约》相关条款构建人工智能全球治理规则框架,利用美国人工智能不看好欧盟市场契机,牢牢把握我国人工智能治理话语权。

一、《公约》是英美欧垄断人工智能全球治理的关键一步

(一)从历史看,《公约》是西方延续立法制衡的新起点

《公约》是全球人工智能治理领域首个具有法律约束力的国际条约,是西方抢占人工智能国际立法的转折点。一直以来,国际法的创立与体系化建设均由西方发达国家起主导作用。海上规则领域,《联合国海洋法公约》与《海牙规则》等统治了海上规则140多年;航空航天法领域,美国《国家航空航天法》《商业航天法》等成为国际立法模板,深刻影响航空航天规则近100年。网络领域,西方世界引领《布达佩斯公约》《塔林手册》为全球网络安全立法;数字领域,欧盟GDPR抢占全球立法高地。如今,在人工智能领域,欧美英再次联手,试图继续统治全球人工智能治理规则,持续发挥西方引领全球立法的“马太效应”。

(二)从宗旨看,《公约》意在构建人工智能“小集团”

《公约》以“人权、民主和法治”为抓手,通过意识形态呼朋唤友,并非代表全人类利益。《公约》29条实体规则中,有20处、共计13条涉及“人权、民主和法治”,几近1/2,因此,《公约》意在吸纳更多立场一致的缔约方构建人工智能治理“小集团”。同时,《公约》刻意避免提及欧美人工智能合作中出现的合规成本过高、军事化应用意见对立等现实冲突,而是优先形成同盟,表达“小集团”政治姿态。

(三)从实质看,《公约》回避关键问题,无“法律之实”

虽然《公约》相比其他全球人工智能治理倡议具有法律效力,是人工智能国际立法的一大进步,但其内容偏原则、轻规则,回避诸多关键问题。比如,《公约》回避人工智能军事化应用议题、跨国公司管辖与责任议题、国家安全问题等。

二、对《公约》具体条款的态度研判

(一)警惕《公约》的立法宗旨与程序性规定

一是警惕《公约》宣扬西方“人权、民主与法治价值”。根据《公约》第1条,“公约旨在确保人工智能系统生命周期内的活动完全符合人权、民主和法治”,目的是“在尊重人权、民主和法治的基础上,加强其成员国之间的团结”。与我国《全球人工智能治理倡议》(以下简称《倡议》)“以人为本”“人类命运共同体”理念存在差异,应谨慎研判。

二是警惕欧盟意在构建人工智能领域争端解决程序。根据《公约》第29条,“如果缔约方之间在本公约的解释或实施方面发生争端,应……通过谈判或其选择的其他和平方式,包括通过缔约方大会,寻求解决争端。”争端解决程序是保障缔约方履行条约义务的最主要手段。西方国家主导的WTO争端解决程序一直被誉为WTO“皇冠上最耀眼的明珠”,西方国家推动的常设国际法院开启了通过裁判方式解决国际争端的先例。相反,我国一直严重忽视构建国际争端解决程序,“南海仲裁案”便充分体现了我国在这一问题上容易被攻击得措手不及,同样,《倡议》也并未提及争端解决程序。我国应当防止欧美英提早布局、构建全球人工智能争端解决体系。

(二)借鉴、利用《公约》的实体性规则

一是增加透明度和监督规则。《公约》第8条规定:“每个缔约方应采取或保持措施,确保针对人工智能系统生命周期内的活动,包括人工智能系统生成的内容的识别,制定适合具体情况和风险的充分透明和监督要求。”《公约》要求人工智能全生命周期都保持透明度,对风险要精准识别,监管部门要及时监督。我国《倡议》目前未提及透明度规则,应当增加。

二是利用问责和责任机制与欧展开沟通与合作。《公约》第9条要求“每个缔约方应采取或保持措施,确保对人工智能系统生命周期内的活动对人权、民主和法治造成的不利影响进行问责和承担责任。”我国《倡议》主张“建立并完善人工智能伦理准则、规范及文字机制,建立科技伦理审查和监管制度,明确人工智能相关主体的责任和权力边界”,其立法思路与精神与《公约》基本一致。

三是就平等和不歧视规则与欧展开对话,形成共识。《公约》第10条要求“确保人工智能系统生命周期内的活动尊重平等”,各缔约方“承诺采取或保持旨在克服不平等的措施,以便根据其适用的国内和国际人权义务” 。我国《倡议》主张“坚持公平性和非歧视性原则,避免在数据获取、算法设计、技术开发、产品研发与应用过程中,产生针对不同或特定民族、信仰、国别、性别等偏见和歧视”。二者目的一致,均是为了在人工智能活动方面实现公平、公正和平等的结果。

四是细化风险和影响管理框架。《公约》将最多篇幅用在风险管理框架制定上,可见欧盟“重预防”的人工智能监管策略。《公约》第16条延续欧盟“风险分级”思路,要求适当或酌情考虑人工智能应用场景、影响的严重程度、利益攸关方观点等。我国目前《倡议》缺少有关风险和影响管理方面的规定。

五是细化“以人为本”的具体内容,照顾特定群体在人工智能应用中的合法权益。《公约》第17—22条特别关注残疾人和儿童的权利、公众咨询、数字扫盲以及其他国际条约中规定的特殊人群的利益。我国《倡议》并未提及特定利益群体。

(三)利用《公约》漏洞与回避的问题

一是以不完全列举方式设置国家安全例外条款。《公约》第3.2条“不要求缔约方将本公约适用于人工智能系统生命周期内与保护其国家安全利益有关的活动”,但并未对何为“国家安全例外”进行解释,为成员方泛化国家安全逃避《公约》义务提供了借口,易使条约义务形同虚设。我国《倡议》缺少国家安全例外条款,但不能完全照搬《公约》。

二是通过构建对话机制,就跨国公司责任议题推进国际交流。人工智能跨国公司既是人工智能国际治理的主要对象,也承担着人工智能治理的具体落实义务,规范人工智能跨国公司行为与责任应是重要议题。但可能因为美国大型人工智能企业反对承担连带责任,同时纷纷扬言其大模型退出欧洲市场,《公约》对跨国公司问题并未涉及。

三、《公约》框架下我国需应对的路径建议

(一)警惕《公约》,我国应迅速争夺全球人工智能治理话语权

一是坚持“以人为本”“人类命运共同体”理念,借助联合国,欢迎最广泛的伙伴与我国展开人工智能治理对话,而不是如同欧美英构建“排外”的“小多边机制”。二是重视争端解决程序,判断人工智能争端类型、是否采用具有拘束力的争端解决方式、争端解决机构、争端解决程序、实体规则、执行机制等。

(二)借鉴《公约》,细化未来我国“全球人工智能治理公约”规则

一是细化人工智能透明度规则,可从算法和数据透明度、决策过程可解释、用户知情权、文件记录和审计、风险管理和环节等精细化透明度规则。二是及时构建风险管理框架,强调定期审查,同时依靠技术风险评估和社会风险评估,搭建风险管理系统与反馈机制等。三是将特定人群在人工智能方面的利益关切上升为法律。包括儿童、残障人士以及其他因信息不对称而存在相对弱势地位的人群,受数字鸿沟问题被边缘化的老年人、儿童与少数民族,受算法垄断影响的广泛消费者的权益。

(三)利用《公约》,总结一致性规定与欧美英增强规则互信与合作对话

一是利用非歧视原则方面,继续延续在《全球人工智能倡议》中主张的“坚持公平性和非歧视性原则,避免在数据获取、算法设计、技术开发、产品研发与应用过程中,产生针对不同或特定民族、信仰、国别、性别等偏见和歧视”。此规定与《公约》不谋而合,不存在利益冲突,可以以人工智能非歧视应用为切口,与欧美英展开具体对话。 二是在问责和责任机制方面,继续延续我国在《全球人工智能倡议》中主张的“科技伦理审查和监管制度”,建立并完善人工智能伦理准则、规范及问责机制,形成人工智能伦理指南,明确人工智能相关主体的责任和权力边界,充分尊重并保障各群体合法权益,及时回应国内和国际相关伦理关切。

(四)优化《公约》,直面当下全球人工智能治理痛点

一是在未来条约中不仅规定“国家安全例外条款”,同时也不完全列举人工智能影响国家安全的具体情形,并仔细研判是否赋予国家安全例外条款可裁决性,以及缔约方援引国家安全例外条款的程序性规则。二是展开人工智能跨国公司对话,研判专门针对跨国公司等私主体的监督方案与责任承担机制,尝试攻克监管难关。

(作者:夏维禹  单位:北京理工大学网络空间国际治理研究基地)

编辑:何山