当前位置: 首页 >  关注  >  正文

人工智能的全球治理为何进程缓慢
2023-07-10 10:02:40 环球时报

人工智能的全球治理再次成为国际上的热门话题。7月7日,联合国首次举行了由人形机器人与人类一同参加的新闻发布会,9个人形机器人接受了参会专家和各路媒体的提问。同时,联合国举行了“人工智能向善”研讨会,讨论未来人工智能的发展和治理框架。


(资料图)

自2022年ChatGPT等生成式人工智能横空出世后,国际社会及各国推进人工智能治理的进度显著加快。我国发布了《中国关于加强人工智能伦理治理的立场文件》,公布了《生成式人工智能服务管理办法(征求意见稿)》;欧盟紧随其后,在5月通过了《人工智能法案》草案;6月以来,美国也开始启动人工智能治理的立法进程,国会参议院多数党领袖舒默提出了“人工智能监管框架”。

然而,各国对人工智能治理的快速反应却没有体现在全球治理层面。英国《金融时报》的一篇评论认为,当前人工智能全球治理的进程正在重复气候变化全球治理的教训,即西方国家对于风险的认知远远落后于现实变化,忽视科学界及业界的严肃警告,推进全球治理的责任意识淡薄,过于依赖较为松散的全球治理机构。这些问题最终导致对气候变化的全球治理错过“最佳窗口”,增加了后期治理的成本及治理失败的风险。

当前,各国在人工智能治理领域主要存在以下分歧。一是数据隐私方面。欧盟的数据隐私管理最为严格,要求严格约束人工智能算法的数据采集和使用,中国和其他一些国家更关注国家安全与公共利益。美国则试图在两者之间寻找平衡。

二是人工智能伦理与公正问题。美西方国家更强调人工智能伦理中的反偏见和反歧视,试图避免少数族裔和边缘化群体的利益受到算法歧视影响。广大发展中国家则更重视人工智能算法的透明性和可解释性,担心人工智能成为发达国家剥削、控制发展中国家的工具。

三是人工智能的开发与应用。各国对于人工智能开发应用中如何平衡创新和风险存在差异。美国更强调市场作用和企业创新,倾向于相信技术进步可解决技术自身的问题。中国等发展中国家则更强调政府的战略设计和监管功能。

四是人工智能军事应用。人工智能在军事领域的应用引发的国际争议最大。一些国家主张限制或完全禁止人工智能军事化,另一些国家则担忧他国秘密发展此类技术,主张通过国际军控来降低军备竞赛风险。

五是对跨国公司监管。人工智能领域的企业跨国属性更强,带来了更多跨境监管挑战。美国作为人工智能头部企业的大本营,在跨境监管上强调所谓“美式标准”。这与更多强调本国数字主权的国家存在激烈分歧。

上述分歧导致人工智能的全球治理进程缓慢,也让治理缺位带来的风险不断累积。与气候变化不同,人工智能的安全风险呈指数型增长,扩散和变化速度远远快于大自然。一旦出现对人类社会构成重大威胁的危险算法或应用,其影响将快速波及全球,并可能很快被恐怖分子、跨国有组织犯罪利用。这些危险算法将迅速赋能非国家行为体,使其具有与国家匹敌的暴力机器。这将对人类社会和各国安全带来更为直接的威胁。

人工智能的全球治理应当汲取气候变化议程的经验和教训。其一,国际社会应当尽快达成一个匹配各国能力和责任的基本治理原则。气候变化领域,国际社会最初明确了“共同但有区别的责任”,并通过后续会议和协定加以强化与细化。该原则最大限度弥合了发达国家和发展中国家对于气候变化责任认定的分歧,兼顾了强制减排和自主减排。人工智能领域同样需要类似的国际原则,解决人工智能风险的责任问题,鼓励各国朝向“人工智能向善”的总体目标前进。

其二,国际社会应当积极探索治理的总体目标。气候变化领域,联合国充分听取科学界意见,制定了控制全球升温的中期和长期目标。当前,人工智能领域还缺乏明确的指标和安全边界,这不利于各国的国内治理趋向共同目标,容易产生监管套利问题。

其三,应当减少政治因素对全球治理的影响。气候变化领域,政治因素裹挟是导致治理进程延后的重要原因之一。美西方将该问题与人权、意识形态等不相关问题捆绑,增加了各国达成共识的难度。人工智能领域存在类似情况,美西方依旧从地缘政治角度看待这一问题,提出若干不合理要求。这在一定程度上让广大发展中国家对于人工智能全球治理的根本意义产生动摇。

(李峥,作者是中国现代国际关系研究院美国研究所所长助理)

热门推荐