- in United States
- with readers working within the Retail & Leisure and Telecomms industries
- within Technology, Employment and HR and Antitrust/Competition Law topic(s)
摘要:
本文探讨了人工智能在国际仲裁领域的应用与规制。随着AI工具在法律服务中日益普及,其引发的准确性"幻觉"、数据安全及责任边界等风险凸显,建立使用规范成为行业迫切需求。国际商会仲裁院已设立工作组开展研究,而硅谷仲裁与调解中心(SVAMC)则率先发布了具有前瞻性的《人工智能在仲裁中的使用指南》。该指南为非强制性规范,为仲裁参与者提供了关键框架,其核心原则包括:强调仲裁员的决策职责不可委托给AI;要求使用者审慎保护案件信息机密;确立了以个案为基础的AI使用披露思路;并致力于在提升效率的同时,维护程序的公正与诚信。该指南为平衡技术创新与仲裁核心价值提供了重要参考。
正文:
一、人工智能(AI)在法律服务领域的应用日益广泛
当前,人工智能(AI)在法律服务领域的应用日益广泛,从法律研究、文书起草到证据分析等环节,AI已成为提升效率的重要工具。然而,这种普遍应用也伴随着显著的风险与挑战。AI工具存在生成不准确或虚构内容(即"幻觉")的固有局限,可能误导法律判断。同时,向第三方AI工具提交案件信息,会引发严重的保密性与数据安全问题。更为根本的是,如何在提升效率的同时,明确人类专业判断的核心地位、厘清使用者的最终责任边界,已成为法律界亟待回应的伦理与监管难题。
在国际仲裁领域,为应对上述挑战,建立AI使用规范已成为业内共识和探索前沿。国际商会国际仲裁院设立了"人工智能在争端解决中的应用"工作组,该工作组旨在提供实用指导并发挥思想引领作用,探讨如何在通过人工智能实现创新需求与保护国际争议解决中根本原则免受人工智能使用相关风险影响之间实现平衡。
在此领域更具前瞻性和操作性的实践,来自硅谷仲裁与调解中心(SVAMC——该机构于2024年4月30日率先发布了《人工智能在仲裁中的使用指南》(第一版)(简称"《指南》")。
SVAMC是一家专注于科技领域争议解决的全球性非营利组织与智库,其发布的"全球领先科技领域中立仲裁员与调解员名单"在业内享有很高声誉。《指南》的产生背景,源于SVAMC认识到AI工具在仲裁中迅速普及且缺乏统一规则。为此,SVAMC成立了人工智能工作组,经过长达一年多的准备,包括为期六个月的公开征求意见期,最终形成了旨在治理国际仲裁程序中AI使用的开创性文件。这些规定为平衡AI的效率优势与程序公正、保密性等仲裁核心价值提供了关键框架。
二、SVAMC《人工智能在仲裁中的使用指南》的主要内容
《指南》采用了一个前瞻性的宽泛AI定义,以容纳未来的技术发展,并特意设计为非强制性规范,旨在引导和适应个案具体情况,为仲裁机构、仲裁员、当事人及其代表提供一个广泛适用的国际参考标准。主要包括以下内容。
指南1 理解人工智能应用的用途、局限性和风险
《指南》指出,参与者应当意识到在使用AI时的固有局限、偏见和风险。
- "黑箱"问题
《指南》认为,生成式AI工具能够根据在训练过程中习得的语言生成听起来自然且与语境相关的文本。然而,这些输出结果是基于极其复杂的概率性计算得出的产物,而非可理解的"推理"(即所谓的"黑箱"过程)。目前可用的AI工具暂均不具备自我意识或对其自身算法进行操作的能力。因此,参与者在使用时可以加入"可解释人工智能"功能。"可解释人工智能"一组流程和方法,使用户能够理解人工智能系统如何根据特定输入得出某一特定输出结果。"可解释性"有助于提升透明度,增强对人工智能工具准确性的信任,并有助于确保其在仲裁情境中的应用公平性。
- 训练数据的质量和代表性
大型语言模型及其他人工智能工具是通过特定的数据集和参数进行训练的,即便是最先进的人工智能工具,也会因底层数据集和训练规程的局限性而存在盲点。此外,通用用途的人工智能工具可能并不完全适用于那些需要专业知识或特定案例信息的任务,除非它们经过精细调整或获得了更为相关的数据。
- 错误或"幻觉"
《指南》提示,大型语言模型在缺乏信息以准确回答特定问题时,可能会"产生幻觉"或给出不准确但听起来似是而非的回应。幻觉可以通过设计更有可能生成更优响应的查询方式、向模型提供相关源材料以及查询信息等方式降低,但完全消除幻觉并非易事。
- 偏见的增强
一款人工智能工具的培训数据可能反映出一些偏见,而这些偏见可能会因该工具的使用而得以延续。参与仲裁的人员应尽可能降低与有缺陷或带有偏见的预测相关的风险,同时运用他们自己的独立判断能力。
《指南》强烈建议参与者:运用个人判断力来评估这些人工智能工具的输出结果,包括从多样性角度进行考量;尽其所能了解可能潜藏于人工智能工具输出结果中的潜在偏见,并在可能范围内予以缓解;使用能够控制偏见的AI工具。
指南2 保护机密性
《指南》指出,一些人工智能工具可能出于各种目的而保留其所接收到的信息,甚至声称服务提供者有权获取用户输入的全部信息。在仲裁过程中使用这些公开可用的人工智能工具可能会带来泄露机密信息的风险。因此,在使用人工智能工具前,参与者应评估该工具的保密政策、功能及局限性,并酌情咨询技术专家的意见。
指南3 披露
《指南》认为,人工智能的使用正变得越来越普遍,并被融入各种用于仲裁程序背景的技术工具中。在这一不断演变的格局下,为披露人工智能的使用制定一套普遍适用的标准似乎并不可行,反而可能引发更多争议
关于与 Al相关问题的披露事宜原则上应通过现有机制来解决,即利用在仲裁过程中解决披露争议的程序。在大多数情况下,这一过程是由仲裁庭根据适用于该仲裁的程序规则完成的。
同时,《指南》指出,生成式 AI 工具的具体输出必然取决于输入以及 Al 工具本身的特性。因此,当需要披露AI工具的具体输出时,原则上亦应一并披露给生成式 AI 工具的输入数据,包括对话历史、查询内容等。
指南4 使用AI时的胜任或勤勉义务
《指南》特别指出,若当事人的代理人使用AI处理工作(如归纳案情、撰写部分案情摘要或口头陈述内容、或进行法律研究),同时未对AI工具的输出结果进行审核以确保其准确性,则可能引发风险。
仲裁庭和对方律师可以合法地对一方当事人、证人或专家进行质询,以了解AI软件在准备呈件过程中被使用的范围,以及为确保输出结果的准确性而采用的审查流程。
同时,《指南》并未就审查当事人代理人使用AI行为设定独立的评判标准,任何可以确定在使用 AI时所需遵循的勤勉与合理性要求的职业行为准则或责任规定都可以适用。
此外,《指南》也指出,并非所有由人工智能引发的错误都具有同等严重性。仲裁庭在决定如何处理包含诱导性错误或不准确信息的文件时,处置手段将包括撤销该文件、责令其进行更正、不予理会该文件、降低其可信度以及酌情做出相应推论。
指南5 尊重程序和证据的完整性
《指南》指出,人工智能领域的进展,尤其是生成式人工智能和深度伪造技术方面的进步,可能会加剧被操纵或伪造的证据所带来的风险。
因此,提醒各方应时刻留意并警惕这些显著增高的风险,同时强调在使用人工智能时确保程序公正性和诚信性的重要性。各当事方、代理人及专家在任何情况下均不得利用人工智能工具伪造证据、篡改证据或损害程序的完整性。
如果仲裁庭判定一方当事人违反了本准则,除依据适用法律、相关仲裁规则或仲裁地法(例如,可将相关证据从记录中剔除或认定其不可采等)所规定的其他措施外,仲裁庭还可考虑作出不利推断,并在分配仲裁费用时将侵权方代表的行为纳入考量。
指南6 决策的非委托原则
《指南》强调,仲裁员的委任,尤其是其最终的决策职能,是个人性质的且不可委托他人代为行使的。尽管人工智能工具能够管理信息、分析数据并预测结果,但它们绝不能取代仲裁员所固有的判断力、裁量权、责任和可归责性。
《指南》提醒仲裁员们,尽管技术不断发展,他们在作出裁决过程中所承担的个人责任仍居于首要地位。人工智能工具可提高效率并提供洞见,但仲裁员必须做出最终的决策,同时保留对仲裁程序公正性和诚信性至关重要的个人因素。仲裁庭不得免除其亲自审阅卷宗和或起草任何仲裁庭裁决书的职责。在任何时候,仲裁员均需对其在仲裁过程中对人工智能工具的使用负责。
指南7 尊重正当程序
《指南》着重阐述了在仲裁中使用人工智能时应遵循的正当程序原则。它强调了仲裁员有义务披露除记录内容外对由人工智能生成输出物的任何依赖情况,只要这些输出物被用于影响对案件的理解,且应允许各方有机会就此发表意见。这一做法确保了透明度,并维护了各方的平等陈述权利。
《指南》强调了仲裁员的责任,即仲裁员应避免假设AI输出结果存在权威来源。仲裁员与各当事方及各方代理人一样,必须独立且批判性地评估由 AI所衍生的信息,以确保其可靠性。
点击下载完整版《跨境争议解决刊物》第40期
The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.