(一)从原则到责任:强调动机、行为、后果的责任伦理
运行机制、场景落地、风险预判和发展动力是伦理体系建立的职责所在。 [17] 可伦理原则往往是无牙齿 的[18],它与一般意义上的治理行动存在着鸿沟。 一般而 言,伦理对科技活动的调适存在原则层面、规范层面、 操作层面三个维度。[19] 因此,如何打通三个维度,便成 了责任伦理的首要任务。责任背后的价值条件是原则维 度的,而责任的主体性、指向性、内涵性、方法论、评价性都涉及规范和操作维度。因此,相较于伦理原则, 责任与行动之间的关系更为紧密。
首先,责任伦理是实践的方法论, 它指向行动,只有行动可能,动机、行为、后果才可能。伦理原则并不一定指向治理行动,原则到行动必须施加一个条件性前提。 伦理原则聚焦不同价值间的调和,而治理行动是利益相关 者关系的权衡。责任伦理旨在处理心志伦理导致的动机与 后果间的矛盾,强调动机负责、行为负责、后果负责,是逻辑连贯地整合了起因、过程、结果三位一体的伦理实践 指引。尤其在面临不可预测、不可逆、且后代可能为之付出代价的隐患时,小心谨慎便成为比勇敢更高一级的德行。[20]信奉责任伦理需要考虑行动之后果,从而将行动获 得实现的机会以及结果一并列入考虑。
其次,责任的担负者是发挥不同角色的行动着或行动 了的主体。责任伦理学家约纳斯认为,责任的现实基础是自然,责任的本质是担忧,责任的承担者是人,责任的特 征是非交互性的[21]176-182。虽然约纳斯关于责任的论述颇有洞见,但是他的责任伦理却是人类中心主义的。责任的承担者是人无疑,但又不仅限于人。在生成式人工智能背景下责任的承担者既有可能存在于不同主体的关系中,也有可能是不同主体与技术的联合体,它具有交互性。因此, 责任的担负者是发挥不同角色的“主体”,而非单纯的人。当然,这里并非认同生成式AI已经完全具备了成为责任主体的条件,而是旨在表达它对每个主体的主体性建构都发挥了超越工具的、塑造性的意义。
再次,责任总是在一定后果产生之后才可评估, 它高于原则,能够作为行动的调适。责任伦理要求,在对 新兴技术的伦理考察中,反思价值中立原则是否需要适度 的自我约束。责任在一定程度上伴随着结果主义,有了后 果才会有明晰责任的问题。它具有他者思维、复杂思维、 境遇思维的特点,为解决当代人类社会面临的难题提供了 依据。[22]责任指向行为之外,它有一个外部关联。正如, 科学家的责任超出了他发现真理的本分,牵涉到他发现的 真理在世界上的影响[21]278。因而围绕生成式人工智能的活 动不可能是孤立的,不论是设计者的活动还是使用者的活 动,它们都具有外部关联。这种外部关联是超越原则的, 是基于后果评估的对行动的调适。总之,责任不是空谈 的,它是实践的,具有主体指向性和后果关联性的特征, 因而有助于弥合伦理原则与治理行动间的鸿沟。
(二)从测评到调适:多维测评是开展责任伦理调 适的实践依据
颠覆性技术终究是社会进步的缩影。人类总会找到合适的治理手段应对技术带来的新变化,而治理手段往往决定了技术前途。正如汽车发明之时,限制车速的“红旗法案”几乎禁止了汽车的存在,也使得英国本地汽车工 业外移,阻碍了技术发展。可见,封禁和限制并不能解决生成式人工智能的步调难题,新兴技术治理尤其需要历史眼光,应当将其置于时间性中考察与评估,进而为责任对 应提供足够依据。责任伦理旨在明晰责任分配而非倡导责任扩散,特别是防止众人之责变成无主责任(everybody's problem becomes nobody's responsibility)[23]。评估是责任伦理调适的前提条件和动态依据。
尽管基于不同价值观群体部署不同的模型在技术上 是可行的[24] ,人机价值对齐必须是基于技术的行动,而非伦理空谈。为了能够让责任对应落到实处,需要建立贯穿事前、事中、事后的综合评估机制,保证技术创新 进步的同时,不会因风险性被拖入技术负效应的深渊。
事前评估以技术性为主,设计者和管理者是事前评估 的主要责任主体。设计者需要创新开发大模型评测技术, 通过前期评测是大模型进入市场的技术底线,评测数据的 积累有助于制定技术上线标准。人工智能遵循概率模型 的工作逻辑,因而在技术层面不可能实现百分之百的准确性。管理者可以适度放宽政策,通过区分优先级、分阶段 的方案建立分级的大模型发布标准。以此构建容错机制, 给予大模型充分的时间周期修正、完善,使之健康运作。
事中评估以规范性为主,设计者和使用者是参与的主要责任主体。设计者应将对价值和伦理的关怀转化为对齐实践,在运行中通过标注和微调保障模型健康运行。随着开源程度和使用范围的扩大,安全漏洞和技术风险渐显,基于技术标准和动态逻辑的事中规范性微调 是设计者的重要责任。此外,使用者是事中评估的重 要参与者,动态交互特性在一定程度赋予使用者以“设 计”地位。因此,事中评估应基于使用者和设计者交互数据的评估,才能反映真实的应用状况。伦理评估作为介于伦理嵌入和伦理适配间的重要环节[25],直接关系到 技术伦理与社会伦理体系的接轨。
事后评估要充分考虑技术的社会性和治理政策的敏捷性,设计者、使用者和管理者都是主要责任主体。它既包含使用现状的评估,又囊括治理成效和政策的评估。尤其是对治理政策的评估,相关责任主体的共商共治才能使各自获取反思性、修正性意见,才能掌握生成式人工智能应用的社会后果,才能明确下一步的治理方向。贯穿事前、 事中、事后的三维测评是保证生成式人工智能各相关主体 责任分配、行使、调适的实施条件和测度措施。
(三)从主体到关系:在主体责任对应基础上责任 机制的新探索
在讨论关系视角的生成式人工智能治理前,基于主体的责任对应不容忽视,责任对应是具体行为责任划分。风险治理可以始于行动者权责关系,有针对性地进 行主体端治理。[26]简言之,政府负有监管责任,企业应 负责任地创新,公众有不滥用技术的责任,各主体被分配了不同的社会责任。实践中可通过协作的方法建构分布式的道德机制和AI道德建模,以分配道德责任减轻各 主体负担。[27]七部委联合发布的《生成式人工智能服务 管理暂行办法》中明确区分了提供者和使用者在开发、 治理、使用中的相应权责,体现了政策制定者责任对应 的思路,是国家AI治理的有益尝试。
可以预见的是, 随着生成式人工智能技术的进步, 必然冲击既有伦理体系,进而可能产生伦理关系失调、 伦理规范失序、伦理价值失衡、伦理行为异化、伦理评价失真等问题。因而有必要透过认知人工智能风险所有 权状况构建善治机制,形成应对所有权缺位的责任到位 机制、所有权分散的责任联动机制、所有权交织的责任 连带机制、所有权模糊的责任兜底机制[28]。这也充分表明,生成式人工智能对传统的责任认定、问责、履责环节带来不小冲击,迫使政策制定者在相应的规则、制度和程序上必须作出调整。[29]
构建生成式人工智能的责任应对机制,需要回答谁来负责、向谁负责、负什么责、怎样负责、如何负好责五个核心问题。
谁来负责事关责任的主体性:政府负监管责任,宏观把控技术发展方向;企业负起设计责任,应在设计阶 段将价值嵌入工程化并规避其中的消极方面;高校负教 研责任,肩负着培养负责任工程师的任务;公众负使用和监督责任,应遵守应用规范并履行监督义务。“人工智能体”依托“联合责任体”地位坚守“善”的技术底线,构建设计者与使用者的分布式责任生态。
向谁负责对应责任的指向性,指向性将各个责任主体连接,它印证了责任从来都不是孤立于各个主体的, 责任亦存在于各主体的关系之中。各责任主体在对自身 行为负责的前提下,还不能忽视对其他相关主体的指向性,在主体和关系的场域中探讨责任意义,才有助于形成有意义的责任闭环。
负什么责对应责任的内涵性,又直接与谁来负责相关联。举例而言,开发者要保障数据质量的可靠性、数据来源的合规性;使用者要合法合规,不激发技术的恶等。不同责任主体对应的责任内涵取决于具体情境中的角色。
怎样负责对应责任方法论,一方面即如何确保责任内涵性的现实转化,如何将伦理原则转化为责任行动,使得责任伦理贯穿动机、行为、结果;另一方面涉及责任行为的保障机制,是意识层面、制度层面、行为层面 的责任方法论构建。
如何负好责对应责任的评价性问题,事前、事中、 事后的评估为回答如何负好责这一问题提供了依据,能 够保障基于评价的适时调整。同时,能否搭建有效的生成式人工智能伦理与治理评估机制关系到责任伦理践行的最终效果。
(四)责任的关系本体论:人机关系视角下的生成 式AI责任联合体初探
建构基于责任伦理的生成式人工智能治理模式,主体层面的澄清和分类是必要的。为摆脱简单的乐观主义 或悲观主义立场,应采纳人机共生而非人机对立的立 场。[30]人工智能体系与人类共同构造了一种智能环境, 形成了共生形式的“智能关联主义”。 [31]生成式人工智 能作为道德行为体(moral agent)不仅需要追本溯源的 概念探究[32] ,思考意识、意向性、自由与行为体的关联,还需要从关系视角出发,透过“人-人工智能”关 联行为体(设计者+人工智能、管理者+人工智能、使 用者+人工智能、教育者+人工智能)思考二者的互构关系。毕竟,基于传统伦理学的观点,生成式人工智能 目前既不具备亚里士多德式的实践理性和德性品格,也不具备休谟式的道德发动意义上的情感。[33]
就现状看,之所以讨论生成式人工智能的道德行为体问题,在于它具备更强的自主性(autonomy),因而也强化了与伦理的联系。生成进路下的人工智能道德主体地位 研究以生物学、现象学为阐释工具,强调脑、身体、环境三者的涌现结果,融合了海德格尔的“此在”意蕴,着力讨论交互过程中的“在做中存在”。 [34] 因此,人机关系提 供了“此在”情境中的互动视角,在某种程度上创造了生成式人工智能作为的道德行为体讨论空间。
生成式人工智能的行为体责任讨论需要思维方式上 的解构,摆脱人类中心主义的叙事方式。当我们认为技术之于人是客体之于主体的关系时,需要反问人是否也可以作为技术的客体。[35]在应用中,“人-机”往往是以联合体形象出现的。从技术视角看,技术调节了人类认识世界的知觉,人类以技术的方式理解世界,人与技术是相互纠缠、相互塑造的关系。[36]这种关系前提使得技术负载价值、表达价值成为可能。进而从法律视角看它是确定责任 归属的一个中间路径。[37]生成式人工智能在与人的交互中 具备了综合道德行为者的属性。一方面其背后算法、微调等机制隐含开发者、设计者、校对者的意向性表达,甚至 是价值表达;另一方面,使用者在与生成式人工智能的交 互中形成了价值互动关系。行动归因既非仅来自于人,也非单纯出于机器,而是出于人机联合行动体。[38] 因而需要 完善这种联合责任体的机制研究。
由于应用中模糊了与人的界限,生成式AI与人的责 任联合体应具备对可能伤害的强敏感性和对道德决策的 弱自主性,以实现“有意不为”的负责后果[39] 。OpenAI 的一项研究表明,大模型能够运用自然语言表达对其自 身答案的校准不确定性。[40]人机联合责任体在一定程度 上具有技术上的可行性。不过可以肯定的是,技术与人 二分的工具主义观点已难以令人信服,这种二元论忽略 了人与生成式人工智能间的相互塑造、优劣互补,乃至 合作共生的复杂关系。以责任为出发点,生成式AI应当 坚守“不允许主动伤害其他主体,不应当漠视正在发生 的伤害”[41] 的伦理底线。人机关系视角为生成式人工智 能治理提供了系统、全面、动态应对的思考方式,使得 治理对策的新解法可以从关系本体论出发,在不同的对 应关系中探讨敏捷与协同治理的方案路径。