2024年03月28日 星期四
首页>国际媒介 > 正文

西方人工智能的数字伦理规制:困境与进路

2022-07-14 15:24:13

来源:青年记者2022年7月上   作者:王沛楠/编译

摘要:人工智能所具有的价值判断和社会决策潜能需要得到进一步的监管,但技术黑箱带来的透明性陷阱与法律层面人工智能人格主体地位的模糊性为有效规制带来了挑战。

  摘  要:人工智能的快速发展和社会层面的广泛使用引发了一系列新的社会问题。人工智能所具有的价值判断和社会决策潜能需要得到进一步的监管,但技术黑箱带来的透明性陷阱与法律层面人工智能人格主体地位的模糊性为有效规制带来了挑战。蒙特利尔人工智能伦理研究所今年5月推出的《人工智能伦理道德报告》认为,对于人工智能算法的规制应当诉诸具有明确操作性的原则,基于人类道德框架、多元数据来源和公共部门的算法问责实现对人工智能有效的数字伦理规制。

  关键词:人工智能;算法;数字伦理;伦理规制

  伴随着人工智能技术的快速发展和应用场景的不断拓展,算法驱动的人工智能正在日益深刻地嵌入人类社会的不同领域中。以偏好推送、问答机器人和人脸识别为代表的人工智能技术已经成为社会生活的重要组成部分。但与技术快速迭代形成鲜明对比的是,对于人工智能技术的伦理规制长期以来始终处于广泛的争议之中。

  最近,美国多家主流媒体都报道了谷歌工程师Blake Lemoine由于声称其团队开发的人工智能聊天机器人LaMDA具有人类情感和意识而被停职的新闻。[1]虽然谷歌立即出面澄清没有证据表明LaMDA已经具有人类意识,但人工智能技术的发展使其越来越深刻地嵌入人类社会之中,由此带来的主体性边界模糊和权责归属问题,对人工智能伦理的规制提出了新的挑战。

  人工智能的道德边界争论

  事实上,这并不是人工智能聊天机器人第一次引发争议。人工智能机器人在学习过程中形成价值判断的情况已经屡见不鲜。2017年,微软在Twitter推出人工智能聊天机器人Tay。它通过与Twitter网友对话进行自我学习,进而通过模仿其他网友的内容来接近人类的表达。但在上线短短一天的时间内,Tay就演变成为一个满嘴脏话,集种族主义、父权歧视、仇视犹太人于一身的机器人。由于事态濒临失控,微软不得不将其下线。无独有偶,2020年韩国推出的少女聊天机器人Luda遭到了用户持续的语言性骚扰,以至于Luda迅速学会了歧视少数群体、女性和残疾人的表达。

  除了价值判断,人工智能在决策过程中的伦理问题也广受关注。欧莱雅和可口可乐等跨国公司近几年的招聘中都引入了人工智能系统参与简历审核和候选人初筛;亚马逊则很早就将人工智能运用于仓库员工的管理中,通过人工智能自动化地跟踪员工工作状况,一旦发现仓库员工长时间没有接触包裹或者处理速度变慢,就会记录员工效率过低。亚马逊的人工智能进一步根据算法计算出所有员工的工作效率,并对生产效率指标多次不达标的员工“一键裁员”。这一事件的披露在美国也引发了强烈的争议。

  计算机伦理学创始人Moore将伦理智能体分为四类,当前人工智能的发展水平尚且停留在“伦理影响智能体”这一初期阶段,它对社会和环境产生伦理影响但无法自主形成伦理决策与判断。但当人工智能越来越多地参与到价值判断和社会决策的领域并产生显著的社会影响,这种人机边际的模糊会产生更严峻的权责归属不明确问题。[2]人工智能产品在道德和情感方面具有人格化特征,但又区别于真人。[3]那么进行价值判断和社会决策的人工智能应该仅被当作执行任务的行为主体,还是可以被当作承担责任的道德主体?人工智能介入人类社会并产生社会后果的过程,带来了关于个体、技术和道德关系的再思考。

  技术与法律:数字伦理规制的两种困境

  虽然对人工智能伦理进行有效规制已经逐步成为共识,但现实层面的规制仍然面临着技术与法律两个维度的困境。在技术层面,对于人工智能伦理的规制会陷入技术黑箱带来的透明性陷阱中。由于算法具有自主学习和调整的能力,人工智能算法运行中可能出现开发者也无法预测和解释的学习和输出过程。有学者认为人工智能在面向社会提供服务或进行决策时,应当赋予用户获得算法解释的权利(right to explanation)。[4]但在实践层面,人工智能算法作为开发者独特的知识产权和互联网企业核心的商业机密,在私人所有的前提下几乎不可能通过公开源代码或者加入第三方审查机制的方式进行规制。

  这导致了对人工智能决策监管的技术空白。社交媒体用户无法解释推送为何会将某些信息置于优先的位置,亚马逊的员工也无法解释自己是因为什么行为不当而被判定效率低下和消极怠工。技术中立性成为掩盖技术的社会嵌入带来现实问题的遮羞布,但一旦人工智能代替人进行社会判断,其中蕴含的伦理公正性必然会被质疑。精准推送的偏向会对舆论环境和公共议题走向造成影响,企业使用人工智能进行员工招聘和监管则可能蕴含着实用主义主导的“量化社会”思潮限制劳动者基本权益的问题。

  在法律的层面,人工智能能否作为具有自主判断力并能够为其社会判断负责的道德主体,是法律监管层面尚存的空白。人工智能的出现冲击了已有法律秩序,因为传统的法律人格包括自然人主体与法律拟制主体。自然人主体与法律拟制主体的最大差别在于,法律人格伴随自然人终生,而法律拟制人格需要经过法律规定程序判定后才拥有享受权利、履行义务的资格。人工智能既不属于自然人主体,也不属于现有的法律拟制主体范围,这就导致它理论上不需要为其价值判断和社会决策承担任何后果。

  面对这样的困境,有学者提出人工智能承担行为能力的后果有限,因此具有有限的法律人格,[5]还有学者试图将有限人格论进一步延伸为人与人工智能之间不同物种之间的主体间性问题。[6]但无论哪种视角都没有完全摆脱折衷主义带来的现实治理困境。在人工智能的有限人格之外,谁能够为其造成的现实问题承担责任?诸如亚马逊将裁员的决策权力交于人工智能,又是否符合其有限人格的法律权属地位?考虑到人工智能正在嵌入社会结构的各个领域,一种在伦理价值层面权责相符的法律规制原则,需要得到更进一步的重视。

  诉诸共识原则:人工智能的伦理规制进路

  蒙特利尔人工智能伦理研究所长期关注人工智能技术所带来的伦理争议和治理问题。研究所每年出版一份《人工智能伦理道德报告》,对人工智能使用的伦理规制进行追踪。2022年的报告指出当前人工智能的伦理规制陷入“过多的宏观原则和缺乏的操作工具”并行的问题中。公众和舆论一方面展现出对新技术的迷恋,另一方面不得不面对技术失控带来的恐惧。[7]《人工智能伦理道德报告》认为,相较于笼统和宏观的原则,负责任的人工智能伦理需要建立一套具体而具有明确操作性的守则,并包含以下几个基本的原则:

  (一)基于人类的道德框架。无论人工智能在技术层面有怎样的发展,它最终服务于人类社会时仍然需要遵循人类社会的道德框架和准则。长期以来对于人工智能道德主体性的争论可能对于推动相应的治理进程并无帮助,因为人工智能在伦理层面不具有超越人类道德原则的独特性和优越性。亚马逊利用人工智能监督员工并决定裁员名单的举措中,并不能因为人工智能的介入而免除亚马逊在制定这项规则时的道德责任。因此,人工智能企业和开发团队作为技术的开发者,需要在遵循基本道德准则的基础上进行技术的开发,并为其后果承担道德和法律责任。

  (二)多元化数据学习。正如前文提到的,来自不同国家研究机构的多个具有自主学习能力的人工智能聊天机器人,都在经过一段时间“自然”训练后开始发表种族歧视和仇恨言论,这引发了研究者对于人工智能训练数据来源的思考。人工智能聊天机器人在社交媒体接受了大量偏激且负面的信息,才使其在自主学习和训练中无意识地走向了违背社会伦理底线的问题,因此,在对人工智能进行训练时也应该更多地吸纳不同来源和类型的数据,使得人工智能的认知和表达更接近社会的普遍水准,而非某些偏激的极端状态。

  (三)公共部门的算法问责。作为人工智能算法的重要治理途径,政府和公共部门对算法进行问责正在成为数字治理的潮流。欧盟已在今年4月通过了《数字服务法》,对推荐算法透明度提出更高的要求。我国也在去年通过了《关于加强互联网信息服务算法综合治理的指导意见》,要求在三年内建立健全对于人工智能算法的监督管理机制。相关法律法规的逐步完善意味着对于人工智能问题的治理已经逐渐走上“快车道”,公共部门的介入也使得人工智能的伦理规制成为重要的社会公共议题。

  作为技术发展的直接后果,人工智能正在成为人类社会诸多领域的重要利益攸关方。面对其技术形态的不断迭代,各国政府、互联网企业和用户需要达成一套完整且具有操作性的守则,在诉诸共识的基础上实现人工智能技术的有序向善发展。

  参考文献:

  [1]Tiku, N. The Google engineer who thinks the company’s AI has come to life[EB/OL]. (2022-06-11). https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/.

  [2]Moor J H . The Nature, Importance, and Difficulty of Machine Ethics[J]. IEEE Intelligent Systems, 2006.

  [3]张洪忠,段泽宁,韩秀. 异类还是共生:社交媒体中的社交机器人研究路径探讨[J].新闻界, 2019(02): 10-17.

  [4]Goodman B , Flaxman S . European Union regulations on algorithmic decision-making and a "right to explanation"[J]. Ai Magazine, 2016(38)3: 50-57.

  [5]袁曾. 人工智能有限法律人格审视[J]. 东方法学,2017(05):50-57.

  [6]郭小安,赵海明.作为“政治腹语”的社交机器人:角色的两面性及其超越[J]. 现代传播(中国传媒大学学报), 2022,44(02):122-131.

  [7]Gupta A, Wright C, Ganapini M B, et al. State of AI Ethics Report (Volume 6, February 2022)[J]. arXiv preprint arXiv:2202.07435, 2022.

  (编译者为清华大学人文学院写作与沟通教学中心教师)

来源:青年记者2022年7月上

编辑:范君