2024年04月29日 星期一
首页>青记微评 > 正文

算法公平与“公平”算法——智能媒体算法公平有效落地方

2023-10-09 08:37:05

来源:《青年记者》公众号   作者:王娟 秦庆 汤书昆

摘要:基于公平概念本质上的可争议性以及政治性基本属性,可以从产品设计、平台运营、制度监管三个层面对其进行立体建构和维护。

  人工智能技术在赋能传媒业发展的同时,也引发了一系列的伦理冲突议题,如算法偏见与歧视[1],算法公平因此成为热门话题。然而,鉴于算法公平中的“公平”主要被看作技术问题,研究者预先设定特定的“公平”概念,将之应用到算法中,而智能媒体中的算法公平并不只是技术问题,还包括诸如政治议题、社会议题等,故而在智能媒体生态研究中,尚未构建出一个通用性算法公平的实践路径。

  当下算法公平的技术解决进路大致流程如下。首先,设定“公平理想”。例如,将个体公平定义为相似的个体受到相似的对待,将群体公平定义为政策和程序以相同方式影响不同群体。其次,选定公平性指标。依据公平理想,指定评估标准——“公平度量”,用于检测、诊断算法决策系统中的不公平;这些公平性指标采用数学表达式的形式,对公平进行模型化处理。再次,以公平度量设定的标准为基准,通过减少偏差来促进公平[2]。

  我们认为,在由人与智能媒体共同主导的传播生态中实现算法公平,需超越公平的技术化范式,从产品设计、平台运营、制度监管三个层面对其进行立体建构和维护。

  算法公平的技术进路与改良方案实践

  当下,关于算法公平的研究与实践一般首先阐明在一组理想化的条件下公平世界的状态与特征,旨在为算法工程师提供一个可追求的目标状态。以此为标准,通过偏离目标状态的程度来识别和评估算法中的不公平。具体来说,通过数学的方式将算法公平中的“公平”概念转化为模型,提炼出反歧视指标,作用于自动化决策系统中的机器学习算法,以检测、减少以及防止算法偏见,使算法输出能够近似于某些预先设定的公平性度量所指定的理想结果[3],例如,公平分配算法模型[4]、公平推荐算法模型[5]等。

  虽然模型法大大提高了偏见检测效率与适用范围,在一定程度上实现了算法公平,但是模型法的底层逻辑是经不起推敲的。第一,设定的理想化公平目标状态是否是科学合理的。一旦该目标状态没有将重要的公平性因素纳入考虑范围,则极有可能生成新的不公平,带来系统性的不公正[6]。第二,该目标状态是静态的,然而,受到历史、文化、政治、经济等因素影响,现实世界的“公平”是处于动态变化之中的[7]。静态化的公平无疑无法作为标尺,指导对不公平现象的正确认知。第三,算法模型是否能够完全转译理想化公平的核心内容,目前还是存疑的。加之转译过程中涉及工程师的价值判断,很可能引入新的偏见。

  基于上述不足,技术改良主义者提倡关注具体语境,并不预设理想化的公平,而是在进行模型设计前充分调研一些不公平现象;进行公平模型化时,兼顾利益相关者群体,采用一组公平度量,各度量之间甚至可以是竞争性、矛盾性的,在此基础之上,来确保算法公平。例如,在个性化推荐系统中,算法公平被分为三种:针对消费者的公平(c-fairness)、针对供应商的公平(p-fairness)以及针对消费者和供应商的公平(cp-fairness)[8]。

  概而言之,技术进路着眼于理想层面的公平模型设计与应用,缺失在于难以确保其实用性;而技术改良主义虽然更强调具体情境中的公平,在机器学习算法中引入多类型公平,试图推出更加优化的算法,但是其本质上并未跳出模型法的窠臼。二者均将算法公平中的“公平”看作技术问题,都未很好地解决算法公平的有效落地问题。超越当下困境,需要从基本点上重新审视公平的定义,同时将算法公平中的“公平”从技术层面的聚焦转向社会技术系统中的多维关注,尝试探索新的路向。

  算法公平中“公平”的概念与基本属性刻画

  (一)“公平”:一个争议性概念

  技术进路之所以不可行,除了算法公平中的“公平”本身并不仅仅是一个技术议题以外,最根本的原因还在于对“公平”是什么目前尚未达成一致的意见。

  由于历史、文化、地理环境、种族、语言等多种因素相互作用,现实中关于“公平”应该涵盖哪些内容存在巨大分歧。现有文献对算法公平的定义多达二十多种,它们之间大都互不相容。德国伦理学家黄柏亨(Pak-Hang Wong)甚至提出,一个算法在数学上不可能同时满足所有表征公平公正的措施,亦不能同时满足两个或两个以上关于公平的形式化定义[9]。例如,美国多个州在刑事司法领域引入一款名为COMPAS的犯罪预测算法,作为建议量刑的基础,但是此举引发较大争议。以调查性报道见长的非营利性新闻机构ProPublica的记者发现,该算法可能在一定程度上实现个体公平,但如果只聚焦黑人与白人这两个群体,则其预测黑人的再犯罪率明显高于白人。

  综上,“公平”这个概念被认为本身就是分歧所在,似乎不能简单地通过迭代算法或升级技术来解决公平问题。据此,有学者提出算法公平的“不可能定理”(the Impossibility Theorem),即公平本质上是一个有争议性的概念,无论得到多少关于公平的定义,它们都将与其他版本相龃龉[10]。

  法学家、哲学家、人工智能研究者都在寻求克服公平的可争议性方式。一些学者试图通过缩小公平概念的范围来减少模糊性。例如,将公平分为四种:反分类(anti-classification)、分类均等(classification parity)、校准(calibration)、统计均等(statistical parity)[11]。

  另一些学者则采用罗列公平不同含义的启发式方法来推进研究。例如,英国计算机专家鲁本·宾斯(Reuben Binns)借鉴道德哲学中有关歧视、公平、平等主义等的讨论,定位机器学习领域中算法公平的争论所在[12]。美国哲学家希娜·法泽尔普尔(Sina Fazelpour)等通过借用政治哲学的理想主义与非理想主义概念,提出算法公平的非理想主义研究趋向[13]。

  上述尝试虽然有利于提升算法公平理论与实践的丰富性,但是这些“回避式”做法并不能从根本上消除公平概念的争议性。当下技术集成式发展使得社会科学家、人文学者和算法工程师等形成了生态共同体,以便于开展跨学科合作。在该种语境下,为了推进整体性研究,是允许意义含糊术语存在的[14]。据此可以在智能媒体算法公平中开放“公平”的概念,正视公平的多样化含义,在不同应用场景中对公平进行解读。

  (二)“公平”的基本属性:政治性

  通过第一部分论述可知,算法公平中的“公平”具有动态性与情境性属性。而在公平落地方面,其最显著的属性则是政治性,原因如下。第一,公平最初就是政治哲学关注的核心论题,涉及国家治理、权力、财富与资源分配等,是多方力量博弈的结果。第二,公平标准的选定常常伴随着价值判断、利益权衡,需要利益相关方的广泛参与、民主协商。由于资源的有限性,任何公平措施的选择都会不可避免地使某些利益相关者的利益高于其他人的利益,从而潜在地使某些群体受益。因此,在设计满足某些公平标准的算法时,需要权衡公平与其他竞争性价值,公平措施是否被认可,常常取决于各方力量能否妥协,达成一致意见。第三,公平概念具有动态性,表明其具有政治性属性。算法公平的技术观将“公平”看作理想化的、静态的目标状态,并不鼓励对“公平”的概念进行批判性反思、审视,这是典型的精英主义思想[15]。而在具体语境中公平涵盖的内容是利益博弈促成的某一时间段的稳定性与长时间段的变动性的统一。

  综上,基于公平概念本质上的可争议性以及政治性属性,实现算法公平有效落地,应从只关注算法公平技术层面转向关注其在社会技术系统中是如何被维护和建构的[16]。

  算法公平的实践路径

  智能媒体中的“公平”主要体现在内容生产算法与内容推荐算法中。前者侧重内容的公正、客观与观点上的平衡,即提供多种基于事实的权威观点,供公众理性评判;后者体现在信息的公平性上,即用户获取每条信息的概率是相同的。即便用户往往主动查阅感兴趣的信息,但算法推荐端的最基本逻辑始终应是确保信息公平性获取,而不是为了流量,将用户分类排序,进行歧视化推送。

  黄柏亨提出“算法公平”的民主协商模式,即任何算法决策过程都必须满足四个条件,才能合法和公平:一是公开性条件,即必须公开为实现算法公平所做的决策及依据;二是相关性条件,即为实现算法公平的路径提供合理的解释;三是修订和申诉条件,即允许公众对算法提出质疑,并及时修订和完善相关政策;四是管制条件,即通过公共管制,确保前三种条件得到满足[17]。该模式同样适用于智能媒体语境。政府、传媒机构、互联网科技企业、公众等利益相关者间需设立能够开展协商式对话的通道,建立弹性共商共治架构。以此为前提,“公平”算法实现算法公平,可以在智能媒体的生产、应用与监管的主要环节即产品设计、平台运营、制度监管三个方面发力。

  (一)技术设计:坚持“公平优先”原则,设置公平校准与动态评估机制

  一是坚持“公平优先”(priority of fairness)原则,前瞻性地将内容生产的公平、公正以及信息分发推荐的公平性标准嵌入算法。美国伦理学家迪尔德丽·穆里根(Deirdre Mulligan)通过跨学科概念性分析,提出算法公平的六维度分析理论[18],即将公平放入社会技术系统之中,聚焦公平拟达到的目标状态、利益相关者群体构成、不公平案例以及其可能引发的后果、公平保护的对象、公平应用的时间与空间范围等。该种方式能够有效促进算法公平从“纸面”走向“地面”,即在设计算法前,先从六个维度进行立体式分析,以便更充分、全面地认识智能媒体中的算法公平,然后再进行产品设计。二是设置公平校准与动态评估机制,确保“公平”定义动态性调整,以适应多样化的应用场景。当下算法公平技术进路为人诟病的弊端之一是将公平概念化、模型化之后,公平的评判标准静态化了,这无疑与现实世界的复杂性特征不相符。在决策系统的机器学习算法中嵌入公平校准机制与动态评估机制模块,通过对公平的实时监测、评估,可以较有效地调和算法公平中公平的静态设定与具体情境中公平的动态变化之间的紧张关系。

  (二)平台运营:多点发力,打造算法公平审查体系

  实现算法公平,平台扮演着非常重要的角色。2016年美国大选,特朗普团队被爆出通过大数据分析公司——剑桥分析(Cambridge Analytica),操纵社交媒体的算法推荐规则[19]。该事件引发了全球对社交平台算法公平的关注,Meta、Twitter等平台型媒体在舆论的压力下,先后推出了多种措施力促算法公平,如人机结合的内容审核机制,算法风险防控机制,以起点公平、过程公平、结果公平为导向对内容生产算法与推荐算法进行迭代升级机制等。除了已有的公平实践,平台公司还可借助相关测试工具包,如AIF360、Fairlearn、Fairness-Indicators、Fairness-Comparison等开放性源代码库,检测和减少智能媒体生命周期中机器学习模型的偏差,亦可以选择与第三方机构合作,进行公平审查。简而言之,通过内部技术迭代、措施部署与外部借力、合作,打造科学的算法公平审查体系。

  (三)制度监管:多方联动,推动算法公平混合式治理

  首先,在法律保障方面,我国算法公平相关政策体系形成了“1+N+1”模式:围绕算法推荐服务商形成了以国家互联网信息办公室为主导的政策法规和治理体系;围绕用户公平权益形成了各部门、各地方对相关行业主体的管理办法和暂行规定;围绕个人信息公平形成了以工信部为主导的法律法规和治理体系[20]。在此基础上,还可考虑成立一个全国性的算法公平组织机构,负责与传媒业及相关产业合作,出台智能媒体算法公平政策相关文件。其次,行政监管方面,可考虑成立专门的算法监管行动小组,负责协调部署针对智能媒体算法公平的管理措施。最后,行业自律方面,推动智能媒体伦理建构与新闻职业道德规范更新,搭建起伦理层面软性规约框架;同时,充分发挥国际、国内行业协会的他律功能,对算法本身以及算法应用进行全程化监督,以此推动算法公平落地形成自律与他律相结合的实践格局。

  此外,公众是算法公平落地与否的直接感知者与反馈者,通过在职教育、讲习班、多级别论坛等形式,将有助于打通算法公平落地的“最后一公里”。

  结  语

  实现算法公平,需要超越公平的技术化范式,正视公平概念本质上的争议性以及政治性基本属性,关注其是如何从产品设计、平台运营、制度监管三个层面被立体化建构与维护的。本文所提实践路径能够为当下的算法公平落地提供启发性思路。后续研究将细化算法公平的落地路径与措施探讨。

  【本文为合肥市哲学社会科学规划项目(编号:HFSKYY202349)、2021年中国科学院办公厅全国招标项目“国内科技创新关键指标和重点数据调研”(编号:ZYS-2021-01)阶段性成果】

  参考文献:

  [1]郭颖.智能传播中的算法偏见:生成逻辑、危害与治理[J].青年记者,2021(20):24-25.

  [2][3][6][13]Sina Fazelpour, Zachary Lipton.Algorithmic Fairness from a Non-ideal Perspective[J]. AAAI/ACM Conference on Artificial Intelligence, Ethics, and Society (AIES),2020.

  [4]刘梓璇,周建涛.负载均衡的主导资源公平分配算法[J].计算机工程与科学,2019(09):1574-1580.

  [5]方任喆. 基于用户吸引力的在线交友平台公平推荐算法[D].杭州电子科技大学,2020.

  [7]Andrew Selbst, Danah Boyd, Sorelle Friedler, et al. Fairness and Abstraction in Sociotechnical Systems[C]// FAT* '19: Proceedings of the Conference on Fairness, Accountability, and Transparency,2019:59-68.

  [8]Robin Burke. Multisided Fairness for Recommendation[J]. ArXiv, abs/1707.00093.

  [9][15]Pak-Hang Wong.Democratizing Algorithmic Fairness[J]. Philosophy&Technology, 2019(612):1-20.

  [10][12]Reuben Binns. Fairness in Machine Learning: Lessons from Political Philosophy[J]. Journal of Machine Learning Research, 2018(81):1-11.

  [11]Jon Kleinberg, Sendhil Mullainathan, Manish Raghavan. Inherent Trade-Offs in the Fair Determination of Risk Scores[J],2016, arXiv preprint, arXiv:1609.05807.

  [14][16][18]Deirdre Mulligan, Joshua Kroll, Nitin Kohli, et al. This Thing Called Fairness:Disciplinary Confusion Realizing a Value in Technology[J]. Proceedings of the ACM on Human-Computer Interaction.2019, 3:1-36.

  [17]王娟.智能媒体责任伦理建构探究[D].中国科学技术大学,2021:100.

  [19][20]陈玲,孙晋,薛澜.算法公平与算法治理的国际经验与中国探索[J].中国改革,2022(03):54-58.

  (王娟:巢湖学院讲师,中国科学院科学传播研究中心研究助理;秦庆:中国科学技术大学科技传播系博士研究生,中国科学院科学传播研究中心研究助理;汤书昆:中国科学技术大学讲席教授,中国科学院科学传播研究中心主任)

  【文章刊于《青年记者》2023年第16期】

  本文引用格式参考:

  王娟,秦庆,汤书昆.算法公平与“公平”算法——智能媒体算法公平有效落地方式探讨 [J].青年记者,2023(16):86-88.

来源:《青年记者》公众号

编辑:小青