2024年03月29日 星期五
首页>青记微评 > 正文

青记观察丨社交媒体的算法歧视与规制

2021-06-04 08:35:04

来源:青年记者公众号   作者:王沛楠

摘要:研究证明,脸书的原生广告系统存在明显的基于特定性别和种族的算法歧视问题。算法歧视问题来源于“精准”推送广告的需求,却可能导致某一群体内部对职业选择和居住社区空间的自我强化

  脸书原生广告中的算法歧视

  社交媒体及其偏好推荐所存在的算法歧视行为,已经引发了学者的广泛关注。近日,南加州大学的研究团队证明,脸书的原生广告系统存在明显的算法歧视,并且将现实世界中存在的性别偏见复制到了广告的推荐系统中,使得资质类似的候选人因为性别原因无法同等概率地得到类似的招聘信息推荐。这进一步加剧了用户对于算法歧视和偏见的担忧。

  在这项研究中,研究者借助脸书的原生广告平台发布了涉及软件工程、销售和食品配送等多个领域的招聘广告。广告所涉及的公司及其职位需求都是真实存在的,且对于技能要求是相近的。但相关企业中一个公司的男性员工比例过高,另一个公司则是女性员工比例过高。脸书的原生广告系统则有选择地推送了这两家公司的招聘信息,将男性员工比例过高的公司的招聘广告推送给了更多女性,而同时将女性员工比例过高的公司的招聘广告推送给了更多男性。

  研究者认为这已经违反了美国的《联邦雇员反歧视法》,“我们已经证实,脸书的广告投放可能会存在基于性别的偏见,这在一定程度上超出了法律许可的合理性”。这事实上已经不是脸书第一次面临类似的指控,早在一年多以前,另一项研究同样发现了脸书的招聘广告在人口统计学的选取上存在偏见。它会有选择地将不同类型的工作匹配推送给不同种族和性别的用户。例如收到木材行业的工作岗位广告的有72%是白人用户,90%是男性用户;收到超市收银员岗位推送的85%是女性用户;收到出租车司机的工作岗位的75%是黑人用户。这其中包含了明显的刻板印象偏见。

  尽管脸书不允许广告商查看广告浏览者的种族构成,但研究人员表示,他们能够通过交叉参考脸书提供的其他用户信息——特别是用户居住的地区——比较精确地推断出种族等指标。在某些州,脸书的数据还可以与选民登记记录中持有的种族数据交叉参考。通过这种“交叉参考”的方式,数据完成了去匿名化的过程,进而帮助广告商比较精确地完成信息的推送。

  除了招聘广告,事关社区人口构成的售房和租房广告业存在信息的歧视性滥用。脸书的售房与租房广告在不同程度上也存在着种族主义的算法偏见。研究者发现脸书在向75%的白人用户推送售房广告,而租房广告推送的人口统计学分布则更为平均。

  事实上,研究者本身并没有对推送的人口统计学指标进行任何要求,他们只是希望广告能够覆盖美国的脸书用户。但脸书的算法黑箱则主导了推送的种族和性别问题。正如脸书吸引潜在的广告主的台词“我们试图向人们展示与他们最相关的广告”所说,脸书的算法如何判断何谓“相关”?其他社交媒体的算法机制是否如同脸书一样容易产生偏见?研究者们对于算法歧视的讨论试图揭露答案。

  算法歧视的来源与隐患

  脸书是如何决定谁看什么的,这是信息时代的一大秘密,隐藏在保密协议、商业机密法和普遍的不透明文化背后。虽然研究者们无法从黑箱中揭示脸书的精准推送算法是如何工作的,但他们的研究仍然具有重要的启示意义,告诉我们脸书为用户推送的住房和就业广告背后包含的是一种与种族和性别的刻板印象密切相关的偏见——即使广告商期待的是投送给广泛而不确定的受众。

  事实上这种精准推送在脸书中包含了两个步骤,第一步是由广告商所主导的,广告商可以选择脸书中的某些细分人口为投放目标,例如“加拿大喜欢羽毛球的女性”等指标。第二步则是脸书的算法驱动的,算法会协调广告主的需求和特定时间段内使用脸书应用用户的流量,将广告定制化地投放给某些用户。广告主可以看到哪些用户最终观看了广告,但永远不允许知道这些用户是如何被精准选中的底层逻辑。

  算法歧视这个问题本身已经吸引了广泛的关注,但研究者始终无法精确地回答这种偏向性推送结果的根本机制,正如用户也无法理解自己为何会看到某条广告或者某个偏好推送的内容一样。这在本质上是算法设计的问题。脸书的广告投放算法与它在数十亿用户中使用的其他所有自动决策系统一样,是一个算法黑箱。除了真正运营算法的人之外,对任何人都是不透明的。

  研究团队现在能够确认的是,广告投放算法会根据过去谁点击过类似的广告来进行自我训练。如果更多男性用户点击了某一则广告,那么算法就会在未来把它推送给更多男性用户。研究人员认为“脸书会根据用户对某一则广告的点击反馈来决定是否带有倾向性地推送广告”。但更为值得注意的是,即使广告商在第一步中没有任何偏好推送的意愿,脸书仍旧会利用算法有偏见性地进行广告推送。

  在先前的那项研究中,研究者没有在投放招聘广告的时候要求偏好推送,而是希望向尽可能多的人展示这些职位列表。即使这样,研究者发现广告最终的取向仍然是存在偏见的,这说明原生广告行业正在将“谁看什么”的决定权完全交给社交媒体及其不透明的算法。研究者在回顾这项研究的时候表示,“尽管广告主可能完全没有类似的意愿,但我们仍然观察到了算法通过历史点击率来进行有倾向性的投放。这说明脸书可能是在以自己的长期商业利益凌驾于广告主对于多元宣传的愿望之上的”。

  相比于内容领域的精准推送,在招聘和售房广告中加入这一元素可能带来更加难以预料的后果。脸书的原生广告算法精准地围绕性别和种族等元素进行有偏向的投放,证明了原生广告系统也存在着公众所不了解的机制,可以导致潜在的歧视性结果。这种自动化决策的机制也在受到越来越多的质疑,瑞尔森大学的元?史蒂文森认为,算法这种中立的、基于数学逻辑的技术并不公平,它的制作过程可能体现着“创造者的偏见”。同时算法和自动化技术内置的偏见,因此会偏向与算法创造者持有类似价值观的人,这可能会对现实生活产生直接的影响。

  有一种常见的反驳观点认为,算法歧视只不过利用有效的精准推送和定向广告的技术,这是对消费者的“恩惠”,让他们免去了不相关的广告,而提供与他们更加相关的商品和信息。但这个浅薄的推理忽略了一个问题,那就是相关性的决定可能会加剧人的自我强化,从而反过来进一步塑造人对这个世界的理解。因此,对于算法歧视的规制仍然是必要的。

  算法歧视的规制

  值得注意的是,研究者除了在脸书平台上投放广告之外,还在另一个职场社交平台领英(LinkedIn)中投放了相同的广告,但领英的广告没有检测出明显的偏见性推送。这进一步说明平台是可以控制和完善自身的推送机制,使其算法的效果更可靠、准确且符合公共利益的。事实上,脸书曾经在2019年与民权组织达成过“和解”,承诺防止在就业、住房和信贷广告中出现针对妇女和老年劳工等受法律保护群体的歧视。但新近的研究表明,脸书并没有在这方面做出实质性的改进。

  脸书的发言人在回应上述问题的时候表示:“我们反对任何形式的歧视,我们已经对我们的广告定位工具进行了重要的改变,并且知道这只是第一步。我们一直在研究我们的广告投放系统,并就这一话题与行业领袖、学者和民权专家进行了交流——我们正在探索更多的改变。”但仅仅依靠企业自律可能不是解决算法歧视的唯一手段。

  作为一个新兴的问题,各国对于算法歧视的规制基本都是空白。研究者则提出了一些初步的方案,尝试对社交媒体的算法歧视进行有效的规制。由于平台受到商业利益的驱动难以实现有效的自我规制,独立的第三方审核可能需要在其中发挥更为重要的作用。对于相关问题的研究者和调查记者而言,他们需要在算法歧视的规制中扮演更为重要的角色。

  一方面,诸如脸书这样的平台需要吸纳相关的研究者和调查记者成为其外部审核人员,在保证其数据安全和用户隐私的前提下让审核人员有特别的访问权限,从而为算法歧视的监控提供渠道;另一方面,平台需要为外部研究者进行算法歧视审核提供降低成本的便利。由于无法从内部打开算法黑箱,审核人员需要从外部观察反推黑箱内部的运行原理,并发掘其中存在的算法歧视,这将大大增加研究的成本。脸书等平台需要为这些第三方审核人员提供一个更低成本的机制,帮助他们更好地监控平台上存在的算法歧视现象。

  但归根到底,法律规制可能会成为限制算法歧视更有力的武器。研究者认为,在就业、招聘等方面的算法歧视行为可以利用《美国反就业歧视法》来进行规制,但其他类型的算法歧视现在是缺乏有效规制的。因此,如何以立法方式更有效地约束社交媒体平台利用算法进行有偏见的信息分发,是对于算法歧视进行有效规制的未来道路。

  (本文原文为“Research Says Facebook’s Ad Algorithm Perpetuates Gender Bias”,译自:https://theintercept.com/2021/04/09/facebook-algorithm-gender-discrimination/。作者山姆·比德尔为科技门户the Intercept记者。编译者王沛楠为清华大学教育研究院博士后,清华大学写作与沟通教学中心专职教师)

  【文章刊于《青年记者》2021年第9期】

来源:青年记者公众号

编辑:小青