2025年01月16日 星期四
首页>青记微评 > 正文

算法、谎言和社交媒体平台

2022-06-02 13:49:58

来源:《青年记者》公众号   作者:王茜/编译

摘要:社交媒体平台中,充斥着各种错误信息。平台算法会针对消费者的偏好和个人属性,分发具有指向性的广告。

  曾经,互联网被认为是促进社会公益活动和社会正义传播的一种重要力量。今天,互联网对社会负面信息传播和两极分化的驱动力作用也是显而易见的。无论是活跃在社交媒体平台中的假新闻机器人,还是随处可见的网络错误信息,抑或是广为传播的阴谋论,社交媒体平台的思维定式似乎唤起了某些深不可测的负面力量。我们需要探讨的是,未来监管者如何通过自上而下的控制来对抗这种负面力量。

  社交媒体平台与错误信息

  互联网对用户影响机制的悖论值得讨论。一方面,社交媒体平台和传统媒体所面临的市场环境截然不同。传统媒体是针对消费者进行信息传播并满足其需求,而社交媒体平台的存在是为了向广告商出售用户信息,进而满足广告商而非消费者的需求。在社交媒体平台和一些App上,用户通过将他们的数据提供给未知的第三方来获得免费服务,然后这些第三方会针对消费者的偏好和个人属性,分发具有指向性的广告。正如哈佛大学社会心理学家肖莎娜·祖博夫所言,在平台所形成的“监视资本主义”中,平台为确保它们的利益与广告商保持一致,经常以牺牲用户的利益和福祉作为代价。

  这种经济模式正在不知不觉中推动社交媒体平台和App利用用户的认知限制和脆弱性展开各类商业行为。例如,在大多数不确定的网络环境中,人们会更加关注令人情绪激动或令人惊讶的信息,这种情绪关注在对人们生活产生紧密联系的群体中至关重要。通过这种方式,人们可以快速更新有关周围世界和社会伙伴的信息并采取相关行动。

  然而,当平台利益与用户利益不一致时,这些策略就会变得不适用。平台知道如何实现其利益,例如为了广告收入最大化,它们会向用户展示吸引他们注意力并能够保持频繁参与的内容。像YouTube会推荐那些愈加耸人听闻的视频内容,目的是让人们的注意力集中在屏幕内容上。Mozilla的研究人员通过一项研究证实,YouTube不仅展示且积极向用户推荐违反平台政策的视频,这些内容涉及政治和医疗相关的错误信息、仇恨言论和不当内容等。用户在网上的注意力更容易被负面新闻所吸引,错误信息特别容易引起人们的愤怒情绪,为了引起用户的注意,假新闻头条被平台设计成比真实新闻头条更加负面的内容,尤其是那些容易激起愤怒的信息。据内部人士透露,Facebook的新闻推送算法赋予引起愤怒情绪内容的权重是唤起快乐情绪内容权重的5倍。于是,欧洲的政党开始投放更多负面新闻,因为负面新闻更容易受到Facebook算法的青睐和推荐。

  算法的不透明与错误信息的发布

  除了根据个性化与相关性进行信息选择外,算法还可以过滤掉那些有害甚至非法的信息,例如自动删除仇恨言论和暴力内容。正如哥伦比亚大学奈特第一修正案研究所高级研究员伊芙琳·杜克所指出的那样,在疫情大流行之前,大多数社交媒体平台都在保护言论自由方面犯过错误。马克·扎克伯格在个人Facebook帖子中称其为“真理的仲裁者”。在新冠肺炎疫情期间,这些平台对虚假信息采取了更具干预性的方法,并表示要删除或限制与新冠肺炎疫情有关的错误信息和阴谋论。在没有人工审查的情况下,这些平台依靠自动化工具删除相关错误内容。

  尽管大多数社交媒体的内容发布是由算法完成的,但人类仍然会通过设计算法的规则来进行管理,这些规则包括区分算法可能造成的意义含混不清,例如:算法应该删除有关气候变化的虚假信息,还是仅删除有关新冠肺炎疫情的虚假信息?这种内容管理使人类决策者拥有价值权衡的权力。管理者需要在捍卫个人权利与维护社会其他利益之间取得平衡,而社交媒体平台既没有被授权也没有能力实现这一点。

  对用户来说,算法是不透明的。互联网和社交媒体平台缺乏传统商业交易特征的基本信号。当人们购买汽车时,他们知道自己的需求,如果那辆车未能达到他们的期望,消费者就会清楚地知道可能造成的损失。相比之下,当人们使用社交媒体时,并不能够总是意识到自己正处于平台与广告商之间,自己也是产生个人数据的商业交易的被动主体。人们很难将商业交易的不良后果与社交媒体的使用联系起来。当社交媒体助长政治极端主义或社会两极分化时,这种联系则更加难以建立。

  用户也不了解社交媒体上的新闻是如何推送到自己面前的。即使是那些了解算法管理的用户,也往往无法准确理解其中涉及的内容。皮尤研究中心在2019年发表的一项研究中发现,74%的美国人不知道Facebook保留了有关他们兴趣和个人特征的数据,不知道自己消费和产生的信息是由算法进行管理的,也不知道算法向他们展示的是经过精心策划的信息,这些信息可能会引发他们愤怒的情绪,而这些错误信息的发布与每个人的特征是密切相关的。

  社交媒体平台治理的策略

  人们可以做什么来改变这种权利的不平衡状态,并使网络世界变得更美好?谷歌高管曾将互联网及其应用程序称为“世界上最大的无人监管空间”。然而在当下这种观点已经站不住脚了,大多数政府意识到要对在线信息和社交媒体平台进行管理。为保护公民免受错误信息操纵,需要重新设计所谓的在线“注意力经济”,进行平台治理。这种重新设计需要恢复类似传统市场中消费者和公众可获得的信息信号,例如用户需要知道平台究竟在做什么。同时,监管者必须借助治理工具来判断平台是否公平行事并符合公共利益。

  首先,个人数据必须体现更大的透明度,赋予个人更大控制权

  透明和控制不仅仅是崇高的法律原则,也是强烈的公共价值观。欧洲一项调查结果表明,近一半的公众希望在控制在线个人信息的使用方面发挥更积极的作用。因此,平台公司需要向人们提供更多关于他们为什么看到特定广告或其他内容信息的依据。信息定制的完全透明性尤为重要,因为平台可以使用个人数据来推断用户的个人特征,甚至是涉及个人隐私的特征。最近,Facebook还允许广告商根据人们的健康状况、性取向或宗教和政治信仰等敏感特征来定位消费者,这种做法在同性恋并非合法化的国家可能会严重危及用户的个人隐私和生活。

  其次,平台必须在新闻源中表明信息的质量,以便用户评估访问此类信息带来的风险

  平台可以使用调色板来进行内容提示。例如,基于内容本身的“内生”线索可以提醒用户注意可能会激起愤怒的情绪化词语,“外生”线索来自可以揭示上下文信息的用户评论,了解信息来源是否可靠及此前谁分享过此内容等。扎克伯格提出,Facebook的相关研究表明,通过将内容变灰(且需要点击才能访问)和提供警告标签,可以减少95%的与新冠肺炎疫情相关错误信息的访问。

  再次,当社交媒体上传播的政治言论成为广告活动的一部分时,社交媒体平台公司有义务提醒公众

  政治信息不应该包装成独立意见的付费广告,进而扭曲整个广告市场。Facebook的“广告库”可能是解决问题的第一步,原则上这一广告库允许公众去监控政治广告,然而在实际操作中存在很多不足。例如广告库会遗漏很多明显的政治广告,同时也未能提供有关广告如何针对接收者进行投放的信息。除此之外,广告库在研究人员和从业者中广为人知,但在广大公众中并不为人所知。

  与此同时,公众必须确切地知道算法管理和排列信息的机制,才能有机会塑造自己的在线信息环境。目前,关于社交媒体算法黑箱的公开信息仅局限于来自网络举报者和学术研究。独立机构必须能够审核平台数据并确定纠正错误信息的措施。通过外部审核的方法不仅可以识别算法中的潜在偏差,还可以通过不控制新闻内容的路径,来帮助平台维护公众信任。

  在欧洲,不同的立法提案提出了一些解决的路径,但这些法律是否会获得成效还有待观察。或许,最好的解决方案是将社交媒体的控制权从不负责任的社交媒体公司转移到在公众监督下公开运作的民主机构。对社交媒体的监督方式,可以包括公众的投诉,对用户隐私进行保护性设置,去掉所谓的默认设置等等。除了指导监管,来自行为和认知科学的系列操作工具也可以帮助消除不良信息的危害,维护社会公共利益。一方面,可以进行平台数字架构的有效设计,更有效地促进在线对话的准确性和文明性;另一方面,可以开发针对用户的数字素养工具包,提高用户应对在线环境挑战的主观意识和能力。这些不同的管理模式,为未来的社交媒体平台治理提供了重要依据。

  (本文原文为Algorithms, lies, and social media,编译自https://www.niemanlab.org/2022/04/algorithms-lies-and-social-media/。作者斯蒂芬·莱万多夫斯基为英国布里斯托大学的认知科学家,阿纳斯塔西娅·科济列娃是柏林的马克斯·普朗克人类发展研究所的哲学家和认知科学家。编译者王茜为上海交通大学媒体与传播学院副教授,健康传播研究中心主任)

  【文章刊于《青年记者》2022年第9期】

  本文引用格式参考:

  王茜.算法、谎言和社交媒体平台[J].青年记者,2022(09):97-98.

来源:《青年记者》公众号

编辑:小青