2024年04月29日 星期一
首页>青记微评 > 正文

生成式AI在新闻生产中的应用、现实问题及其应对

2023-12-15 09:06:38

来源:《青年记者》公众号   作者:陈 莎

摘要:生成式AI在辅助新闻生产,推进新闻报道创新的同时,也存在提供不准确事实、算法不透明、适用边界存争议等问题,为此,媒体应从优化编辑流程、披露算法信息、设定机器适用边界等方面规

  生成式AI即“Generative AI”,是一种专注于生成或创建新内容的AI技术,它利用现有的文本、音频或图像等数据集进行机器学习,然后生成全新内容。[1]伴随GPT-4及其衍生模型的出现,生成式AI的生产功能愈发强大,除文字编写外,它还能处理语音、代码、图像、视频、手势等多种格式文本。它不仅持续成为新闻报道的重要议题,还正在成为媒体新闻生产链条中的重要基础设施,这意味着新闻生产将正式进入全方位的人机协作模式。媒体该如何负责任地使用这类技术,成为亟待探析的问题。

  生成式AI在新闻生产中的应用类型

  使用AI辅助新闻生产是媒体数字化转型的重要路径。在过去十年,智能化新闻生产创新经历了三个阶段:自动化(automation)、增强(augmentation)、生成(generation)。[2]相比前两个阶段,生成式AI因在算法系统中加入了代码预训练、指令调整、基于人类反馈的强化学习,使得其应用场景更为广泛。学者Diakopoulos总结了记者利用生成式AI辅助新闻的13种场景:内容发现、文件分析、翻译、提示引导、社交媒体内容创作、自动化写作(结构化数据)、自动化写作(非结构化数据)、新闻线索发现、摘要生成、评论审核、内容格式转换、标题优化以及A/B测试、个性化分发等。[3]不同的媒体接入生成式AI的路径不同,使用场景和功能应用会有所差异。

  目前,国内外媒体应用生成式AI的方式主要有以下三种类型。

  (一)通用工具型

  通用工具型即媒体与生成式AI系统的关系是相互独立的,媒体与平台其他用户一样,通过登录生成式AI服务平台,使用其功能辅助新闻采写。通常,媒体人只需要注册平台账号使用产品即可。这种方式成本低,使用灵活,是媒体接入生成式AI最常见的方式。以ChatGPT为例,记者可以将需要查询资料的问题输入聊天对话框,并在对话框中给出提示工程指令,ChatGPT便能快速地提供其知识数据库的信息。

  在读图、短视频时代,视觉要素一跃成为与信息同等重要的内容,以抖音为代表的社交媒体平台在其视频剪辑应用中开发了自动化视频剪辑功能,这反映出生成式AI不仅能将复杂的事件、深奥的数据等转化为便于理解的图表或图像,还能通过视觉生成能力,创造传统新闻无法实现的效果,为新闻生产提供更多的创新可能。[4]目前,新华社音视频部成立了AIGC应用创新工作室,“AIGC说真相”已发布5篇创意短视频,视频质量优异,传播效果良好。

  (二)平台接入型

  平台接入型是生成式AI系统平台为媒体内容生产提供API接口,为媒体提供内容分析、情感分析、事件抽取、摘要生成、个性化推荐、内容审校、可视化生成等多种服务。这种类型的人机协作生产,媒体人主要负责提供文本数据,机器则负责产出与呈现。在机器、媒体、终端用户三者互动中,媒体扮演了媒体终端用户与生成式AI互动的中介,即媒体提供并设定新闻议程原始文本——生成式AI 系统平台负责技术实现——媒体提供终端展示,其本质是终端用户与生成式AI平台的互动。

  《纽约时报》利用ChatGPT 创建的一个带有提示组合的情人节消息生成器互动新闻《A VALENTINE, FROM A.I. TO YOU》,国内澎湃新闻移动端新闻分享功能自动生成的海报新闻,均是平台接入型的典型代表。在传统的互动新闻生产中,媒体需要自身写代码、算法来设计互动新闻的交互议题,但通过介入生成式AI接口,媒体只需要发出互动新闻的设计指令,生成式AI便能自动生成互动新闻产品。在一定程度上,生成式AI能以相对简洁的方式辅助新闻工作者进行创意表达。

  (三)专有系统型

  专有系统型是媒体构建专门服务于媒体自身的生成式AI系统,这种类型应用的搭建需要媒体自身有强大的技术支持,如建有数字媒体库、开发赋予媒体自身的专有算法等。其优势在于,一方面可以将媒体价值观嵌入系统中,生成符合媒体定位的内容;另一方面,源数据库来自媒体本身,脏数据源相对较少,能降低输出偏误风险。它通常投入成本高,适合特定的大型媒体集团,如经济、体育、政治等领域的商业媒体。

  学术机构研发的支持新闻报道多角度的AngleKindling、彭博社发布的BloombergGPT即这种类型的生成式AI。专有系统型收集了不同新闻议题的多种报道角度、方式,可对所在媒体数据进行针对性训练,通过情感分析、命名实体识别、新闻分类和问答等生成多角度的行业报道。换言之,这种专有生成式AI能被调用在新闻生产的策、采、编、校、审、发等各个流程,在辅助新闻生产各环节中提供鲜明的个性化服务,满足媒体对特定信息的需求,包括:(1)自然语言的专有解释,如在财经类媒体交互系统中,输入“苹果(Apple)”会更多地指向苹果公司而不是水果苹果;(2)专有数据库链接,如链接上市公司时事交易数据库;(3)特定风格新闻设定,如生产适合媒体定位的自动化新闻写作等。

  生成式AI参与新闻生产存在的现实问题

  和人一样,机器也不是万能的,其参与生产的内容也会出错,况且不同的人对人机互动认知存在差异。在实践中,生成式AI辅助新闻生产仍存在以下问题。

  (一)提供不准确事实风险

  真实、准确是新闻报道的基本原则,然而任何技术在对复杂世界进行转译时,都无法做到100%准确。挪威报业集团施博史泰德(Schibsted)在实验生成式AI辅助新闻摘要发现,有十分之一的内容包含了“幻象”或虚构的成分。[5]同样,ChatGPT遇到数据库没有的数据,它不会直接告知不知道,只会编造一个答案,提供虚假事实。

  究其原因,这主要是由技术的局限性造成的。当前,生成式AI在逻辑推理、可靠性、稳健性、准确性、安全性上还存在一定的局限。[6]首先,生成式AI本质上是通过机器学习来理解自然语言,其理解方式和决策判断的给定是由统计概率给出的,换言之,它更擅长做统计性类别的决策而非准确的逻辑推理,如对于数学或一阶逻辑,其时常给出错误答案。其次,生成式AI生产的知识虽来自大模型语言数据库,但这些数据库只链接了现有网络数据,其整合的知识是现阶段互联网上可追寻的知识,它并不实时更新,反馈的知识有时效局限。此外,网络数据库本身包含了大量不准确的数据,也会影响输出决策的准确性。与此同时,生成式AI多以大语言模型为基础,庞大的数据体量加剧了数据噪声,会导致模型对训练数据不存在的概念进行强行捏造,生成看似正确但实则失实的决策。

  (二)“算法透明”不规范

  自新闻生产进入算法转向以来,因算法黑箱带来的算法不透明、算法偏见削弱了公众对新闻的信任,学界呼吁智能新闻生产遵守算法透明伦理。算法透明(algorithmic transparency)是一种试图阐明算法信息公开的机制。对终端用户而言,人机协作新闻生产的算法透明即披露算法的存在。

  当前,多数媒体算法透明意识不足,在自动化内容生成中,要么不披露算法的存在,要么不知道如何披露。2022年,美国科技媒体CNET曾悄悄发布了数十篇由AI生成的报道,由于未披露作者的算法身份,这一行为遭到了新闻学界、用户的强烈批评,[7]批评不仅因其传播虚假事实,还在于算法作者身份的不透明。受信任惯习影响,公众普遍对生成式AI技术尚未建立起良好的信任关系。在美国,调查发现,78%的人认为依靠软件撰写的文章不是好事。[8]

  (三)适用边界存争议

  生成式AI超强的计算能力能提升新闻采编的效率,但并不是所有类型的新闻都适用于机器自动化生产。于一些涉及敏感性数据、对伦理要求较高的报道而言,任何一个小的错误都可能引发系统性风险,有损媒体声誉。

  新闻采编涉及的敏感性数据有机密文件,以及新闻来源、员工、客户或业务合作伙伴或其他自然人的机密信息、商业秘密或个人数据,若将这些数据输入AI系统,存在信息泄密、侵犯他人隐私权等风险。

  人伦敏感题材,如讣告、人文关怀较强的严肃议题,能否用生成式AI来报道还存在争议。ChatGPT编写密歇根州一所高校发生枪击事件讯息的行为遭到了学生抗议,抗议点在于,学生认为使用人工智能来编发人类悲剧信息是对生命的不尊重,有违伦理。[9]在人机协作的智媒时代,人类对自动化生产的信息接受度并不高。在公众现阶段的认知中,他们仍然会从人类中心主义的视角去评价自动化行为,特别是在有关人伦方面,公众普遍会认为机器生产的信息缺乏“灵韵”(aura),对与生命议题相关的报道,更希望是人类亲自参与的无中介化(un-mediated)报道。

  人机协作新闻生产的应对策略

  面对既有问题,媒体不仅需要正确认识生成式AI的内容生产机制及其局限性,还需建立一系列规范优化人机协作生产流程。

  (一)优化编辑流程

  事实上,传统媒体在新闻采写过程也会出现记者提供不准确信息的情况,媒体对其解决之道是设立编辑,对报道是否真实、准确进行把关。针对技术固有的缺陷,媒体人能做的依然是对可控的技术风险做好把关,重视人机协作生产中人的重要性,优化人机协作新闻生产的流程。

  优化编辑流程的第一道把关要点是提升媒体人的智媒素养,让其正确认识生成式AI的内容生产机制及其局限性。不同平台的AI系统,在内容生成的功能和性能上会有所差异,要提前学习相关知识。另外,对智能系统提供的事实及其报道进行把关是减少假新闻生成的必要流程,包括对生成式AI提供的信息进行核实核查,或设立专门的AI编辑负责自动化新闻生产等。面对自动化内容大规模生成的现实,《金融时报》专门设立AI编辑来降低自动化内容风险;The Newsroom要求对所有AI生成内容进行核查,必要时由记者进行修改。荷兰新闻社ANP在其关于人类监督参与生成式AI生产的指南中提出“人>机器>人”过程协作模式,指出使用AI或类似的技术时,须“支持最终编辑,前提是事后由人类进行最终检查”,即代理和决策均由人监督。[10]

  (二)披露算法信息

  自ChatGPT发布以来,多家媒体在用户社区中征集用户对AI 生成内容的看法,以“自媒体”平台Medium社区为例,众多用户提到算法透明和披露的必要性。为此,建立透明规范、披露算法信息是人机协作内容生成阶段的重要伦理。对终端用户实行的透明策略有以下两种。

  1.告知算法信息。例如,Medium为使用AI语言工具制定的第一个“透明度、披露和出版级指南”政策指出:当使用生成式AI工具创建提交的任何部分时,创作者必须像引用任何其他来源一样引用它。[11]

  2.告知人参与信息,对自动化参与内容进行分类分级管理。如对纯自动化内容,主动标识为高风险信息,并注明其为自动化生产,未经过人工审核,存在事实不准确的风险;对人机协作生成内容,标记为中低风险,告知人工参与信息等。

  (三)规范机器适用边界

  在当前的人机协作新闻生产中,媒体(人)应该有机器参与内容生成的边界意识,在人机协作生产中协调新闻当事人、用户、媒体的权益。

  基于此,较多的智能化编辑部多将生成式AI限定在非敏感题材新闻的生产中。以专注智能化新闻生产的The Newsroom为例,该平台上的内容主要是对既有报道的加工,为防范风险,平台还根据内容主题对其做风险分级管理,对不同风险类别做相应的人工审查。如将不适合机器内容生产的议题视为高风险,禁止相关议题数据上传系统。

  结  语

  生成式AI在新闻生产中的应用并不是让机器替代新闻工作者做出决策,而是由记者定义报道的角度、风格、价值导向等,其目的在于提升人机协作生产的内容的质量。为此,学界、业界需要进一步探索更为切实可行的数字新闻伦理,规范媒体对技术的使用,防范新闻算法风险。

  【本文为2021年重庆市教委社科规划项目“智媒时代重庆政务传播的平台拓展与策略创新”(编号:21SKGH243)阶段性成果】

  参考文献:

  [1]Gozalo-Brizuela R, Garrido-Merchan E C. ChatGPT is not all you need. A State of the Art Review of large Generative AI models[J]. https://doi.org/10.48550/arXiv.2301.04655.

  [2]Marina Adami.Is ChatGPT a threat or an opportunity for journalism? Five AI experts weigh in[EB/OL].(2023-03-23)[2023-04-10].https://reutersinstitute.politics.ox.ac.uk/news/chatgpt-threat-or-opportunity-journalism-five-ai-experts-weigh.

  [3]Nick Diakopoulos.What Could ChatGPT Do for News Production?[EB/OL].(2023-02-10)[2023-04-10].https://generative-ai-newsroom.com/what-could-chatgpt-do-for-news-production-2b2a3b7047d9.

  [4]AIGC已改变新闻业[EB/OL].微信公众号“腾讯媒体研究院”,2023-08-28.

  [5]Johannes Gorset.Schibsted experiments with AI, finds 37+ ways it can help[EB/OL].(2023-03-27)[2023-05-01].https://www.inma.org/blogs/media-leaders/post.cfm/schibsted-experiments-with-ai-finds-37-ways-it-can-help.

  [6] Zhou J, Ke P, Qiu X, et al. ChatGPT: Potential, prospects, and limitations[J]. Frontiers of Information Technology & Electronic Engineering, 2023: 1-6.

  [7]Paul Farhi.A news site used AI to write articles, It was a journalistic disaster[EB/OL].(2023-01-17)[2023-04-10].https://www.washingtonpost.com/media/2023/01/17/cnet-ai-articles-journalism-corrections/.

  [8]Artificial Intelligence Use Prompts Concerns[EB/OL].(2023-02-15)[2023-05-01].https://www.monmouth.edu/polling-institute/reports/monmouthpoll_us_021523/.

  [9]Jennifer Korn.Vanderbilt University apologizes for using ChatGPT to write mass-shooting email[EB/OL].(2023-02-22)[2023-04-01].https://edition.cnn.com/2023/02/22/tech/vanderbilt-chatgpt-shooting-email/index.html.

  [10]Hannes Cools, Nicholas Diakopolulos.Writing guidelines for the role of AI in your newsroom? Here are some, er, guidelines for that[EB/OL].(2023-07-11)[2023-09-18].https://www.niemanlab.org/2023/07/writing-guidelines-for-the-role-of-ai-in-your-newsroom-here-are-some-er-guidelines-for-that/.

  [11]Scott Lamb.How we’re approaching AI-generated writing on Medium[EB/OL].(2023-01-27)[2023-04-10].https://blog.medium.com/how-were-approaching-ai-generated-writing-on-medium-16ee8cb3bc89.

  (作者为山东大学文化传播学院博士研究生)

  【文章刊于《青年记者》2023年第19期】

  本文引用格式参考:

  陈莎.生成式AI在新闻生产中的应用、现实问题及其应对[J].青年记者,2023(19):57-59.

来源:《青年记者》公众号

编辑:小青