2024年04月29日 星期一
首页>青记微评 > 正文

日本媒体为何集体对ChatGPT说“不”

2023-12-15 10:07:49

来源:《青年记者》公众号   作者:窦锋昌

摘要:日本新闻协会认为,使用新闻内容必须获得媒体许可,不能允许ChatGPT搭便车。

  10月18日,日本第76届报业大会在长野县召开,大会每年举行一次,主办方是日本新闻协会。除了常规的颁奖活动之外,今年大会的一个重头戏是“集体讨伐”生成式人工智能,380 位与会代表通过一项声明,呼吁尽快修改版权法,限制ChatGPT等人工智能对新闻产品免费使用的规定。

  今年初以来,关于生成式人工智能的讨论成为社会热点,以ChatGPT为代表的人工智能的发展进入了快车道,新闻生产无疑是最快面临此项技术挑战的领域之一。在ChatGPT之前,许多互联网媒体巨头已经在新闻分发环节大规模引入了人工智能技术,不过新闻生产领域的应用比较缓慢。但是,ChatGPT的引入改变了这一局面,如果没有外部限制的话,相信很快会在新闻采编中扮演重要角色,甚至会取代很多记者和编辑的工作。

  在这个巨大的挑战面前,日本媒体集体对ChatGPT说“不”,长野会议就是一次公开的“讨伐”。

  首先,声明批评了日本目前的版权法,认为该法对媒体的知识产权保护不力。日本2018年修改版权法时引入了“第三十条第四款”的内容,其中规定:“……对作品的利用并非为了使自己或他人享受作品所表达的思想或情感时,在使用的必要范围内,可以以任意方式使用作品。”这个规定为人工智能公司利用新闻作品进行技术开发和信息分析提供了比较有力的保护,因为此类应用通常不意味着人们通过感官享受这些作品,如此一来,新闻机构的知识产权就被无偿拿走了。对此,日本媒体认为,2018年版权法修订时,生成式人工智能的发展远没有到今天的地步,法律修订没有跟上技术创新的速度,在ChatGPT已经如此强大的今天,政府不应仅仅专注于促进数据的利用,而应从权利保护的角度制定与技术快速发展相适应的规则,其中就包括进一步修改版权法。

  其次,声明认为,日本已经有一些网络媒体利用ChatGPT抄袭报纸的内容,这样的操作显然属于非法行为。这些网络媒体将搜索引擎和生成式人工智能结合,总结归纳互联网上的信息,然后生成所谓自己的内容。在很多情况下,这些内容是以接近原始信息的形式生成的,根本就是在抄袭报纸文章,这是一种侵犯报社权利的行为。此外,虽然也有生成式人工智能生成的内容显示稿件来源,但显示的不是报业公司网址,而是其他网址,如此一来,作为信息最初来源的报业公司的网站就不能被有效访问,报业公司失去了本来应该有的流量,并继而失去了订阅量或者广告量,对报业公司的运营带来直接的损失。这些都属于“不公正地损害版权人的利益”的行为。

  最后,日本新闻协会认为,ChatGPT的过度使用给整个社会带来了负面影响,使人们陷入虚假和错误信息的“幻觉”(hallucination)之中,而学习了虚假信息和错误信息的人工智能将进一步传播这些信息。庆应义塾大学教授山本龙彦在长野会议上指出,个人的自主决策正在被“注意力经济”所破坏,“注意力经济”更注重吸引人们的注意力,而不是信息的准确性。他表示,人工智能产生大量看似合理的虚假信息“可能会使问题变得更加严重”。

  声明最后说,高质量的新闻内容是民主的基础,也是文化发展的基础。如果人工智能未经授权的无序使用对新闻机构造成影响并最终延迟了信息提供,结果就是妨碍人们的“知情权”。这对整个社会的健康发展来说,将是一个巨大威胁。

  当然,日本新闻协会是一个行业组织,该协会对ChatGPT的批评以及对版权法修订的呼吁代表的是日本媒体的看法,这可能也是一个“偏见”,并非全社会的共识。比如,IT界就可能持相反的看法,因为对比美国等国家,日本在人工智能发展上处于落后状态,日本现有版权法的规定对人工智能开发者来说更加有利。本文截稿之时获悉,日本新闻协会11月2日向内阁府提交了书面意见,表示“随着技术的进步,有必要制定适当保护知识产权的立法”。11月7日,内阁府与新闻协会举行了专门会议讨论相关问题。

  (作者为复旦大学新闻学院教授,高级记者,本刊学术顾问)

  【文章刊于《青年记者》2023年第22期】

  本文引用格式参考:

  窦锋昌.日本媒体为何集体对ChatGPT说“不”[J].青年记者,2023(22):127.

来源:《青年记者》公众号

编辑:小青