2024年04月29日 星期一
首页>青记微评 > 正文

ChatGPT对个人文本生产造成的潜在危机

2023-10-09 08:28:37

来源:《青年记者》公众号   作者:常庆 刘倩

摘要:本文从用户和被模仿者两个向度探讨ChatGPT对个人文本生产造成的巨大威胁,进而分析了用户在语言、思考模式、情感等方面的个人风格遗失问题,以及被模仿者的个人特色淹没、影响力降低和

  2022年11月30日,OpenAI公司推出基于大型人工智能语言训练模型GPT-3的智能对话工具ChatGPT。在文学创作领域,ChatGPT模仿出的文章仅仅是个别段落有点像,从整体来看仍存在较大的差异,甚至会出现“一本正经胡说八道”的现象。随着GPT-4模型升级,社会各界也意识到其所带来的风险,本文主要探讨ChatGPT在个人文本生产上存在的潜在危机。

  用户特点遗失:过度依存瓦解创新性

  (一)沉溺模仿驱使语言失控。美国社会哲学家刘易斯·芒福德认为:“维多利亚时代有一种信仰,相信通过掌握机器,人类一切其他组织制度和习俗规约,必然都能大大改进;如今的人们本来能够拒绝这种无根据的信仰。但是,当代人却仍然以疯狂的热情,集中精力继续大力发展科学技术。”[1]科技发展使人们热情澎湃,但不可否认的是,首先受到威胁的便是人类语言系统。写作从某种意义上来说是一种沟通方式,而语言和表达是写作的基础。使用ChatGPT这样的自然语言生成工具生产文本会让用户无法完全掌握自己的话语,从而使他们对自己的语言表达能力和表达方式产生不安和疏离感。英国开放大学教授迈克·沙普勒斯用GPT-3尝试生成一篇关于学习风格的论文,开头如下:“‘学习风格’的构建是有问题的,因为它无法解释学习风格形成的过程。有些学生可能会因为自己独特的经历,而形成一种特殊的学习方式。最终,我们需要了解学习方式与环境和个人因素之间的相互作用,以及这些因素如何影响我们的学习方式和我们体验的学习类型。”[2] 沙普勒斯本人认为这篇文章已经达到了研究生水平。若用户在使用ChatGPT生成高质量文本后尝到“甜头”,将会逐渐丢失自身的语言特色。德国社会学家马克斯·韦伯也指出,人们在使用工具的过程中,往往会过度依赖工具而忽视自身的理性。[3]使用ChatGPT生成文本的用户就面临着这个问题。这种工具理性的影响会使用户不断地失去对自己语言表达的掌控和自信,导致个人的语言和表达方式缺乏创新性。

  另外,每一种新的工具出现和普及,都会伴随着与这种工具相关的异常社会现象。用户机械地依赖ChatGPT的生成结果,会逐渐失去对自身语言和表达的感性理解与把握,当他们对自己的语言表达能力失去信心时,就会进一步加剧对ChatGPT的依赖程度。加拿大传播学者马歇尔·麦克卢汉所说的“媒介即人的延伸”[4]在当下不仅是人感官的延伸,也是一种依存方式。日本学者林雄二郎也将人们依赖过度的一些现象总结为“现代人媒介依存症”[5]。人们过度依赖和沉迷于某种特定的媒介或技术,导致生活质量下降、行为异常和社交障碍等问题,这种依赖和沉迷会让人们对媒介工具的使用产生强烈的渴求感,甚至出现戒不掉、无法自拔的情况。如果用户长期过度依赖ChatGPT生成文本,他们的表达能力和沟通能力将有所退化。例如,在学习方面,用户长期依赖ChatGPT,缺乏平时相关的语言练习,最终影响到成绩和学习成果。在线课程供应商Study.com向1000名18岁以上的学生发起一项调查,询问他们在课堂上使用ChatGPT的情况。结果显示,超过89%的学生使用ChatGPT来完成家庭作业。现在国外许多高校已明令禁止学生使用ChatGPT。因此,“媒介依存症”虽然是现代人的一种社会病理现象,但导致病理现象出现的并不是智能工具,而是使用工具的人的意识,正如德国著名社会学家乌尔里希·贝克所言:“当风险以‘未预见到’乃至全然‘不可预见’的方式到来时,人们会既感到惊讶,又深受震动”[6],若用户意识不到使用ChatGPT所产生的风险,从互联网的崛起到人工智能技术GPT-4问世,媒介依存的现象将只增不减。

  (二)思维消解陷入“培养”漩涡。美国纽约有关部门认为,“ChatGPT是对学生批判性思维和解决问题的能力的侵蚀”[7]。依赖ChatGPT生成文本会让用户的思考能力退化,变得缺乏创造性,写作不仅仅是一种表达方式,更是一种思考方式。由于社会上每个人的成长经历、所处环境和接受教育的水平不同,一千个人的心中便应该有一千个“哈姆雷特”。如果一个人过分依赖ChatGPT进行创作,他的思考能力将会逐渐退化。ChatGPT只能根据已有的文本来生成新的内容,无法像人类一样根据独特的经验和思考过程来进行创作。比如,美国CNN新闻台的主持人和特约评论员安德森·库珀曾经亲自到访许多国家,包括伊拉克、阿富汗、海地和苏丹等战乱或灾难地区,目睹了战争、饥荒和自然灾害的破坏。他并非简单地报道事件,还通过自己亲身经历的方式,深入分析这些地方的复杂情况,向人们展示了战争给生活带来的巨大破坏和创伤。这是ChatGPT无法达到的高度,因为ChatGPT依赖大量的文本数据,通过对这些数据的学习,模仿其语言的语法、结构、词汇等规律,除非用户“喂”给其充足的个人实践经验,但是这一“投喂”过程会使得用户的工作效率大大降低。

  用户过于依赖ChatGPT输出内容,循环往复,也会在一定程度上弱化自身的逻辑思考能力。20世纪60年代末,美国学者G·格伯纳提出“培养”理论[8],现阶段乃至未来,ChatGPT(犹如20世纪60年代的大众传媒)对用户的思维方式和表达能力也可能产生类似的“培养”作用。在美国哲学家赫伯特·马尔库塞看来,技术理性在对现代社会的发展产生巨大的推动作用的同时,技术理性的局限与“险恶力量”也逐渐显现出来,现代人正在坠入被生产手段的“渐进奴役”之中。[9]当用户越来越习惯于依赖ChatGPT去完成沟通和表达时,他们对问题的思考很可能随之形成思维定势,这样不仅会限制他们的创造力和创新性,使其作品缺乏个性与特性,也会让他们无形中卷入“培养”的漩涡越来越难以脱离。这种思维方式和表达能力的退化或许不会立刻显现,但长期如此将会产生一系列的负面影响。

  (三)价值后置引发情感欺诈。技术的发展导致个体化趋势加强,个人会更加关注自己的需求和欲望,过度依赖ChatGPT创作会让用户的文本失去真实的情感和个性,从而无法与读者建立真正的情感联系。一方面,写作中的情感和个性是非常重要的因素,使用ChatGPT生成文本可能会失去这种真实的情感因素,当受众感到作品缺乏真实性和吸引力时,也就失去了原本的兴趣和热情。这种情况下,ChatGPT从一个写作辅助性工具变成一种压迫性力量,限制人们自由的情感表达,如果用户盲目使用,便会忽视了传统的面对面交流和人类本能的情感表达方式。韦伯认为“只要是行动只为追求功利的目的所驱使,势必会漠视人的情感、精神价值的实质”[10]。当人们越来越依赖于ChatGPT生成文本,而忽视了自身情感和感性的因素时,工具理性就会超越个人理性,导致个人价值后置,甚至对终极价值缺乏关心。另一方面,如果ChatGPT生成的文本存在错误或偏差,而作者又不具备独立思考和校正的能力,那么就会给读者带来错误的信息和不良影响,甚至造成严重后果。例如澳大利亚赫本郡郡长布赖恩·胡德被市民告知ChatGPT将其认定为外国贿赂丑闻中的有罪方,但事实是他揭发了非法计划。[11]这样的后果不仅使受害者陷入名誉危机,也带给用户法律纠纷。

  此外,使用ChatGPT模仿个人文本生产会造成欺诈和盗取信息的风险,这也是一个无法回避的问题。ChatGPT可以生成高度逼真的文本,包括模仿个人的语句用词和表达方式,一些不法分子利用这种技术进行敲诈勒索或盗取信息,有可能导致用户失去其个人财产。在此情况下,使用ChatGPT生成的文本会被误认为是真实的,增加了人们对虚假信息和欺诈行为的信任,从而使人们产生误判,带来严重后果。

  被模仿者迷失:模仿失序淹没独特性

  (一)机械创作陷入模仿窠臼。法国社会学家加布里埃尔·塔尔德在《模仿律》中曾探讨:在文明进程中,被模仿的行为或思想在数量上和复杂性上增加,会不会使模仿越来越精确或越来越混乱呢?[12]难以否认的是,从被模仿者的立场上,海量的模仿会使他们淹没于茫茫人海中。ChatGPT基于GPT-3模型能够模仿个人的写作特点,随着GPT-4人工智能语言训练模型升级后,这类智能对话工具可以更加精准地进行模仿创作,人们很难分辨出真正的原创作品和智能对话工具生成的作品。以余华《活着》为例,尝试让ChatGPT学习并模仿其中的经典片段:“我知道黄昏正在转瞬即逝,黑夜从天而降了。我看到广阔的土地袒露着结实的胸膛,那是召唤的姿态,就像女人召唤着她们的儿女,土地召唤着黑夜来临。”[13]这段文字,余华通过细腻而独特的意象描述,展现出夕阳西下、天地交接之际的宏伟壮观,也展现出人与自然之间紧密而深刻的关联。ChatGPT进行学习后,模仿余华的文本特点生成了一段同样关于夕阳西下、人与自然的描写:“太阳西斜,红霞染天,这一幅天然的画卷伴着清风,呈现在我的眼前。地平线上,夕阳的余晖投射在草地上,橙黄色的光芒,让远处的树木显得如同黝黑的剪影,凝重而静谧。远处的山峦也渐渐隐去,只留下一抹深沉的暗影,它们似乎在诉说着沉默的故事,悄然地和周围的自然融为一体。人类只是自然中的一分子,在这宏伟而恢弘的大自然面前,我感到自己的渺小。”余华的作品具有独特的文学特色和个人风格,而ChatGPT模仿生成的文本内容与风格与之相似,读者难以区分,导致作品同质化和陈旧化现象凸显。这也间接印证了塔尔德所说的“随意和有意的模仿可能带上相反的特征,即思想或行为上有意识地模仿最容易变化,文明似乎并不鼓励我们这样去理解意识或意志”[14]。读者更希望看到不同风格的文本,大量的模仿行为会让读者很难辨别出谁是真正的作家,谁是使用ChatGPT模仿的作家。

  (二)意见领袖话语权重塑。对于被模仿者而言,如果大量的使用者通过ChatGPT模仿某意见领袖的文本生产,这种行为将导致被模仿者的原创作品在读者心目中的权威性受到质疑,其影响力也会因此受到影响。现实中,每个人的思想都应该是独一无二的。倘若大量的用户通过ChatGPT模仿意见领袖们进行文本生产,他们的个人特色就会被过度使用,变得刻板和陈旧,失去原有的创意。在模仿和传播过程中,一些不恰当的言论或观点可能影响到人们正确地看待意见领袖与其所代表的价值观和立场,把模仿者的观点误认为是意见领袖的观点,这种错误的认知会削弱意见领袖在该领域中的影响力。法国哲学家米歇尔·福柯认为,人通过话语赋予自己权力,话语是权力的载体,是权力施展的场所和工具。[15]在话语中,权力不仅表现为一种支配关系,也表现为一种生产关系,话语的生产可以制造知识,掌控真理。这就导致另一种情形,在大量模仿的情况下,如果大多数人都在模仿同样的意见领袖,那么这些意见领袖的话语就会成为主流话语,而其他人的话语可能被边缘化或者受排斥。这样,那些没有被大众认可的话语将逐渐失去影响力,模仿阵容独大的意见领袖的地位进一步加强,其他未被模仿的意见领袖的特色随即被淹没。

  (三)行为越轨平添版权纠纷。如果用户将ChatGPT用于盗版或欺诈等行为,还会出现相关的版权纠纷和声誉问题,进一步损害被模仿者的利益和形象。由于ChatGPT通过聊天可以在海量数据中检索、学习,生成相对高质量的文本,因此可能会有人试图通过数据检索和模拟语句等方式,将其生成的文本冒充市面上一些有代表性的作品来欺骗读者。这类事件一旦发生,被模仿者便可能面临经济与声誉受损的危机。与此同时,利用ChatGPT模仿个人的文本生产时,被模仿者的形象也会受到一定影响。因为受众在看到极其相似的作品时,会认为被模仿者创作了某些他实际上并没有创作的作品,这也间接地损害了被模仿者在他所处领域和粉丝心目中的形象和信誉,进而影响他未来作品的市场和影响力。模仿个人文本生产除了对被模仿者个人的影响外,这种行为也会对整个领域产生负面影响。一方面,这种行为破坏了知识产权保护的基本原则,削弱了人们对知识产权保护的信心,影响了整个产业链的稳定发展。另一方面,这种行为还会间接影响到文化传承和创新。如果一个作品被大量盗版或模仿,那么其独特性和创新性就会被稀释,失去了其本来应有的价值。如此,相关产业呈现下行趋势,真正有创新和想法的人无法获得应有的支持与认可,那么整个领域的创新和进步也就停滞不前了。

  结  语

  ChatGPT为人们带来便利的同时,也对个人文本生产造成了巨大威胁。第一,作为使用者,用户依赖于ChatGPT进行创作,其本人的语言表达和逻辑思考能力将逐渐衰退,并由此产生依存心理。同时,ChatGPT的应用让用户忽略自己的创造力,工具理性超越个人理性,导致个人价值后置,使其所创作的文本缺失个人真实的情感,阻断了作者通过作品与受众进行沟通交流的渠道。不仅如此,若ChatGPT被违法利用到欺诈等行为中,带给社会的将是一场不可估量的信任危机。第二,用户机械地使用ChatGPT模仿他人文本生产会使被模仿者陷入模仿窠臼。社会面上的作品同质化现象严重,受众就很难分辨作品的真伪,从而导致被模仿者的意见领袖地位受到削弱。随之而来的是,被模仿者作品出现版权问题。因此,尽管ChatGPT因能够为个人写作提供便利而备受关注,但也要深刻反思其模仿所带来的潜在危机。

  参考文献:

  [1]刘易斯·芒福德.刘易斯·芒福德著作精粹[M].宋俊岭,宋一然,译.北京:中国建筑工业出版社,2010:397.

  [2]Chris Moran. ChatGPT is making up fake Guardian articles. Here’s how we’re responding [N/OL].(2023-4-6).The Guardian.

  [3]苏国勋.理想化及其限制——韦伯思想引论[M].北京:商务印书馆,2016:91.

  [4]马歇尔·麦克卢汉.理解媒介:论人的延伸[M].何道宽,译.南京:译林出版社,2019:161.

  [5][8]郭庆光.传播学教程:第二版[M].北京:中国人民大学出版社,2011:121,205.

  [6]乌尔里希·贝克.风险社会[M].张文杰,何博闻,译.南京:译林出版社,2018:63.

  [7]Samantha Cole. NYC Bans Students and Teachers from Using ChatGPT [N/OL] .VICE. 2023-01-05.

  [9]李世书.西方马克思主义技术异化理论评析[J].信阳师范学院学报(哲学社会科学版),2021(02):13-20.

  [10]苏国勋.理想化及其限制——韦伯思想引论[M].北京:商务印书馆,2016:91.

  [11]Reuters. Australian mayor prepares world’s first defamation lawsuit over ChatGPT content[N/OL].(2023-04-06).The Guardian.

  [12][14]加布里埃尔·塔尔德.模仿律[M].何道宽,译.北京:中国人民大学出版社,2008:142,194.

  [13]余华.活着[M].北京:作家出版社,2012:184.

  [15]米歇尔·福柯.权力的眼晴——福柯访谈录[M],严锋,译,上海:上海人民出版社,1997:228.

  (常庆:山东师范大学新闻与传媒学院执行院长,教授,本刊学术顾问;刘倩:山东师范大学新闻与传媒学院硕士研究生)

  【文章刊于《青年记者》2023年第16期】

  本文引用格式参考:

  常庆,刘倩.ChatGPT对个人文本生产造成的潜在危机[J].青年记者,2023(16):47-49.

来源:《青年记者》公众号

编辑:小青