新技术应用于媒体,也是一把“双刃剑”
2023-06-15 11:25:23
来源:青年记者2023年3月下 作者:吾道南来
摘要: ChatGPT等类似工具应用于媒体,如何趋利避害?
最近ChatGPT大热,其除了能与人聊天之外,还可以撰写邮件、视频脚本、文案、翻译、代码等,让不少人大呼自己有被人工智能抢走工作的危险,许多新闻工作者也有类似担忧。人工智能生成内容(AIGC),是继用户生产内容(UGC)、专业生产内容(PGC)之后的新型内容创作方式。笔者想在这里探讨一个问题:新技术应用于媒体,是不是一把双刃剑?
5G、VR、AR、区块链、大数据、云计算、物联网、人工智能、元宇宙等技术的应用,对媒体的新闻信息采集、选题、策划、制作、审核、分发、内容运营等全流程产生了深刻的影响,内容产品形态更加丰富多样,传播更加及时精准,创造了大量新媒体产品使用的场景。就拿今年的全国两会报道来说,走在融合前列的媒体,充分利用新技术新应用,创新产品形态,强化互动化传播、沉浸式体验,扩大了两会报道的覆盖面和影响力。笔者所在的媒体与百度合作,利用人工智能生产数字人主持的、带视频画面的两会播报;与某公司合作,利用全息异地同台技术实现外地的代表委员与演播室的嘉宾进行两会话题讨论,等等。
ChatGPT等AIGC的大规模应用引发人们担忧。如同其他人工智能模型一样,ChatGPT等新技术的应用既可以做新闻报道的辅助工作,提升工作效率,也可能产生系列不良后果,带来不利影响。
一是被用来绕过安全机制实施有害的活动,如ChatGPT等GPT-3工具使犯罪分子能够逼真地模拟各种社会环境,从而使任何针对性的通信攻击都更加有效。网络犯罪分子使用ChatGPT造成的“最紧迫和常见的威胁”主要包括网络钓鱼、社会工程和恶意软件开发。研究人员发现,GPT-3这类语言模型提供支持的工具,使攻击者更易诱骗受害者提供敏感信息或下载恶意软件,加速从网络钓鱼到传播仇恨言论的所有级别和目的的攻击。此外,ChatGPT还降低了网络犯罪的门槛——即使没有技术,也能成为攻击者。其带来的网络威胁还有可能蔓延到异次元。因此,ChatGPT相继被不少机构封禁,部分原因是其目前仍然会生成一些虚假错误内容,并且难以辨别。有研究人员表示,ChatGPT等人工智能工具会以比人类罪犯更快的速度制造出新的、日益智能的威胁,威胁的传播速度也会超过网络安全人员的反应速度。
二是替代财经、赛事快讯等简单的、程序性的报道工作,部分媒体人面临转岗压力。
其他负面影响,诸如一些社交机器人高度活跃,或转发负面信息,或刷量炒作热点;谷歌虚拟号码(GV)具有匿名性的特点,能够隐匿真实IP地址,可用于注册境内外网站,有人利用谷歌虚拟号码从事敏感甚至犯罪活动,给网络监管或者侦查带来挑战;区块链应用NFT(非同质化代币)被恶意利用,成为敛财创收、意识形态渗透新手段,等等。
如何趋利避害?
随着ChatGPT等类似工具的发展,未来开发新的网络安全工具更加重要。有研究人员表示,安全企业应更积极地开发和部署基于行为(而非规则)的AI安全工具,来检测人工智能生成的攻击行为,通过使用复杂的机器学习算法来分析整个企业的用户和实体数据,识别具有风险的行为,从而实现以人为本的防御。
此外,相关法规和监管措施已经发布施行。2022年12月11日,国家互联网信息办公室、工业和信息化部与公安部联合发布了《互联网信息服务深度合成管理规定》,规定任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。该规定已于2023年1月10日起施行。
人工智能将进一步提高新闻生产和传播的效率,解放人力,对于深度合成、虚拟号码等新技术及AIGC等新型内容的监管制度和机制将进一步完善,监管将进一步强化。
(作者为资深媒体人)
来源:青年记者2023年3月下
编辑:范君