2024年04月29日 星期一
首页>专栏作家 > 正文

智能审核不能完全替代人工审核

2023-06-30 11:33:46

来源:青年记者2023年5月下   作者:吾道南来

摘要:  机器很难作出准确的“人的判断”。

  “把眼睛都看坏了!”不少媒体的老总被媒体融合后突增的大量原创内容审核所困所累。不仅如此,有的政治差错防不胜防,成为“漏网之鱼”,严重损害媒体的权威性和公信力。于是,媒体寄希望于智能审核系统解燃眉之急,通过人脸识别、文字识别、图片识别等技术,加强新闻内容的审核把关。

  智能审核的确是人工审核的好帮手。有评论称,数据库通过算法实现高效性和可靠性,利用机器的深度学习和相关知识规则匹配可以实现90%以上的文本、图片的过滤,成熟的审核系统能将95%甚至99%以上的内容都自动审核并作出处理,也就是说数据库越丰富,机器所掌握可作为鉴别的实例就越多,执行任务就越精准。确定有问题的会被自动删除,难以判断是否有问题的会被标注,进入人工审核程序。而且,智能审核不存在疲惫和精力不集中等问题,可以7×24小时不间断工作。有数据显示,智能审核的效率是传统人工识别的1000倍。

  在新媒体时代,面对海量审核内容,借助智能审核,媒体能大大减轻审核压力,既能弥补新手经验或知识储备、能力不足等问题,也能解放一部分人力投入融媒体精品创作中,在把住内容安全关的同时,进一步提高内容创新能力和生产力。但笔者认为,智能审核在现阶段只能是一种辅助工具,不能完全替代人工审核。

  理由有二,一是智能审核系统认为错的地方不一定是错的,需要人工复核。如某领导岗位的人更换了,稿件中相应领导岗位的人名用新当选的,但由于智能审核系统没有及时更新,仍认为是错的。又如,“在某省会城市的城中村长大”,智能审核系统把“村长”作为一个词,要求改为“村主任”。“劳动保障监察部门对于用人单位监管难”,系统要求把“监察部”改为“国家监察委员会”。二是人工智能尚不具备人类的深度思考能力、联想能力、联系上下文能力等,对一些重大差错根本无法发现。如舆论导向、事实差错、逻辑错误、漏掉人名以及侵犯未成年人的隐私等违反采编规范的内容。一些平台的内容创作者将中心思想隐喻在历史故事中、将敏感信息加密等,机器就很难识别出来。如“高校思想整理理论课”,“整理”应为“政治”,有的智能审核系统发现不了。

  正因为智能审核不能完全替代人工审核,很多平台出现“乌龙”,因此被监管部门约谈,App暂时下架整改,需要组建庞大的内容审核队伍,不断加大人工审核的力度。有一年博鳌论坛的直播中,人工智能翻译也闹出了乌龙,负责方紧急高薪聘请同声传译工作人员救场。

  目前对直播的智能审核,主要通过间隔截图后对图片进行识别,而目前,人工智能对色情图片的识别并未达到所宣传的高准确率。人工智能暂难以对直播所表达的内容进行理解。Facebook虽宣称其技术可对直播内容进行实时监控识别,但2017年上半年,其平台上发生的直播美国少女被性侵、泰国男子杀害亲生女儿等事件,说明人工智能仍难以准确识别色情、暴力内容。可见,人工智能还不能对直播内容进行理解并像人类一样作出判断。有专家指出,视频场景多样、内容多样,机器学习目前的技术水平达不到百分之百的敏感内容审核准确率和召回率。机器如何对大量新模式违规视频自动标注仍是技术难题。

  当然,人工智能也能“深度学习”,根据发现的问题不断修正、更新其系统,智能审核系统会越来越智能。但新的知识、新的问题会不断涌现。对于不良内容的各种变化形态,机器很难模拟出普通用户的使用体验,很难理解内容背后的深意,很难作出准确的“人的判断”。

  也许有人会说,现在人工智能发展日新月异,AIGC(人工智能生成内容)的技术和商业化日益成熟,ChatGPT的横空出世为智能审核完全替代人工审核提供了可能。人工智能审核技术仍然处于一个高速发展的时期,用人工智能审核技术解放人力,还有着十分广阔的想象空间。人工智能审核完全替代人工审核,未来也许有可能,但现在断言为时尚早。

  (作者为资深媒体人)

来源:青年记者2023年5月下

编辑:范君