AI治理:安全、伦理与创新
2025-09-30 11:24:21
来源:青年记者2025年10月 作者:王立纲
摘要: 今天,人工智能正被应用于越来越多的场景,其发挥的作用和产生的影响日益增强,对相关风险的治理问题也应引起高度重视。 在智能传播
今天,人工智能正被应用于越来越多的场景,其发挥的作用和产生的影响日益增强,对相关风险的治理问题也应引起高度重视。
在智能传播生态中,生成式人工智能正逐步成为用户获取信息、参与讨论、形成观点的重要中介。从认知角度看,认知决定行动,用户对人工智能的认知即心智模型对人机交互的效果有着决定性作用,用户受人工智能影响导致的心智模型演变可能引发认知偏差等风险,对此要发挥多元行动者的协同作用,形成治理合力。
从技术角度看,开源被视为人工智能领域突破技术封锁的重要策略。然而,开源人工智能在技术层面、法律层面等面临“全周期风险”,可探索“合作开源”的适应性治理模式,寻求开放与安全的平衡。在技术层面通过受控访问、联邦学习等提升模型安全性,在法律层面完善开源许可证规范与版权归属制度,在国际层面积极参与规则制定与组织合作,通过多方协作推动开源生态健康发展。
从社会角度看,生成式人工智能对于当今社会的影响和可能产生的风险已然不是单纯的技术后果,而是“基础设施化”过程中对于社会的结构性改造。其一方面将继承互联网时代所产生的各种风险甚至可能导致进一步恶化,另一方面又提供了“颠覆”的可能,即在对互联网基础设施的整体结构性改造中实现源头治理。我们要在技术维度以生态理念引领基础设施建设,在公众维度强调善用其知识赋能,在社会维度形成平等的文化氛围,构建新的教育模式。
对于备受诟病的AI谣言问题,需要构建多层次、多主体的治理体系,强化AI谣言传播的风险场景评估,重视媒介组织的伦理责任,培养公众的批判性媒介素养,发展参与式风险治理模式。
人工智能仍在高速迭代中,对其可能引发的相关风险要从流动变化的视角观察,在与其交互共生中引导其服务于人类福祉与社会价值,让人工智能成为“人本智能”。
来源:青年记者2025年10月
编辑:范君



