深圳数智引领科技有限公司

177 2251 8147

“清朗・整治 AI 技术滥用”:中央网信办开启 AI 治理新篇,护航数字生态健康发展

发表时间:2025-04-30 18:11

在人工智能技术快速发展的当下,其应用已渗透至社会的各个角落,从日常的智能语音助手、图像识别,到复杂的金融风险预测、医疗诊断辅助,AI 正在以前所未有的速度重塑我们的生活与工作方式。然而,技术的迅猛进步也伴随着一系列严峻的挑战和潜在风险,AI 技术的滥用现象正日益成为社会各界关注的焦点。一些违规 AI 应用程序大行其道,虚假信息、侵权行为、网络水军等问题层出不穷,严重扰乱了网络空间的正常秩序,威胁着公民的合法权益与社会的和谐稳定。在此背景下,中央网信办于 2025 年 4 月 30 日印发通知,正式启动为期 3 个月的 “清朗・整治 AI 技术滥用” 专项行动,旨在规范 AI 服务和应用,促进行业健康有序发展,为数字时代的网络生态筑牢安全防线。

一、专项行动的阶段划分与整治重点

(一)源头治理,夯实基础:第一阶段的核心任务

本次专项行动采取分阶段推进的方式,第一阶段着重强化 AI 技术源头治理。违规 AI 产品的泛滥是诸多问题的根源,部分开发者未履行大模型备案或登记程序,擅自向公众提供内容服务,这些产品往往游离于监管之外,存在极大的安全隐患。例如,一些不法分子利用生成式人工智能技术开发 “一键脱衣” 等违背法律和伦理的功能,严重侵犯他人隐私,违背公序良俗。同时,未经授权克隆、编辑他人声音、人脸等生物特征信息的现象也屡见不鲜,给当事人带来了极大的困扰和损害。

在训练语料管理方面,部分 AI 企业或开发者未建立严格的管理机制,使用侵犯他人知识产权、隐私权的信息,以及网上爬取的虚假、无效、不实内容作为训练数据。这不仅可能导致 AI 生成的内容存在错误或偏差,还可能引发一系列法律纠纷。此外,安全管理措施薄弱也是当前 AI 行业存在的突出问题,部分平台未建立与业务规模相适应的内容审核、意图识别等安全措施,对通过 API 接口接入的 AI 自动回复等服务底数不清、把关不严,使得各类违规内容得以轻易传播。

内容标识要求的落实不力,进一步加剧了虚假信息的传播风险。一些服务提供者未对深度合成内容添加隐式、显式内容标识,也未向使用者提供或提示显式内容标识功能,导致公众难以辨别信息的真实性,容易被误导。而在医疗、金融、未成年人等重点领域,AI 产品的安全审核和控制措施缺失问题尤为突出,如 “AI 开处方”“诱导投资”“AI 幻觉” 等问题,不仅可能误导学生、患者,还可能扰乱金融市场秩序,造成严重的社会后果。

(二)聚焦问题,精准打击:第二阶段的关键目标

在第一阶段的基础上,第二阶段的专项行动聚焦于利用 AI 技术制作发布谣言、不实信息、色情低俗内容,假冒他人、从事网络水军活动等突出问题。AI 技术的滥用使得谣言的制造和传播变得更加容易,一些人利用 AI 生成无中生有、凭空捏造的谣言信息,涉及时事政治、公共政策、社会民生等多个领域,或擅自妄测、恶意解读重大方针政策,严重破坏了社会的稳定和信任体系。在突发案事件、灾难事故等敏感时期,编造、捏造原因、进展、细节等行为更是会对救援工作和社会秩序造成极大的干扰。

不实信息的生成和传播也是当前网络空间的一大顽疾。通过 AI 技术,将无关图文、视频拼凑剪辑,生成虚实混杂、半真半假的信息,模糊修改事件要素,翻炒旧闻等手段,使得公众难以获取准确、真实的信息。在财经、教育、司法、医疗卫生等专业领域,夸大、伪科学等不实内容的出现,不仅误导网民,还可能对相关行业的发展产生负面影响。此外,借助 AI 算命、AI 占卜等迷信内容的传播,进一步扰乱了网络文化的健康发展。

AI 技术被用于制作发布色情低俗内容的情况也日益严重,如利用 AI 脱衣、AI 绘图等功能生成合成色情内容或他人不雅图片、视频,传播软色情、二次元擦边形象,以及血腥暴力、恐怖诡谲画面等,严重违背了社会的道德和伦理底线,对网络环境造成了极大的污染。同时,利用 AI 假冒他人实施侵权违法行为的现象也屡禁不止,通过 AI 换脸、声音克隆等深度伪造技术,假冒专家、企业家、明星等公众人物,欺骗网民,甚至进行营销牟利,对被假冒者的名誉和利益造成了严重损害。

网络水军活动借助 AI 技术变得更加隐蔽和规模化,利用 AI 技术 “养号”,模拟真人批量注册、运营社交账号,使用 AI 内容农场或 AI 洗稿批量生成发布低质同质化文案,以及通过 AI 群控软件、社交机器人批量点赞跟帖评论,刷量控评,制造热点话题上榜等行为,严重破坏了网络空间的真实性和公信力。AI 产品服务和应用程序的违规问题也层出不穷,如制作和传播仿冒、套壳 AI 网站和应用程序,提供违规功能服务,诱导未成年人沉迷等,对网络用户的合法权益和身心健康构成了严重威胁。

二、整治措施与责任落实

为确保专项行动取得实效,中央网信办明确了多项整治措施。各地网信部门需切实履行属地管理责任,督导网站平台对照专项行动有关要求,健全 AI 生成合成内容审核机制。平台应建立严格的审核流程,对 AI 生成的内容进行全面筛查,确保其合法性、真实性和安全性。同时,要提升技术检测能力,运用先进的技术手段,加强对 AI 生成内容的监测和甄别,及时发现并处置违规内容。

网站平台还需做好整改落实工作,对存在的问题进行深入排查和整改,完善内部管理机制,加强对 AI 技术应用的规范和引导。对于违规账号、MCN 机构和网站平台,将依法依规进行处置处罚,形成有效的震慑作用,维护网络空间的良好秩序。

三、专项行动的重要意义与行业影响

(一)保障公民合法权益

此次专项行动对于保障公民的合法权益具有重要意义。AI 技术的滥用可能导致公民的隐私被侵犯、名誉被损害、财产遭受损失等严重后果。通过整治违规 AI 应用程序,加强对 AI 生成内容的监管,能够有效减少侵权行为的发生,保护公民的个人信息安全、肖像权、名誉权等各项合法权益,让公民在数字时代能够安心地享受 AI 技术带来的便利,无需担忧自身权益受到侵害。

(二)维护网络空间秩序

网络空间的有序运行是社会稳定的重要组成部分。专项行动集中清理违法不良信息,打击网络水军等恶意行为,有助于净化网络环境,遏制虚假信息、低俗内容等的传播,维护网络空间的真实性和可信度。这将有助于构建一个风清气正、健康有序的网络生态,促进社会的和谐稳定发展,增强公众对网络空间的信任和信心。

(三)促进 AI 行业健康发展

从行业发展的角度来看,“清朗・整治 AI 技术滥用” 专项行动为 AI 产业的健康发展提供了有力保障。当前,AI 技术滥用问题严重影响了行业的声誉和可持续发展,导致公众对 AI 技术的信任度下降,也阻碍了正规企业的创新和发展。通过专项行动,能够规范 AI 服务和应用市场,淘汰那些违规、低质的 AI 产品和服务,为合法合规、具有创新能力的 AI 企业创造更加公平、有利的市场环境,推动 AI 技术在各个领域的良性应用和创新发展,提升我国 AI 产业的整体竞争力。

(四)推动人工智能素养教育

专项行动还强调加强人工智能相关政策的宣传推广和人工智能素养的科普教育。这将有助于提高公众对 AI 技术的认知和理解水平,引导各方正确认识和应用人工智能技术。只有当公众具备了较高的 AI 素养,能够辨别 AI 生成内容的真伪,合理使用 AI 技术,才能更好地发挥 AI 的积极作用,减少因误解或不当使用而引发的问题,为 AI 技术的广泛应用和社会接受度的提升奠定坚实基础。

四、未来展望

“清朗・整治 AI 技术滥用” 专项行动是我国在人工智能治理领域迈出的重要一步,彰显了政府对 AI 技术发展进行规范引导、保障社会公共利益和公民合法权益的坚定决心。随着专项行动的深入推进,我们有理由相信,AI 技术滥用的乱象将得到有效遏制,网络空间的生态将得到显著改善。

然而,AI 技术的发展日新月异,其应用形式和潜在风险也在不断演变。因此,此次专项行动不应是一次性的治理行动,而应成为我国构建长效 AI 治理机制的起点。未来,政府、企业、社会组织和公众应共同努力,持续关注 AI 技术的发展动态,不断完善相关法律法规、政策标准和伦理规范,加强跨部门、跨领域的协同治理,形成政府监管、企业自律、社会监督、公众参与的多元共治格局。

同时,要进一步加大对 AI 研发和应用的正向引导,鼓励企业和科研机构在技术创新的同时,注重社会责任和伦理考量,开发更多安全、可靠、有益的 AI 产品和服务,推动 AI 技术更好地服务于经济社会发展和人类福祉。只有这样,我们才能在充分利用 AI 技术巨大潜力的同时,有效防范和化解其带来的风险挑战,实现技术创新与社会价值的平衡,让 AI 技术在健康、有序的轨道上蓬勃发展,为人类创造更加美好的未来。