
随着生成式大模型的快速迭代,深度伪造与虚假信息的制作门槛大幅降低,已渗透至金融诈骗、舆论误导、名誉毁损等多个领域,严重威胁社会信任与公共安全。防范大模型滥用,需构建"技术防御、监管约束、行业自律、公众赋能"的多元协同体系,实现全链条、多层次管控,推动大模型技术健康有序发展。
技术防御是第一道防线,需以"以AI反制AI"思路构建动态防护体系。一方面,强化生成端管控,落实AI生成内容标识制度,按照《人工智能生成合成内容标识办法》要求,在内容中嵌入显式与隐式双重标识,隐式标识记录生成主体、内容编号等关键信息,确保内容可追溯。另一方面,升级检测技术,依托多模态检测模型,捕捉深度伪造的细微破绽,如人脸眨眼异常、肢体衔接不自然等视觉漏洞,以及语音机械感、呼吸停顿缺失等音频特征,同时提取AI生成内容的"数字指纹",实现精准识别。此外,可通过区块链技术固化内容溯源信息,结合攻防演练推动检测技术迭代,缩小攻防差距。
完善监管体系,明确责任边界,实现全链条闭环治理。需健全法律法规,细化大模型研发者、服务提供者、传播平台的责任,将未履行标识义务、放任虚假信息传播等行为纳入监管,提高违法成本,推动将深度伪造相关诈骗纳入刑法规制范畴。同时,扩大监管覆盖范围,将传播平台纳入监管链条,要求平台核验内容元数据、添加显著提示标识,对疑似虚假内容采取排序置后、折叠等管控措施。加强跨境协同监管,对接各国监管规则,遏制跨境虚假信息传播与深度伪造技术滥用。
强化行业自律,引导主体规范经营,筑牢内生防线。大模型研发企业应建立伦理审查机制,在模型训练阶段过滤不良数据,设置滥用风险预警系统,对高风险生成需求进行人工审核,严禁为非法用途提供技术支持。行业协会可牵头制定自律准则,推动企业共享深度伪造特征库、检测技术等资源,开展AI安全挑战赛,通过攻防对抗优化防御手段。同时,规范用户使用行为,明确用户在获取无标识AI内容后,需主动声明并添加标识方可传播,压实用户使用责任。
提升公众识伪能力,构建全民防护网络。针对老年、青少年等易受侵害群体,开展专项科普宣传,通过反诈短剧、趣味小游戏等形式,普及深度伪造的识别技巧,如"动作验证、声音核验、多源确认"的防骗口诀。媒体与平台应加强宣传引导,曝光深度伪造诈骗案例,拆解识别方法,打破"眼见为实"的