目录
[1. 典型风险案例](#1. 典型风险案例)
[2. 风险来源分析](#2. 风险来源分析)
[1. 典型风险案例](#1. 典型风险案例)
[2. 风险来源分析](#2. 风险来源分析)
[1. 典型风险案例](#1. 典型风险案例)
[2. 风险来源分析](#2. 风险来源分析)
[1. 典型风险案例](#1. 典型风险案例)
[2. 风险来源分析](#2. 风险来源分析)
[1. 合规处理原则](#1. 合规处理原则)
[2. 训练数据分类分级](#2. 训练数据分类分级)
[3. 隐私数据保护和处理](#3. 隐私数据保护和处理)
[4. 拒绝生成隐私信息](#4. 拒绝生成隐私信息)
[1. 应用层安全机制](#1. 应用层安全机制)
[2. 生成信息信任机制](#2. 生成信息信任机制)
[3. 模型风险评测](#3. 模型风险评测)
[4. 模型层内生安全](#4. 模型层内生安全)
[1. 鲁棒性](#1. 鲁棒性)
[2. 公平性](#2. 公平性)
[3. 可解释性](#3. 可解释性)
[1. 数据合法合规获取](#1. 数据合法合规获取)
[2. 溯源技术加持](#2. 溯源技术加持)
[3. 制度革新](#3. 制度革新)
干货分享,感谢您的阅读!
随着生成式人工智能(Generative AI)和大模型技术的快速发展,其在搜索、办公、编程、内容创作、智能客服等场景中被大规模应用。大模型显著提升了信息生产效率,但与此同时,其在个人信息保护、内容安全、模型安全以及知识产权等方面所引入的新型风险,也正在成为监管机构、企业和技术社区共同关注的焦点。
我们将围绕大模型在实际应用中面临的主要风险类型展开分析,并系统性地介绍当前主流的风险治理思路与技术路径,最后结合我国生成式人工智能监管要求,探讨大模型应用备案与合规落地的实践方案。
一、大模型的风险全景

(一)个人信息风险
在大模型训练和应用过程中,隐私泄露和个人信息滥用是最核心的风险之一。生成式 AI 通常依赖海量数据,其中可能包含大量用户敏感信息。一旦数据无法有效隔离和保护,便可能导致隐私泄露。
1. 典型风险案例
2025 年 Figma 用户数据被用于训练 AI 模型的诉讼案
2025 年 11 月,美国设计软件公司 Figma 遭到集体诉讼,原告称 Figma 在未获得用户明确许可情况下,自动将用户设计数据(包括客户作品和内部信息)用于训练生成式 AI 模型,该行为违反了用户隐私约定并涉嫌非法获取和使用数据。原告诉求包括停止使用该数据训练模型和赔偿损失。Reuters
这个案件不仅涉及个人隐私,还触及企业机密和用户创意产权,体现了 AI 训练数据合规获取的复杂性。
员工通过 AI 工具泄露公司敏感数据
2025 年安全报告指出,诸如 ChatGPT、Copilot 和 Claude 等生成式 AI 工具在实际工作中已成为企业信息泄漏的主要来源之一。约 50% 的企业员工在未受监控的个人 AI 账户中输入敏感公司数据(如财务信息、商业策略等),导致传统数据安全监控无法发现这些泄露行为。Tom's Guide
2. 风险来源分析
个人信息风险的根本原因可以概括为以下几点:
-
数据采集无透明度或未经许可
许多 AI 平台在收集用户输入或交互内容时未充分告知用户用途或未获得明确授权,这在隐私法规严格的国家尤为敏感。
-
员工误用或安全策略缺失
个人或企业内部员工缺乏对 AI 工具的安全意识,将机密信息输入生成式 AI,超出了原本权限控制范围。
-
数据匿名化与去标识化不足
虽然一些平台进行数据去标识化处理,但去标识策略不能完全避免通过推断重识别个人身份。
-
模型记忆效应与关联推断能力
大模型可能在训练过程中过度拟合某些稀有数据,从而在推理中"泄露"训练样本中包含的信息。
(二)内容安全风险
内容安全风险指生成式 AI 在生成内容时可能涉及违法、虚假、有害、歧视或其他不良输出的风险。这类风险不仅影响社会舆论环境,还可能导致法律责任。
1. 典型风险案例
律师使用 AI 生成虚假法律判例被法院处罚
2025 年,美国怀俄明州联邦法院对三名律师罚款共计 5,000 美元,因为他们在一起诉讼文件中引用了由内部 AI 工具生成的虚假法律案例。法院强调律师有责任验证他们引用的内容准确性,不能盲目依赖 AI 生成的信息。Reuters
该案件直接暴露了生成式 AI 在专业场景中"幻觉(hallucination)"风险,即生成看似合理但实际不存在的内容。
AI辅助诈骗和 Deepfake 内容
研究和法律实务观察表明,生成式 AI 正成为诈骗犯罪的新手段。海淀法院相关调查显示,利用 ChatGPT 等生成诈骗话术可能显著提高受骗概率。浙江某案中,犯罪团伙使用 AI 模拟特定人物声纹实施"虚拟绑架"诈骗,涉案金额达 230 万元。艾尔布莱特律师事务所
此外,暗网平台提供"Deepfake 即服务(Deepfake as a Service)",用于制作儿童色情及其他违法内容。该类服务利用强大模型生成高度逼真的非法内容,对内容审查和执法构成巨大挑战。艾尔布莱特律师事务所
2. 风险来源分析
内容安全风险的根源主要如下:
-
模型生成逻辑不具备价值判断能力
生成式 AI 只能根据训练数据和用户提示生成概率性输出,并不具备价值判断和法律判断能力。
-
训练数据存在偏见和违法内容
如果训练语料未经过严格安全筛查,模型可能捕捉到偏见、误导性或违法的信息。
-
无约束的 Prompt 输入
技术用户或攻击者可以通过精心设计的 Prompt 诱导模型生成不当内容。
-
缺乏实时监控和过滤机制
一些平台未在生成内容前进行有效过滤和后处理评估,使有害内容出现在用户端。
(三)模型安全风险
模型安全风险不仅涉及传统的信息安全,还包括专门针对 AI 模型的攻击方式,如对抗样本、模型窃取、数据中毒和 Prompt 注入攻击等。
1. 典型风险案例
虽然当前大部分模型安全攻击案例仍多停留在研究层面,但行业报告普遍指出生成式 AI 面临以下风险:
-
模型训练数据被篡改或中毒
攻击者可故意投放错误或恶意内容到开源数据集中,使模型学到错误规则。
-
Prompt 注入绕过安全约束
攻击者设计特殊输入,使模型输出原本被禁止的内容。
-
模型反向工程与盗取
通过观察模型响应模式,攻击者可能重建模型逻辑,导致商业机密泄露。
这些安全问题在 AI 产品开发中通常需要通过对抗训练、沙盒隔离和访问控制等技术手段来缓解。搜狐
2. 风险来源分析
模型安全风险主要源于以下原因:
-
模型架构不可解释/无白盒审计支持
大规模深度学习模型具有高度复杂性,缺乏完善的可解释性机制。
-
开放 API 与开放输入点
公共访问 API 使攻击者能够构造恶意输入。
-
训练组件依赖第三方服务
使用外部预训练模型或数据集可能引入供应链风险。
-
对抗攻击与攻击工具成熟
研究界和黑客都在不断进攻性改进,使得防御体系必须不断演进。
(四)知识产权风险
生成式 AI 在内容创作与数据使用上可能侵犯版权、商标权甚至商业秘密,这已成为全球关注的热点纠纷领域。
1. 典型风险案例
Getty Images 指控 Stability AI 侵权训练图库
自 2023 年起,商业图库公司 Getty Images 多次指控 AI 公司 Stability AI 未经授权复制并使用其上千万人版权受保护的图片训练模型。这一争议涉及训练数据版权问题,最终推动行业对 AI 训练数据来源合法性提出了更高要求。z.hangzhou.com.cn
中国首例 AI 声音侵权与图片侵权判例
2024 年,北京互联网法院裁定首例 "AI 声音侵权案",认定原告声音被 AI 技术模仿并商业化使用属于侵权,并支持原告获得赔偿;同年 1 月,中国首例 AI 生成图片著作权侵权案也判决生效,法院认定受侵权图片具有独创性并受到著作权法保护。人民网
这些案件标志着法庭正在逐步形成针对生成式 AI 内容输出的知识产权保护判例体系。
2. 风险来源分析
知识产权风险的主要来源包括:
-
训练数据授权不清晰
使用未经授权的数据训练大模型可能侵犯数据生产者权利。
-
模型生成内容无法追溯原始来源
AI 输出可能混合多个受保护作品的特征,造成侵权归属难以判定。
-
原创作品被生成内容替代
AI 生成作品与原有作品高度相似可能损害原创者市场与利益。
-
法律归责不明确
当前法律体系尚未完全明确 AI 内容输出与平台、开发者、用户之间的责任分配。
二、大模型的风险治理体系
生成式大模型的风险并非单点问题,而是贯穿数据、模型、应用与制度全生命周期的系统性挑战。因此,其治理不能依赖单一技术或孤立措施,而需要构建一套多层次、可执行、可审计、可持续演进的风险治理体系。

我们将围绕个人信息、内容安全、模型安全与知识产权四类核心风险,系统阐述当前主流且可落地的大模型风险治理路径。
(一)个人信息合规治理
个人信息合规是生成式人工智能风险治理的底线要求。无论模型能力多强,只要在数据处理和内容生成过程中侵犯个人信息权益,其应用都将面临严重的法律与合规风险。
1. 合规处理原则
告知与同意:按照《个人信息保护法》,在收集和处理用户个人信息时,确保用户知情并自愿同意收集和处理其个人信息。在个人信息处理者变更时,必须履行告知义务并重新取得用户同意。
确保数据真实性和多样性:按照《生成式人工智能服务管理暂行办法》,确保预训练(Pre-training)数据和优化训练数据的真实性、多样性。真实性是指数据的准确性和可靠性,通过数据来源验证、数据审查和清洗确保模型避免错误理解和预测;多样性则确保数据覆盖广泛的情况和背景,如不同人群、文化、语言和区域,以提升模型的普适性和鲁棒性。
杜绝非法披露:按照《生成式人工智能服务管理暂行办法》,不得非法披露用户输入的信息和使用记录,向第三方披露或合作时需严格遵循相关法律法规。
在个人信息治理层面,大模型相关的数据处理活动应遵循现行法律法规确立的基本原则,包括但不限于:
-
合法、正当、必要原则
训练和推理所涉及的个人信息必须具有明确、合理的业务目的,不得超出必要范围。
-
目的限定与最小化原则
数据采集、存储、使用和模型训练应与明确的产品功能直接相关,避免"先收集、后想用途"。
-
知情同意与透明性要求
对涉及用户输入数据、日志数据用于模型优化或训练的行为,应通过隐私政策、用户协议等形式明确告知。
在工程实践中,这意味着企业需要将数据合规评估作为模型训练和上线前的必要环节,而非事后补救措施。
2. 训练数据分类分级
按照《个人信息保护法》及GB/T 35273-2020《信息安全技术 个人信息安全规范》进行一般个人信息和敏感个人信息的分类管理。
解决方案:使用阿里云数据安全中心对数据进行分类分级。详情参见快速实现敏感数据分类分级。
由于大模型通常依赖规模庞大、来源复杂的数据集,统一的数据治理策略难以满足风险控制需求。因此,训练数据需要进行分类分级管理。
常见的数据分类方式包括:
-
按敏感程度分类
-
公开数据
-
内部数据
-
敏感个人信息
-
受法律严格监管的数据
-
-
按使用场景分级
-
可直接用于训练
-
需脱敏后使用
-
禁止用于模型训练
-
通过数据分类分级,可以在模型训练前就明确哪些数据可以进入模型体系,哪些数据必须通过额外保护措施,哪些数据应被完全排除在训练流程之外,从源头降低隐私风险。
3. 隐私数据保护和处理
去标识化技术:
参考GB/T 37964-2019《信息安全技术 个人信息去标识化指南》和GB/T 42460-2023《信息安全技术 个人信息去标识化效果评估指南》,进行去标识化技术实施和效果评估。
解决方案:使用阿里云数据安全中心对数据进行脱敏。详情参见数据脱敏。
加密措施:
在不可避免涉及个人信息的场景中,应引入技术层面的隐私保护机制,以降低信息泄露和滥用风险。
常见的隐私保护手段包括:
-
数据去标识化与匿名化处理
对姓名、联系方式、证件号码等显性身份信息进行处理,减少模型对具体个体的记忆风险。
-
差分隐私机制
在模型训练或统计分析阶段引入噪声,使模型无法反推出单个样本的具体信息。
-
受控访问与隔离存储
将包含隐私信息的数据与通用训练数据在物理或逻辑层面隔离,限制访问权限。
这些技术并不能完全消除风险,但能够在工程上显著降低模型"记住"或"复现"个人信息的可能性。
4. 拒绝生成隐私信息
Query-Response构造:
- 监督微调(SFT,Supervised Fine Tuning)阶段,通过构造Query-Response对,让模型学会拒绝对个人信息的非法Query。
价值观对齐:
- 监督微调阶段,利用基于人类偏好的强化学习,确保模型与人类价值观对齐,并在安全评测中能够正确应对。
拒绝不当请求:
- 在算法提供在线服务时,对于涉及个人信息违法请求的Query(如生成特定个人身份信息、非法获取方法等)必须予以拒绝,确保不生成虚假或敏感信息。
个人信息治理不仅发生在数据和训练阶段,也必须覆盖模型推理与内容生成阶段。
在应用层,应建立明确的拒绝生成机制:
-
对涉及特定自然人隐私的问题进行自动识别;
-
对高风险请求触发拒答或安全提示;
-
防止模型对未公开的个人信息进行推断式生成。
这一机制本质上是一种输出侧风险兜底,用于弥补模型在理解法律和伦理边界方面的天然不足。
(二)内容安全保障体系
与个人信息风险不同,内容安全风险更多体现在模型输出对社会、公共秩序和用户决策的潜在影响上。因此,其治理需要覆盖应用层、模型层和评测层多个维度。
1. 应用层安全机制
标准回答:
对于必须正面回答的问题,预置标准答案,命中后系统直接返回,避免继续生成风险内容。
解决方案:在应用中先构建标准答案库,针对输入问题的关键词及语义进行匹配命中后返回标准答案或根据特定模式的问题规则(如隐私政策、退款流程等)直接返回标准答案。对于特别复杂或高风险的问题,必要时可触发人工客服介入,确保用户体验和安全性。
Query风险识别:
对用户Query进行风险识别,判断是否存在个人信息、内容安全或模型安全等风险,并提供安全的答复。
解决方案:使用阿里云内容安全的文本审核功能,识别Query的文本违规风险。详情参见使用文本审核增强版识别文本违规风险。
基于知识库的搜索增强:
针对用户Query,利用搜索引擎获取可信度高的结果输入模型,引导模型生成符合事实的内容。
解决方案:使用阿里云大模型服务平台百炼的知识检索增强功能,缓解"知识幻觉"问题。详情参见知识检索增强工具。
Response风险识别:
尽管采取了上述措施,Response中可能仍含有风险,需要在输出前执行一次安全过滤,识别风险内容并及时拦截。
解决方案:使用阿里云内容安全的文本审核功能,识别Response的文本违规风险。详情参见使用文本审核增强版识别文本违规风险。
在实际产品中,内容安全治理首先体现在应用层的安全控制能力。
主要措施包括:
-
用户输入内容安全检测
对明显违法、违规或高风险输入进行识别与拦截。
-
Prompt 约束与模板化设计
通过结构化 Prompt,减少用户输入对模型行为的不可控影响。
-
输出内容多级过滤
在模型生成后,通过规则引擎或安全模型对输出内容进行二次审查。
应用层机制的优势在于可快速调整、可独立演进,是内容安全治理中最灵活的一环。
2. 生成信息信任机制
添加AIGC声明:
针对可能造成误解的场景,对AIGC进行明确说明。
解决方案:通过提示词工程添加AIGC声明。
提供依据链接:
有条件的情况下,提供生成内容的依据链接,确保内容可信。
解决方案:通过提示词工程添加生成内容的依据链接。
随着生成内容在新闻、办公和决策场景中的使用,单纯"生成正确内容"已不够,还需要解决信任问题。
常见的信任机制包括:
-
生成内容标识与提示
明确告知用户内容由 AI 生成,避免混淆人工与机器输出。
-
引用与来源提示
在可能的情况下,标注模型生成内容所依据的资料或知识来源。
-
人机协同审核机制
在高风险场景中引入人工复核,防止模型输出被直接作为最终结论。
这些机制有助于降低用户对模型输出的过度依赖风险。
3. 模型风险评测
定义风险:首先,识别和细分大模型可能面临的各种风险。风险类型包括内容安全风险、个人信息风险和模型安全风险等。每种风险都需要被明确定义,以便后续处理和管理。
构建Benchmark(评估基准):在明确了具体风险后,下一步是为这些风险构建Benchmark。Benchmark可以通过两种方式获得:基于风险知识库生成或人工撰写。然后,这些基准由专家审核改写,形成风险Query。
评测模型:最后,使用风险Query和Benchmark对模型进行评测。评测方式通常是机器和人工结合的方式,需要生成多个Response,并进行人工审核和排序。这些Response与标准答案进行排序对比,然后根据判别结果做出安全性决策。
解决方案:使用阿里云大模型服务平台百炼的的模型评测功能,实现以上过程。详情参见模型评测。
内容安全治理不能只依赖线上防护,还需要通过系统化评测提前发现模型问题。
评测重点包括:
-
不良内容生成概率;
-
对敏感话题的响应策略;
-
极端 Prompt 下的行为边界。
通过持续评测,可以为模型优化和安全策略调整提供量化依据。
4. 模型层内生安全
预训练阶段:在这一阶段引入的风险主要来自训练语料,包括个人信息、违法信息、错误价值观和歧视等。处理方式包括筛选具有良好资质和声誉的信息源,对个人信息进行模糊化过滤和对数据进行清洗。
监督微调(SFT,Supervised Fine Tuning)阶段:对现有的监督语料进行安全过滤和人工审核,生成符合安全标准的训练数据,以指导模型正确应对风险Query。这一过程包括获取风险Query,生成并人工审核安全Response,以及生成多样化的安全Response,使模型稳定应对各种风险情境。
基于人类反馈的强化学习(RLHF,Reinforcement Learning from Human Feedback)阶段:强化学习的关键是评价模型的质量。标注人员进行培训并由不同背景的人员进行操作,以保证排序结果的公平性和降低偏见。
相比应用层防护,模型层内生安全更具长期价值。
主要手段包括:
-
安全对齐训练
通过人工反馈或规则反馈,使模型在训练阶段形成安全偏好。
-
安全指令微调
专门针对高风险场景进行定向训练。
-
内置拒答逻辑
让模型在遇到特定问题时主动拒绝而非勉强生成。
模型层安全并不能完全替代应用层控制,但可以显著降低整体治理成本。
(三)模型安全防控
模型安全关注的是大模型本身在面对恶意使用或攻击时的稳定性和可靠性。
1. 鲁棒性
- 对抗性攻击测试:对模型进行对抗性攻击的测试,以发现并改进模型对抗攻击的弱点。通过不断的测试和改进,增强模型对各种扰动和恶意攻击的抵抗力。
鲁棒性是指模型在异常输入或恶意干扰下仍能保持合理行为的能力。
提升鲁棒性的措施包括:
-
对抗训练;
-
异常输入检测;
-
多模型交叉验证。
2. 公平性
训练数据集审查和筛选:对训练数据进行仔细审查和筛选,避免不公平内容进入模型的学习过程中。确保训练数据的公正性和多样性。
公平性约束:在训练过程中,加入公平性约束。通过调整损失函数或设计公平性指标,确保生成的内容无任何形式的歧视或偏见。
大模型可能在无意中放大数据中的偏见,因此需要关注模型输出的公平性问题。
治理手段包括:
-
偏见识别与评估;
-
数据分布调整;
-
输出结果监控。
3. 可解释性
特征可视化:通过可视化模型的内部结构、中间层表示和梯度等信息,来理解模型的工作原理。这将有助于揭示模型决策的背后机制,提升透明度。
规则化:引入约束和规则来指导模型的生成过程,以提高可解释性。制定明确的规则和准则,防止模型生成过程中的任意性。
尽管当前大模型仍属于"弱可解释系统",但在风险治理中,至少需要实现:
-
决策过程的可追溯;
-
输出结果的审计能力;
-
模型行为的可复盘性。
可解释性并非追求完全透明,而是为合规与问责提供基础。
(四)知识产权保护
知识产权治理是大模型商业化过程中不可回避的问题。
1. 数据合法合规获取
从权利人处购买数据库:合法购买具有知识产权权利的数据库,以确保数据来源的合法性。
使用合法授权的开源数据集:使用具有合法授权的开源数据集,避免未经授权的使用。
- 避免跨越技术措施进行爬取:遵守网站或平台设置的防护机制,例如防火墙、验证码、访问权限控制和IP封禁等。通过技术手段绕过这些保护措施进行爬取,会违反相关法律法规。
训练数据必须来源合法、授权清晰,避免因数据来源问题引发系统性法律风险。
2. 溯源技术加持
权属清晰与溯源技术:
虽然人工智能生成物独创性逐渐被认可,但它们是否能成为知识产权权利主体仍是一个开放问题。生成物的合法合规使用依赖于权属的清晰程度。溯源技术的发展对相关治理具有重要作用。例如,为生成物添加明暗水印、进行版权电子登记和可信时间戳以及使用区块链技术等,都可以有效促进权属清晰。
解决方案:使用阿里云媒体处理的数字水印功能,为图像、视频添加数字水印,保障版权安全。详情参见数字水印(暗水印)。
通过技术手段增强模型与生成内容的可追溯性,包括:
-
数据指纹;
-
内容水印;
-
相似度检测。
3. 制度革新
传统著作权制度的挑战与革新:人工智能生成内容逐渐接近人类创造水平,导致生成式内容创作、传播和利用的模式发生变化。传统著作权制度需要与时俱进,适应生成式人工智能的发展,建立更加公平合理的权益保护和惠益分享体系。
在现有法律框架下,通过行业规范、平台规则与合同机制,对 AI 生成内容的权属和责任进行合理界定,是当前阶段可行的治理路径。
大模型风险治理并非单点"堵漏洞",而是一个贯穿数据---模型---应用---制度 的系统工程。
只有在合规约束、技术防护和治理机制协同作用下,生成式人工智能才能在可控范围内释放其长期价值。
三、大模型应用备案与合规实践
(一)生成式人工智能服务管理暂行办法
自 2023 年 8 月 15 日 起,《生成式人工智能服务管理暂行办法》正式施行,要求面向公众提供服务的生成式 AI 产品完成算法备案与合规评估。
备案重点包括:
-
训练数据来源说明;
-
内容安全保障机制;
-
用户权益保护措施;
-
风险应急响应机制。
(二)企业级解决方案实践
以阿里云百炼大模型服务平台为代表的云端解决方案,为企业提供:
-
合规模型底座;
-
内容安全与隐私保护组件;
-
算法备案辅助材料;
-
模型上线与运营风控支持。
阿里云百炼大模型服务平台为云上企业提供技术支持,涉及合规要求的算法备案。详情参见通义大模型应用上架及合规备案。
四、结语
生成式大模型正在以前所未有的速度进入真实业务与社会运行体系,其价值已经从"技术展示"转向"基础能力",但与此同时,其风险也从理论层面快速转化为现实问题。从个人信息泄露、内容失真与滥用,到模型被恶意攻击、知识产权纠纷频发,这些问题已经在国内外司法判例、监管实践和企业合规中得到反复印证。
需要明确的是,大模型风险并非源于某一项具体技术缺陷,而是由数据规模、模型复杂度、应用开放性与制度滞后性叠加所共同放大的系统性结果。因此,任何试图通过单一手段"一劳永逸"解决风险的思路,都难以奏效。
从实践角度看,可持续的大模型风险治理必须建立在三项基本共识之上:
- 第一,合规不是模型能力的对立面,而是其长期应用的前提条件。个人信息保护、内容安全与知识产权要求,正在成为大模型进入关键行业与公共场景的"准入门槛"。
- 第二,风险治理必须贯穿模型全生命周期,从数据获取、训练、部署到推理和运营,任何环节的缺位都会削弱整体防控效果。
- 第三,技术治理与制度治理必须协同推进。仅依赖模型对齐或算法优化无法覆盖所有风险场景,行业规范、平台规则与监管机制同样不可或缺。
在当前阶段,大模型治理的目标并非消除所有风险,而是通过可执行、可审计、可迭代的治理体系,将风险控制在可接受、可追责、可修正的范围之内。随着监管框架逐步清晰、工程实践不断成熟,大模型有望在合规与创新之间形成更稳健的平衡。
可以预见,生成式人工智能不会因为风险而停止发展,但只有在风险被正视、被管理、被持续治理的前提下,其技术红利才能真正转化为长期、可信且可持续的社会价值。
