AI正在重构法律行业。
从合同审查、制度问答,到合规风控、案件研究,越来越多法律工作,开始被AI重新定义。
问题已经不是:
"法务要不要用AI?"
而是:
"法务如果不理解AI,还能不能参与未来的企业治理?"
法律行业真正的变化,已经开始了
去年,一家大型制造企业的法务负责人在内部会上提了一个问题:
"为什么AI审合同,总能漏掉一些真正关键的问题?"
技术团队给出的答案很直接:
因为大模型并不真正"理解"企业。
它知道法律。 但它不知道:
- 你们公司的历史交易习惯
- 内部审批规则
- 风险偏好
- 供应链模式
- 过去踩过哪些坑
这也是为什么,越来越多企业开始从"通用AI"走向"企业级AI"。
AI正在从"聊天工具",变成真正进入企业流程、接触企业数据、参与企业决策的新基础设施。
而法律人,也第一次被推到了AI治理的核心位置。
因为很多问题,本质已经不是技术问题,而是:
- 数据权限问题
- 合规问题
- 风险责任问题
- 企业治理问题
- 审计追踪问题
很多法务直到现在才发现:
过去只需要看合同。 现在开始需要看:
- 模型能力
- 数据流向
- Agent权限
- API调用
- AI日志
- 企业知识库
AI时代,法律人的工作边界,正在被重新定义。
为什么法律人开始"懂AI"?
很多法律人会有一个误区:
"我又不是程序员,为什么要懂这些技术?"
问题在于:
现在很多企业AI项目,真正的风险,并不发生在"代码层"。
而发生在:
AI开始接触企业核心数据的时候。
例如:
- 合同上传给谁?
- 数据是否出境?
- AI是否会引用旧制度?
- Agent能不能自动发送合同?
- AI生成内容谁负责?
- AI调用ERP算不算越权?
- 企业知识库如何隔离权限?
这些问题,技术团队很难独立回答。
最终都需要:
- 法务
- 合规
- 内控
- 信息安全 共同参与。
而一旦AI进入企业流程,法律人面对的就不只是合同文本,而是:
- 数据如何流动
- 权限如何分配
- 风险如何触发
- 责任如何界定
- 系统如何交互
这也是为什么:
AI时代,法律人开始从"规则解释者",转向"AI治理参与者"。
有太多的人在给大家科普和说怎么做,但是大多浮于表面、未触本质,所以,我们先理解AI"语言"。
后续,我们会逐渐形成系列文章,从理解AI"语言"开始,慢慢给大家形成一套系统、可落地、贴合法律实务的AI应用与治理认知体系,一步步拆解核心逻辑、梳理实操路径,帮大家真正读懂AI、用好AI,守住法律人的专业底线,找准AI时代的职业新定位。
LLM:所有AI应用背后的"大脑"
什么是LLM?
LLM(Large Language Model),即"大语言模型"。
你可以把它理解成:
一个读过海量文本、具备语言理解与生成能力的AI系统。
现在主流AI几乎都建立在LLM之上:

这些模型,本质上都具备:
- 阅读
- 总结
- 推理
- 生成
- 对话 等能力。
法律行业为什么天然适合LLM?
因为法律工作,本质上高度依赖:
- 文本
- 规则
- 逻辑
- 结构化表达
而这恰恰是LLM最擅长的领域。
例如:
合同审查
AI可以:
- 自动识别条款
- 提取关键风险
- 比对历史版本
- 发现缺失条款
法律研究
AI可以:
- 总结案例
- 归纳裁判观点
- 生成研究初稿
合规管理
AI可以:
- 检索制度
- 分析法规变化
- 形成风险预警
大模型最危险的问题:不是"不聪明",而是"太像人"
很多企业第一次使用AI时,都会产生一种错觉:
"它说得这么像,应该是对的。"
但问题在于:
LLM本质上是"概率生成"。
它不是数据库,也不是法律检索系统, 更不是法官。
它只是:基于概率,生成"最像正确答案"的内容。
于是就会出现一个非常经典的问题:
幻觉(Hallucination)
例如:
- 编造不存在的案例
- 引用错误法规
- 杜撰司法解释
- 错误理解条款
这也是为什么:
AI时代最大的风险,从来不是"AI不够聪明",而是:
人开始对AI失去警惕。
Token:AI世界的"计费单位"
是什么
Token是AI处理文本的最小单位。
可以理解为:
AI的"计费字数"。
一般情况:
- 1个中文 ≈ 1~2 Token
- 1个英文单词 ≈ 1 Token
为什么重要?
因为所有主流AI API都是按Token计费的,例如:
- OpenAI API
- Claude API
- DeepSeek API
也就是说:
AI成本,本质是Token成本。
法律行业的现实影响
在法律场景中,Token消耗非常容易失控,例如:
场景:合同审查
- 50页合同
- 多轮分析
- 多版本对比
- 追加法规检索
结果:
一次任务可能消耗数万甚至数十万Token。
法律人必须知道:
企业在采购AI时必须问:
- Token如何计费?
- 输入/输出是否分别收费?
- 是否有缓存机制?
- 长文本如何处理?
- 是否有成本上限控制?
否则问题会变成:
AI效果很好,但成本不可控。
Context Window:AI的"记忆长度"
是什么
Context Window(上下文窗口)是:
模型一次能够处理的最大文本长度。
它包括:
- 用户输入
- AI输出
- 历史对话
为什么重要?
因为法律文件天然是"长文本结构":
- 交易合同
- 尽调报告
- 合规制度
- 多方协议
- 附件材料
如果Context Window太小:
AI会出现:
- 遗忘前文
- 逻辑断裂
- 结构丢失
- 误判风险
法律行业的关键差异
不同模型能力差异很大,例如:
- GPT-4o:128K
- Claude 4:200K+
这意味着:
Claude可以一次性处理更完整的法律文件体系。
法律人必须知道:
当AI用于合同审查时,要重点关注:
- 是否支持长合同整体分析
- 是否支持多文件关联
- 是否支持版本对比
- 是否会"截断关键信息"
Prompt:AI时代的"任务定义能力"
不只是"提问"
很多人误解Prompt是:
"问AI问题的方式"
但本质是:
对AI进行结构化任务定义。
为什么法律人特别需要Prompt能力?
因为法律工作本质是:
- 结构化表达
- 风险拆解
- 条件约束
- 逻辑判断
而AI同样依赖结构化输入。
对比非常明显
❌ 低质量Prompt:
"帮我看看这个合同有没有问题。"
✅ 高质量Prompt:
"你是一名企业法务专家,请从以下四个维度审查合同:
付款条款风险
违约责任是否对等
知识产权归属
争议解决机制
请按风险等级输出,并引用原文条款。"
法律意义:
Prompt能力,本质是"任务结构化能力"。
为什么企业开始大量建设RAG?
很多企业在部署AI之后,很快发现:
通用大模型虽然强。 但并不真正懂企业。
它不知道:
- 企业制度
- 历史合同
- 内部流程
- 行业规则
- 风险偏好
于是,RAG开始成为企业AI落地的核心技术。
RAG:企业AI真正开始"靠谱"的关键
RAG(Retrieval-Augmented Generation),即"检索增强生成"。
简单理解:
AI在回答之前,先去企业知识库"查资料"。
它的核心逻辑是:
用户提问
→ AI检索企业知识库
→ 找到相关制度/合同/案例
→ 再基于真实资料生成答案
这会带来一个巨大变化:
AI开始变得"可追溯"。
过去: AI可能直接编造。
现在: AI会告诉你:
- 引用了哪份制度
- 来源是什么
- 依据是什么
- 哪个版本生效
这对于法律行业极其重要。
因为:
法律工作的核心,从来不是"像不像",而是:
"依据是否成立。"
Agent:AI真正开始"自己做事"
过去很多人理解AI,停留在ChatGPT阶段:
你问一句。 AI答一句。
但现在,AI正在进入下一个阶段:
Agent(智能体)
Agent最大的变化是:
AI开始能够"自主执行任务"。
例如:
你说:
"帮我审查这份采购合同。"
一个成熟的法律Agent,可能会自动:
- 读取合同
- 识别合同类型
- 提取关键条款
- 检索相关法规
- 调用历史模板
- 标注风险点
- 输出修改建议
- 形成审查报告
而这些动作:
不再需要人工一步一步操作。
AI真正改变的,不是效率,而是企业权限体系
很多企业现在才意识到:
Agent真正危险的地方, 从来不是"它会不会回答错"。
而是:
"它已经开始自己做事了。"
当AI开始:
- 调用OA
- 调用合同系统
- 调用CRM
- 调用ERP
- 自动发送邮件
- 自动触发审批
问题就变成了:
- AI到底能访问什么?
- 能执行到什么程度?
- 是否需要审批?
- 日志是否可追溯?
- 出错责任谁承担?
于是:
AI问题开始从"工具问题",变成:
企业治理问题。
法律人真正的新价值:AI治理
未来几年,法律行业会出现一个巨大变化:
法律人会越来越深度参与企业AI治理。
从:
- 审合同
- 看条款
- 做合规解释
到:
- 设计AI使用规则
- 审查模型与数据风险
- 设计权限体系
- 建立AI审计机制
- 参与系统治理
很多企业已经开始发现:
AI项目最终能不能落地。 不只取决于技术。
更取决于:
企业是否建立了完整的AI治理体系。
法律人应该如何开始进入AI时代?
不需要人人学编程。但法律人至少需要:
第一层:理解AI
包括:
- LLM
- RAG
- Agent
- Prompt
- API
- Token
理解这些词,才能真正和技术团队沟通。
第二层:会使用AI
例如:
- AI合同初审
- AI法律研究
- AI会议纪要
- AI知识库问答
- AI制度检索
第三层:理解AI治理
包括:
- 数据权限
- 模型合规
- AI审计
- 企业制度
- 风险控制
这才会成为未来法律人的真正壁垒。
AI不会替代法律人,但会改变法律人的工作方式
AI时代最容易被淘汰的,未必是律师。
而是:
只会重复劳动,却不理解技术的人。
因为AI最先替代的,往往不是"专业判断"。
而是:
- 重复检索
- 机械整理
- 格式劳动
- 模板工作
- 基础归纳
真正有价值的能力,开始变成:
- 风险判断
- 交易理解
- 治理设计
- 规则构建
- AI协同能力
未来的法律人,可能不需要写代码。
但一定需要:
理解AI如何进入企业、连接数据、参与决策、影响治理。
因为法律行业真正的变化,才刚刚开始。
结语
很多人以为,AI时代只是"多了一个工具"。
但真正的变化是:
AI正在成为新的企业基础设施。
它会进入:
- 合同
- 财务
- 采购
- 人力
- 风控
- 法务
- 审计
而法律人,也会第一次深度参与:
"AI如何被允许进入企业。"
未来几年:
懂法律、懂治理、又理解AI逻辑的人,正在成为新的稀缺角色。
这不是"法律人学技术"。
而是:
法律行业开始重新理解技术。