很多人把AI不好用,归结为模型不够强。
但真正的问题往往是:你没有告诉AI,到底该怎么工作。
越来越多法律人开始用AI审合同、写意见、做研究。第一次很惊艳,第三次就开始怀疑人生------"怎么又开始胡说八道了?"
问题通常不在AI,而在你给它的任务定义太模糊。
Prompt的本质:不是提问,是工作指令
很多人把Prompt理解成"提问技巧",但它真正的本质是工作指令。
AI不会自动理解你的企业背景、商业目标、风险偏好、法律语境。它只能根据你提供的信息推断:"你到底希望我做什么?"
Prompt越清晰,输出越稳定。Prompt越模糊,AI只能开始"猜"------而一旦进入猜测模式,质量就会断崖式下跌。
法律行业恰恰是最依赖结构、规则、边界、风险定义的领域。所以法律场景天然需要高质量Prompt,这不是锦上添花,而是刚需。
为什么法律Prompt特别重要:AI不会自动知道你是谁
同样是审一份采购合同,不同角色关注的重点完全不同:
|-------|-----------|
| 角色 | 核心关注 |
| 企业法务 | 商业风险、履约控制 |
| 外部律师 | 法律责任、争议风险 |
| 合规负责人 | 监管要求 |
| 财务 | 付款条款、账期 |
| 投融资律师 | 对赌与控制权 |
AI不会自动知道你的角色。 所以Prompt本质上是在给AI"定义工作身份"。
身份没定义清楚,AI就只能输出泛泛而谈的正确废话。
一个坏Prompt,会让AI变成"最基础的实习生"
❌ 坏Prompt:
帮我审查这份合同
问题在哪?
- 没有角色
- 没有重点
- 没有风险范围
- 没有输出要求
- 没有行业背景
AI只能输出模板化建议、空泛结论。这不是AI不专业,是任务定义不专业。
✅ 好Prompt:
你是一位专长于采购合同争议处理的企业法务。请重点审查以下风险:
付款条件是否存在账期风险
验收标准是否明确
违约责任是否对等
是否存在供应链中断风险
知识产权归属是否清晰
请按以下格式输出: 【风险等级】高/中/低 【条款位置】 【风险说明】 【修改建议】
你会发现,AI的输出质量明显提升------因为它终于知道自己该"怎么工作"了。
法律Prompt的核心:不是"长",而是"结构化"
Prompt最重要的不是字数,而是结构清晰。成熟的法律Prompt通常包含五个核心部分:
1. 角色定义(Role) 告诉AI"你是谁"。角色不同,分析角度完全不同。
2. 任务定义(Task) 告诉AI"你到底要做什么"。是审履约风险,还是分析数据出境合规性。
3. 风险范围(Scope) 告诉AI"重点看哪里"。风险范围决定AI的注意力分配。
4. 输出格式(Format) 直接影响结果能不能进入你的工作流。表格、分级、结构化报告,要求要明确。
5. 限制条件(Constraint) 告诉AI"哪些不能做"。比如"不要引用未经确认的案例"、"依据不明确时标注需人工确认"。这会显著降低幻觉和错误引用。
四个法律场景Prompt模板(直接可用)
模板1:合同审查
你是一位资深企业法务,专长于制造业采购合同审查。请重点审查以下风险:
- 主体资质风险
- 付款条件与账期风险
- 验收标准是否明确
- 违约责任是否对等
- 知识产权归属风险
- 争议解决条款风险
请按以下格式输出: 【风险等级】高/中/低 【条款位置】 【风险说明】 【修改建议】
如依据不明确,请标注"需人工确认"。
模板2:法律研究
你是一位法律研究员。请针对"数据泄露责任认定"进行法律研究,完成以下内容:
- 相关法律法规
- 近三年典型案例
- 裁判观点总结
- 实务争议焦点
- 企业合规建议
请以研究报告形式输出,并标注引用来源。
模板3:法律尽调
你是一位投融资法律顾问。请对以下公司资料进行法律尽调,重点关注:
- 股权结构风险
- 对外担保情况
- 重大诉讼风险
- 知识产权问题
- 数据合规风险
- 劳动用工风险
请按"风险类型---风险描述---影响程度---整改建议"结构输出。
模板4:合规审查
你是一位企业合规负责人。请审查以下业务流程是否存在数据合规风险,重点关注:
- 是否涉及个人信息收集
- 是否存在数据出境
- 是否存在越权调用
- 是否符合最小必要原则
- 是否存在第三方共享风险
请输出: 【风险等级】 【风险依据】 【整改建议】 【需进一步确认事项】
法律Prompt工程,我们是怎么做?
模型本身越来越通用,真正拉开差距的,是企业能不能把专业的法律工作方法,转化成AI能稳定执行的指令体系。
这也是幂律智能持续深耕法律Prompt工程的原因。
在法律AI场景里,AI不是简单"打开合同看一眼"。一份合同从上传到输出审查意见,背后调用的是一整套法律Prompt工作流:
- 先识别合同类型,匹配对应的审查维度;
- 再加载企业预设的规则引擎和风险偏好;
- 结合历史审查意见和行业场景,确定注意力权重;
- 最后按法务团队要求的格式,结构化输出。
比如在合同智能审查平台中,AI会同时参考:
- 企业规则:公司内部的审批红线、商务底线;
- 合同类型:采购、销售、劳动、投融资,审查逻辑完全不同;
- 历史审查意见:过去法务怎么改的,AI要继承这套标准;
- 风险偏好:保守型企业和激进型企业,对"可接受风险"的定义天差地别。
这意味着,AI正在从"泛化回答"升级为"专业法律任务执行"。
而支撑这个升级的,不是模型参数,是Prompt体系 + 规则引擎 + 法律工作流 + 企业知识规则 + Agent协同机制的整套工程。
这也是为什么,越来越多企业开始把Prompt当作资产来管理。成熟的法务团队会沉淀:
- 合同审查Prompt
- 尽调Prompt
- 合规审查Prompt
- 制度问答Prompt
- 风险分析Prompt
Prompt本质上是在沉淀企业的工作方法。 模型可以换,但一套经过验证的法律Prompt工作流,才是企业AI法务能力的护城河。
结语:Prompt是法律人的新基建
AI不会替代法律人的判断,但会重构法律工作的方式。
摘要整理、条款提取、基础检索、文书初稿------这些基础工作正在被自动化。真正有价值的能力,变成了如何组织AI完成复杂工作。
而这背后需要的,恰恰是法律人本来就具备的核心素养:
- 风险定义能力
- 结构化思维
- 工作流设计能力
- 规则表达能力
未来最有竞争力的法律人,未必是最会"写"的人。而是**最会让AI"正确工作"**的人。