这不是一篇"AI 帮我提效"的年度总结。
相反,这是我在 2025 年里,不断给 AI 使用方式做风控建模之后,留下的一份工程化复盘。
如果一定要给这一年一个关键词,那不是「效率」,而是------不轻信。
一、为什么我选择写"风控",而不是"成长"
回看我这一年和 AI 的大量交流记录,会发现一个很反直觉的现象:
我很少真正追求"满意答案"。
我反复追问的是:
- 这个结论的隐含前提是什么?
- 换一个市场状态,它还成立吗?
- 能不能写进代码?写不进去的部分算什么?
- 这是不是一种"解释顺滑,但不可执行"的假理解?
这类问题,本质上不是学习问题,而是风险识别问题。
在工程世界里,一个系统最危险的状态不是"明显错误",而是:
看起来一切正常,但风险从未被显式建模。
所以,与其说 2025 年我在"用 AI / Vibe Coding",
不如说我在学习一件更重要的事:
如何在 AI 参与决策的前提下,仍然对结果负责。
二、我对 AI 的角色认知变化:从 Copilot 到 Fuzzer
年初,我对 AI 的定位更像是 Copilot:
- 解释概念
- 补齐思路
- 快速生成方案
- 帮我把模糊想法"写完整"
但随着使用频率上升,我逐渐意识到一件事:
AI 的价值,不在于"给我答案",
而在于它会把我没想清楚的地方无限放大。
于是我对 AI 的使用方式开始发生迁移:
- 不再问"这个对不对"
- 而是问"它在哪些条件下必然失败"
- 不让它裁决,而是让它制造压力
在工程语境里,这种角色更像 Fuzzer :
不是用来证明系统正确,而是用来尽可能快地找出漏洞。
三、第一类高频风险:把"生成能力"误判为"理解能力"
这是我在 2025 年最早、也最频繁踩到的坑。
AI 非常擅长做一件事:
把复杂概念解释得足够顺,让你以为自己已经掌握。
但作为程序员,我越来越警惕这种"顺"。
我给自己设定的一条硬性风控规则是:
任何无法落地为"可执行约束"的理解,都不算真的理解。
具体表现为:
- 能不能写成 if / else?
- 能不能明确阈值来源?
- 能不能定义失效条件?
- 能不能写进 validator,而不是停留在描述层?
如果答案是否定的,那这个"理解"在我这儿只能算风险资产。
因为它看似存在,但无法被验证、回放、约束。
四、Vibe Coding 的真实副作用:启动成本下降,但继续成本被掩盖
Vibe Coding 在 2025 年给我带来的最大变化,确实是启动变得极其容易。
策略、架构、流程、Agent 设想,
很多东西几乎可以"边想边跑"。
但很快我发现了一个工程上非常熟悉的问题:
创建新模块很容易,维护和收敛才是真正的成本。
Vibe Coding 极大地降低了"创建"的心理门槛,
但如果没有同步引入"继续 / 淘汰"机制,系统只会越来越复杂。
我后来给自己补上的一层 Gate 是:
- 可测性:是否有指标?(收益、回撤、命中率、延迟)
- 可观测性:是否能记录 decision trace?
- 可回滚性:是否有 fallback / kill switch?
- 可解释性:解释是否是"条件 → 行为",而不是自然语言?
过不了 Gate 的原型,不再继续推进。
五、我最警惕的一类信号:AI 输出的"确定感"
AI 的输出有一个天然属性:
结构完整、语气自信、逻辑闭环。
这在工程世界里,本身就是一种危险信号。
因为它会导致一个非常典型的失败模式:
大家都觉得"看起来没问题",
所以真正的风险没有被任何人认真审视。
尤其是在量化和策略场景中,这种"确定感"是致命的。
不是因为它一定错,而是因为它掩盖了不确定性。
所以我在这一年里,刻意改变了提问方式:
- 不再问"这个策略好不好"
- 而是问"它在什么市场状态下会失效"
- 不再关心平均表现
- 而是关心尾部风险和结构性偏差
六、在量化系统里,我给 AI 设定的明确边界
这一年我反复尝试、也反复退回的一个边界是:
AI 可以参与建议,但不能拥有执行权。
在系统层面,我更倾向于这样拆分:
- Signal 层:LLM 给出方向、理由、候选参数
- Policy 层:规则、阈值、仓位、冷却时间(确定性)
- Execution 层:下单、风控、限速、容错
LLM 只能存在于第一层。
第二层必须可测试、可回放。
第三层必须极度保守。
程序员的直觉很简单:
LLM 输出本质上是不可信输入。
不做 sanitizer,就等于把用户输入直接拼 SQL 上线。
七、止损与调度的讨论,本质上都是风控问题
无论是"时间衰减 vs 浮盈百分比"的止损讨论,
还是"15m 调度 vs 1h 调度"的争论,
在我这儿都不是参数选择问题,而是因果是否成立的问题。
- 时间本身不是市场状态指标
- 延迟如果大于信号周期,决策就是滞后的
- 规则如果能被"钻空子",长期一定会漂移
我更愿意接受一个看起来不优雅、但前提清晰 的方案,
而不是一个解释漂亮、但逻辑脆弱的方案。
八、关于"自进化":我选择工程现实,而不是幻想闭环
我并不否认"自进化"这个方向的吸引力。
相反,我在这一年里非常认真地拆解过它:
- 奖励信号是否可学习?
- 样本是否足够?
- 归因是否错配?
- 成本是否可控?
- 回看偏差如何避免?
最后我保留下来的版本,更像是:
- LLM 不参与每 tick 决策
- 快照 + embedding 用于相似行情检索
- LLM 在关键节点给"策略调整建议"
- 执行层始终由规则兜底
这不是放弃进化,而是把进化约束在工程可控范围内。
九、这一年的最终结论:AI 没让我更聪明,但让我更难自欺
如果一定要总结 2025 年 AI / Vibe Coding 对我的影响,那会是:
AI 没有替我思考,但它让我更难在逻辑上敷衍自己。
在一个答案极度廉价、生成几乎无成本的时代,
真正稀缺的能力反而是:
- 愿意停下来
- 能接受不确定
- 对自己的决策负责
风控,从来不是限制创造力。
它只是提醒我:
每一个"看起来合理"的结论,都应该被当成潜在风险对待。
附:我给自己固化的一份 AI 使用风控清单
输入风控
- LLM 输出是否有 schema?
- 是否做了校验与兜底?
- 是否记录 decision trace?
策略风控
- 是否明确隐含前提?
- 是否列出失效场景?
- 是否可回放?
- 是否有最大风险暴露限制?
工程风控
- 延迟是否匹配调度周期?
- 成本是否可控?
- 是否可观测?
- 是否可禁用?
真正需要被风控的,从来不是 AI。
而是我们在"答案唾手可得"时,
是否还愿意为判断承担责任。