2025 · 我与 AI / Vibe Coding 的一年

这不是一篇"AI 帮我提效"的年度总结。

相反,这是我在 2025 年里,不断给 AI 使用方式做风控建模之后,留下的一份工程化复盘。

如果一定要给这一年一个关键词,那不是「效率」,而是------不轻信


一、为什么我选择写"风控",而不是"成长"

回看我这一年和 AI 的大量交流记录,会发现一个很反直觉的现象:

我很少真正追求"满意答案"。

我反复追问的是:

  • 这个结论的隐含前提是什么?
  • 换一个市场状态,它还成立吗?
  • 能不能写进代码?写不进去的部分算什么?
  • 这是不是一种"解释顺滑,但不可执行"的假理解?

这类问题,本质上不是学习问题,而是风险识别问题

在工程世界里,一个系统最危险的状态不是"明显错误",而是:

看起来一切正常,但风险从未被显式建模。

所以,与其说 2025 年我在"用 AI / Vibe Coding",

不如说我在学习一件更重要的事:
如何在 AI 参与决策的前提下,仍然对结果负责。


二、我对 AI 的角色认知变化:从 Copilot 到 Fuzzer

年初,我对 AI 的定位更像是 Copilot:

  • 解释概念
  • 补齐思路
  • 快速生成方案
  • 帮我把模糊想法"写完整"

但随着使用频率上升,我逐渐意识到一件事:

AI 的价值,不在于"给我答案",

而在于它会把我没想清楚的地方无限放大

于是我对 AI 的使用方式开始发生迁移:

  • 不再问"这个对不对"
  • 而是问"它在哪些条件下必然失败"
  • 不让它裁决,而是让它制造压力

在工程语境里,这种角色更像 Fuzzer

不是用来证明系统正确,而是用来尽可能快地找出漏洞


三、第一类高频风险:把"生成能力"误判为"理解能力"

这是我在 2025 年最早、也最频繁踩到的坑。

AI 非常擅长做一件事:
把复杂概念解释得足够顺,让你以为自己已经掌握。

但作为程序员,我越来越警惕这种"顺"。

我给自己设定的一条硬性风控规则是:

任何无法落地为"可执行约束"的理解,都不算真的理解。

具体表现为:

  • 能不能写成 if / else?
  • 能不能明确阈值来源?
  • 能不能定义失效条件?
  • 能不能写进 validator,而不是停留在描述层?

如果答案是否定的,那这个"理解"在我这儿只能算风险资产

因为它看似存在,但无法被验证、回放、约束。


四、Vibe Coding 的真实副作用:启动成本下降,但继续成本被掩盖

Vibe Coding 在 2025 年给我带来的最大变化,确实是启动变得极其容易

策略、架构、流程、Agent 设想,

很多东西几乎可以"边想边跑"。

但很快我发现了一个工程上非常熟悉的问题:

创建新模块很容易,维护和收敛才是真正的成本。

Vibe Coding 极大地降低了"创建"的心理门槛,

但如果没有同步引入"继续 / 淘汰"机制,系统只会越来越复杂。

我后来给自己补上的一层 Gate 是:

  • 可测性:是否有指标?(收益、回撤、命中率、延迟)
  • 可观测性:是否能记录 decision trace?
  • 可回滚性:是否有 fallback / kill switch?
  • 可解释性:解释是否是"条件 → 行为",而不是自然语言?

过不了 Gate 的原型,不再继续推进。


五、我最警惕的一类信号:AI 输出的"确定感"

AI 的输出有一个天然属性:
结构完整、语气自信、逻辑闭环

这在工程世界里,本身就是一种危险信号。

因为它会导致一个非常典型的失败模式:

大家都觉得"看起来没问题",

所以真正的风险没有被任何人认真审视。

尤其是在量化和策略场景中,这种"确定感"是致命的。

不是因为它一定错,而是因为它掩盖了不确定性

所以我在这一年里,刻意改变了提问方式:

  • 不再问"这个策略好不好"
  • 而是问"它在什么市场状态下会失效"
  • 不再关心平均表现
  • 而是关心尾部风险和结构性偏差

六、在量化系统里,我给 AI 设定的明确边界

这一年我反复尝试、也反复退回的一个边界是:

AI 可以参与建议,但不能拥有执行权。

在系统层面,我更倾向于这样拆分:

  • Signal 层:LLM 给出方向、理由、候选参数
  • Policy 层:规则、阈值、仓位、冷却时间(确定性)
  • Execution 层:下单、风控、限速、容错

LLM 只能存在于第一层。

第二层必须可测试、可回放。

第三层必须极度保守。

程序员的直觉很简单:
LLM 输出本质上是不可信输入。

不做 sanitizer,就等于把用户输入直接拼 SQL 上线。


七、止损与调度的讨论,本质上都是风控问题

无论是"时间衰减 vs 浮盈百分比"的止损讨论,

还是"15m 调度 vs 1h 调度"的争论,

在我这儿都不是参数选择问题,而是因果是否成立的问题

  • 时间本身不是市场状态指标
  • 延迟如果大于信号周期,决策就是滞后的
  • 规则如果能被"钻空子",长期一定会漂移

我更愿意接受一个看起来不优雅、但前提清晰 的方案,

而不是一个解释漂亮、但逻辑脆弱的方案。


八、关于"自进化":我选择工程现实,而不是幻想闭环

我并不否认"自进化"这个方向的吸引力。

相反,我在这一年里非常认真地拆解过它:

  • 奖励信号是否可学习?
  • 样本是否足够?
  • 归因是否错配?
  • 成本是否可控?
  • 回看偏差如何避免?

最后我保留下来的版本,更像是:

  • LLM 不参与每 tick 决策
  • 快照 + embedding 用于相似行情检索
  • LLM 在关键节点给"策略调整建议"
  • 执行层始终由规则兜底

这不是放弃进化,而是把进化约束在工程可控范围内


九、这一年的最终结论:AI 没让我更聪明,但让我更难自欺

如果一定要总结 2025 年 AI / Vibe Coding 对我的影响,那会是:

AI 没有替我思考,但它让我更难在逻辑上敷衍自己。

在一个答案极度廉价、生成几乎无成本的时代,

真正稀缺的能力反而是:

  • 愿意停下来
  • 能接受不确定
  • 对自己的决策负责

风控,从来不是限制创造力。

它只是提醒我:
每一个"看起来合理"的结论,都应该被当成潜在风险对待。


附:我给自己固化的一份 AI 使用风控清单

输入风控

  • LLM 输出是否有 schema?
  • 是否做了校验与兜底?
  • 是否记录 decision trace?

策略风控

  • 是否明确隐含前提?
  • 是否列出失效场景?
  • 是否可回放?
  • 是否有最大风险暴露限制?

工程风控

  • 延迟是否匹配调度周期?
  • 成本是否可控?
  • 是否可观测?
  • 是否可禁用?

真正需要被风控的,从来不是 AI。

而是我们在"答案唾手可得"时,

是否还愿意为判断承担责任。

相关推荐
不思念一个荒废的名字2 小时前
【黑马JavaWeb+AI知识梳理】Web后端开发06 - SpringBoot原理篇
spring boot·后端
张风捷特烈2 小时前
AI 四格笑话爆火,我做了什么?
前端·aigc
东方-教育技术博主2 小时前
IDEA 配置electron开发环境
前端·javascript·electron
AC赳赳老秦2 小时前
DeepSeek-Coder vs Copilot:嵌入式开发场景适配性对比实战
java·前端·后端·struts·mongodb·copilot·deepseek
一只专注api接口开发的技术猿2 小时前
智能决策数据源:利用 1688 商品详情 API 构建实时比价与供应链分析系统
大数据·前端·数据库
9号达人2 小时前
支付配置时好时坏?异步方法里的对象引用坑
java·后端·面试
程序员修心2 小时前
CSS 选择器知识点
前端·css·css3
梦6502 小时前
React + FullCalendar 实现高性能跨天事件日历组件
前端·react.js·前端框架
C_心欲无痕2 小时前
react - 组件之间的通信
前端·javascript·react.js