

子玥酱 (掘金 / 知乎 / CSDN / 简书 同名)
大家好,我是 子玥酱,一名长期深耕在一线的前端程序媛 👩💻。曾就职于多家知名互联网大厂,目前在某国企负责前端软件研发相关工作,主要聚焦于业务型系统的工程化建设与长期维护。
我持续输出和沉淀前端领域的实战经验,日常关注并分享的技术方向包括 前端工程化、小程序、React / RN、Flutter、跨端方案,
在复杂业务落地、组件抽象、性能优化以及多端协作方面积累了大量真实项目经验。
技术方向: 前端 / 跨端 / 小程序 / 移动端工程化 内容平台: 掘金、知乎、CSDN、简书 创作特点: 实战导向、源码拆解、少空谈多落地 **文章状态:**长期稳定更新,大量原创输出
我的内容主要围绕 前端技术实战、真实业务踩坑总结、框架与方案选型思考、行业趋势解读 展开。文章不会停留在"API 怎么用",而是更关注为什么这么设计、在什么场景下容易踩坑、真实项目中如何取舍,希望能帮你在实际工作中少走弯路。
子玥酱 · 前端成长记录官 ✨
👋 如果你正在做前端,或准备长期走前端这条路
📚 关注我,第一时间获取前端行业趋势与实践总结
🎁 可领取 11 类前端进阶学习资源 (工程化 / 框架 / 跨端 / 面试 / 架构)
💡 一起把技术学"明白",也用"到位"
持续写作,持续进阶。
愿我们都能在代码和生活里,走得更稳一点 🌱
文章目录
-
- 引言
- 一、两种范式的本质差异
-
- Human-in-the-loop
- [Fully Autonomous](#Fully Autonomous)
- 核心区别
- 本质一句话
- 二、常见误区:这不是"二选一"
- 三、控制权分层模型
-
- [人类 vs AI 的分配](#人类 vs AI 的分配)
- 核心思想
- 四、第一层:治理层必须由人类掌控
- 五、第二层:决策层的"动态人类介入"
- 六、第三层:执行层必须自动化
- 七、第四层:反馈层的人机协同
- [八、关键设计一:Human-in-the-loop ≠ 人工审批](#八、关键设计一:Human-in-the-loop ≠ 人工审批)
- 九、关键设计二:人类必须"可介入"
- 十、关键设计三:减少"人类疲劳"
- [十一、关键设计四:从 HITL 到 HOTL](#十一、关键设计四:从 HITL 到 HOTL)
- 十二、终局形态:可控自治
- 十三、现实案例映射
- 总结
引言
当系统从 Agent 走向 Autonomous System,一个问题会变得越来越尖锐:
人类,还要不要参与?
过去的默认答案是:
AI 只是工具
人类必须在回路中(Human-in-the-loop)
但随着系统能力增强,另一种声音开始出现:
全自动(Fully Autonomous)才是终局
于是,冲突出现了:
效率 vs 控制
自动化 vs 安全
规模化 vs 责任
一、两种范式的本质差异
先把两种模式拆开看:
Human-in-the-loop
AI → 提建议
人类 → 做决策
Fully Autonomous
AI → 决策 + 执行
人类 → 不参与实时流程
核心区别
| 维度 | HITL | Fully Autonomous |
|---|---|---|
| 决策权 | 人类 | AI |
| 响应速度 | 慢 | 快 |
| 可控性 | 高 | 风险高 |
| 成本 | 高 | 低(长期) |
本质一句话
HITL 是"人控 AI",FA 是"AI 自控"。
二、常见误区:这不是"二选一"
很多讨论都会变成:
要不要去掉人类?
但这是一个错误问题。
正确问题应该是:
在哪些环节,需要人?在哪些环节,可以自动化?
核心结论
Human-in-the-loop 和 Fully Autonomous,本质是"分层组合"。
三、控制权分层模型
我们把系统拆成 4 层:
┌────────────────────┐
│ Governance(治理) │
├────────────────────┤
│ Decision(决策) │
├────────────────────┤
│ Execution(执行) │
├────────────────────┤
│ Feedback(反馈) │
└────────────────────┘
人类 vs AI 的分配
| 层级 | 控制者 |
|---|---|
| 治理层 | 人类 |
| 决策层 | AI + 人类(按风险) |
| 执行层 | AI |
| 反馈层 | AI + 人类 |
核心思想
人类不退出,而是"上移"。
四、第一层:治理层必须由人类掌控
这一层包括:
规则制定
风险定义
策略边界
伦理约束
为什么必须是人?
AI 无法承担责任
AI 无法定义价值观
示例
yaml
policy:
max_transfer: 1000
require_human_review: true
本质
人类定义"边界",AI 不能越界。
五、第二层:决策层的"动态人类介入"
这是最关键的一层。
三种模式
1、低风险 → Fully Autonomous
自动执行
无需人工干预
2、中风险 → Human-on-the-loop
AI 执行
人类可随时介入
3、高风险 → Human-in-the-loop
必须人工确认
示例
ts
if (risk < 0.3) autoExecute();
else if (risk < 0.7) monitor();
else requireApproval();
本质
人类介入,是"按风险触发"的。
六、第三层:执行层必须自动化
执行层的特点:
高频
低延迟
规模化
示例
接口调用
设备控制
数据处理
为什么不能人工?
太慢
成本太高
不可扩展
本质
执行必须是机器的。
七、第四层:反馈层的人机协同
反馈层包括:
日志分析
异常处理
策略优化
分工
AI:
自动监控
异常检测
人类:
复盘分析
策略调整
本质
AI 负责发现问题,人类负责理解问题。
八、关键设计一:Human-in-the-loop ≠ 人工审批
很多系统理解错了 HITL:
AI → 人工审批 → 执行
问题
效率极低
体验极差
无法规模化
更好的方式
AI 默认执行
异常 / 高风险 → 人类介入
本质
人类是"兜底",不是"瓶颈"。
九、关键设计二:人类必须"可介入"
Fully Autonomous 最大风险是:
系统跑飞,人类无法干预。
必须设计
Kill Switch(紧急停止)
权限接管
实时干预接口
示例
ts
if (manualOverride) {
stopAllAgents();
}
本质
人类必须始终保留"最终控制权"。
十、关键设计三:减少"人类疲劳"
如果设计不好,会出现:
告警过多
频繁审批
认知负担高
解决方案
风险分级
智能筛选
批量处理
自动学习用户偏好
本质
让人类只处理"真正重要的事"。
十一、关键设计四:从 HITL 到 HOTL
这是一个关键进化:
HITL
人类在流程中(阻塞)
HOTL
人类在系统上(监督)
对比
| 模式 | 特点 |
|---|---|
| HITL | 强控制,但慢 |
| HOTL | 高效率,可扩展 |
本质
从"人工驱动" → "AI 驱动 + 人类监管"。
十二、终局形态:可控自治
最终形态,不是 Fully Autonomous,也不是 HITL,而是:
Controlled Autonomy(可控自治)
特点
大部分自动运行
关键节点有人类控制
系统可随时干预
策略由人类定义
架构
┌────────────────────┐
│ Human Governance │
└────────┬───────────┘
↓
┌────────────────────┐
│ AI Autonomous │
└────────┬───────────┘
↓
┌────────────────────┐
│ Execution System │
└────────────────────┘
本质
AI 在跑系统,人类在控系统。
十三、现实案例映射
你可以把这套模型映射到很多系统:
自动驾驶
低速 → 自动驾驶
复杂场景 → 人类接管
金融系统
小额交易 → 自动
大额交易 → 人工审批
AI Agent 系统
普通任务 → 自动执行
高风险操作 → 人类确认
总结
Human-in-the-loop vs Fully Autonomous,本质不是对立,而是:
协作关系。
我们可以用一句话总结:
AI 负责效率
人类负责边界
再进一步:
AI 做 90% 的事
人类控制最关键的 10%
人类不会被移除,而是从"执行者",变成"治理者"。