一句话总结:大模型可以做简单加减乘除,但不应该依赖它做计算;稳定系统应该让程序算、LLM 负责解释。
如果数据分析里只有简单的加减乘除,大模型(LLM)是可以完成的,但有一个关键现实问题需要注意:LLM 能算,但并不可靠。下面结合日常场景,清晰拆解这一核心观点。
一、这些简单计算场景,LLM 完全能胜任
当计算仅涉及基础算术+明确规则时,LLM 可以准确完成推理与分析,以下是3个典型场景:
- 家庭账单分析(简单计算+规则判断)
数据:
本月消费:
房租:3000
吃饭:1200
交通:300
娱乐:800
工资:5000
规则:1. 收入 - 支出 = 本月结余;2. 支出 > 收入 → 财务异常
LLM 推理结果:总支出=3000+1200+300+800=5300,结余=5000-5300=-300,结论:本月支出超过收入,出现负结余。
- 购物折扣计算
数据:商品A:100元,商品B:200元,满300打9折
LLM 计算结果:总价=300元,折扣后价格=300×0.9=270元。
- 快递重量异常判断
数据:包裹1:2kg,包裹2:2.1kg,包裹3:1.9kg,包裹4:20kg
规则:正常重量1kg~5kg
LLM 判断结果:包裹4(20kg)>5kg,属于异常。
二、核心问题:LLM 不是计算引擎,不可靠
LLM 的核心能力是理解与推理,而非精准计算,出现简单计算错误并不少见,例如:23+47=62(正确答案为70)。值得注意的是,即使是数学模型,也不应该完全依赖它做计算。原因在于,LLM 本质仍然是概率生成模型,即便面对更复杂的计算,也可能出现偏差,比如:123 × 47 = 5671(正确答案为5781),这种错误只是出现的概率更低而已。
尤其在以下场景中,计算错误概率会显著上升:
-
多次连续计算
-
长表格批量计算
-
多步骤复杂计算
三、工业系统的正确做法:分工明确才稳定
真正稳定的数据分析系统,核心逻辑是:LLM 不做计算,程序做计算,LLM 做解释。
标准流程:
数据 → 程序计算(如ΔT=供水温度-回水温度)→ 程序判断异常 → LLM解释原因、给出建议
举例:程序算出温差=55℃,结合规则"温差>40℃为异常",LLM 仅负责分析异常原因、提供解决方案,不参与任何计算环节,稳定性拉满。
四、Agent 系统设计核心原则(关键经验)
在 Agent 系统设计中,分工边界需清晰:
LLM 负责:理解、推理、解释、规划
程序负责:计算、查询、排序、统计
结论:简单加减乘除等计算任务,最好交给程序;LLM 专注于分析、解释等擅长的领域。
五、例外情况:什么时候可以让 LLM 直接算?
仅以下3种场景,可直接让 LLM 计算,对精度影响不大:
-
一两步简单计算(如10+20、500÷5);
-
粗略估算(如"大概多少""约等于多少");
-
对精度不敏感的场景(如"本月消费大概多少")。
补充:工业数据分析 Agent 经典架构
如果做的是工业数据分析 Agent(如供热系统、电力系统等),LLM + Python 计算引擎 是非常经典且核心的架构------很多人做 Agent 时容易忽略这一层,但它是工业 AI 稳定运行的关键。