我们可以通过开源工具,搭建大模型应用的"原型系统",但是我要来"泼冷水",因为这距离工业级大模型应用,还是有很大的差距。
这篇文章主要讨论这种"原型系统"可能带来的认知误区以及工业级大模型应用需要考量的因素。
"原型系统"带来的认知误区
第一个误区是把LangChain和AutoGPT当做真正的LLM系统。链式调用的LangChain,学习起来非常方便,可以通过类似于乐高积木的方式来构建LLM系统,但是这种系统是无法承受生产环境的真实流量考验,真正的工业级应用需要有离线、近线等几套系统互相配合,才能让在线系统效果出众、性能稳定。
我们应该花更多精力去学习那些得到商业公司支持、质量更高的开源项目,这样更有助于你在后面做项目落地。
第二个误区是将Embedding检索奉为记忆增强的唯一方式。Embedding只是内容推荐系统中在普通不过的一项技术。大模型通过提示词信息的Embedding去检索外部记忆片段的做法并不高明,充其量只是字面匹配的一个变种,它有两个主要缺点:1) 无法找到主题相近的文档,因为我们没有按照语义对文档进行切分,2)当外部文档过多时,向量检索块会快速膨胀,整个系统会被拖垮。
第三个误区是无视开源大模型的内容生成质量问题。真正的领域微调需要基于定制化的模型,使用高性能的训练框架进行大规模分布式训练,结合强化学习和混合专家模型。
如何学习工业级大模型应用
首先,我们要熟悉大模型系统的理论知识,通过特征工程更好的理解训练数据,特征工程的核心是对样本数据的改造,可以将数据映射到更细致的维度,或者映射到更高维度的空间。
我们在模型训练的过程中需要考虑两个主要问题:1)如何构建离线数据工程和模型训练系统,这样可以独立训练模型,并进行在线实时增量更新。2)如何使用多机多卡进行分布式训练。
构建工业级大模型系统,最主要的特点就是它会针对自己的业务场景,基于数据驱动的业务系统框架去定制大模型,而不是使用通用大模型。
深入理解工业级大模型应用的问题列表
我们在接下来的学习中,会边学习边尝试回答以下问题,这样可以使学习效果得到放大,当然,你也可以把它们当做是面试题去准备:
- 模型的本质是什么?
- 特征工程的本质是什么?
- 人工智能三大流派各自的优势是什么?
- 预训练模型的价值是什么?
- 从"预训练模型"到"大语言模型"的发展过程中经历了什么变革?
- 如何从零开始训练一个大模型?
- 如何对海量样本进行在线增量模型的训练?
- 加速大模型微调速度的过程中需要做哪些取舍?
- 使用强化学习来微调大模型和直接微调有什么区别?
- 如何对AI系统进行策略建模?
- 如何为不同的场景选择合适的模型?
- 如何让你的智能体在博弈中取得优势?
- 如何防止用户通过模型越狱入侵系统?
- 如何高效部署大模型,降低在线推理成本?
- 如何通过提示工程大幅提高LLM的输出质量,解决可信AI的问题?
上面大部分的问题,我现在也无法给出答案,希望通过后面的学习,我们可以理清大模型应用的方方面面,对上述问题都能够给出清晰的回答。