FinGPT
FinGPT v3 系列是在新闻和微博情绪分析数据集上使用 LoRA 方法进行微调的LLM,在大多数金融情绪分析数据集上取得了最佳分数。
FinGPT v3.1 使用 chatglm2-6B 作为基础模型;
FinGPT v3.2 使用 llama2-7b 作为基础模型.
FinGPT V2
用LLaMA和LoRA在美国金融市场训练我们自己的FinGPT
FinGPT V1
用 ChatGLM 和 LoRA 在中国金融市场训练我们自己的 FinGPT
FinGPT 的目标
实时数据管理流水线使 FinGPT 数据民主化
轻量级调整,使 FinGPT 模型对于个人和机构民主化(频繁更新)
支持各类金融应用
FinNLP 为所有对LLM和 NLP 感兴趣的人提供了一个游乐场。 在这里,我们提供金融领域LLM训练和微调的完整渠道。 完整的架构如下图所示。
端到端框架:FinGPT 采用具有四层的 FinLLM 全栈框架:
- 数据源层:该层确保全面的市场覆盖,通过实时信息捕获解决金融数据的时间敏感性。
- 数据工程层:该层面向实时 NLP 数据处理,解决了金融数据中高时间敏感性和低信噪比的固有挑战。
- LLMs层:该层专注于LoRA等一系列微调方法,减轻了金融数据的高度动态性,确保了模型的相关性和准确性。
- 应用层:展示实际应用和演示,凸显FinGPT在金融领域的潜在能力。
FinGPT LLM 层使用的开源基础模型