普通人做量化,数据库该怎么选?

做量化,绕不开数据库。很多刚入门的朋友一上来就问我:花姐,数据库这么多,到底用哪个?要不要一上来就整一套像大机构那样的分布式数据库?

我先说结论:普通人做量化,数据库别贪大求全,先够用,后扩展。

一、你先想清楚,你的量化规模多大?

数据库不是摆设,它解决的核心问题就两个:

  1. 存得下
  2. 取得快

普通人量化,早期数据量很有限------A股全市场日线数据加上财报、公告,压缩后几十个G就够了。即便加上分钟级数据,硬盘也能装得下。所以不用一上来就考虑分布式,先用好本地或轻量级的方案。

二、三种主流选择

1. CSV/Parquet 文件 + Pandas

最简单粗暴,直接用文件存,Python随时读。

  • 优点:零门槛,适合探索阶段,复制粘贴就能用
  • 缺点:数据一多(比如上G),IO效率就会拖垮回测速度

如果你还在练手阶段,这种方案完全没问题,别嫌土。

2. SQLite / DuckDB

本地单文件数据库,轻量级神器。

  • SQLite:稳定、简单,很多小型量化项目够用
  • DuckDB:近两年特别火,特别擅长分析型查询(批量聚合、回测)
  • 适用场景:单机、数据量在几十G以内,想要 SQL 查询的便利性

我个人非常推荐 DuckDB,速度和易用性都比 SQLite 爽。

3. PostgreSQL / MySQL

如果你数据逐渐多起来,或者想和 Web 服务对接,这两位才是大杀器。

  • PostgreSQL:功能强大,适合结构化和半结构化数据
  • MySQL:社区成熟,资料多
  • 适用场景:多人协作、数据多源整合、要做策略在线部署

但注意,自己搭这些数据库,有学习成本,别因为折腾环境耽误了研究策略。

三、别急着上云或分布式

很多朋友一开始就盯着云数据库、大数据方案(像 ClickHouse、Spark 之类的),这些确实牛,但没必要早期就搞。 你个人电脑都没跑满,何必折腾上云,花钱还麻烦?等你做到资金量大、策略复杂,瓶颈真来了,再考虑升级。

四、实用建议

  • 量化新手:DuckDB + 本地文件,性价比最高
  • 数据量上百 G,再升级 PostgreSQL 或 ClickHouse
  • 文件结构要规划好,别乱堆,后期查找很痛苦

记住,数据库只是工具,策略才是核心。别本末倒置。

相关推荐
你的人类朋友17 小时前
说说签名与验签
后端
databook17 小时前
Manim实现脉冲闪烁特效
后端·python·动效
canonical_entropy21 小时前
AI时代,我们还需要低代码吗?—— 一场关于模型、演化与软件未来的深度问答
后端·低代码·aigc
颜如玉21 小时前
HikariCP:Dead code elimination优化
后端·性能优化·源码
考虑考虑1 天前
Jpa使用union all
java·spring boot·后端
RestCloud1 天前
SQL Server到Hive:批处理ETL性能提升30%的实战经验
数据库·api
bobz9651 天前
virtio vs vfio
后端
RestCloud1 天前
为什么说零代码 ETL 是未来趋势?
数据库·api
Rexi1 天前
“Controller→Service→DAO”三层架构
后端
bobz9651 天前
计算虚拟化的设计
后端