一句话抓重点 :跨市场回测时,代码里写死的 UTC-5 会在夏令时切换日让行情错位一小时,年化收益系统性地高估 5-8%。
本文给你什么 :一套双字段存储模式(UTC 毫秒做主键 + 交易所本地时间做标签)+ IANA 时区数据库动态计算偏移量,永久消灭硬编码 UTC-4 / UTC-5 的技术债。
核心矛盾:四个市场,四种时间规则
| 市场 | 交易所时区 | 夏令时 | 数据源常见格式 | 对齐风险 |
|---|---|---|---|---|
| A 股 | 北京时间 (UTC+8) | 无 | Unix 秒(北京时间) | 易与 UTC 秒混淆 |
| 港股 | 香港时间 (UTC+8) | 无 | UTC 字符串或本地时间 | 格式不统一 |
| 美股 | 美东时间 | 有(3月/11月切换) | 美东时间字符串 | 偏移量每年变两次 |
| 伦敦 | 格林尼治/英国夏令时 | 有(3月/10月切换) | 本地时间或 UTC | 规则与美东不同 |
典型翻车现场 :北京时间周二上午 9:25,你在回测一套美股多空策略。2024 年 3 月 11 日那根 K 线出现 1.7% 异常跳空,策略连开 4 笔空单。信号逻辑反复检查没问题------问题在时间轴。3 月 10 日美国进入夏令时,纽约开盘从北京时间 22:30 变成 21:30,但你的回测引擎里写死的是 UTC-5。开盘第一个小时的高波动行情被错位覆盖,那 1.7% 的跳空不是策略信号,是用冬季时区读了夏季数据。
架构决策:双字段存储,而不是只存一个 UTC
核心思想:每条行情记录同时存两个时间字段,一个做主键,一个做标签。
| 字段 | 类型 | 用途 | 示例 |
|---|---|---|---|
event_time_utc |
BIGINT(毫秒) | 所有排序/过滤的主键,与时区无关 | 1710120600000 |
exchange_local_time |
VARCHAR(25) | 回放时的业务判断(集合竞价、开盘时段等) | 2024-03-11T09:30:00+08:00 |
为什么不用本地时间做主键?
- 排序错乱------北京时间比美东早 12-13 小时,同一交易日两条记录可能排反
- 夏令时切换日出现"不存在的小时"------纽约时间 2024-03-10 02:00-02:59 直接被跳过
- 数据写入时要么被拒绝,要么被排到错误位置
为什么必须保留 exchange_local_time?
- 回放时需要回答"这笔成交在交易所当地是几点几分"
- 不能依赖 UTC 临时计算------万一未来夏令时规则变化,历史数据的偏移量会被错误重算
类比:就像数据库读写分离------写的时候统一为 UTC(主库),读的时候各自按需转换(从库),中间的转换层在入库时一次性完成,回放时零额外开销。
夏令时:绝不硬编码偏移量
硬编码 UTC-4 / UTC-5 是这件事里最常见的工程债。每年 3 月和 11 月各要手工改一次,一次漏改,跨市场策略年化偏差可达 15%。更致命的是,不同市场规则完全不同------美股是美东规则,港股没有夏令时,英国是欧洲规则,全球 70 多个国家使用夏令时且规则持续变化。
正确做法 :用 IANA 时区数据库(Python zoneinfo,3.9+ 内置),给定交易所标识符(如 America/New_York),utcoffset() 和 dst() 自动返回当前是否处于夏令时及正确的偏移量。一行硬编码都不留。
代码落地:三步搭建自动对齐管道
完整可运行,依赖
requests、sqlite3、Python 3.9+ 标准库zoneinfo。
Step 1:拉取跨市场行情,双字段时间入库
python
import os, time, sqlite3, requests
from datetime import datetime, timezone
from zoneinfo import ZoneInfo
from typing import List
API_KEY = os.getenv("TICKDB_API_KEY")
BASE_URL = "https://api.tickdb.ai/v1"
HEADERS = {"X-API-Key": API_KEY}
# 交易所 → IANA 时区标识符(绝不硬编码偏移量)
EXCHANGE_TIMEZONE = {
"SSE": "Asia/Shanghai",
"SZSE": "Asia/Shanghai",
"SEHK": "Asia/Hong_Kong",
"NYSE": "America/New_York",
"NASDAQ": "America/New_York",
}
def init_db():
"""双字段时间表:event_time_utc (毫秒) + exchange_local_time (ISO 8601)"""
conn = sqlite3.connect("tickdb_timestamps.db")
conn.execute("""
CREATE TABLE IF NOT EXISTS ticker_snapshots (
id INTEGER PRIMARY KEY AUTOINCREMENT,
symbol TEXT NOT NULL,
exchange TEXT NOT NULL,
event_time_utc INTEGER NOT NULL, -- 主排序键
exchange_local_time TEXT NOT NULL, -- 回放标签
last_price REAL,
volume_24h REAL,
fetched_at_utc INTEGER NOT NULL -- 批次去重
)
""")
conn.execute("CREATE UNIQUE INDEX IF NOT EXISTS idx_symbol_fetched "
"ON ticker_snapshots(symbol, fetched_at_utc)")
conn.commit()
return conn
def fetch_multi_market_tickers(symbols: List[str]):
"""
拉取跨市场 ticker 快照,写入双字段时间。
ticker 返回 timestamp (毫秒 UTC),直接存入 event_time_utc。
exchange 根据品种后缀推断(.SH→SSE, .SZ→SZSE, .HK→SEHK, .US→NYSE)。
exchange_local_time 由 IANA 时区一次性计算。
"""
url = f"{BASE_URL}/market/ticker"
backoff = 1
conn = init_db()
fetched_at = int(time.time() * 1000)
try:
params = {"symbols": ",".join(symbols)} # ticker 用 symbols 复数
resp = requests.get(url, headers=HEADERS, params=params, timeout=10)
data = resp.json()
if data["code"] == 3001: # 限流
retry_after = resp.headers.get("Retry-After")
wait = int(retry_after) if retry_after else backoff
time.sleep(wait)
return
if data["code"] == 1001: # 权限/参数错误
raise RuntimeError(f"API Error 1001: {data.get('message')}")
if data["code"] != 0:
raise RuntimeError(f"Unexpected error {data['code']}")
rows = []
for item in data.get("data", []):
sym = item["symbol"]
# 根据品种后缀推断交易所(.SH→SSE, .SZ→SZSE, .HK→SEHK, .US→NYSE)
suffix_to_exchange = {".SH": "SSE", ".SZ": "SZSE", ".HK": "SEHK", ".US": "NYSE"}
exchange = next((v for k, v in suffix_to_exchange.items() if sym.endswith(k)), "")
event_time_utc = item.get("timestamp") # ticker 返回毫秒 UTC
if event_time_utc is None: continue
tz_id = EXCHANGE_TIMEZONE.get(exchange)
if tz_id:
tz = ZoneInfo(tz_id)
dt_local = datetime.fromtimestamp(event_time_utc / 1000, tz=tz)
exchange_local_time = dt_local.isoformat()
else:
exchange_local_time = datetime.fromtimestamp(event_time_utc / 1000, tz=timezone.utc).isoformat()
rows.append((
sym, exchange, event_time_utc, exchange_local_time,
float(item.get("last_price", 0)) if item.get("last_price") else None,
float(item.get("volume_24h", 0)) if item.get("volume_24h") else None,
fetched_at
))
conn.executemany("""INSERT OR IGNORE INTO ticker_snapshots
(symbol, exchange, event_time_utc, exchange_local_time,
last_price, volume_24h, fetched_at_utc)
VALUES (?, ?, ?, ?, ?, ?, ?)""", rows)
conn.commit()
print(f"写入 {len(rows)} 条快照,batch_utc={fetched_at}")
except requests.exceptions.Timeout:
time.sleep(1)
except Exception as e:
print(f"拉取失败: {e}")
finally:
conn.close()
关键点 :
event_time_utc是毫秒级整数,所有跨市场排序都靠它;exchange_local_time是 ISO 8601 字符串,只在回放时使用。ticker 端点的timestamp已是毫秒 UTC,与 kline 的time精度一致,直接入库。
Step 2:夏令时偏移量动态计算(可独立使用)
python
from zoneinfo import ZoneInfo
from datetime import datetime, timezone
def get_utc_offset(exchange: str, dt: datetime = None) -> int:
"""返回 UTC 偏移小时数,如 NYSE 夏令时返回 -4,冬令时返回 -5"""
tz_id = EXCHANGE_TIMEZONE.get(exchange)
if not tz_id:
raise ValueError(f"Unknown exchange: {exchange}")
tz = ZoneInfo(tz_id)
if dt is None:
dt = datetime.now(tz=tz)
elif dt.tzinfo is None:
dt = dt.replace(tzinfo=timezone.utc)
dt = dt.astimezone(tz)
offset = dt.utcoffset()
if offset is None:
raise RuntimeError(f"Cannot determine UTC offset for {exchange} at {dt}")
return int(offset.total_seconds() / 3600)
def is_dst_active(exchange: str, dt: datetime = None) -> bool:
"""判断当前是否处于夏令时(美东 3月第二个周日~11月第一个周日)"""
tz_id = EXCHANGE_TIMEZONE.get(exchange)
if not tz_id: return False
tz = ZoneInfo(tz_id)
if dt is None: dt = datetime.now(tz=tz)
elif dt.tzinfo is None: dt = dt.replace(tzinfo=timezone.utc)
dt = dt.astimezone(tz)
dst_offset = dt.dst()
return dst_offset is not None and dst_offset.total_seconds() > 0
关键点 :
utcoffset()和dst()完全依赖 IANA 数据库,无需手工维护夏令时规则。示例:get_utc_offset('NYSE', datetime(2024,3,11))返回-4,而 3 月 9 日返回-5。
Step 3:回放对齐与用户时区转换
重要区分:ticker 和 kline 的时间精度已统一为毫秒,嵌套路径不同。
| 端点 | 时间字段 | 单位 | 嵌套路径 |
|---|---|---|---|
| ticker | timestamp |
毫秒 UTC | data 数组 |
| kline | time |
毫秒 UTC | data.klines |
python
def replay_cross_market(symbols: List[str], start_utc: int, end_utc: int) -> List[Dict]:
"""按 event_time_utc 排序回放,exchange_local_time 直接用于业务判断"""
conn = sqlite3.connect("tickdb_timestamps.db")
conn.row_factory = sqlite3.Row
rows = conn.execute("""
SELECT symbol, exchange, event_time_utc, exchange_local_time, last_price, volume_24h
FROM ticker_snapshots
WHERE event_time_utc >= ? AND event_time_utc <= ?
ORDER BY event_time_utc ASC
""", (start_utc, end_utc)).fetchall()
conn.close()
return [dict(r) for r in rows]
def convert_to_user_timezone(records: List[Dict], user_tz: str = "Asia/Shanghai") -> List[Dict]:
"""展示层按用户时区转换 event_time_utc,不修改 exchange_local_time"""
tz = ZoneInfo(user_tz)
for r in records:
dt = datetime.fromtimestamp(r["event_time_utc"] / 1000, tz=tz)
r["user_local_time"] = dt.isoformat()
return records
关键点 :三层时间各司其职------UTC 排序,
exchange_local_time判断集合竞价/开盘时段,user_local_time仅用于前端展示。互不干扰。
你真正在维护的,是一张手工夏令时日历
没有统一 API 时,你面对的是这样一种困境:美股数据源给美东时间字符串,A 股给北京时间秒,港股格式不统一。每个数据源进来,你要写一个时间转换 parser。更麻烦的是夏令时------美国、欧洲、澳洲、南美各有各的规则,全球 70 多个国家使用夏令时且规则持续变化。你的代码里散落着 UTC-4、UTC-5、UTC+1、UTC+2 这类硬编码数字,每到一个切换日就要手工检查一遍。一旦某个国家改了规则,对齐逻辑链从头到尾重写。
TickDB 将时间戳格式这件事收归到一个出口:一个 REST + WebSocket 长连接覆盖美股、港股、A 股、全球四大市场共 40,145 个品种,统一返回 UTC 毫秒时间戳,统一字段命名(ticker 用 timestamp / kline 用 time),统一鉴权。你不再需要维护那张手工夏令时日历,也不需要为每个数据源写时间转换 parser。
接口文档在 https://docs.tickdb.ai 开源可查。需要更自动化的时间对齐,可以走 MCP 工具链(https://mcp.tickdb.ai),把行情查询封装成 Agent 可调用的服务。
你的代码里藏着多少处硬编码的 UTC-4?
我见过最惨的案例:一个美股日内策略在 2024 年 3 月 11 日开盘后连续止损。排查了两天,定位到时间对齐模块------第 147 行写着 OFFSET_NY = -5。改掉这一行,回测曲线恢复正常。但没人注意到第 312 行还有一个 -5,藏在伦敦开盘时间的计算里。
硬编码的时区偏移量不只是在每年 3 月和 11 月各炸一次------它会在你最不可能检查的地方安静地偏移你的回测结果。全年累积下来,年化收益高估 5 到 8 个百分点并不罕见。
如果美国永久夏令时法案明天生效,你的对齐逻辑里有多少处硬编码的 UTC-4/UTC-5?你上一次全局搜索代码里的
-5,是什么时候?
📡 数据由 TickDB.ai 提供