文艺复兴科技

(1)创始人

1938年,西蒙斯出生。二战一触即发。

1958年,西蒙斯20岁,从MIT毕业。

1968年,西蒙斯30岁,成为纽约州立大学石溪分校的数学系主任。

1966年,西蒙斯和他的博士导师陈省身合作,解决了普拉托问题:无论封闭边界多么扭曲且复杂,这个表面都能连续可积,由此创建陈-西蒙斯理论:三维弯曲空间的形状可计量。尤其获得几何领域最高世界奖:维布伦奖,西蒙斯因此到达了学术事业的最巅峰。

1978年,西蒙斯40岁,离开学术界,跳入投资界,这让许多人大跌眼镜。

1988年,西蒙斯50岁,设立了大奖章基金。这个基金主要是公司内部员工持有,这个基金的性质非常非常重要。

1998年,西蒙斯60岁,文艺复兴科技公司终于创立了统一大模型,应对所有投资品类(外汇、黄金、大宗商品期货、债券和可转债、股票、股票期货和期权)。

2008年,西蒙斯70岁,全球金融危机爆发,大奖章基金收益率高达82%。

2018年,西蒙斯80岁,准备退休。2021年,正式退休。

(2)马尔科夫本质-短期高频策略

1979年,数学家列尼鲍娒加入。他发明了分析马尔科夫链模型的算法:鲍娒-韦尔奇算法:下一个事件的概率只能由当前状态决定,而和之前的事件无关。事件序列本身也是未知的,事件只是链的输出结果。鲍娒-韦尔奇算法在有限增量信息的条件下估算复杂过程的概率和参数。

鲍娒把这个原理应用到了外汇买卖:当汇率在算法给出的趋势线以下就买入,在算法给出的趋势线以上就卖出。

1980年,被加州伯克利大学开除的计算机系辍学生斯特劳斯加入,他建立了海量的历史数据库。

1982年,西蒙斯把公司改名为文艺复兴科技公司,数学家用纯数学给交易建模,然后程序员来实现模型,数学家再根据系统给出的结果进行人肉交易。

1984年,鲍娒退出文艺复兴,原因就是:在黄金期货交易中,已经赚了几千万美金,鲍娒仍然贪婪不已,最终崩盘,触发了文艺复兴的底线:亏损40%必须强制清仓。

1986年,卡莫纳加入文艺复兴,开发出了可给出交易建议的系统,这样,系统不仅可以给出分析结果,还可以给出交易建议。

1989年,泊勒坎加入文艺复兴,他提出:股市的特点是基于马尔科夫原理(下一个事件的概率只能由当前状态决定,而和之前的事件无关),所以咱们做长期-低频交易,最终必然失败。所以,只有短期-高频交易(2天-2周),才能最终挣钱。虽然模型不能保证每次都赢,但因为是高频交易,所以最终还是胜率较高。

(3)瑰宝:自我适应自我调节的统一大模型

1992年,劳弗加入文艺复兴,反对无数个精巧的小模型,而是建立统一大模型。后来事实证明,这是个价值连城的建议。

1995年,布朗和墨瑟两人建立了可自我适应自我调节的大模型。

1997年,文艺复兴科技公司终于创立了统一大模型,可应对所有投资品类(外汇、黄金、大宗商品期货、债券和可转债、股票、股票期货和期权)。

(4)亢龙有悔

2005年,文艺复兴公司建立了专注于长期交易的机构型权益基金RIEF:虽然收益率不高达,但是夏普比率稳定在10%以上,这让养老基金和养老保险公司非常感兴趣。

2007年,全球金融危机爆发,除文艺复兴之外的两大量化巨头全都清盘,因为量化巨头们都使用了程序化自动交易,因此导致了自动挤兑。而文艺复兴一直坚信模型只能描述人类行为的一部分(50.75%),而不是全部。所以文艺复兴即时用人肉接管了自动化交易系统,使大奖章基金在全球金融危机之中也获益86%。

2008年,金融危机仍然在肆虐全球,RIEF长期交易基金的收益率也大幅缩水,该基金从最巅峰的超过1000亿美元缩水到了50亿规模。事实证明,投资市场的特点就是基于马尔科夫原理(下一个事件的概率只能由当前状态决定,而和之前的事件无关),所以即时是海量数据-精妙数学算法-统一大模型,也无法预测准确长期趋势。于是,文艺复兴又重新回归聚焦短期-高频交易,至今收益率仍然保持在高达45%(巴菲特团队常年保持在20-25%)。

2008年之后的文艺复兴,每个骨干人都成了亿万富翁,大家不想再奋斗了,各个骨干人都希望干点自己喜欢做的其他事,而不是每天神经紧张地盯着屏幕的交易数据。

这是一个组织的必然宿命。

相关推荐
和鲸社区12 分钟前
《斯坦福CS336》作业1开源,从0手搓大模型|代码复现+免环境配置
人工智能·python·深度学习·计算机视觉·语言模型·自然语言处理·nlp
fanstuck14 分钟前
2025 年高教社杯全国大学生数学建模竞赛C 题 NIPT 的时点选择与胎儿的异常判定详解(一)
人工智能·目标检测·数学建模·数据挖掘·aigc
cxr82815 分钟前
Claude Code PM 深度实战指南:AI驱动的GitHub项目管理与并行协作
人工智能·驱动开发·github
THMAIL1 小时前
深度学习从入门到精通 - LSTM与GRU深度剖析:破解长序列记忆遗忘困境
人工智能·python·深度学习·算法·机器学习·逻辑回归·lstm
Gyoku Mint1 小时前
NLP×第六卷:她给记忆加了筛子——LSTM与GRU的贴靠机制
人工智能·深度学习·神经网络·语言模型·自然语言处理·gru·lstm
YF云飞2 小时前
数据仓库进化:Agent驱动数智化新范式
数据仓库·人工智能·ai
ningmengjing_2 小时前
理解损失函数:机器学习的指南针与裁判
人工智能·深度学习·机器学习
程序猿炎义2 小时前
【NVIDIA AIQ】自定义函数实践
人工智能·python·学习
小陈phd2 小时前
高级RAG策略学习(四)——上下文窗口增强检索RAG
人工智能·学习·langchain
居然JuRan3 小时前
阿里云多模态大模型岗三面面经
人工智能