技术栈
量化
Ai多利
1 天前
人工智能
·
ai
·
金融
·
量化
2025发文新方向:AI+量化 人工智能与金融完美融合!
人工智能的融入,使量化交易实现了质的突破。借助机器学习、深度学习等先进技术,人工智能可高效处理并剖析海量市场数据,挖掘出数据背后错综复杂的模式与趋势,从而不仅提升了数据分析的精准度和效率,更为交易策略的构建提供了多元且深入的支撑。此外,人工智能还具备自我学习与优化的特质,凭借强化学习等手段,能持续微调策略参数,推动策略的自我更新与进化,进而让交易策略更契合市场动态,增强交易的成功概率与收益水平。
FuckTheWindows
11 天前
websocket
·
量化
·
股票行情接口
·
股票交易
·
level2
websocket股票行情接口
交易所出来的数据,不管通过什么渠道,延时一般都不会差太远,估计一般也就几十ms的差别。但是如果是通过http轮询,不太可能几十ms全部轮询一次。所以,做量化的话,用http协议是最次的选择。
turui
20 天前
开发语言
·
python
·
bug
·
量化
·
pytdx
pytdx,取市场股票列表,get_security_list,start参数为8000时,数据获取失败,导致无法获取全量数据的BUG修正
连接,普通行情(服务器),想获取所有的深市A股的股票列表调用get_security_list函数,但是发现,start为8000开始数据取不到了
好评笔记
2 个月前
人工智能
·
深度学习
·
剪枝
·
模型压缩
·
量化
·
蒸馏
·
大模型优化
深度学习笔记——模型压缩和优化技术(蒸馏、剪枝、量化)
本文详细介绍模型训练完成后的压缩和优化技术:蒸馏、剪枝、量化。模型压缩和优化技术是为了在保证模型性能(精度、推理速度等)的前提下,减少模型的体积、降低计算复杂度和内存占用,从而提高模型在资源受限环境中的部署效率。这些技术对于在边缘设备、移动设备等计算资源有限的场景中部署深度学习模型尤为重要。以下是几种常见的模型压缩和优化技术的解释:
AI算法-图哥
2 个月前
人工智能
·
pytorch
·
深度学习
·
文生图
·
模型压缩
·
量化
pytorch量化训练
训练时量化(Quantization-aware Training, QAT)是一种在模型训练过程中,通过模拟低精度量化效应来增强模型对量化操作的鲁棒性的技术。与后训练量化不同,QAT 允许模型在训练过程中考虑到量化引入的误差,从而在实际部署时使用低精度进行推理时能够维持更高的性能。
1037号森林里一段干木头
3 个月前
算法
·
均值算法
·
回归
·
量化
量化之一:均值回归策略
均值回归(Mean Reversion)是金融市场中一种常见的现象,指的是资产价格在偏离其长期平均值后,最终会回归到该平均值。本文将详细探讨均值回归的理论基础、数学公式以及其在交易策略中的应用。
量化祛魅师
4 个月前
数据库
·
python
·
mysql
·
金融
·
量化
1.量化第一步,搭建属于自己的金融数据库!
数据是一切量化研究的前提。 做量化没有数据,就相当于做饭时没有食材。很多时候,我们需要从大量的数据中寻找规律,并从中开发出策略。如果我们每次使用的时候,都从网上去找数据,一方面效率低下,另一方面短时间大量的数据请求也很有可能招致封禁。
Fulin_Gao
5 个月前
部署
·
量化
·
awq
【量化部署】AWQ in MLSys 2024
论文: AWQ: Activation-aware Weight Quantization for LLM Compression and Acceleration 作者: MIT 代码: AWQ 特点: 该方法是一个仅量化权重的方法(W4A16),AWQ认为只有极少部分(1%)模型权重是十分重要的,在量化时应该着重保护它们。AWQ根据校准数据输入模型后得到的激活值的量级来锁定重要权重,通过放大这些权重来实现对他们的保护,放大因子是对应激活量级的 α \alpha α次方。
愤怒的可乐
5 个月前
论文阅读
·
量化
[论文笔记]LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale
今天带来第一篇量化论文LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale笔记。
jnpher
5 个月前
ide
·
人工智能
·
vscode
·
ai
·
chatgpt
·
金融
·
量化
开源一套金融大模型插件(ChatGPT)
我爱学Python!
6 个月前
人工智能
·
自然语言处理
·
llm
·
大语言模型
·
量化
·
ai大模型
·
rag
量化方法怎么选?如何评估量化后的大模型LLM?
文章内容总结自:Evaluating Quantized Large Language Models(https://arxiv.org/abs/2402.18158)
engchina
6 个月前
llama
·
量化
LLaMA模型量化方法优化:提高性能与减小模型大小
在大型语言模型(LLM)的应用中,模型大小和推理速度一直是关键的挑战。最近,一项针对LLaMA模型的优化工作提出了一系列新的量化方法,旨在在保持模型性能的同时显著减小模型大小。本文将详细介绍这些新的量化技术及其带来的性能提升。
苏慕白的博客
6 个月前
后端
·
金融
·
rust
·
量化
·
高频量化
Rust调用sui合约
照着move-book教程 Hello, Sui! - The Move Book 很快写完 move 合约部署到测试网
伊织code
6 个月前
大模型
·
llama
·
量化
·
llama.cpp
llama.cpp
llama.cpp的主要目标是 使LLM推理 具有最少的设置和最先进的性能,在各种硬件–本地和云端。自启动以来,由于许多 contributions,该项目有了显著改善。 它是为ggml库 开发新功能的主要场所。
伊织code
6 个月前
llama
·
量化
·
autogptq
·
quantization
·
awq
·
quanto
·
aqlm
Llama - 量化
本文翻译整理自: https://llama.meta.com/docs/how-to-guides/quantization/
two_apples
6 个月前
llm
·
量化
·
awq
LLM量化--AWQ论文阅读笔记
写在前面:近来大模型十分火爆,所以最近开启了一波对大模型推理优化论文的阅读,下面是自己的阅读笔记,里面对文章的理解并不全面,只将自己认为比较重要的部分摘了出来,详读的大家可以参看原文 原论文地址:https://arxiv.org/pdf/2306.00978
HuggingFace
7 个月前
量化
·
kv缓存
用 KV 缓存量化解锁长文本生成
很高兴和大家分享 Hugging Face 的一项新功能: KV 缓存量化 ,它能够把你的语言模型的速度提升到一个新水平。
Luchang-Li
8 个月前
llm
·
量化
·
异常值
·
激活
突破性技术: 大语言模型LLM量化激活outliers异常值抑制
LLM过去有两种突破性技术大大提升了量化精度,分别是group-wise量化和GPTQ/AWQ量化。前者相比于过去的per-tensor和per-channel/per-axis量化提出了更细粒度的对channel拆分为更小单元的量化方式,后者通过巧妙的算法明显提升了4bit量化的精度。
亚图跨际
8 个月前
python
·
天气
·
量化
·
建筑设计
·
风电
·
不确定性
·
分类过程
Python | R | MATLAB高斯过程统计模型
📜海上风电场模型 | 📜天气和建筑设计模型 | 📜不确定性量化应用模型 | 📜马尔可夫链蒙特卡罗算法多模态采样贝叶斯模型 | 📜分类过程最大似然模型 | 📜C++和Python通信引文道路社评电商大规模行为图结构数据模型 | 📜Python燃气轮机汽车钢棒整流电路控制图统计模型过程潜力分析 。
庞德公
8 个月前
人工智能
·
大模型
·
量化
·
qat
·
ptq
picoLLM:大模型的量化魔术师 上
大模型技术论文不断,每个月总会新增上千篇。本专栏精选论文重点解读,主题还是围绕着行业实践和工程量产。若在某个环节出现卡点,可以回到大模型必备腔调重新阅读。而最新科技(Mamba,xLSTM,KAN)则提供了大模型领域最新技术跟踪。若对于如果构建生成级别的AI架构则可以关注AI架构设计专栏。技术宅麻烦死磕LLM背后的基础模型。