技术栈
bitlinear_cpp
love530love
4 小时前
人工智能
·
windows
·
microsoft
·
llama.cpp
·
bitnet
·
flash attention
·
bitlinear_cpp
【独家资源】Windows 本地部署微软 BitNet b1.58: Flash Attention + CUDA GPU 加速 (sm_86) + AVX2 优化 + 1.58bit 量化
microsoft/BitNet:1位大型语言模型的官方推理框架突破 Windows 编译禁区:BitNet 1-bit LLM 推理框架 GPU 加速部署编译 BitNet CUDA 算子全记录
我是有底线的