bitnet

belldeep8 天前
人工智能·llama.cpp·bitnet·gguf·ggml
AI: ggml llama.cpp 与 BitNet 模型介绍简单来说,这两个名字指向了当前大模型社区一个很受欢迎的方向:让强大的AI模型能在普通的CPU电脑甚至手机上,就能流畅运行。
love530love15 天前
人工智能·windows·microsoft·llama.cpp·bitnet·flash attention·bitlinear_cpp
【独家资源】Windows 本地部署微软 BitNet b1.58: Flash Attention + CUDA GPU 加速 (sm_86) + AVX2 优化 + 1.58bit 量化microsoft/BitNet:1位大型语言模型的官方推理框架突破 Windows 编译禁区:BitNet 1-bit LLM 推理框架 GPU 加速部署编译 BitNet CUDA 算子全记录
belldeep21 天前
人工智能·microsoft·ai·bitnet
AI: 介绍 微软 BitNet 下载、安装、使用说明BitNet 是微软公司开源的 1-bit 大语言模型推理框架,最大的特点是仅用 CPU 就能高效运行大模型,内存占用极低。以下是完整的安装和使用教程。
love530love2 个月前
c++·人工智能·pytorch·windows·python·cuda·bitnet
突破 Windows 编译禁区:BitNet 1-bit LLM 推理框架 GPU 加速部署编译 BitNet CUDA 算子全记录microsoft/BitNet:1位大型语言模型的官方推理框架微软开源的 BitNet 推理框架 代表了 1-bit 量化技术(1.58b)的工业级落地。然而,官方项目对 GPU 的支持主要侧重于 Linux 环境。在 Windows 11 下尝试编译其核心算子 bitlinear_cuda 时,开发者往往会撞上一堵由 MSVC 编译器、CUDA 13 兼容性和 PyTorch 底层头文件冲突构成的“技术墙”。
BQW_2 年前
自然语言处理·llm·模型量化·bitnet·高效推理
【自然语言处理】【大模型】BitNet:用1-bit Transformer训练LLM论文地址:https://arxiv.org/pdf/2310.11453.pdf相关博客 【自然语言处理】【大模型】BitNet:用1-bit Transformer训练LLM 【自然语言处理】BitNet b1.58:1bit LLM时代 【自然语言处理】【长文本处理】RMT:能处理长度超过一百万token的Transformer 【自然语言处理】【大模型】MPT模型结构源码解析(单机版) 【自然语言处理】【大模型】ChatGLM-6B模型结构代码解析(单机版) 【自然语言处理】【大模型】BLOOM模
BQW_2 年前
自然语言处理·llm·大语言模型·模型量化·bitnet
【自然语言处理】BitNet b1.58:1bit LLM时代论文地址:https://arxiv.org/pdf/2402.17764.pdf相关博客 【自然语言处理】BitNet b1.58:1bit LLM时代 【自然语言处理】【长文本处理】RMT:能处理长度超过一百万token的Transformer 【自然语言处理】【大模型】MPT模型结构源码解析(单机版) 【自然语言处理】【大模型】ChatGLM-6B模型结构代码解析(单机版) 【自然语言处理】【大模型】BLOOM模型结构源码解析(单机版)
liferecords2 年前
人工智能·语言模型·自然语言处理·llm·bitnet
The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits相关链接:arxiv、github 关键字:1-bit LLMs、BitNet、模型压缩、能耗效率、模型性能
我是有底线的