bitnet

BQW_8 个月前
自然语言处理·llm·模型量化·bitnet·高效推理
【自然语言处理】【大模型】BitNet:用1-bit Transformer训练LLM论文地址:https://arxiv.org/pdf/2310.11453.pdf相关博客 【自然语言处理】【大模型】BitNet:用1-bit Transformer训练LLM 【自然语言处理】BitNet b1.58:1bit LLM时代 【自然语言处理】【长文本处理】RMT:能处理长度超过一百万token的Transformer 【自然语言处理】【大模型】MPT模型结构源码解析(单机版) 【自然语言处理】【大模型】ChatGLM-6B模型结构代码解析(单机版) 【自然语言处理】【大模型】BLOOM模
BQW_8 个月前
自然语言处理·llm·大语言模型·模型量化·bitnet
【自然语言处理】BitNet b1.58:1bit LLM时代论文地址:https://arxiv.org/pdf/2402.17764.pdf相关博客 【自然语言处理】BitNet b1.58:1bit LLM时代 【自然语言处理】【长文本处理】RMT:能处理长度超过一百万token的Transformer 【自然语言处理】【大模型】MPT模型结构源码解析(单机版) 【自然语言处理】【大模型】ChatGLM-6B模型结构代码解析(单机版) 【自然语言处理】【大模型】BLOOM模型结构源码解析(单机版)
liferecords8 个月前
人工智能·语言模型·自然语言处理·llm·bitnet
The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits相关链接:arxiv、github 关键字:1-bit LLMs、BitNet、模型压缩、能耗效率、模型性能