使用llama-cpp-python制作api接口

文章目录

概要

使用llama-cpp-python制作api接口,可以接入gradio当中,参考上一节

llama-cpp-python的github网址

整体操作流程

  1. 下载llama-cpp-python。首先判断自己是在CPU的环境下还是GPU的环境下。以下操作均在魔搭提供的免费GPU环境下。
bash 复制代码
#CPU
pip install llama-cpp-python
#GPU
CMAKE_ARGS="-DGGML_CUDA=on FORCE_CMAKE=1" pip install llama-cpp-python --no-cache-dir
  1. 启动服务
    模型可以采用量化的版本,也可以采用原版本大小,看自己的硬件环境。
bash 复制代码
# 模型注意力层有32层,cpu8核,可以自己修改。
python -m llama_cpp.server --model 模型路径/模型名称.bin --n_gpu_layers 32 --m_thread 8

在魔搭上启动可能报错如下:

这也就是缺少依赖包,解决如下:

bash 复制代码
pip install starlette-context
pip install pydantic-settings

成功启动后会显示:

  1. 测试一下能不能行
    api_key 随便写,一个模板而已,因为是自己构建的api。
    base_url 就是上面图所示的,为什么加v1等会在下面解释 端口号自己可以改的,在启动服务的时候设置。
python 复制代码
!pip install -q openai
import openai

openai.api_key = 'qqqqqqqqqqqqqqqqqq'  
openai.base_url = "http://localhost:8000/v1/"  
#模型参数设置
completion = openai.completions.create(
    model="llama",
    max_tokens=256,   
    top_p = 0.2,
    temperature = 0.6,
    prompt="出现了黄疸、恶心、呕吐等症状,可能患了什么疾病?",
)
print(completion.choices[0].text)

因为采用的是量化后模型,反应速度也算比较快了,用时2.6s。

技术细节

  • API的接口缘由可以查看github中的llama_cpp/server/app.py,有详细的路由解释。

小结

至此完成了一个整体流程:从微调到量化到部署到api最终显示在网页上,涉及到的技术很多,还有很多细节需要学习,记录一下美好的时光,希望有个好的结果。敬礼!!!

相关推荐
BoBoZz196 分钟前
CellsInsideObject 网格面内外与交界的判定
python·vtk·图形渲染·图形处理
@小码农7 分钟前
2025年厦门市小学生信息学竞赛C++(初赛)真题-附答案
开发语言·c++·python·算法·蓝桥杯
星川皆无恙10 分钟前
基于ARIMA 算法模型和NLP:社交媒体舆情分析在涉众型经济犯罪情报挖掘中的应用研究
人工智能·爬虫·python·算法·机器学习·自然语言处理·数据分析
SCBAiotAigc19 分钟前
一个github的proxy url
人工智能·python
Chen--Xing20 分钟前
LeetCode 11.盛最多水的容器
c++·python·算法·leetcode·rust·双指针
free-elcmacom21 分钟前
机器学习高阶教程<1>优化理论:破解优化器的底层密码
人工智能·python·机器学习·优化理论
瀚岳-诸葛弩22 分钟前
对比tensorflow,从0开始学pytorch(五)--CBAM
人工智能·pytorch·python
runepic24 分钟前
Python 批量合并多个 Excel 数据(自动补 0 + 生成明细)
java·python·excel
ULTRA??25 分钟前
排序算法之快排与TIMSORT的比较测试,python
c++·python·算法·golang
适应规律26 分钟前
LWGANet:两大核心模块:TGFI(减空间冗余)和 LWGA(减通道冗余。
python·计算机视觉