技术栈
模型本地部署
Hoper.J
1 个月前
人工智能
·
python
·
llm
·
llama
·
模型量化
·
gguf
·
模型本地部署
从加载到对话:使用 Llama-cpp-python 本地运行量化 LLM 大模型(GGUF)
(无需显卡)使用 Llama-cpp-python 在本地加载具有 70 亿参数的 LLM 大语言模型,通过这篇文章你将学会用代码创建属于自己的 GPT。 建议阅读完 19a 的「前言」和「模型下载」部分后再进行本文的阅读。
Eric.Lee2021
1 个月前
人工智能
·
python
·
自然语言处理
·
中英文翻译
·
模型本地部署
使用 Helsinki-NLP 中英文翻译本地部署 - python 实现
通过 Helsinki-NLP 本地部署中英文翻译功能。该开源模型性价比相对高,资源占用少,对于翻译要求不高的应用场景可以使用,比如单词,简单句式的中英文翻译。