Llama2-Chinese-7b-Chat安装部署

文章目录

  • 前言
  • [一、文件介绍 📁](#一、文件介绍 📁)
  • [二、环境配置 ♟](#二、环境配置 ♟)
  • [三、Llama2-Chinese-7b-Chat下载 ⏬](#三、Llama2-Chinese-7b-Chat下载 ⏬)
  • 总结

前言

本文主要介绍如何使用Llama2-Chinese-7b-Chat ,最后的效果如图所示:


一、文件介绍 📁

⬇️ 下载地址:https://pan.baidu.com/s/1smUeYoocrPzwPdjyKpawYg?pwd=22vx 提取码: 22vx

📁 Llama2-Chinses-7B-Chat文件夹中的具体内容如下图所示:

二、环境配置 ♟

使用的是服务器,版本为NVIDIA GeForce RTX 4090,内存为24GB。

选择的Python版本为3.8.16,Anaconda版本为4.9.2。

库名 版本
transformers 4.30.2
torch 1.13.1+cu117
baukit 0.01
pandas 1.5.3

详情可见requirements.txt。环境配置步骤如下代码所示:

python 复制代码
conda create -n test python=3.8.16 -y
source activate test
pip install -r requirements.txt
cd Llama2-Chinses-7B-Chat

三、Llama2-Chinese-7b-Chat下载 ⏬

Llama2-Chinese-7b-Chat的下载地址是Llama2-Chinese-7b-Chat,可以通过下面的代码进行快速下载⏬,但是需要事先安装好git lfs。

python 复制代码
cd ..
cd models
url="https://huggingface.co/FlagAlpha/Llama2-Chinese-7b-Chat"
folder="Llama2-Chinese-7b-Chat"
rm -rf "$folder"
while true; do
    git lfs clone $url 
    if [ $? -eq 0 ]; then
        echo "$url weight successfully downloaded."
        break
    else
        echo "$url download failed; retrying..."
    fi
    rm -rf "$folder"
    sleep 10s
done

可以直接进入scripts文件夹sh download_models.sh进行安装。下载之后的models目录如下图所示。
---

总结

Llama2-Chinese-7b-Chat对于中文的问题回答能力优秀,希望大家可以通过我的分享来测试它❤️❤️❤️

相关推荐
Jina AI10 小时前
RAG 系统的分块难题:小型语言模型如何找到最佳断点?
人工智能·语言模型·自然语言处理
-派神-11 小时前
大语言模型(LLM)量化基础知识(一)
人工智能·语言模型·自然语言处理
Elastic 中国社区官方博客11 小时前
释放专利力量:Patently 如何利用向量搜索和 NLP 简化协作
大数据·数据库·人工智能·elasticsearch·搜索引擎·自然语言处理
龙的爹233312 小时前
论文 | Legal Prompt Engineering for Multilingual Legal Judgement Prediction
人工智能·语言模型·自然语言处理·chatgpt·prompt
袁牛逼12 小时前
电话语音机器人,是由哪些功能构成?
人工智能·自然语言处理·机器人·语音识别
小言从不摸鱼14 小时前
【NLP自然语言处理】深入解析Encoder与Decoder模块:结构、作用与深度学习应用
人工智能·深度学习·神经网络·机器学习·自然语言处理·transformer·1024程序员节
不是AI15 小时前
【持续更新】【NLP项目】【自然语言处理】智能聊天机器人——“有问必答”【Chatbot】第2章、《模式一:问候模式》
人工智能·自然语言处理·机器人
知来者逆17 小时前
使用 GPT-4V 全面评估泛化情绪识别 (GER)
人工智能·gpt·语言模型·自然语言处理·gpt-4v
howard200517 小时前
1.3 自然语言处理的应用
人工智能·自然语言处理
&永恒的星河&17 小时前
Hunyuan-Large:推动AI技术进步的下一代语言模型
人工智能·语言模型·自然语言处理·chatgpt·moe·llms