书生·浦语大模型全链路开源体系-第2课

书生·浦语大模型全链路开源体系-第2课

书生·浦语大模型全链路开源体系-第2课

为了推动大模型在更多行业落地应用,让开发人员更高效地学习大模型的开发与应用,上海人工智能实验室重磅推出书生·浦语大模型实战营,为开发人员提供大模型学习和开发实践的平台。

本文是书生·浦语大模型全链路开源体系-第2课的课程实战。

相关资源

  • InternLM项目地址

https://github.com/InternLM/InternLM

  • InternLM2技术报告

https://arxiv.org/pdf/2403.17297.pdf

  • 书生·万卷 数据

https://opendatalab.org.cn/

  • 课程链接

https://www.bilibili.com/video/BV1AH4y1H78d/

实战部署InternLM2-Chat-1.8B模型

准备环境

首先,通过Intern Studio进入开发机,进入开发机后,在Terminal中输入环境配置命令,配置一个新的环境,激活虚拟环境,安装必要的依赖包。

bash 复制代码
studio-conda -o internlm-base -t demo
conda activate demo

pip install huggingface-hub==0.17.3
pip install transformers==4.34
pip install psutil==5.9.8
pip install accelerate==0.24.1
pip install streamlit==1.32.0
pip install matplotlib==3.8.3
pip install modelscope==1.9.5
pip install sentencepiece==0.1.99



下载模型

创建路径,用于存放案例涉及的所有材料。

bash 复制代码
mkdir -p /root/demo
cd /root/demo

创建文件download_mini.py,用于下载模型。

python 复制代码
import os
from modelscope.hub.snapshot_download import snapshot_download

# 创建保存模型目录
os.system("mkdir /root/models")

# save_dir是模型保存到本地的目录
save_dir="/root/models"

snapshot_download("Shanghai_AI_Laboratory/internlm2-chat-1_8b", 
                  cache_dir=save_dir, 
                  revision='v1.1.0')

执行命令,下载模型。

复制代码
python download_mini.py

运行案例

创建文件cli_demo.py,用于运行案例。

python 复制代码
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM


model_name_or_path = "/root/models/Shanghai_AI_Laboratory/internlm2-chat-1_8b"

tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_code=True, device_map='cuda:0')
model = AutoModelForCausalLM.from_pretrained(model_name_or_path, trust_remote_code=True, torch_dtype=torch.bfloat16, device_map='cuda:0')
model = model.eval()

system_prompt = """You are an AI assistant whose name is InternLM (书生·浦语).
- InternLM (书生·浦语) is a conversational language model that is developed by Shanghai AI Laboratory (上海人工智能实验室). It is designed to be helpful, honest, and harmless.
- InternLM (书生·浦语) can understand and communicate fluently in the language chosen by the user such as English and 中文.
"""

messages = [(system_prompt, '')]

print("=============Welcome to InternLM chatbot, type 'exit' to exit.=============")

while True:
    input_text = input("\nUser  >>> ")
    input_text = input_text.replace(' ', '')
    if input_text == "exit":
        break

    length = 0
    for response, _ in model.stream_chat(tokenizer, input_text, messages):
        if response is not None:
            print(response[length:], flush=True, end="")
            length = len(response)

执行程序。

bash 复制代码
python cli_demo.py

实战部署InternLM2-Chat-7B模型

准备环境

首先,通过Intern Studio进入开发机,进入开发机后,在Terminal中输入环境配置命令,配置一个新的环境。

bash 复制代码
bash /root/share/install_conda_env_internlm_base.sh internlm-demo



环境自动配置完成后,通过命令激活新的虚拟环境。

bash 复制代码
conda activate internlm-demo

在虚拟环境中,安装必要的依赖包。

bash 复制代码
python -m pip install --upgrade pip
pip install modelscope==1.9.5
pip install transformers==4.35.2
pip install streamlit==1.32.0
pip install sentencepiece==0.1.99
pip install accelerate==0.24.1

下载模型及案例代码

在开发机中的/root/share目录下,默认已经为我们下载好了常用的模型,直接复制即可,无需重复下载。复制模型、下载案例代码。

bash 复制代码
mkdir -p /root/model/InternLM
cp -r /root/share/temp/model_repos/internlm-chat-7b /root/model/InternLM/
mkdir -p /root/code
cd /root/code
git clone https://gitee.com/internlm/InternLM.git
cd InternLM
git checkout 3028f07cb79e5b1d7342f4ad8d11efad3fd13d17

运行cli案例代码

创建文件cli_demo.py,用于运行案例,将代码中的模型路径指定到新复制的模型目录。



运行web案例代码

除了在控制台运行案例代码,还可以直接运行web_demo.py,运行之前将代码中的模型路径指定到新复制的模型目录。

切换到VSCode界面,并通过命令行运行命令启动程序。

复制代码
streamlit run web_demo.py --server.address 127.0.0.1 --server.port 6006


配置SSH公钥信息

由于开发机没有提供独立的公网IP地址,并且程序启动地址是127.0.0.1,因此无法通过本地浏览器直接访问开发机中启动的程序,需要通过隧道方式进行访问。首先,配置SSH公钥。

将新生成的公钥信息添加到Intern Studio中。



配置SHH隧道连接

公钥信息添加成功后,可以通过SSH信息查看开发机对应的端口信息。

通过以下命令,建立本地客户端与云端开发机之间的隧道连接。

bash 复制代码
ssh -CNg -L 6006:127.0.0.1:6006 root@ssh.intern-ai.org.cn -p 40314

最后,通过浏览器访问案例。

熟悉 Huggingface 下载功能

使用 huggingface_hub Python 包,下载 InternLM2-Chat-7B 的 config.json 文件到本地。

通过代码下载指定文件

创建文件download_model.py,通过以下代码,下载模型中的指定文件。

python 复制代码
import os
from huggingface_hub import hf_hub_download

# 创建保存模型目录
os.system("mkdir /root/models")

# save_dir是模型保存到本地的目录
save_dir="/root/models"

hf_hub_download(repo_id="internlm/internlm2-chat-7b", cache_dir=save_dir, filename="config.json")

使用命令下载全部文件

复制代码
export HF_ENDPOINT=https://hf-mirror.com
huggingface-cli download --resume-download --local-dir-use-symlinks False internlm/internlm2-chat-7b --local-dir /root/cache/huggingface/hub/internlm/internlm2-chat-7b


Lagent 工具调用

复制代码
cd /root/code
git clone https://gitee.com/internlm/lagent.git
cd lagent
git checkout 581d9fb8987a5d9b72bb9ebd37a95efd47d479ac
pip install -e .


复制代码
streamlit run examples/internlm2_agent_web_demo_hf.py --server.address 127.0.0.1 --server.port 6006


浦语·灵笔2 的 图文创作 及 视觉问答 部署

图文创作

复制代码
pip install timm==0.4.12 sentencepiece==0.1.99 markdown2==2.4.10 xlsxwriter==3.1.2 gradio==4.13.0 modelscope==1.9.5
复制代码
git clone https://gitee.com/internlm/InternLM-XComposer.git
cd /root/code/InternLM-XComposer
git checkout f31220eddca2cf6246ee2ddf8e375a40457ff626
mkdir -p /root/models
ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm-xcomposer2-7b /root/models/internlm-xcomposer2-7b
ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm-xcomposer2-vl-7b /root/models/internlm-xcomposer2-vl-7b

python examples/gradio_demo_composition.py \
--code_path /root/models/internlm-xcomposer2-7b \
--private \
--num_gpus 1 \
--port 6006







视觉问答图片理解实战

复制代码
cd /root/code/InternLM-XComposer
python examples/gradio_demo_chat.py  \
--code_path /root/models/internlm-xcomposer2-vl-7b \
--private \
--num_gpus 1 \
--port 6006


相关推荐
大霸王龙21 小时前
MinIO 对象存储系统架构图集
人工智能·llm·minio
汗流浃背了吧,老弟!21 小时前
什么是ResNet
人工智能·深度学习
vibag21 小时前
构建智能体与工具调用
python·语言模型·大模型·langgraph
小途软件21 小时前
高校宿舍访客预约管理平台开发
java·人工智能·pytorch·python·深度学习·语言模型
人工智能培训21 小时前
10分钟了解向量数据库(3)
人工智能·大模型·知识图谱·强化学习·智能体搭建
华清远见成都中心1 天前
人工智能要学习的课程有哪些?
人工智能·学习
普通网友1 天前
Bard 的模型压缩技术:在保证性能的前提下如何实现轻量化部署
人工智能·机器学习·bard
白帽子黑客罗哥1 天前
不同就业方向(如AI、网络安全、前端开发)的具体学习路径和技能要求是什么?
人工智能·学习·web安全
捕风捉你1 天前
【AI转行04】特征工程:治疗 AI 的“学不会”和“想太多”
人工智能·深度学习·机器学习
何贤1 天前
2026 年程序员自救指南
人工智能·程序员·掘金技术征文