【活动推荐】Alibaba Cloud Linux实践操作学习赛,有电子证书及丰厚奖品!

前言

这里给小伙伴们推荐一个新活动,有电子证书可以拿的哦~

这是开放原子基金会的官网,进入赛事界面。

可以看到下面有一个龙蜥社区Alibaba Cloud Linux实践操作学习赛。点击此处进行报名。

双方都会提供电子证书的,但是具体还是看完成的质量。

实验的内容也很简单,链接如下:https://developer.aliyun.com/adc/scenario/3f2409bc21fb4fff8cd581d5ba5de6fd

按照指引完成体验即可。但需要将完成结果提交到AtomGit仓库:https://atomgit.com/13968133152/alinux-lab 。同时备注"大赛报名姓名、阿里云账号、实验操作完成截图、对实验的反馈或建议"。操作完成之后加入钉钉群填写信息收集表即可。

基于ECS Intel实例部署GPT-2大语言模型

GPT-2

GPT-2(Generative Pre-trained Transformer 2)是由OpenAI开发的一种语言模型,它是基于Transformer架构的深度学习模型。GPT-2模型通过大规模的无监督预训练来学习语言的统计特征和语义关系,然后可以用于各种自然语言处理任务,如文本生成、摘要生成、对话系统、翻译等。GPT-2的特点是可以生成连贯、语义合理的文本,具有较强的语言理解和生成能力。

实验步骤

部署GPT-2

软件安装配置

为了在Alinux 3上安装PyTorch等AI组件,需要首先启用epao repo。执行如下命令,启用epao repo。

js 复制代码
yum install -y anolis-epao-release

执行如下命令,安装部署GPT-2所必须的软件以及PyTorch组件。【注意】本实验已为您提前下载预训练模型,如果您需要在自己的环境中下载预训练模型,建议您安装tmux,下载预训练模型前先执行tmux进入tmux session,预训练模型下载时间很长,ECS断开后就不能继续下载。

js 复制代码
yum install -y git git-lfs wget curl gcc gcc-c++ tar unzip pytorch gperftools-libs

执行如下命令,更新pip,方便后续部署Python环境。

js 复制代码
python -m pip install --upgrade pip

执行如下命令,启用Git LFS,后续下载预训练模型需要启用Git LFS的支持。

js 复制代码
git lfs install
下载 GPT-2 模型

下载GPT-2预训练模型。

本实验已为您提前下载GPT-2预训练模型,请您跳过此步骤,切勿重复下载。如果您需要在自己的环境中下载模型,您可使用命令

js 复制代码
GIT_LFS_SKIP_SMUDGE=1 git clone https://gitee.com/modelee/gpt2-large.git
wget https://gitee.com/modelee/gpt2-large/raw/main/pytorch_model.bin -O gpt2-large/pytorch_model.bin
部署运行环境

执行如下命令,安装大模型运行时所需要的依赖环境。

js 复制代码
pip install --ignore-installed pyyaml==5.1
pip install transformers streamlit intel-openmp

运行网页版APP

环境部署完毕后,就可以运行网页版APP,来体验GPT-2帮助完成写作的乐趣。

执行如下命令,创建网页版APP的项目目录。

js 复制代码
mkdir write-with-transformer && cd write-with-transformer

执行如下命令,新建并编辑app.py文件。

js 复制代码
vim app.py

按i键进入编辑模式,将如下内容复制并粘贴至app.py文件中,完成后按ESC退出编辑模式,输入:wq后回车,保存并退出文件。

js 复制代码
import streamlit as st
from transformers import AutoTokenizer, AutoModelWithLMHead

tokenizer = AutoTokenizer.from_pretrained("../gpt2-large")
model = AutoModelWithLMHead.from_pretrained("../gpt2-large")

def infer(input_ids, max_length, temperature, top_k, top_p):
    output_sequences = model.generate(input_ids=input_ids,max_length=max_length,temperature=temperature,
        top_k=top_k,top_p=top_p,do_sample=True,num_return_sequences=1)
    return output_sequences

default_value = "Hello, I'm a language model,"

st.title("Write with Transformers 🦄")
sent = st.text_area("Text", default_value, height = 275)
max_length = st.sidebar.slider("Max Length", min_value = 10, max_value=30)
temperature = st.sidebar.slider("Temperature", value = 1.0, min_value = 0.0, max_value=1.0, step=0.05)
top_k = st.sidebar.slider("Top-k", min_value = 0, max_value=5, value = 0)
top_p = st.sidebar.slider("Top-p", min_value = 0.0, max_value=1.0, step = 0.05, value = 0.9)

encoded_prompt = tokenizer.encode(sent, add_special_tokens=False, return_tensors="pt")
if encoded_prompt.size()[-1] == 0:
    input_ids = None
else:
    input_ids = encoded_prompt

output_sequences = infer(input_ids, max_length, temperature, top_k, top_p)

for generated_sequence_idx, generated_sequence in enumerate(output_sequences):
    print(f"=== GENERATED SEQUENCE {generated_sequence_idx + 1} ===")
    generated_sequences = generated_sequence.tolist()
    text = tokenizer.decode(generated_sequence, clean_up_tokenization_spaces=True)
    total_sequence = (
        sent + text[len(tokenizer.decode(encoded_prompt[0], clean_up_tokenization_spaces=True)) :]
    )
    generated_sequences.append(total_sequence)
    print(total_sequence)

st.write(generated_sequences[-1])

执行如下命令,设置运行环境变量,并运行app.py脚本。

js 复制代码
export OMP_NUM_THREADS=$(nproc --all)
export KMP_AFFINITY=granularity=fine,compact,1,0
export LD_PRELOAD=/usr/lib64/libtcmalloc.so.4:/usr/local/lib/libiomp5.so
streamlit run app.py --server.port 7860

出现以下回显信息说明服务运行成功。

通过EXTERNAL IP:7860访问服务。

接下来大家就可以尽情的对话了。【注意】执行键是ctrl+enter,这里没有按钮。

提交结果

具体官方教程如下:https://atomgit.com/evaluation/atomgit_evaluation/wiki/手把手教你参与 AtomGit 开源协作平台测评赛

在登录 AtomGit 的前提下,访问官方仓库,此处为龙蜥活动

点击如下图右上的"Fork"按钮。

将"Fork 代码库"到自己的 AtomGit 账户下。

安装 Git 客户端,在本地安装Git。

地址:https://atomgit.com/atomgit_operate/quick_link_software/blob/master/git/

配置你的 AtomGit SSH

生成本地的 SSH Key 的公私密钥对。

在命令行执行 ,一直回车.

js 复制代码
ssh-keygen.exe

默认生成的密钥对存放在用户目录 C:\Users\OpenAtom.ssh\下,注意:该路径中的"OpenAtom"每个人不一样,实际以你自己电脑的当前登录的用户名为主。

公钥文件名:id_rsa.pub

私钥文件名:id_rsa

复制公钥

js 复制代码
clip < ~/.ssh/id_rsa.pub

在 AtomGit 平台设置:个人头像->个人设置->SSH Key,在这里添加一个 SSH 公钥。

在上面"4.2"步骤中已经设置好了 SSH,那么现在只要在你的 AtomGit 账户的"AtomGit 代码托管平台评测赛"仓库中选择"克隆/下载"按钮->"SSH"->复制SSH地址,如下图

本地新增测评文档,然后把自己的信息填进去。

回到自己的仓库里,点击上传文档。

此时可以看到有两个文件了。

参赛者在自己fork的仓库中,向官方仓库发起变更请求,创建change request,参考如图操作。

这时,填写以下自己的个人信息即可。

回到官方仓库,可以看到自己刚刚发起的请求成功。

至此,上传完毕。

同时请加入官方的钉钉群,群里会定期公布本月的参与名单及获奖名单,一般电子证书都会是在一周后发布在钉钉群内,所以请务必加群哦!

本次活动持续时间为一年,所以只要是今年内看到的小伙伴都是可以参加的!

建议

希望能够增加更多关于AI+OS的实验,不仅仅局限于部署方面。

相关推荐
Zww089123 分钟前
docker部署个人网页导航
运维·docker·容器
Flying_Fish_roe23 分钟前
linux-网络管理-网络配置
linux·网络·php
运维小白。。25 分钟前
Nginx 反向代理
运维·服务器·nginx·http
PeterJXL26 分钟前
Docker-compose:管理多个容器
运维·docker·容器
FuLLovers26 分钟前
2024-09-13 冯诺依曼体系结构 OS管理 进程
linux·开发语言
海王正在撒网30 分钟前
用 Docker 部署 Seafile 社区版
运维·docker·容器
xuanyu221 小时前
Linux常用指令
linux·运维·人工智能
Ylucius2 小时前
动态语言? 静态语言? ------区别何在?java,js,c,c++,python分给是静态or动态语言?
java·c语言·javascript·c++·python·学习
LvManBa2 小时前
Vue学习记录之六(组件实战及BEM框架了解)
vue.js·学习·rust