【活动推荐】Alibaba Cloud Linux实践操作学习赛,有电子证书及丰厚奖品!

前言

这里给小伙伴们推荐一个新活动,有电子证书可以拿的哦~

这是开放原子基金会的官网,进入赛事界面。

可以看到下面有一个龙蜥社区Alibaba Cloud Linux实践操作学习赛。点击此处进行报名。

双方都会提供电子证书的,但是具体还是看完成的质量。

实验的内容也很简单,链接如下:https://developer.aliyun.com/adc/scenario/3f2409bc21fb4fff8cd581d5ba5de6fd

按照指引完成体验即可。但需要将完成结果提交到AtomGit仓库:https://atomgit.com/13968133152/alinux-lab 。同时备注"大赛报名姓名、阿里云账号、实验操作完成截图、对实验的反馈或建议"。操作完成之后加入钉钉群填写信息收集表即可。

基于ECS Intel实例部署GPT-2大语言模型

GPT-2

GPT-2(Generative Pre-trained Transformer 2)是由OpenAI开发的一种语言模型,它是基于Transformer架构的深度学习模型。GPT-2模型通过大规模的无监督预训练来学习语言的统计特征和语义关系,然后可以用于各种自然语言处理任务,如文本生成、摘要生成、对话系统、翻译等。GPT-2的特点是可以生成连贯、语义合理的文本,具有较强的语言理解和生成能力。

实验步骤

部署GPT-2

软件安装配置

为了在Alinux 3上安装PyTorch等AI组件,需要首先启用epao repo。执行如下命令,启用epao repo。

js 复制代码
yum install -y anolis-epao-release

执行如下命令,安装部署GPT-2所必须的软件以及PyTorch组件。【注意】本实验已为您提前下载预训练模型,如果您需要在自己的环境中下载预训练模型,建议您安装tmux,下载预训练模型前先执行tmux进入tmux session,预训练模型下载时间很长,ECS断开后就不能继续下载。

js 复制代码
yum install -y git git-lfs wget curl gcc gcc-c++ tar unzip pytorch gperftools-libs

执行如下命令,更新pip,方便后续部署Python环境。

js 复制代码
python -m pip install --upgrade pip

执行如下命令,启用Git LFS,后续下载预训练模型需要启用Git LFS的支持。

js 复制代码
git lfs install
下载 GPT-2 模型

下载GPT-2预训练模型。

本实验已为您提前下载GPT-2预训练模型,请您跳过此步骤,切勿重复下载。如果您需要在自己的环境中下载模型,您可使用命令

js 复制代码
GIT_LFS_SKIP_SMUDGE=1 git clone https://gitee.com/modelee/gpt2-large.git
wget https://gitee.com/modelee/gpt2-large/raw/main/pytorch_model.bin -O gpt2-large/pytorch_model.bin
部署运行环境

执行如下命令,安装大模型运行时所需要的依赖环境。

js 复制代码
pip install --ignore-installed pyyaml==5.1
pip install transformers streamlit intel-openmp

运行网页版APP

环境部署完毕后,就可以运行网页版APP,来体验GPT-2帮助完成写作的乐趣。

执行如下命令,创建网页版APP的项目目录。

js 复制代码
mkdir write-with-transformer && cd write-with-transformer

执行如下命令,新建并编辑app.py文件。

js 复制代码
vim app.py

按i键进入编辑模式,将如下内容复制并粘贴至app.py文件中,完成后按ESC退出编辑模式,输入:wq后回车,保存并退出文件。

js 复制代码
import streamlit as st
from transformers import AutoTokenizer, AutoModelWithLMHead

tokenizer = AutoTokenizer.from_pretrained("../gpt2-large")
model = AutoModelWithLMHead.from_pretrained("../gpt2-large")

def infer(input_ids, max_length, temperature, top_k, top_p):
    output_sequences = model.generate(input_ids=input_ids,max_length=max_length,temperature=temperature,
        top_k=top_k,top_p=top_p,do_sample=True,num_return_sequences=1)
    return output_sequences

default_value = "Hello, I'm a language model,"

st.title("Write with Transformers 🦄")
sent = st.text_area("Text", default_value, height = 275)
max_length = st.sidebar.slider("Max Length", min_value = 10, max_value=30)
temperature = st.sidebar.slider("Temperature", value = 1.0, min_value = 0.0, max_value=1.0, step=0.05)
top_k = st.sidebar.slider("Top-k", min_value = 0, max_value=5, value = 0)
top_p = st.sidebar.slider("Top-p", min_value = 0.0, max_value=1.0, step = 0.05, value = 0.9)

encoded_prompt = tokenizer.encode(sent, add_special_tokens=False, return_tensors="pt")
if encoded_prompt.size()[-1] == 0:
    input_ids = None
else:
    input_ids = encoded_prompt

output_sequences = infer(input_ids, max_length, temperature, top_k, top_p)

for generated_sequence_idx, generated_sequence in enumerate(output_sequences):
    print(f"=== GENERATED SEQUENCE {generated_sequence_idx + 1} ===")
    generated_sequences = generated_sequence.tolist()
    text = tokenizer.decode(generated_sequence, clean_up_tokenization_spaces=True)
    total_sequence = (
        sent + text[len(tokenizer.decode(encoded_prompt[0], clean_up_tokenization_spaces=True)) :]
    )
    generated_sequences.append(total_sequence)
    print(total_sequence)

st.write(generated_sequences[-1])

执行如下命令,设置运行环境变量,并运行app.py脚本。

js 复制代码
export OMP_NUM_THREADS=$(nproc --all)
export KMP_AFFINITY=granularity=fine,compact,1,0
export LD_PRELOAD=/usr/lib64/libtcmalloc.so.4:/usr/local/lib/libiomp5.so
streamlit run app.py --server.port 7860

出现以下回显信息说明服务运行成功。

通过EXTERNAL IP:7860访问服务。

接下来大家就可以尽情的对话了。【注意】执行键是ctrl+enter,这里没有按钮。

提交结果

具体官方教程如下:https://atomgit.com/evaluation/atomgit_evaluation/wiki/手把手教你参与 AtomGit 开源协作平台测评赛

在登录 AtomGit 的前提下,访问官方仓库,此处为龙蜥活动

点击如下图右上的"Fork"按钮。

将"Fork 代码库"到自己的 AtomGit 账户下。

安装 Git 客户端,在本地安装Git。

地址:https://atomgit.com/atomgit_operate/quick_link_software/blob/master/git/

配置你的 AtomGit SSH

生成本地的 SSH Key 的公私密钥对。

在命令行执行 ,一直回车.

js 复制代码
ssh-keygen.exe

默认生成的密钥对存放在用户目录 C:\Users\OpenAtom.ssh\下,注意:该路径中的"OpenAtom"每个人不一样,实际以你自己电脑的当前登录的用户名为主。

公钥文件名:id_rsa.pub

私钥文件名:id_rsa

复制公钥

js 复制代码
clip < ~/.ssh/id_rsa.pub

在 AtomGit 平台设置:个人头像->个人设置->SSH Key,在这里添加一个 SSH 公钥。

在上面"4.2"步骤中已经设置好了 SSH,那么现在只要在你的 AtomGit 账户的"AtomGit 代码托管平台评测赛"仓库中选择"克隆/下载"按钮->"SSH"->复制SSH地址,如下图

本地新增测评文档,然后把自己的信息填进去。

回到自己的仓库里,点击上传文档。

此时可以看到有两个文件了。

参赛者在自己fork的仓库中,向官方仓库发起变更请求,创建change request,参考如图操作。

这时,填写以下自己的个人信息即可。

回到官方仓库,可以看到自己刚刚发起的请求成功。

至此,上传完毕。

同时请加入官方的钉钉群,群里会定期公布本月的参与名单及获奖名单,一般电子证书都会是在一周后发布在钉钉群内,所以请务必加群哦!

本次活动持续时间为一年,所以只要是今年内看到的小伙伴都是可以参加的!

建议

希望能够增加更多关于AI+OS的实验,不仅仅局限于部署方面。

相关推荐
兔C9 分钟前
微信小程序的轮播图学习报告
学习·微信小程序·小程序
o(╥﹏╥)10 分钟前
linux(ubuntu )卡死怎么强制重启
linux·数据库·ubuntu·系统安全
娶不到胡一菲的汪大东14 分钟前
Ubuntu概述
linux·运维·ubuntu
海海不掉头发16 分钟前
苍穹外卖-day05redis 缓存的学习
学习·缓存
阿里嘎多学长24 分钟前
docker怎么部署高斯数据库
运维·数据库·docker·容器
Yuan_o_27 分钟前
Linux 基本使用和程序部署
java·linux·运维·服务器·数据库·后端
那就举个栗子!41 分钟前
Ubuntu 20.04下Kinect2驱动环境配置与测试【稳定无坑版】
linux·ubuntu
灯火不休➴42 分钟前
[Xshell] Xshell的下载安装使用、连接linux、 上传文件到linux系统-详解(附下载链接)
linux·运维·服务器
Lukea1142 分钟前
【新教程】Ubuntu server 24.04配置无线网WiFi
linux·ubuntu·教程
小峰编程44 分钟前
独一无二,万字详谈——Linux之文件管理
linux·运维·服务器·云原生·云计算·ai原生