WSL中使用GPU加速AMBER MD--测试

接上一篇文章,下载好WSL中的GPU加速版本的AMBER,但仅仅是串行版,本篇文章对GPU 串行版AMBER进行测试。

1 文件准备

包括拓扑文件,rst7文件和md输入文件

复制代码
wget http://ambermd.org/tutorials/basic/tutorial14/include/RAMP1.prmtop
wget http://ambermd.org/tutorials/basic/tutorial14/include/RAMP1_equil.rst7
wget http://ambermd.org/tutorials/basic/tutorial14/include/md.in

修改 md.in文件为:改为200ps的MD,将输出设置为每2ps输出一次到mdout文件

复制代码
Explicit solvent molecular dynamics constant pressure 200 ps MD
 &cntrl
   imin=0, irest=1, ntx=5, 
   ntpr=1000, ntwx=1000, ntwr=100000, nstlim=100000, 
   dt=0.002, ntt=3, tempi=300, 
   temp0=300, gamma_ln=1.0, ig=-1, 
   ntp=1, ntc=2, ntf=2, cut=9, 
   ntb=2, iwrap=1, ioutfm=1, 
/ 

2 编写脚本md.sh

复制代码
#! /bin/bash -f
 
export CUDA_VISIBLE_DEVICES=0
 
$AMBERHOME/bin/pmemd.cuda -O -i md.mdin -p RAMP1.prmtop -c RAMP1_equil.rst7\
 -ref RAMP1_equil.rst7 -o RAMP1_md.out -r RAMP1_md.rst7 -x RAMP1_md.nc -inf md.info

3 运行脚本

复制代码
sh md.sh &

4 查看所需时间

复制代码
cat md.info

5 结果

使用GPU串行版,可以看到运行200ps的MD仅需要20min。

而此时使用CPU串行版 ,发现同样的体系200ps需要8.9h,这差距也太大了吧,可见gpu加速比cpu要快很多。

相关推荐
JovaZou14 分钟前
[Python学习日记-92] 并发编程之多线程 —— 守护线程
开发语言·python·学习
研一计算机小白一枚26 分钟前
PyTorch 入门学习笔记
pytorch·学习
qq_4474294127 分钟前
GIT学习笔记
笔记·git·学习
虾球xz40 分钟前
CppCon 2017 学习:Meta
开发语言·c++·学习
moxiaoran575342 分钟前
uni-app项目实战笔记21--uniapp缓存的写入和读取
笔记·缓存·uni-app
华科易迅6 小时前
人工智能学习38-VGG训练
人工智能·学习·人工智能学习38-vgg训练
m0_537437577 小时前
【深度学习基础与概念】笔记(一)深度学习革命
人工智能·笔记·深度学习
HollowKnightZ7 小时前
论文阅读笔记:Digging Into Self-Supervised Monocular Depth Estimation
论文阅读·笔记
输出>输入7 小时前
verilog HDLBits刷题“Module shift8”--模块 shift8---模块和向量
笔记
蓝胖子不会敲代码7 小时前
跟着AI学习C# Day27
开发语言·学习·c#