WSL中使用GPU加速AMBER MD--测试

接上一篇文章,下载好WSL中的GPU加速版本的AMBER,但仅仅是串行版,本篇文章对GPU 串行版AMBER进行测试。

1 文件准备

包括拓扑文件,rst7文件和md输入文件

复制代码
wget http://ambermd.org/tutorials/basic/tutorial14/include/RAMP1.prmtop
wget http://ambermd.org/tutorials/basic/tutorial14/include/RAMP1_equil.rst7
wget http://ambermd.org/tutorials/basic/tutorial14/include/md.in

修改 md.in文件为:改为200ps的MD,将输出设置为每2ps输出一次到mdout文件

复制代码
Explicit solvent molecular dynamics constant pressure 200 ps MD
 &cntrl
   imin=0, irest=1, ntx=5, 
   ntpr=1000, ntwx=1000, ntwr=100000, nstlim=100000, 
   dt=0.002, ntt=3, tempi=300, 
   temp0=300, gamma_ln=1.0, ig=-1, 
   ntp=1, ntc=2, ntf=2, cut=9, 
   ntb=2, iwrap=1, ioutfm=1, 
/ 

2 编写脚本md.sh

复制代码
#! /bin/bash -f
 
export CUDA_VISIBLE_DEVICES=0
 
$AMBERHOME/bin/pmemd.cuda -O -i md.mdin -p RAMP1.prmtop -c RAMP1_equil.rst7\
 -ref RAMP1_equil.rst7 -o RAMP1_md.out -r RAMP1_md.rst7 -x RAMP1_md.nc -inf md.info

3 运行脚本

复制代码
sh md.sh &

4 查看所需时间

复制代码
cat md.info

5 结果

使用GPU串行版,可以看到运行200ps的MD仅需要20min。

而此时使用CPU串行版 ,发现同样的体系200ps需要8.9h,这差距也太大了吧,可见gpu加速比cpu要快很多。

相关推荐
小糖学代码20 小时前
LLM系列:2.pytorch入门:9.神经网络的学习
人工智能·python·深度学习·神经网络·学习·机器学习
曾凡玉@20 小时前
Python 并发编程系统笔记
开发语言·笔记·python
Hello_Embed20 小时前
【无标题】
网络·笔记·网络协议·tcp/ip·嵌入式
小陈phd20 小时前
多模态大模型学习笔记(三十八)——传统OCR技术机制:从DBNet到CRNN:吃透传统OCR两阶段范式的底层逻辑
笔记·学习·ocr
迷途之人不知返20 小时前
List的模拟实现
数据结构·c++·学习·list
HalvmånEver20 小时前
MySQL的内置函数
linux·数据库·学习·mysql
兜兜工作室21 小时前
兜兜消消单词|04.29 每日单词|glove
学习
zhangrelay21 小时前
三分钟云课实践速通--工程制图基础-3D--FreeCAD
笔记·学习·3d
kobesdu21 小时前
【ROS2实战笔记-13】Foxglove Studio:ROS可视化工具的另一条路
笔记·机器人·自动驾驶·ros
勤劳的进取家21 小时前
传输层基础
运维·开发语言·学习·php