WSL中使用GPU加速AMBER MD--测试

接上一篇文章,下载好WSL中的GPU加速版本的AMBER,但仅仅是串行版,本篇文章对GPU 串行版AMBER进行测试。

1 文件准备

包括拓扑文件,rst7文件和md输入文件

wget http://ambermd.org/tutorials/basic/tutorial14/include/RAMP1.prmtop
wget http://ambermd.org/tutorials/basic/tutorial14/include/RAMP1_equil.rst7
wget http://ambermd.org/tutorials/basic/tutorial14/include/md.in

修改 md.in文件为:改为200ps的MD,将输出设置为每2ps输出一次到mdout文件

Explicit solvent molecular dynamics constant pressure 200 ps MD
 &cntrl
   imin=0, irest=1, ntx=5, 
   ntpr=1000, ntwx=1000, ntwr=100000, nstlim=100000, 
   dt=0.002, ntt=3, tempi=300, 
   temp0=300, gamma_ln=1.0, ig=-1, 
   ntp=1, ntc=2, ntf=2, cut=9, 
   ntb=2, iwrap=1, ioutfm=1, 
/ 

2 编写脚本md.sh

#! /bin/bash -f
 
export CUDA_VISIBLE_DEVICES=0
 
$AMBERHOME/bin/pmemd.cuda -O -i md.mdin -p RAMP1.prmtop -c RAMP1_equil.rst7\
 -ref RAMP1_equil.rst7 -o RAMP1_md.out -r RAMP1_md.rst7 -x RAMP1_md.nc -inf md.info

3 运行脚本

sh md.sh &

4 查看所需时间

cat md.info

5 结果

使用GPU串行版,可以看到运行200ps的MD仅需要20min。

而此时使用CPU串行版 ,发现同样的体系200ps需要8.9h,这差距也太大了吧,可见gpu加速比cpu要快很多。

相关推荐
懒惰的bit2 小时前
基础网络安全知识
学习·web安全·1024程序员节
2401_858286113 小时前
L7.【LeetCode笔记】相交链表
笔记·leetcode·链表
Natural_yz4 小时前
大数据学习09之Hive基础
大数据·hive·学习
龙中舞王4 小时前
Unity学习笔记(2):场景绘制
笔记·学习·unity
Natural_yz4 小时前
大数据学习10之Hive高级
大数据·hive·学习
love_and_hope5 小时前
Pytorch学习--神经网络--完整的模型训练套路
人工智能·pytorch·python·深度学习·神经网络·学习
青椒大仙KI115 小时前
24/11/7 算法笔记 PCA主成分分析
笔记·算法·信息可视化
夜雨星辰4875 小时前
Android Studio 学习——整体框架和概念
android·学习·android studio
奔跑的花短裤5 小时前
少儿编程启蒙学习
学习·青少年编程·机器人·ai编程
光明中黑暗6 小时前
机器学习 笔记
人工智能·笔记·机器学习