WSL中使用GPU加速AMBER MD--测试

接上一篇文章,下载好WSL中的GPU加速版本的AMBER,但仅仅是串行版,本篇文章对GPU 串行版AMBER进行测试。

1 文件准备

包括拓扑文件,rst7文件和md输入文件

复制代码
wget http://ambermd.org/tutorials/basic/tutorial14/include/RAMP1.prmtop
wget http://ambermd.org/tutorials/basic/tutorial14/include/RAMP1_equil.rst7
wget http://ambermd.org/tutorials/basic/tutorial14/include/md.in

修改 md.in文件为:改为200ps的MD,将输出设置为每2ps输出一次到mdout文件

复制代码
Explicit solvent molecular dynamics constant pressure 200 ps MD
 &cntrl
   imin=0, irest=1, ntx=5, 
   ntpr=1000, ntwx=1000, ntwr=100000, nstlim=100000, 
   dt=0.002, ntt=3, tempi=300, 
   temp0=300, gamma_ln=1.0, ig=-1, 
   ntp=1, ntc=2, ntf=2, cut=9, 
   ntb=2, iwrap=1, ioutfm=1, 
/ 

2 编写脚本md.sh

复制代码
#! /bin/bash -f
 
export CUDA_VISIBLE_DEVICES=0
 
$AMBERHOME/bin/pmemd.cuda -O -i md.mdin -p RAMP1.prmtop -c RAMP1_equil.rst7\
 -ref RAMP1_equil.rst7 -o RAMP1_md.out -r RAMP1_md.rst7 -x RAMP1_md.nc -inf md.info

3 运行脚本

复制代码
sh md.sh &

4 查看所需时间

复制代码
cat md.info

5 结果

使用GPU串行版,可以看到运行200ps的MD仅需要20min。

而此时使用CPU串行版 ,发现同样的体系200ps需要8.9h,这差距也太大了吧,可见gpu加速比cpu要快很多。

相关推荐
有谁看见我的剑了?16 分钟前
k8s-临时容器学习
学习·容器·kubernetes
七芒星202323 分钟前
ResNet(详细易懂解释):残差网络的革命性突破
人工智能·pytorch·深度学习·神经网络·学习·cnn
easy202032 分钟前
Kaggle项目实践——Titanic: Machine Learning from Disaster
笔记·学习·机器学习
The_Second_Coming1 小时前
容器应用学习笔记:containerd 篇
运维·笔记·学习·容器·containerd
知识分享小能手1 小时前
React学习教程,从入门到精通,React AJAX 语法知识点与案例详解(18)
前端·javascript·vue.js·学习·react.js·ajax·vue3
GIS开发特训营2 小时前
【智慧城市】2025年中国地质大学(武汉)暑期实训优秀作品(4):智矿中国
学习·gis·智慧城市·gis开发·webgis
HainesFreeman2 小时前
书籍成长书籍文字#创业付费杂志《财新周刊》2025最新合集 更33期
笔记
朗迹 - 张伟2 小时前
Gin-Vue-Admin学习笔记
vue.js·学习·gin
GilgameshJSS2 小时前
【学习K230-例程21】GT6700-UDP-Client
网络·python·单片机·网络协议·学习·udp
楼田莉子3 小时前
C++动态规划算法:斐波那契数列模型
c++·学习·算法·动态规划