WSL中使用GPU加速AMBER MD--测试

接上一篇文章,下载好WSL中的GPU加速版本的AMBER,但仅仅是串行版,本篇文章对GPU 串行版AMBER进行测试。

1 文件准备

包括拓扑文件,rst7文件和md输入文件

复制代码
wget http://ambermd.org/tutorials/basic/tutorial14/include/RAMP1.prmtop
wget http://ambermd.org/tutorials/basic/tutorial14/include/RAMP1_equil.rst7
wget http://ambermd.org/tutorials/basic/tutorial14/include/md.in

修改 md.in文件为:改为200ps的MD,将输出设置为每2ps输出一次到mdout文件

复制代码
Explicit solvent molecular dynamics constant pressure 200 ps MD
 &cntrl
   imin=0, irest=1, ntx=5, 
   ntpr=1000, ntwx=1000, ntwr=100000, nstlim=100000, 
   dt=0.002, ntt=3, tempi=300, 
   temp0=300, gamma_ln=1.0, ig=-1, 
   ntp=1, ntc=2, ntf=2, cut=9, 
   ntb=2, iwrap=1, ioutfm=1, 
/ 

2 编写脚本md.sh

复制代码
#! /bin/bash -f
 
export CUDA_VISIBLE_DEVICES=0
 
$AMBERHOME/bin/pmemd.cuda -O -i md.mdin -p RAMP1.prmtop -c RAMP1_equil.rst7\
 -ref RAMP1_equil.rst7 -o RAMP1_md.out -r RAMP1_md.rst7 -x RAMP1_md.nc -inf md.info

3 运行脚本

复制代码
sh md.sh &

4 查看所需时间

复制代码
cat md.info

5 结果

使用GPU串行版,可以看到运行200ps的MD仅需要20min。

而此时使用CPU串行版 ,发现同样的体系200ps需要8.9h,这差距也太大了吧,可见gpu加速比cpu要快很多。

相关推荐
程序员雷欧5 分钟前
大模型应用开发学习第八天
大数据·人工智能·学习
SccTsAxR10 分钟前
算法基石:手撕离散化、递归与分治
c++·经验分享·笔记·算法
晓晓hh26 分钟前
JavaSE学习——set集合和Map映射
学习
西梅汁1 小时前
C++ 观察者模式
笔记
لا معنى له1 小时前
Var-JEPA:联合嵌入预测架构的变分形式 —— 连接预测式与生成式自监督学习 ----论文翻译
人工智能·笔记·学习·语言模型
世人万千丶1 小时前
Flutter 框架跨平台鸿蒙开发 - 宠物语言翻译器应用
学习·flutter·华为·开源·harmonyos·鸿蒙
AI成长日志1 小时前
【笔面试算法学习专栏】哈希表基础:两数之和与字母异位词分组
学习·算法·面试
"菠萝"2 小时前
C#知识学习-021(文字关键字)
开发语言·学习·c#
chase。2 小时前
【学习笔记】让机器人“边想边动”——实时动作分块流策略的执行方法
笔记·学习·机器人
[ ]8982 小时前
Stack_MLAG_知识点梳理
网络·笔记·网络协议