21.WSL中部署gnina分子对接程序ds

一、项目说明

1.1 仓库地址

  • GIT URL: https://github.com/huojichuanqi/ds#

1.2 项目介绍

gnina(发音为 NEE-na)是一个分子对接程序,集成了使用卷积神经网络对配体进行评分和优化的支持。它是 smina 的一个分支,而 smina 是 AutoDock Vina 的一个分支。

二、安装部署

2.1 环境准备

  • 操作系统:Ubuntu22.04
  • CUDA:>12.0
  • cmake: > 2.25 (Ubuntu默认的是2.22.1,需要修改CMakeLists.txt)
  • python:>=3.10.12
  • torch: 需要和cuda的版本一致
    • cuda12.4: pip install torch==2.5.1 torchvision==0.20.1 torchaudio==2.5.1 --index-url https://download.pytorch.org/whl/cu124
    • cuda12.6: pip install torch==2.7.1 torchvision==0.22.1 torchaudio==2.7.1 --index-url https://download.pytorch.org/whl/cu126
  • wsl能访问github(宿主机配置好代理,关闭防火墙)

2.2 开始编译

2.2.1 安装依赖库
bash 复制代码
apt update -y
apt-get install build-essential git cmake wget libboost-all-dev libeigen3-dev libgoogle-glog-dev libprotobuf-dev protobuf-compiler libhdf5-dev libatlas-base-dev python3-dev librdkit-dev python3-numpy python3-pip python3-pytest libjsoncpp-dev  libxml2-dev
apt upgrade cmake

## 安装cuda
sudo apt-get remove nvidia-cuda-toolkit
wget https://developer.download.nvidia.com/compute/cuda/12.4.0/local_installers/cuda_12.4.0_550.54.14_linux.run
chmod 700 cuda_12.4.0_550.54.14_linux.run
sudo sh cuda_12.4.0_550.54.14_linux.run

## 安装cudnn
wget https://developer.download.nvidia.com/compute/cudnn/9.0.0/local_installers/cudnn-local-repo-ubuntu2204-9.0.0_1.0-1_amd64.deb
sudo dpkg -i cudnn-local-repo-ubuntu2204-9.0.0_1.0-1_amd64.deb
sudo cp /var/cudnn-local-repo-ubuntu2204-9.0.0/cudnn-*-keyring.gpg /usr/share/keyrings/
sudo apt-get update
sudo apt-get -y install cudnn-cuda-12
2.2.2 安装 OpenBabel3

注意,在 3.1.1 及更早版本中存在键级确定错误。

bash 复制代码
git clone https://github.com/dkoes/openbabel.git
cd openbabel
mkdir build
cd build
cmake -DWITH_MAEPARSER=OFF -DWITH_COORDGEN=OFF -DPYTHON_BINDINGS=ON -DRUN_SWIG=ON ..
make
make install
2.2.3 安装 gnina
bash 复制代码
git clone https://github.com/gnina/gnina.git
cd gnina
mkdir build
cd build
cmake .. -DCMAKE_CUDA_ARCHITECTURES=75
make -j8
sudo make install

cmake .. \
  -DOPENBABEL3_INCLUDE_DIR=/usr/local/include/openbabel3 \
  -DOPENBABEL3_LIBRARIES= /usr/local/lib/libopenbabel.so \
  -DJSONCPP_INCLUDE_DIR=/usr/include/jsoncpp \
  -DJSONCPP_LIBRARY=/usr/lib/x86_64-linux-gnu/libjsoncpp.so \
  -DBoost_USE_STATIC_LIBS=OFF

gnina编译的时候对环境有要求,如果cmake的版本低于3.25,那么修改根目录的CMakeLists.txt的第一行cmake_minimum_required(VERSION 3.25)为实际的cmake的版本号,cmake的版本号可以通过cmake --version查看。

第二个要修改的也是根目录的CMakeLists.txt,在76行,将set(CMAKE_CUDA_ARCHITECTURES "all-major")改为实际的架构版本,实际的查看命令为nvidia-smi --query-gpu=compute_cap --format=csv

cmakelist 复制代码
 #set(CMAKE_CUDA_ARCHITECTURES "all-major")
set(CMAKE_CUDA_ARCHITECTURES "75")
相关推荐
开压路机3 小时前
进程控制
linux·服务器
香蕉鼠片3 小时前
跨平台开发到底是什么
linux·windows·macos
Rubin智造社4 小时前
安全先行·自主编程|Claude Code Opus 4.7深度解读:AI开发进入合规量产时代
人工智能·anthropic·claude opus 4.7·mythos preview·xhigh努力等级·/ultrareview命令·自主开发ai
xinlianyq4 小时前
全球 AI 芯片格局生变:英伟达主导训练,国产算力崛起推理
人工智能
ShineWinsu4 小时前
AI训练硬件指南:GPU算力梯队与任务匹配框架
人工智能
范桂飓4 小时前
精选 Skills 清单
人工智能
码农的日常搅屎棍4 小时前
AIAgent开发新选择:OpenHarness极简入门指南
人工智能
AC赳赳老秦4 小时前
OpenClaw生成博客封面图+标题,适配CSDN视觉搜索,提升点击量
运维·人工智能·python·自动化·php·deepseek·openclaw
萝卜小白4 小时前
算法实习Day04-MinerU2.5-pro
人工智能·算法·机器学习
geneculture4 小时前
从人际间性到人机间性:进入人机互助新时代——兼论融智学视域下人类认知第二次大飞跃的理论奠基与实践场域
人工智能·融智学的重要应用·哲学与科学统一性·融智时代(杂志)·人际间性·人机间性·人际间文性