tensorflow 1.x和3090、cuda部署

这里写目录标题

  • [3090、cuda和tensorflow 1.x](#3090、cuda和tensorflow 1.x)

3090、cuda和tensorflow 1.x

因为3090只支持cuda11.0+的版本,而tensorflow1.×已经不再维护,没有出支持cuda11.0+的版本了。

nvidia提供了TF1.x对RTX 3090、cuda11等新硬件的支持。卸载已有的tensorflow-gpu包和conda安装的cuda包,安装nvidia版本tensorflow:

python 复制代码
pip install nvidia-pyindex
pip install nvidia-tensorflow  # 会自动安装相关cuda依赖

pip install tensorboard
import tensorflow as tf 和 tf.test.is_gpu_available() 测试,如果出现以下内容WARNING:root:Limited tf.compat.v2.summary API due to missing TensorBoard installation.此时还需要再安装一个.重新安装tensorboard。pip install tensorboard即可解决

pip install tensorboard

import tensorflow as tf 和 tf.test.is_gpu_available() 测试,如果出现以下内容WARNING:root:Limited tf.compat.v2.summary API due to missing TensorBoard installation.此时还需要再安装一个。重新安装tensorboard。pip uninstall tensorboard、pip install tensorboard即可解决

注:nvidia-tensorflow仓库提示需要使用Python3.8,但我使用Python3.6,可用。

参考:

https://blog.csdn.net/qq_39543404/article/details/112171851

https://www.cnblogs.com/xikeguanyu/p/16269066.html

https://zhuanlan.zhihu.com/p/521957441

https://blog.csdn.net/znevegiveup1/article/details/115053563

测试TF和cuda

python 复制代码
1、
#(1)查看TF版本
import tensorflow as tf
tf.__version__        # 此命令为获取安装的tensorflow版本
print(tf.__version__) # 输出版本
tf.__path__			   #查看tensorflow安装路径
print(tf.__path__)

#(2)查看cuda是否可用
import tensorflow as tf
print(tf.test.is_gpu_available())#如果结果是True,表示GPU可用

import tensorflow as tf
tf.test.is_gpu_available()

#(3)查看cuda版本
nvidia-smi #系统中自带的cuda

conda list | grep cuda #虚拟环境的cuda或者用pip看包信息


2、
import tensorflow as tf
gpu_device_name = tf.test.gpu_device_name()
print(gpu_device_name)
tf.test.is_gpu_available()

import tensorflow as tf
tf.test.is_built_with_cuda()
print(tf.test.is_built_with_cuda())#返回true表示可用


3、
from tensorflow.python.client import device_lib
 # 列出所有的本地机器设备
local_device_protos = device_lib.list_local_devices()
# 打印
print(local_device_protos)
# 只打印GPU设备
[print(x) for x in local_device_protos if x.device_type == 'GPU']

测试Pytorch和cuda

python 复制代码
import torch
print(torch.__version__)
print(torch.cuda.is_available())
  • CUDA版本
    1.查看当前安装的版本(nvcc -V)
    通过nvcc(NVIDIA Cuda compiler driver)命令可查看本机安装的CUDA版本:nvcc -V
    nvcc -V查看的是系统自带的cuda的版本,要看虚拟环境中的版本,要导入pytorch和tensorflow库进行测试
    pytorch中:print(torch.__version__)
    tensorflow中:conda list | grep cuda直接在终端里,打开相应环境,进行查看
    2.查看能支持的最高CUDA版本(nvidia-smi)
    通过nvidia-smi 命令可查看本机的Nvidia显卡驱动信息,以及该驱动支持的最高的CUDA版本。nvidia-smi,例如下面的CUDA Version就是我的电脑上面能够安装的最高版本的CUDA,并且该版本号是向下支持的,可以安装低于该版本号的所有CUDA套件

tenserflow卸载

检查:

sudo pip show tensorflow

卸载使用:

pip uninstall protobuf

pip uninstall tensorflow

pip uninstall tensorflow-gpu

pip wheel 安装 TensorRT:

安装 nvidia-pyindex 包用下面这条命令

pip install nvidia-pyindex

安装装好之后,就可以开始安装 TensorRT 了。使用下面的命令:

pip install --upgrade nvidia-tensorrt

python 复制代码
pip install nvidia-pyindex
pip install nvidia-tensorrt==8.2.5.1

import tensorrt
print(tensorrt.__version__)
assert tensorrt.Builder(tensorrt.Logger())

参考:https://blog.csdn.net/qq_37541097/article/details/114847600

https://www.cnblogs.com/asnelin/p/15929442.html

同时安装tensorflow、pytorch

主要考虑cudnn、tensorflow、pytorch的版本问题,先选cuda的版本和显卡的匹配,再选tensorflow、pytorch的cuda对应版本。

cuda、cudnn、tensorflow(-gpu)、pytorch弄清版本。

参考:https://blog.csdn.net/LIWEI940638093/article/details/113811563

链接: 版本安装连接link

相关推荐
东临碣石8243 分钟前
【AI论文】EnerVerse-AC:用行动条件来构想具身环境
人工智能
lqjun08271 小时前
PyTorch实现CrossEntropyLoss示例
人工智能·pytorch·python
心灵彼岸-诗和远方1 小时前
芯片生态链深度解析(三):芯片设计篇——数字文明的造物主战争
人工智能·制造
小蜗笔记1 小时前
显卡、Cuda和pytorch兼容问题
人工智能·pytorch·python
高建伟-joe1 小时前
内容安全:使用开源框架Caffe实现上传图片进行敏感内容识别
人工智能·python·深度学习·flask·开源·html5·caffe
Cloud Traveler2 小时前
迁移学习:解锁AI高效学习与泛化能力的密钥
人工智能·学习·迁移学习
IT_xiao小巫2 小时前
AI 实践探索:辅助生成测试用例
人工智能·测试用例
一切皆有可能!!2 小时前
ChromaDB 向量库优化技巧实战
人工智能·语言模型
星川皆无恙2 小时前
大模型学习:Deepseek+dify零成本部署本地运行实用教程(超级详细!建议收藏)
大数据·人工智能·学习·语言模型·架构
观测云2 小时前
观测云产品更新 | 安全监测、事件中心、仪表板AI智能分析等
人工智能·安全