Ubuntu机器学习环境安装记录

安装 Nvidia 显卡驱动

1. sudo ubuntu-drivers autoinstall
2. sudo reboot
3. 检查是否安装成功 nvidia-smi
4. 安装最新显卡驱动(由于一般使用较新的软件因此必需)
   http://www.nvidia.com/Download/index.aspx 下载对应的驱动
   开始搜索 software & Updayes 转到附加驱动选择非英伟达显驱应用重启,需连网
   重启后输入: sudo sh NVIDIA..run
   前几个按照默认选项,直到出现一个缺少某些库的提示这时需要install&override
   sudo reboot
   输入 nvidia-smi 可看到最高兼容到的 cuda 版本。

CUDA安装

https://developer.nvidia.com/cuda-toolkit-archive
https://developer.nvidia.com/rdp/cudnn-download
1. 在上面链接下载 CUDA 目前版本10.0 并下载配套CUDNN
   下载CUDNN需要登入,两个加在一起2GB左右
2. sudo sh cuda..run # 安装Cuda
   如果有问题可能是文件出错了再下载一遍
   注意安装时去掉 Driver
3. sudo gedit ~/.bashrc 加入下面两行
   export PATH=/usr/local/cuda-10.0/bin${PATH:+:$PATH}
   LD_LIBRARY_PATH=/usr/local/cuda-10.0/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
4. reboot 使用 nvcc -V 测试并查看版本

CUDNN安装

1. cp filename.xxx filename.tgz
2. tar -zxvf filename.tgz
3. sudo cp cuda/include/cudnn.h /usr/local/cuda/include
4. sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64
5. sudo chmod a+r /usr/local/cuda/include/cudnn.h /usr/local/cuda/lib64/libcudnn*
查看版本 cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2

CUDNN升级

1. 查看当前CUDNN版本 cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2
2. 下载所需CUDNN版本 https://developer.nvidia.com/rdp/cudnn-download
3. 删除旧版本
   sudo rm -rf /usr/local/cuda/include/cudnn.h
   sudo rm -rf /usr/local/cuda/lib64/libcudnn*
4. 重复上面CUDNN安装过程

PyTorch安装

1. sudo apt-get install python3-pip
2. https://pytorch.org/get-started/locally/ 选择对应版本安装
3. pip3 install numpy
4. python3
   import torch
   x = torch.tensor([1.0])
   x = x.cuda()
   print(x) # 查看cuda库是否可用
   from torch.backends import cudnn
   print(cudnn.is_acceptable(x)) # 查看cudnn库是否可用
5. 如果提示驱动版本太老则去官网下载 
   http://www.nvidia.com/Download/index.aspx
6. 如果下载慢,可以
      pip3 install torch===1.2.0 torchvision===0.4.0 -i https://pypi.douban.com/simple
7. 同时,推荐安装ONNX网络交换协议工具 pip3 install onnx
8. 推荐安装Netron网络可视化工具 pip3 install netron

TensorFlow安装

1. 在 https://blog.csdn.net/flana/article/details/104768188 查看支持版本
2. 下载所支持版本, 例如 pip3 install tensorflow-gpu==1.14.0 -i https://pypi.douban.com/simple
3. 使用如下代码测试GPU可用性
    import tensorflow as tf
    print(tf.test.is_gpu_available())

TensorRT安装

1. 在 https://docs.nvidia.com/deeplearning/tensorrt/archives/index.html 选择符合当前CUDA的版本
2. 这里使用 Tar File Installation 在 https://developer.nvidia.com/nvidia-tensorrt-7x-download 下载对应版本
3. 跟着官网教程走 https://docs.nvidia.com/deeplearning/tensorrt/install-guide/index.html#installing-tar
4. 使用教程 https://docs.nvidia.com/deeplearning/tensorrt/api/python_api/index.html

CMAKE源码安装

1. https://cmake.org/download/ 下载tar.gz源码文件
2. tar -zxvf xxx.tar.gz
3. ./bootstrap
   如果提示需要OpenSSL错误就使用如下命令
   sudo apt-get install libssl-dev
4. make -j4
5. sudo make install
6. cmake --version 查看版本,需要重新打开终端
   由于ONNXRUNTIME编译需要新版本CMAKE
6. 如需卸载 make uninstall

ONNX-GPU源码安装

1. git clone --recursive https://github.com/microsoft/onnxruntime
2. chmod 777 build.sh
3. ./build.sh 
	--use_cuda 
	--cuda_version=10.0 
	--cuda_home=/usr/local/cuda 
	--cudnn_home=/usr/local/cuda 
	--use_tensorrt --tensorrt_home=$HOME/TensorRT-7.0.0.11 
	--build_shared_lib --enable_pybind 
	--build_wheel --parallel
4. 转到编译出来的位置找到dist中的whl使用 pip3 xxx.whl install 安装
原文地址:https://www.cnblogs.com/xytpai/p/13074251.html