Docker部署AI算法教程
docker上部署算法除了一些推理框架外,有時(shí)候會(huì)自己用torch推理加上一些web應(yīng)用,下面寫下自己用的一套方法。
Docker+cuda10.1+miniconda3+torch1.7.1
docker要求19.03以上才支持cuda
1.安裝docker,我這里使用的centos7
$ sudo yum install -y yum-utils device-mapper-persistent-data lvm2 $ sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo $ sudo yum install docker-ce啟動(dòng)并加入開(kāi)機(jī)啟動(dòng) $ sudo systemctl start docker $ sudo systemctl enable docker2.安裝nvidia-container-runtime
sudo yum install nvidia-container-runtime3.下載cuda?docker鏡像
docker pull nvidia/cuda:10.1-base-ubuntu18.04
4.啟動(dòng)一個(gè)容器(順便把/hone目錄掛載到容器中的/host?方便訪問(wèn)文件)
sudo docker run -it --gpus?all?--name train_server_1 -v /home:/host nvidia/cuda
5.在容器中安裝miniconda3
下載地址:
https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
sh Miniconda3-latest-Linux-x86_64.sh(一路yes 回車就可以了)
再使其python環(huán)境生效::
source ~/.bashrc
5.安裝torch
pip?install?torch==1.7.1
6.運(yùn)行自己的AI算法代碼就行了
總結(jié)
以上是生活随笔為你收集整理的Docker部署AI算法教程的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: Postgresql从MD5密码验证改为
- 下一篇: arm裸机块设备