2023

NVidia Container Toolkitでgpu-enabledなdocker imageで作業したときの作業メモ

GPUを利用する機械学習系の環境を構築する際に 、CUDAとフレームワーク等のバージョンの整合性で困ることがある。必ずしも最新版にしておけばいいというわけではないことが結構ある(気がする) dockerコンテナ内でgpuが利用できるようになるNvidia Container TookitをNvidiaが提供してくれているので、これを利用すると任意のCUDAバージョンの環境が構築できるようになりますという作業メモ。 1.Nvidia Container Toolkitをインストール ホストOS側に、Nvidia Linux DriverとNvidia Container Toolkitをインストールして、docker runtimeにnvidiaランタイムを認識してもらうまで下記のマニュアルに沿って設定。 ホスト側にはNvidia Linux DriverおよびNVidia Container Toolkit だけで良いので、CUDAで気を病む必要がない(たぶん) https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/install-guide.html 2.gpuが認識されているかの確認方法 これも書いてある通りだが、 $ sudo docker run –rm –runtime=nvidia –gpus…

Stable Diffusion WebUIをubuntu, pyenv virtualenvの環境でインストールした

Stable Diffusion WebUIをUbuntuとpyenv-virtualenvの環境でインストールした。公式のマニュアルどおりではうまく行かなかったので、正しいのかはわかってないけどとりあえず動いたので差分のメモをしておきます。試したのは2023/3/25。 Ubuntuの環境は以下の通り$ cat /etc/os-releaseNAME=”Ubuntu”VERSION=”20.04.3 LTS (Focal Fossa)” 1. まずpyenv virutualenvで専用の環境を作る。現時点で要求のpythonのバージョンが3.10.6とのことだったので従う $ pyenv virtualenv 3.10.6 stable-diffusion-webuiみたいにして、3.10.6をベースにしたvirtualenv環境を作っておく。 2. “Automatic Installation on Linux”のコマンドでは起動時にstable diffusionが見つからないと出て起動できなかった。仕方がないのでここのドキュメントにあるManual Installの方を試した。 3.これは単純に私が理解してないだけだと思うけど、Manual Installの最後の意味がわからなかった(何をどこに配置すればいいのかがわからなかった) # (outside of command…