使用ollama部署本地大模型(启用GPU)
上一篇文章使用Ollama部署了本地大模型,不过那时还没有利用本地的GPU资源。如果需要启用GPU,还需要首先安装nvidia-container-toolkit。
1 | curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey \ |
安装之后,还需要设置 NVIDIA 容器运行时。
1 | sudo nvidia-ctk runtime configure --runtime=docker |
之后即可运行如下命令来验证是否配置成功 docker run --rm --gpus all ubuntu nvidia-smi
。
配置完成之后,就可以直接利用GPU资源来运行ollama了。
1 | docker run -d --gpus=all -v ollama:/root/.ollama -p 8000:11434 --name ollama ollama/ollama |
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 AGI Explained!
评论