我正在使用docker启动独立的应用程序。我的应用程序将使用CUDA库进行GPGPU计算。我正在考虑在它上面安装cuda,但这会让它太庞大。我不确定CUDA显示驱动程序安装是否可以在Docker镜像上成功通过。与Docker容器共享CUDA库
更好的方法是在容器上共享机器上的CUDA库,有没有办法做到这一点?
谢谢, pradeep。
我正在使用docker启动独立的应用程序。我的应用程序将使用CUDA库进行GPGPU计算。我正在考虑在它上面安装cuda,但这会让它太庞大。我不确定CUDA显示驱动程序安装是否可以在Docker镜像上成功通过。与Docker容器共享CUDA库
更好的方法是在容器上共享机器上的CUDA库,有没有办法做到这一点?
谢谢, pradeep。
如果你可以安装你的驱动程序为您的主机上卷,那么你可能能够与它直接从容器内用docker run -v hostdir:containerdir:rw
安装它说话(见run docs)
如果你不”如果将设备安装在容器外部,那么我怀疑即使通过共享库直接与您的图形卡交谈,也无法使用标准Docker配置,因为Docker中默认的LXC配置不包括sys_rawio
,这是出于安全性和便携性的原因。
请参阅lxc_template.go文件以查看默认情况下已丢弃的功能列表。
我将开始与只使用
docker run --privileged ubuntu -ti --rm bash
的--privileged是一个大铁锤,而是让你有充分权力:)
你肯定泊坞窗提供的PCI-E的容器通过?没有它,您的容器化应用程序将无法与主机内核驱动程序或GPU进行交互。 – talonmies
@talonmies:我也不确定,我也是码头工人。所以探索让CUDA在容器中运行的方式 – pradeep