我在多GPU服务器上设置了一个内部Jupyterhub。 Jupyter访问通过docker实例提供。我想限制每个用户的访问不超过一个GPU。我会很感激任何建议或评论。谢谢。nvidia-docker中GPU的使用限制?
1
A
回答
1
version: "2"
services
process1:
image: nvidia/cuda
devices:
- /dev/nvidia0
0
的问题可以通过这种方式来解决尝试,只是“NVIDIA-泊坞窗”前添加环境变量“NV_GPU”如下:
[[email protected] ~]# NV_GPU='4,5' nvidia-docker run -dit --name tf_07 tensorflow/tensorflow:latest-gpu /bin/bash
e04645c2d7ea658089435d64e72603f69859a3e7b6af64af005fb852473d6b56
[[email protected] ~]# docker attach tf_07
[email protected]:/notebooks#
[email protected]:/notebooks# ll /dev
total 4
drwxr-xr-x 5 root root 460 Dec 29 03:52 ./
drwxr-xr-x 22 root root 4096 Dec 29 03:52 ../
crw--w---- 1 root tty 136, 0 Dec 29 03:53 console
lrwxrwxrwx 1 root root 11 Dec 29 03:52 core -> /proc/kcore
lrwxrwxrwx 1 root root 13 Dec 29 03:52 fd -> /proc/self/fd/
crw-rw-rw- 1 root root 1, 7 Dec 29 03:52 full
drwxrwxrwt 2 root root 40 Dec 29 03:52 mqueue/
crw-rw-rw- 1 root root 1, 3 Dec 29 03:52 null
crw-rw-rw- 1 root root 245, 0 Dec 29 03:52 nvidia-uvm
crw-rw-rw- 1 root root 245, 1 Dec 29 03:52 nvidia-uvm-tools
crw-rw-rw- 1 root root 195, 4 Dec 29 03:52 nvidia4
crw-rw-rw- 1 root root 195, 5 Dec 29 03:52 nvidia5
crw-rw-rw- 1 root root 195, 255 Dec 29 03:52 nvidiactl
lrwxrwxrwx 1 root root 8 Dec 29 03:52 ptmx -> pts/ptmx
drwxr-xr-x 2 root root 0 Dec 29 03:52 pts/
crw-rw-rw- 1 root root 1, 8 Dec 29 03:52 random
drwxrwxrwt 2 root root 40 Dec 29 03:52 shm/
lrwxrwxrwx 1 root root 15 Dec 29 03:52 stderr -> /proc/self/fd/2
lrwxrwxrwx 1 root root 15 Dec 29 03:52 stdin -> /proc/self/fd/0
lrwxrwxrwx 1 root root 15 Dec 29 03:52 stdout -> /proc/self/fd/1
crw-rw-rw- 1 root root 5, 0 Dec 29 03:52 tty
crw-rw-rw- 1 root root 1, 9 Dec 29 03:52 urandom
crw-rw-rw- 1 root root 1, 5 Dec 29 03:52 zero
[email protected]:/notebooks#
相关问题
- 1. 限制GPU使用的代码
- 2. 检查GPU的OpenGL限制
- 3. 限制skflow中的GPU内存分配
- 4. 如何使用C++ API限制张量流(r1.1)中GPU的使用情况
- 5. 限制使用A8或更高GPU的iOS设备
- 6. 限制AMD OpenCL GPU的数量
- 7. 如何禁用或更改Linux下的GPU的超时限制?
- 8. GPU加速LK金字塔中的窗口大小限制
- 9. 如何使用GPU-CUDA代码中的GPU-DMA来复制数据?
- 10. 使用两个GPU同时绘制OPENGL
- 11. 使用gpu在画布上绘制
- 12. 如何使用cudaMemcpyPeer在不能使用P2P的不同进程中的GPU之间复制GPU数据?
- 13. 在R中使用限制
- 14. 应用使用GPU的ColorMatrix
- 15. 如何限制GPU和CPU使用率以进行兼容性测试?
- 16. TensorFlow从多个GPU选择GPU使用
- 17. Tensorflow不使用GPU
- 18. 应该使用GPU?
- 19. 使用CUDA将BIG数据复制到GPU以及从GPU使用CUDA复制BIG数据
- 20. Keras和GPU的使用
- 21. 使用带GPU的Halide extern
- 22. 使用CreateBitmapFromWicBitmap()的GPU内存()
- 23. 使用GPU的犰狳(+ BLAS)
- 24. 限制使用javascript
- 25. 限制使用scale_color_grey
- 26. GPU架构定制?
- 27. OpenCL中的GPU使用内存
- 28. Keras中CPU和GPU的混合使用
- 29. 分析C#中的GPU使用情况#
- 30. 限制Java RAM的使用?
我不认为Docker在这方面有很多话要说。如果您能够限制您的应用在不使用Docker的情况下使用单个GPU,那么您应该也可以使用Docker来完成此任务。 – Salem
我无法控制人们要运行的应用程序。这应该是一个教学机器。我想限制单个用户可用的资源,以防止滥用。 –