在服务器自主选择GPU使用
比如说,程序使用第 2 张显卡(从 0 开始计数)。它的作用是告诉系统和深度学习框架(如 PyTorch 或 TensorFlow)只可见某些 GPU。
export CUDA_VISIBLE_DEVICES=1
然后再查看当前使用的显卡:
echo $CUDA_VISIBLE_DEVICES
此时应该输出1:
通过以下命令查看使用显卡的状态:
nvitop
比如说,程序使用第 2 张显卡(从 0 开始计数)。它的作用是告诉系统和深度学习框架(如 PyTorch 或 TensorFlow)只可见某些 GPU。
export CUDA_VISIBLE_DEVICES=1
然后再查看当前使用的显卡:
echo $CUDA_VISIBLE_DEVICES
此时应该输出1:
通过以下命令查看使用显卡的状态:
nvitop