解决运行出现CUDA error:out of memory的问题

    技术2025-07-20  12

    模型运行出现以下问题,经过查找资料发现解决方案如下: CUDA_VISIBLE_DEVICES限制一下使用的GPU。

    比如有0,1,2,3号GPU,CUDA_VISIBLE_DEVICES=2,3,则当前进程的可见GPU只有物理上的2、3号GPU,此时它们的编号也对应变成了0、1,即cuda:0对应2号GPU,cuda:1对应3号GPU。

    如何设置CUDA_VISIBLE_DEVICES:

    ① 使用python的os模块

    import os

    os.environ[‘CUDA_VISIBLE_DEVICES’]=‘2, 3’

    ②直接设置环境变量(linux系统)

    export CUDA_VISIBLE_DEVICES=2,3

    之后程序正常运行

    参考:https://www.cnblogs.com/jisongxie/p/10276742.html

    Processed: 0.010, SQL: 9