典型使用流程

GPU设备透传的典型使用流程如下:
  1. 物理机启用IOMMU设置。
  2. 设置ROM(可选)。
  3. 云主机加载物理GPU。
  4. 云主机安装GPU设备驱动。

使用GPU设备透传功能前,请务必确保所有准备工作已完成且准确无误。以下详细介绍GPU设备透传功能的操作步骤:

  1. 物理机启用IOMMU设置。
    确保物理机BIOS已开启Intel VT-d / AMD IOMMU配置的前提下,在ZStack Cloud云平台开启物理机IOMMU设置。
    • 新添加物理机:在资源中心 > 硬件设施 > 计算设施 > 物理机界面添加物理机过程,使用扫描物理机IOMMU设置配置,添加物理机的同时开启IOMMU设置。
      Figure 1所示:
      Figure 1. 新添加物理机并启用IOMMU设置


    • 已添加物理机:在物理机详情页,启用IOMMU启用状态配置,针对已添加物理机开启IOMMU设置,重启物理机生效。
      Figure 2所示:
      Figure 2. 已添加物理机启用IOMMU设置


    Note: 物理机开启IOMMU设置后,还需在物理机详情页确保IOMMU就绪状态为可用,否则也无法正常使用GPU功能。若IOMMU启用状态为启用,但IOMMU就绪状态不可用,可能存在以下原因:
    • 开启IOMMU设置但未重启物理机,手动重启物理机即可。
    • 物理机配置错误,请进入物理机BIOS并开启Intel VT-d / AMD IOMMU配置。
  2. 设置ROM(可选)。

    ROM文件是用于物理GPU透传的配置文件。ROM文件上传后,将直接更新到已添加的规格对应的物理GPU中。

    ZStack Cloud云平台已内置基础ROM文件,满足绝大部分物理GPU透传。若用户需要使用其他ROM文件,请自行在显卡供应商官网获取所需的ROM文件并上传。

    ZStack Cloud主菜单,点击资源中心 > 云资源池 > 计算配置 > GPU规格,进入GPU规格界面,选中需要设置ROM的物理GPU规格并点击批量操作 > 设置ROM按钮,在弹出的设置ROM页面上传ROM文件。

    Figure 3所示:
    Figure 3. 设置ROM


    Note: 上传ROM文件需要注意以下情况:
    • 请务必上传与物理GPU匹配且版本信息正确的ROM文件,否则可能导致透传后的物理GPU不能正常工作。
    • 最新上传的ROM文件会覆盖之前上传的ROM文件。
  3. 云主机加载物理GPU。
    云主机加载物理GPU即可将物理GPU直接透传给云主机使用,ZStack Cloud云平台支持以下几种方式为云主机加载物理GPU:
    • 方式一:创建云主机并加载物理GPU
      资源中心 > 云资源池 > 虚拟资源 > 云主机界面创建云主机过程,基础参数配置完成后在资源配置页面加载物理GPU,支持加载规格和加载设备两种加载方式。可参考以下示例输入相应内容:
      • 加载规格:创建云主机时指定物理GPU规格,通过规格自动分配GPU设备。支持关机自动卸载设备功能(默认不勾选),若勾选表示云主机关机后自动卸载GPU设备,下次重启后根据GPU规格重新分配新的GPU设备;若不勾选表示云主机关机后保留已加载的GPU设备,下次重启后继续使用原来的GPU设备。
        Figure 4所示:
        Figure 4. 加载规格


      • 加载设备:创建云主机时指定固定的物理GPU设备,为云主机加载所选GPU设备。
        Figure 5所示:
        Figure 5. 加载设备


      配置完成后,点击确定按钮,即可创建一台加载物理GPU的云主机。
    • 方式二:单个已有云主机加载物理GPU

      云主机管理界面点击云主机名称,进入云主机详情页的配置信息页面的物理GPU设备栏,执行加载操作,手动加载物理GPU。

      Figure 6所示:
      Figure 6. 加载物理GPU


      • 一台云主机支持同时加载多个物理GPU,暂不支持将物理GPU和vGPU同时加载到同一台云主机使用。
      • 若需要释放GPU设备,选中GPU设备,点击操作 > 卸载按钮,释放GPU设备。
        Note: 对运行中的云主机卸载物理GPU,可能导致蓝屏以及暂停,建议停止云主机再执行卸载操作。
    • 方式三:批量为已有云主机加载物理GPU

      云主机管理界面选择一台或多台云主机,点击批量操作 > 系统配置 > 设置GPU规格按钮,批量为已有云主机设置物理GPU规格。

      Figure 7所示:
      Figure 7. 批量加载GPU规格


      Note:
      • 已加载GPU规格、已加载GPU设备或运行中的云主机无法加载GPU规格。
      • 未加载GPU规格或运行中的云主机无法修改GPU规格或取消GPU规格。
      • 修改GPU规格后,下次启动云主机将使用最新GPU规格重新加载GPU设备,并卸载原GPU规格相关的GPU设备。
  4. 云主机安装GPU设备驱动。
    云主机加载GPU设备后,需要安装对应的驱动程序才能正常使用。AMD或NVIDIA驱动程序参考下载路径如下:
    • Linux支持AMD的计算卡、游戏卡、专业卡。Linux自带社区驱动,如需支持计算加速和显示加速功能。请点击这里安装官方驱动。
    • Linux支持NVIDIA的计算卡、游戏卡、专业卡。Linux自带社区驱动,如需支持计算加速和显示加速功能。请点击这里安装官方驱动。
    • Windows支持AMD的计算卡、游戏卡、专业卡和NVIDIA的计算卡。请点击这里根据显卡类型和Windows操作系统版本下载合适的显卡驱动。
    • Windows仅支持NVIDIA的计算卡。请点击这里根据显卡类型和Windows操作系统版本下载合适的显卡驱动。
    不同GPU设备的驱动以及安装方法可能不同,详情请联系GPU设备提供厂商获取帮助。本章节以Linux云主机安装NVIDIA GPU驱动为例介绍参考操作流程:
    1. 获取驱动安装相关文件:

      获取GPU设备匹配的显卡驱动和CUDA toolkit文件。

    2. 禁用nouveau驱动:
      NVIDIA显卡的官方驱动和系统自带的nouveau驱动存在冲突。执行lsmod | grep nouveau命令,若有输出内容表示存在nouveau驱动,可参考以下方法禁用nouveau驱动;若不存在nouveau驱动,跳过此步骤即可。
      # touch  /etc/modprobe.d/nvidia-installer-disable-nouveau.conf  #创建文件,将以下两行内容保存至文件中
      
      blacklist nouveau 
      options nouveau modeset=0
    3. 安装gcc、kernel-devel、kernel-headers:
      依次执行以下命令,安装gcc、与内核版本一致的kernel-devel和kernel-headers。建议使用相同版本的ISO配置本地源安装。
      # yum install gcc kernel-devel-$(uname -r)  kernel-headers-$(uname -r)     #重构 initramfs 镜像
      # cp /boot/initramfs-$(uname -r).img /boot/initramfs-$(uname -r).img.bak
      # dracut /boot/initramfs-$(uname -r).img $(uname -r) --force       #只使用文本模式重启云主机
      # systemctl set-default multi-user.target 
      # init 3 
      # reboot  
      # lsmod | grep nouveau    #云主机重新启动后,检查nouveau驱动应该没有被使用
    4. 安装NVIDIA 驱动:
      将下载的驱动包拷贝至云主机系统内,依次执行以下命令运行驱动文件:
      # chmod +x NVIDIA-Linux-x86_64-346.47.run    #配置可执行权限
      # ./NVIDIA-Linux-x86_64-346.47.run      #运行驱动文件
      命令执行后将开始解压驱动包并进入安装步骤,安装过程可能出现一些警告,依次确认即可,不影响驱动安装。若出现error报错,请参考Table 1检查环境。
      Table 1. 报错处理
      报错 解决方案

      ERROR: Unable to find the kernel source tree for the currently running kernel. Please make sure you have installed the kernel source files for your kernel and that they are properly configured; on Red Hat Linux systems, for example, be sure you have the 'kernel-source' or 'kernel-devel' RPM installed. If you know the correct kernel source files are installed, you may specify the kernel source path with the '--kernel-source-path' command line option.

      需要确保kernel、kernel-headers、kernel-devel是否均已安装,并且版本号完全一致

      ERROR: The Nouveau kernel driver is currently in use by your system. This driver is incompatible with the NVIDIA driver, and must be disabled before proceeding. Please consult the ow to correctly disable the Nouveau kernel driver.

      需要禁用nouveau驱动

      ERROR: Failed to find dkms on the system!

      ERROR: Failed to install the kernel module through DKMS. No kernel module was installed; please try installing again without DKMS, or check the DKMS logs for more information.

      需要安装DKMS,它可以帮我们维护内核外的驱动程序,在内核版本变动之后可以自动重新生成新的模块

      ERROR: Unable to load the kernel module 'nvidia.ko'. This happens most frequently when this kernel module was built against the wrong or improperly configured kernel sources, with a version of gcc that differs from the one used to build the target kernel, or if a driver such as rivafb, nvidiafb, or nouveau is present and prevents the NVIDIA kernel module from obtaining ownership of the NVIDIA graphics device(s), or no NVIDIA GPU installed in this system is supported by this NVIDIA Linux graphics driver release.

      执行命令./NVIDIA-Linux-x86_64-384.98.run --kernel-source-path=/usr/src/kernels/3.10.0-XXX.x86_64/ -k $(uname -r)即可
    5. 检查驱动安装情况:
      分别执行以下两条命令,检查驱动安装情况。若返回结果能够显示显卡的型号信息,说明驱动已经安装成功。
      # lspci |grep NVIDIA
      # nvidia-smi
    6. 安装CUDA toolkit:
      将下载的驱动包拷贝至云主机系统内,依次执行以下命令执行驱动文件:
      # chmod +x cuda_8.0.61_375.26_linux.run      #配置可执行权限
      # ./cuda_8.0.61_375.26_linux.run     #运行驱动文件
      安装过程需要配置一些参数,请参考下图进行配置,如Figure 8所示:
      Figure 8. 安装CUDA toolkit


    7. 配置环境变量:
      执行vim /root/.bashrc命令,将以下内容保存至此文件,完成环境变量配置:
      #gpu driver
      export CUDA_HOME=/usr/local/cuda-8.0  
      export PATH=/usr/local/cuda-8.0/bin:$PATH  
      export LD_LIBRARY_PATH=/usr/local/cuda-8.0/lib64:$LD_LIBRARY_PATH  
      export LD_LIBRARY_PATH="/usr/local/cuda-8.0/lib:${LD_LIBRARY_PATH}"
      环境变量添加完成后立即生效,可执行以下命令进行验证测试:
      # source ~/.bashrc
      # cd /usr/local/cuda-8.0/samples/1_Utilities/deviceQuery
      # make
      # ./deviceQuery