Lunux系统 GPU 加速环境部署指南(适用于 Nvidia / Intel 显卡)

Linux 系统《GPU 加速环境部署指南》,适用于 Nvidia GPU(CUDA)、Intel GPU(oneAPI)用户,包含深度学习开发常用框架如 PyTorch、TensorFlow、ONNX 等的 GPU 加速配置流程。


🚀 GPU 加速环境部署指南(适用于 Nvidia / Intel 显卡)

本指南旨在帮助你在 Linux 系统中完整搭建支持 GPU 加速的 AI 开发环境,适配包括:

  • ✅ Nvidia 显卡(CUDA + cuDNN)
  • ✅ Intel 显卡(oneAPI + OpenCL + Level Zero)
  • ✅ 常见深度学习框架支持(PyTorch、TensorFlow、ONNX Runtime)

📌 一、Nvidia GPU 加速环境部署(CUDA)

🧰 1. 安装 CUDA Toolkit

推荐方式:使用 .deb 包安装

1)前往官网获取适用于你系统的版本:https://developer.nvidia.com/cuda-downloads

例如 Ubuntu 22.04 + CUDA 12.4:

1
2
3
4
5
wget https://developer.download.nvidia.com/compute/cuda/12.4.1/local_installers/cuda-repo-ubuntu2204-12-4-local_12.4.1-550.54.14-1_amd64.deb
sudo dpkg -i cuda-repo-ubuntu2204-12-4-local_12.4.1-550.54.14-1_amd64.deb
sudo cp /var/cuda-repo-ubuntu2204-12-4-local/cuda-*-keyring.gpg /usr/share/keyrings/
sudo apt update
sudo apt install -y cuda

✅ 2. 设置环境变量

.bashrc.zshrc 添加:

1
2
export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH

执行:

1
source ~/.bashrc

✅ 3. 验证 CUDA 安装

1
2
nvcc -V
nvidia-smi

🧠 4. 安装 cuDNN(深度神经网络库)

登录官网:https://developer.nvidia.com/cudnn

选择与你 CUDA 版本匹配的 cuDNN 安装包,例如:

1
2
sudo dpkg -i libcudnn8_*_amd64.deb
sudo dpkg -i libcudnn8-dev_*_amd64.deb

🧪 5. 安装 AI 框架(以 PyTorch 为例)

1
2
3
4
# 使用官方推荐命令生成命令:https://pytorch.org/get-started/locally/

# 例如安装 PyTorch(CUDA 12.1)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

✅ 验证:

1
2
3
import torch
print(torch.cuda.is_available())
print(torch.cuda.get_device_name(0))

🧠 二、Intel GPU 加速环境部署(oneAPI)

📥 1. 安装 Intel oneAPI Base Toolkit

下载地址:https://www.intel.com/content/www/us/en/developer/tools/oneapi/base-toolkit-download.html

推荐选择 APT 安装方式:

1
2
wget https://registrationcenter-download.intel.com/akdlm/IRC_NAS/19245/l_BaseKit_p_2024.0.0.49500_offline.sh
sudo bash l_BaseKit_p_2024.0.0.49500_offline.sh

或者使用 apt repository:

1
sudo apt install intel-basekit intel-oneapi-dpcpp-cpp-compiler intel-oneapi-runtime-dpcpp

🔬 2. 安装 oneAPI AI 组件(选装)

1
sudo apt install intel-oneapi-tensorflow intel-oneapi-pytorch intel-oneapi-mkl

🔍 3. 验证 Intel GPU 运行环境

1
2
clinfo  # 查看 OpenCL 支持
sycl-ls # 查看 oneAPI SYCL 设备

🧪 4. 使用 ONNX Runtime + oneDNN / OpenVINO 加速

1
pip install onnxruntime openvino-dev

⚖️ 三、ONNX Runtime GPU 加速部署(支持 Nvidia / Intel)

✅ Nvidia GPU 版:

1
pip install onnxruntime-gpu

✅ Intel GPU/NPU 版:

1
pip install onnxruntime-openvino

🔄 四、Docker + GPU 加速部署(选装)

推荐使用 Nvidia Container Toolkit

1
2
3
4
5
6
7
8
9
10
11
12
# 安装 docker + nvidia container toolkit
sudo apt install -y docker.io
sudo systemctl enable --now docker

distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list | \
sed 's#deb #deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] #' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

sudo apt update && sudo apt install -y nvidia-container-toolkit
sudo systemctl restart docker

运行 GPU 加速容器:

1
sudo docker run --rm --gpus all nvidia/cuda:12.4.1-base-ubuntu22.04 nvidia-smi

✅ 总结

任务 推荐工具
Nvidia 显卡驱动 ubuntu-drivers / .run
CUDA 工具包 官方 .deb
深度学习框架 PyTorch / TensorFlow(GPU 版)
Intel 显卡支持 oneAPI Base Toolkit
推理框架 ONNX Runtime / OpenVINO
容器加速 Docker + Nvidia Toolkit