当前位置: 首页 > article >正文

保姆级教程:在Ubuntu 22.04上安装CUDA 12.2(含驱动分离安装与RTX 3090验证)

保姆级教程在Ubuntu 22.04上安装CUDA 12.2含驱动分离安装与RTX 3090验证如果你正在搭建深度学习开发环境CUDA的安装往往是第一个需要跨越的技术门槛。不同于简单的软件包安装CUDA配置涉及驱动版本匹配、环境变量设置以及硬件兼容性验证等多个环节。本文将手把手带你完成Ubuntu 22.04系统下CUDA 12.2的完整安装流程特别针对RTX 3090显卡进行优化验证同时解释每个步骤背后的技术原理。1. 系统准备与驱动检查在开始安装CUDA之前我们需要确保系统环境已经就绪。Ubuntu 22.04默认使用nouveau开源驱动这会与NVIDIA官方驱动产生冲突。首先禁用nouveau驱动sudo bash -c echo blacklist nouveau /etc/modprobe.d/blacklist-nvidia-nouveau.conf sudo bash -c echo options nouveau modeset0 /etc/modprobe.d/blacklist-nvidia-nouveau.conf更新initramfs并重启系统sudo update-initramfs -u sudo reboot重启后验证nouveau是否已禁用lsmod | grep nouveau如果没有任何输出说明禁用成功。接下来检查当前安装的NVIDIA驱动版本nvidia-smi你会看到类似如下的输出--------------------------------------------------------------------------------------- | NVIDIA-SMI 535.54.03 Driver Version: 535.54.03 CUDA Version: 12.2 | |------------------------------------------------------------------------------------- | GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. | | | | MIG M. | || | 0 NVIDIA GeForce RTX 3090 Off | 00000000:01:00.0 Off | N/A | | 0% 38C P8 25W / 350W | 4MiB / 24258MiB | 0% Default | | | | N/A | -------------------------------------------------------------------------------------关键点确认驱动版本至少为535.00CUDA 12.2的最低要求如果未安装驱动或版本过低需要先安装合适版本的驱动。2. CUDA Toolkit安装与驱动分离管理从NVIDIA官网下载CUDA 12.2的本地安装包约3GB选择对应Ubuntu 22.04的runfile格式wget https://developer.download.nvidia.com/compute/cuda/12.2.0/local_installers/cuda_12.2.0_535.54.03_linux.run赋予执行权限并启动安装程序chmod x cuda_12.2.0_535.54.03_linux.run sudo ./cuda_12.2.0_535.54.03_linux.run安装界面会出现选项配置这里需要特别注意┌──────────────────────────────────────────────────────────────────────────────┐ │ CUDA Installer │ │ - [ ] Driver │ │ [ ] 535.54.03 │ │ [X] CUDA Toolkit 12.2 │ │ [X] CUDA Demo Suite 12.2 │ │ [X] CUDA Documentation 12.2 │ │ - [ ] Kernel Objects │ │ [ ] nvidia-fs │ └──────────────────────────────────────────────────────────────────────────────┘必须取消勾选Driver选项因为我们已单独安装驱动。混合安装不同版本的驱动和工具包会导致系统不稳定。安装完成后会显示摘要 Summary Driver: Not Selected Toolkit: Installed in /usr/local/cuda-12.2/3. 环境变量配置策略CUDA安装后需要正确设置环境变量才能被系统识别。有两种主要配置方式全局配置推荐用于多用户系统 编辑/etc/profile文件sudo nano /etc/profile在文件末尾添加export PATH/usr/local/cuda-12.2/bin:$PATH export LD_LIBRARY_PATH/usr/local/cuda-12.2/lib64:$LD_LIBRARY_PATH用户级配置适合个人开发环境 编辑用户主目录下的.bashrc文件nano ~/.bashrc添加相同内容后保存然后执行source ~/.bashrc重要区别/etc/profile系统级配置对所有用户生效需要重启或重新登录~/.bashrc用户级配置仅对当前用户有效source命令可立即生效验证安装是否成功nvcc --version应显示类似输出nvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2023 NVIDIA Corporation Built on Tue_Jun_13_19:16:58_PDT_2023 Cuda compilation tools, release 12.2, V12.2.914. 硬件验证与性能测试CUDA安装完成后我们需要验证GPU是否被正确识别并能正常工作。使用CUDA自带的sample程序进行测试cd /usr/local/cuda-12.2/samples/1_Utilities/deviceQuery make ./deviceQuery对于RTX 3090显卡你应该看到如下关键信息Detected 1 CUDA Capable device(s) Device 0: NVIDIA GeForce RTX 3090 CUDA Driver Version / Runtime Version 12.2 / 12.2 CUDA Capability Major/Minor version number: 8.6 Total amount of global memory: 24260 MBytes (82) Multiprocessors, (128) CUDA Cores/MP: 10496 CUDA Cores GPU Max Clock rate: 1695 MHz (1.70 GHz) Memory Clock rate: 9751 Mhz Memory Bus Width: 384-bit关键指标解析CUDA Capability8.6表示显卡的计算能力版本Multiprocessors82个流式多处理器CUDA Cores总计10496个CUDA核心Memory Bandwidth384位总线宽度配合9751MHz频率提供约936GB/s带宽进一步测试GPU内存带宽cd ../bandwidthTest make ./bandwidthTest正常输出应包含[bandwidthTest] - Starting... Running on... Device 0: NVIDIA GeForce RTX 3090 Quick Mode Host to Device Bandwidth, 1 Device(s) PINNED Memory Transfers Transfer Size (Bytes) Bandwidth(MB/s) 33554432 12689.4 Device to Host Bandwidth, 1 Device(s) PINNED Memory Transfers Transfer Size (Bytes) Bandwidth(MB/s) 33554432 13024.7 Device to Device Bandwidth, 1 Device(s) PINNED Memory Transfers Transfer Size (Bytes) Bandwidth(MB/s) 33554432 851706.2 Result PASS5. 多GPU系统配置双RTX 3090如果你使用的是多GPU系统如双RTX 3090需要额外验证GPU间通信能力。在deviceQuery输出中会显示类似信息Detected 2 CUDA Capable device(s) ... Peer access from NVIDIA GeForce RTX 3090 (GPU0) - NVIDIA GeForce RTX 3090 (GPU1) : No Peer access from NVIDIA GeForce RTX 3090 (GPU1) - NVIDIA GeForce RTX 3090 (GPU0) : No注意消费级显卡如RTX 3090通常不支持NVLink因此显示No是正常现象。专业级显卡如A100会显示Yes并支持更高的互联带宽。6. 常见问题排查即使按照步骤操作仍可能遇到各种问题。以下是几个典型场景及解决方案问题1nvidia-smi正常工作但nvcc --version报错nvcc: command not found解决环境变量未正确设置。检查PATH是否包含/usr/local/cuda-12.2/bin并确认已执行source或重新登录。问题2CUDA程序运行时报错CUDA error: no kernel image is available for execution on the device解决显卡计算能力不匹配。编译时需要指定正确的arch参数例如RTX 3090需要-gencode archcompute_86,codesm_86。问题3安装过程中出现Failed to verify gcc version解决CUDA 12.2要求GCC版本不高于11Ubuntu 22.04默认安装GCC 11.3.0。如果使用更高版本需要降级或使用--override参数。7. 开发环境集成完成CUDA安装后可以配置主流深度学习框架PyTorch安装pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121验证PyTorch是否能识别CUDAimport torch print(torch.cuda.is_available()) # 应返回True print(torch.cuda.get_device_name(0)) # 应显示NVIDIA GeForce RTX 3090TensorFlow安装pip install tensorflow[and-cuda]2.12.0验证TensorFlow CUDA支持import tensorflow as tf print(tf.config.list_physical_devices(GPU))8. 性能优化建议为了充分发挥RTX 3090的性能潜力可以考虑以下优化措施电源管理模式设置sudo nvidia-smi -pm 1 # 启用持久模式 sudo nvidia-smi -pl 350 # 设置功率限制为350W满血版Coolbits解锁需谨慎 编辑Xorg配置启用超频功能sudo nvidia-xconfig --cool-bits28CUDA Stream优先级 在代码中使用高优先级流提高响应速度cudaStream_t stream; cudaStreamCreateWithPriority(stream, cudaStreamDefault, -1);统一内存优化 对于大数据量应用使用cudaMallocManaged替代传统内存分配float *data; cudaMallocManaged(data, size * sizeof(float));9. 维护与升级长期使用时需要注意驱动和CUDA版本的兼容性驱动自动更新禁用 Ubuntu默认会尝试更新驱动可能导致版本冲突sudo apt-mark hold nvidia-driver-535CUDA版本切换 如果安装多个CUDA版本可以通过修改软链接切换sudo rm /usr/local/cuda sudo ln -s /usr/local/cuda-12.2 /usr/local/cuda日志监控 NVIDIA驱动日志位于/var/log/nvidia-installer.logCUDA安装日志在/var/log/cuda-installer.log10. 容器化部署方案对于生产环境建议使用容器化方案保证环境一致性NVIDIA Container Toolkit安装distribution$(. /etc/os-release;echo $ID$VERSION_ID) \ curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \ curl -fsSL https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list | \ sed s#deb https://#deb [signed-by/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g | \ sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list sudo apt-get update sudo apt-get install -y nvidia-container-toolkit sudo systemctl restart docker运行CUDA容器测试docker run --gpus all nvidia/cuda:12.2.0-base-ubuntu22.04 nvidia-smi

相关文章:

保姆级教程:在Ubuntu 22.04上安装CUDA 12.2(含驱动分离安装与RTX 3090验证)

保姆级教程:在Ubuntu 22.04上安装CUDA 12.2(含驱动分离安装与RTX 3090验证) 如果你正在搭建深度学习开发环境,CUDA的安装往往是第一个需要跨越的技术门槛。不同于简单的软件包安装,CUDA配置涉及驱动版本匹配、环境变量…...

为什么你的C++ DoIP客户端总在0x7F响应后静默崩溃?深度剖析UDS Negative Response解析逻辑缺陷与RAII资源泄漏链(附ASAM MCD-2D兼容补丁)

更多请点击: https://intelliparadigm.com 第一章:为什么你的C DoIP客户端总在0x7F响应后静默崩溃?深度剖析UDS Negative Response解析逻辑缺陷与RAII资源泄漏链(附ASAM MCD-2D兼容补丁) 当DoIP客户端收到UDS服务的0x…...

状态图在面向对象建模中的核心价值与实践

1. 状态图在面向对象建模中的核心价值状态图(Statecharts)作为行为建模的利器,在面向对象系统开发中展现出独特优势。与传统的有限状态机相比,状态图通过层次化状态和正交组件等创新机制,解决了复杂系统建模中的状态爆…...

告别FTP!用QT5和QSsh-Botan-1库给你的C++应用加上SFTP文件传输功能(附完整源码)

告别FTP!用QT5和QSsh-Botan-1库为C应用实现企业级SFTP文件传输 在桌面应用开发领域,文件传输功能的需求从未减少,但传统FTP协议的安全隐患却日益凸显。当我们需要在医疗影像系统、金融交易终端或工业控制软件中传输敏感数据时,一个…...

告别SubScene束缚:手把手教你用Addressables为Unity Entities 1.0.16实现动态资源加载

突破SubScene限制:ECS与Addressables动态资源加载的工程实践 在Unity的DOTS技术栈中,Entities 1.0.16版本虽然带来了显著的性能提升,但资源管理系统的缺失让许多开发者陷入两难——既想利用ECS的高效数据处理能力,又无法放弃Addre…...

AI 一键生成 HTML/CSS/JS 静态网站【压缩包返回可直接提交】

网页设计课救星:AI 一键生成 HTML/CSS/JS 静态网站——还支持「免费分享换卡密」写给正在修《网页设计与制作》《Web 前端基础》《多媒体网页设计》的同学:期末大作业要交多页面静态站、响应式布局、还要写得像「成品」?不用通宵抠 DIV。本项…...

别再被果冻效应搞懵了!一文搞懂CMOS卷帘快门(Rolling Shutter)的原理与应对

别再被果冻效应搞懵了!一文搞懂CMOS卷帘快门(Rolling Shutter)的原理与应对 你是否遇到过这样的场景:用手机拍摄旋转的直升机螺旋桨时,叶片竟然扭曲成了"S"形;无人机航拍快速移动的建筑物时&…...

保姆级教程:从TensorFlow模型到K230部署,手把手搞定kmodel转换全流程

从TensorFlow到K230:工业级kmodel转换实战全解析 在边缘计算领域,CanMV K230开发板凭借其出色的性价比和MicroPython开发友好性,正成为AIoT开发者的新宠。但将训练好的TensorFlow模型高效部署到K230上,需要跨越格式转换、量化优化…...

快速构建imtoken风格web3钱包原型:快马平台ai一键生成基础框架

最近在研究Web3钱包开发,想快速验证一个类似imToken风格的产品原型。传统开发流程从零搭建环境、配置依赖到实现基础功能,至少需要几天时间。这次尝试用InsCode(快马)平台的AI生成功能,不到半小时就搭出了可交互的雏形,分享下具体…...

告别环境配置,快马平台jdk21云环境助力开发效率倍增

作为一名长期在Java生态中摸爬滚打的开发者,最近在InsCode(快马)平台上体验了JDK21的虚拟线程特性后,彻底被这种"开箱即用"的开发模式惊艳到了。今天想和大家分享一个真实场景下的效率提升案例——用虚拟线程改造传统订单处理流程。 为什么需…...

DLSS Swapper实战指南:三步掌握游戏性能优化,智能管理DLSS/FSR/XeSS动态链接库

DLSS Swapper实战指南:三步掌握游戏性能优化,智能管理DLSS/FSR/XeSS动态链接库 【免费下载链接】dlss-swapper 项目地址: https://gitcode.com/GitHub_Trending/dl/dlss-swapper DLSS Swapper是一款革命性的游戏性能优化工具,通过智能…...

Java基础实战演练,在快马上构建简易银行系统掌握核心语法

最近在复习Java基础语法,想找个实战项目练练手。刚好发现InsCode(快马)平台可以快速生成项目代码,就尝试用它构建了一个简易银行账户管理系统。这个项目虽然不大,但涵盖了类与对象、集合操作、流程控制等核心知识点,特别适合用来巩…...

ai辅助开发新体验:让快马智能解析并生成定制化虚拟机配置方案

今天想和大家分享一个用AI辅助开发的小项目——虚拟机配置助手。这个工具特别适合需要频繁创建虚拟机的开发者,它能通过自然语言理解你的需求,自动生成最优化的虚拟机配置方案。 项目背景 作为开发者,我经常需要在VMware等虚拟化平台上配置各…...

AI短视频自动化生成实战:从零构建高效内容生产线

AI短视频自动化生成实战:从零构建高效内容生产线 【免费下载链接】MoneyPrinterPlus AI一键批量生成各类短视频,自动批量混剪短视频,自动把视频发布到抖音,快手,小红书,视频号上,赚钱从来没有这么容易过! 支持本地语音模型chatTTS,fasterwhisper,GPTSoVITS,支持云语…...

新手福音:在快马平台上用OpenClaw迈出机器人编程第一步

新手福音:在快马平台上用OpenClaw迈出机器人编程第一步 作为一个机器人编程的纯新手,第一次接触OpenClaw这样的机械爪控制库时,我完全被各种专业术语和复杂接口搞懵了。直到发现了InsCode(快马)平台,才真正找到了入门的好方法。今…...

告别环境切换烦恼:用快马平台云端化anaconda,提升数据工作效率

作为一名经常在不同数据分析项目间切换的数据工作者,我深刻体会到环境管理的痛苦。每次启动新项目时,手动创建conda环境、安装依赖包、处理版本冲突就要耗费大量时间。最近尝试用InsCode(快马)平台的云端环境管理功能后,工作效率直接翻倍。今…...

ai辅助设计:让快马平台智能理解并优化你的er图描述与代码生成

今天想和大家分享一个特别实用的开发体验——用AI辅助设计ER图并生成代码。最近在做一个简单的员工管理系统,虽然需求很基础,但作为非专业数据库设计人员,总担心自己设计的ER图不够规范。好在发现了InsCode(快马)平台的AI辅助功能&#xff0c…...

AI赋能安全:通过快马平台快速构建网络异常检测模型原型

AI赋能安全:通过快马平台快速构建网络异常检测模型原型 最近在做一个网络安全相关的项目,需要快速搭建一个网络异常检测的原型系统。传统开发流程中,光是环境配置和基础代码编写就要花不少时间。不过这次尝试了用InsCode(快马)平台的AI辅助开…...

DARTH-PUM混合架构:内存计算技术的突破与优化

1. 项目概述:DARTH-PUM架构的核心创新DARTH-PUM(Digital-Analog Reconfigurable Technology for Hybrid Processing-Using-Memory)是近年来内存计算(PIM)领域最具突破性的混合架构设计之一。作为一名长期从事计算架构研…...

将Hermes Agent工具链接入Taotoken实现自定义模型调用

将Hermes Agent工具链接入Taotoken实现自定义模型调用 1. 准备工作 在开始配置前,请确保已安装Hermes Agent工具链并拥有Taotoken平台的API Key。访问Taotoken控制台创建API Key,并在模型广场查看支持的模型ID列表。Hermes Agent支持通过custom provid…...

给AURIX™新手的安全手册:英飞凌MCU的ISO 26262合规,到底要关注哪几个硬件安全机制?

AURIX™安全机制实战指南:从零构建ISO 26262合规设计 刚接触英飞凌AURIX™系列MCU的功能安全开发时,面对SAFETY Concept文档里密集的专业术语和抽象描述,多数工程师都会经历一段迷茫期。我曾见过一位资深嵌入式开发者盯着"锁步CPU核心的…...

自建局域网文件共享平台Lobsterlan:轻量部署与私有化协作实践

1. 项目概述:一个轻量级、可自托管的局域网文件共享与协作平台最近在折腾家庭网络和工作室的私有云方案,发现了一个挺有意思的开源项目:danielithomas/lobsterlan。乍一看这个名字,你可能会联想到“龙虾局域网”,有点俏…...

戴尔14r-5420升级全攻略:从DDR3内存条选购到AX210网卡安装,一次讲清楚

戴尔14r-5420终极升级指南:2024年硬件兼容性与性能提升实战 十年前的老笔记本能否在2024年重获新生?当我打开这台2012年购入的戴尔14r-5420时,键盘的磨损痕迹和机身贴纸早已发黄,但升级潜力却远超预期。不同于主流评测中常见的最新…...

代码摘要工具Codebreif:基于LLM的智能代码理解与项目分析

1. 项目概述:一个为开发者“减负”的代码摘要工具如果你和我一样,每天要面对海量的开源项目、陌生的代码库,或者需要快速回顾自己几个月前写的“天书”,那你一定理解那种“代码如山倒,理解如抽丝”的痛苦。打开一个陌生…...

ai辅助开发新范式:让快马ai在miniconda隔离环境中自动编写与测试代码

最近在尝试AI辅助开发时,发现一个很有意思的组合:用InsCode(快马)平台的AI能力生成代码,再通过Miniconda管理隔离环境自动测试验证。这种工作流特别适合需要频繁尝试不同技术栈的场景,比如数据分析和快速原型开发。下面分享我的实…...

大语言模型提示词优化与动机实验分析

1. 项目背景与核心价值 去年在参与某智能客服系统优化时,我们发现一个有趣现象:当给大语言模型(LLM)相同任务时,不同提示词设计会导致完全不同的执行路径。这促使我们系统性地设计了本次动机实验,试图揭示L…...

为什么你的Java函数永远无法突破10ms响应阈值?—— JIT编译器逃逸分析失效的3个信号

更多请点击: https://intelliparadigm.com 第一章:Shell脚本的基本语法和命令 Shebang 与执行方式 每个可执行 Shell 脚本的第一行应以 Shebang( #!/bin/bash)开头,用于指定解释器路径。保存为 hello.sh 后&#…...

支付聚合平台架构实战:从核心流程到风控安全的完整设计

1. 项目概述:一个面向代理商的支付聚合平台最近在和朋友聊一个项目,他提到想做一个叫“AgentPayy”的平台,核心是给代理商用的支付聚合系统。我一听就觉得这事儿挺有意思,也很有搞头。简单来说,这玩意儿就是一个“支付…...

ai结对编程:在快马平台用自然语言驱动python代码生成与调试,重塑开发流程

最近在学Python开发时,发现一个特别有意思的现象:传统编程流程正在被AI彻底改变。以前装好Python环境后,我们得自己查文档、写代码、调试报错,现在通过InsCode(快马)平台这类工具,整个过程变得像有个专业导师实时陪练。…...

AI驱动的远程工作效能评估系统设计与实践

1. 项目背景与核心价值 远程工作模式正在全球范围内快速普及,但如何科学评估远程工作效能始终是管理领域的痛点。传统考勤制度和办公室生产力评估方法在分布式工作场景下显得力不从心,企业需要更精准的量化工具来掌握远程团队的真实效能。 这个项目开发…...