当前位置: 首页 > article >正文

如何在 WSL-Ubuntu 上安装 CUDA ?

0. 查看自己的Ubuntu系统版本和架构在开始下载CUDA之前有一个前置步骤那就是确定自己的WSL-Ubuntu的版本和架构。通过lsb_release -a命令可以查看Ubuntu的版本信息。系统会返回如下输出Distributor ID: Ubuntu Description: Ubuntu 24.04.3 LTS Release: 24.04 Codename: noble可以看到这台设备的Ubuntu版本是24.04的第3个小版本更新24.04版本的代号是Noble Numbat尊贵的袋食蚁兽。Ubuntu的每个大版本都会选择一个“形容词动物名”的名称作为该版本的代号。注意⚠这里的24.04版本不是下面安装CUDA的版本这条输出仅仅只是演示效果避免遇到CUDA版本和Ubuntu版本冲突问题。Ubuntu系统架构可以使用uname -m命令来查询系统会直接输出架构名,如x86_64。1. 检查显卡驱动状态也可查看当前设备的显卡WSL2可以直接使用Windows系统上的显卡驱动使用命令提示符CMD输入命令nvidia-sminvidia-smi命令是英伟达系统管理界面的命令行工具用来监控和管理英伟达的显卡类比于Windows上EscShiftCtrl快捷键打开的CPU任务管理器。你在小红和抖上面看到那些晒自己的计算卡配置的就是使用这条命令查看的。输出Mon Apr 27 22:55:19 2026 --------------------------------------------------------------------------------------- | NVIDIA-SMI 535.119 Driver Version: 537.53 CUDA Version: 12.2 | |------------------------------------------------------------------------------------- | GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. | | | | MIG M. | || | 0 NVIDIA GeForce RTX 4060 ... On | 00000000:01:00.0 On | N/A | | N/A 42C P8 5W / 70W | 948MiB / 8188MiB | 5% Default | | | | N/A | ------------------------------------------------------------------------------------- --------------------------------------------------------------------------------------- | Processes: | | GPU GI CI PID Type Process name GPU Memory | | ID ID Usage | || | 0 N/A N/A 74 G /Xwayland N/A | ---------------------------------------------------------------------------------------根据输出信息可以看到设备当前的显卡驱动版本Driver Version为537.53最高支持的CUDA版本CUDA Version为12.2。2检查是否有CUDA工具包命令nvcc --versionNVCC是英伟达CUDA编译器的命令行工具用来将.cu的CUDA程序源文件编译成能在英伟达显卡上运行的可执行文件.cu文件 → PTX汇编指令集 → 机器码cubin。NVCC编译器的强大之处在于支持分离编译NVCC能够自动分离CUDA代码中CPU的部分和GPU的部分将CPU部分的代码交给传统的C编译器gcc来处理最后再将CPU部分和GPU部分链接再一起。输出Command nvcc not found, but can be installed with: sudo apt install nvidia-cuda-toolkit系统告诉我们不能找到nvcc命令说明设备当前没有安装CUDA工具包。需要下载安装CUDA。3. 查看驱动对应的CUDA版本访问https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html直接下拉到Table 3 CUDA Toolkit and Corresponding Driver Versions根据前面在Windows宿主机使用nvidia-smi命令查到的显卡驱动版本和当前显卡驱动支持的最高版本的CUDA版本查表。根据查表可得我的设备当前适合安装的CUDA版本可以是CUDA 12.2 Update 2。4. 下载指定版本的CUDA访问https://developer.nvidia.com/cuda-toolkit-archive找到并点击 CUDA Toolkit 12.2.2依次点击Linux → x86_64 → WSL-Ubuntu → 2.0 → deb(local)可以得到如下安装脚本命令wgethttps://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pinsudomvcuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600wgethttps://developer.download.nvidia.com/compute/cuda/12.2.2/local_installers/cuda-repo-wsl-ubuntu-12-2-local_12.2.2-1_amd64.debsudodpkg-icuda-repo-wsl-ubuntu-12-2-local_12.2.2-1_amd64.debsudocp/var/cuda-repo-wsl-ubuntu-12-2-local/cuda-*-keyring.gpg /usr/share/keyrings/sudoapt-getupdatesudoapt-get-yinstallcuda5. 将nvcc加入到PATH环境变量命令echoexport PATH/usr/local/cuda/bin:$PATH~/.bashrcechoexport LD_LIBRARY_PATH/usr/local/cuda/lib64:$LD_LIBRARY_PATH~/.bashrcsource~/.bashrc再次输入nvcc --version可以查看如下输出信息说明CUDA安装成功:nvcc: NVIDIA(R)Cuda compiler driver Copyright(c)2005-2023 NVIDIA Corporation Built on Tue_Aug_15_22:02:13_PDT_2023 Cuda compilation tools, release12.2, V12.2.140 Build cuda_12.2.r12.2/compiler.33191640_06. 删除.deb文件安装成功后文件cuda-repo-wsl-ubuntu-12-2-local_12.2.2-1_amd64.deb可以删除。作者的哔哔赖赖Ubuntu是一个在人工智能深度学习领域广泛使用的Linux操作系统你可以在网上很多做人工智能深度学习的视频中看到Ubuntu那标志性的深紫色终端命令行窗口。在Kaggle这种大型数据科学和机器学习网站上的Jupyter Notebook也是基于Ubuntu的Linux系统英伟达的DGX Spark工作站预装的DGX OS系统同样是一个在Ubuntu上为AI开发任务深度定制的系统而且很多深度学习库或者工具框架如大模型推理框架vLLM对Windows来说并不完全兼容。对于刚开始学习或者从事生产开发的人来说一台设备使用Windows和Ubuntu双系统显得繁琐两个系统间切换、文件传输也很不方便。使用VMware虚拟机虽然可以省很多事但是VMware有一个致命的缺点————没有GPU直通无法在虚拟机中直接使用物理GPU的CUDA加速这使得想通过VMware运行Ubuntu进行深度学习操作显得鸡肋。好在微软开发了WSL2它可以直接在Windows上运行UbuntuWSL2也可以直接访问Windows下的数据集、代码文件无需任何复制粘贴通过VScode的Remote-WSL插件还可以直接远程连接开发。最重要的是英伟达官方提供了WSL2专用的CUDA驱动和工具包性能接近原生Linux环境。什么是CUDA这是英伟达推出的“计算统一设备架构Compute Unified Device Architecture”的简称。人工智能的运行本质上就是计算对大量复杂的数学公式的计算AI算法充满着如卷积conv()、激活relu()、矩阵相乘mul()之类的函数或者计算操作这些统称为算子Operator。如果要在CPU上运行这些算子由于CPU电路设计只支持简单的加法和乘法看不懂这些复杂的运算人们就在计算复杂的公式和CPU的中间加一个中间角色——写各种“翻译程序”来实现使用CPU的加法和乘法来实现复杂的计算。但是CPU的电路设计没有并行计算的能力算子在CPU上的运行速度令人捉急这时人们注意到了拥有并行计算的GPU发现在GPU上运行的速度比CPU快很多AI教父杰弗里·辛顿团队使用两块GTX 580显卡训练出来的AlexNet模型在2012年ImageNet大赛上以断崖式领先的成绩夺得冠军标志着使用GPU训练深度学习模型的范式正式成为主流。类似于前面CPU的逻辑人们在算子和GPU的中间重构了一套“翻译程序”。但这里藏着一个大坑GPU也看不懂我们平时写的C语言或者Python代码。早期的时候GPU根本没有对应的编译器也就是那个“翻译官”。厂家只会自己用汇编语言写好一些基础算子然后扔给你用。换句话说厂家提供什么算子你就只能用这些算子如果模型里需要一个厂家没实现的算子你就只能干瞪眼——要么求厂家帮你写要么放弃你的模型。这显然不行。英伟达意识到了这个问题于是推出了CUDA。它包含了一套专门为GPU设计的高级编程语言叫CUDA C/C和一个对应的编译器NVCC。你可以用这套语言自由地编写各种复杂的算子然后NVCC编译器会把这些代码翻译成GPU能听懂的指令。除此之外英伟达还提供了庞大的基础算子库cuDNN覆盖了绝大多数常见的深度学习操作。这样一来开发者既能直接用现成的算子快速搭模型也能在需要的时候自己写定制算子彻底解放了生产力。这就是CUDA被称为英伟达“护城河”的原因。我第一次听说CUDA这个词还是2025年过年期间DeepSeek-R1横空出世的时候我从2024年9月开始上大一接触人工智能专业第一个学期屁也不懂结果DeepSeek-R1引爆了全世界的中国开源大模型的热度正是那个寒假期间开始跟着B站的教学视频一点一点接触模型的本地部署、了解、pytorch、tensorflow等等。可以说2025年是我人工智能的启蒙之年。那时候网上的营销号都在传DeepSeek绕过了CUDA把英伟达的护城河打破了。其实当时的深度求索团队并未彻底绕开或在软件层面取代CUDA而是绕过CUDA生态中较为上层的CUDA C/C编程直接操作CUDA生态中更底层的“中间语言”PTX并行线程执行语言 Parallel Thread Execution进一步挖掘显卡算力的性能极限。类似的事情在视频《「DeepSeek」幻方量化内部采访天才们的头型都很前沿❗️内含招聘地址》中亦有介绍。我不生产知识我只是知识的搬运工。之所以写博客是对人工智能这门学科还是挺感兴趣的想要在大学期间留下点什么不要以后回顾大学生活时想到没有干成什么事没有留下点记录点什么。作者对自己博客的定位是学习笔记和操作说明文档希望能够帮助大家解决问题也希望得到大家的反馈。参考资料[1] 从英伟达CUDA到昇腾CANN计算架构为何这么重要工科男孙老师

相关文章:

如何在 WSL-Ubuntu 上安装 CUDA ?

0. 查看自己的Ubuntu系统版本和架构 在开始下载CUDA之前,有一个前置步骤,那就是确定自己的WSL-Ubuntu的版本和架构。 通过 lsb_release -a 命令可以查看Ubuntu的版本信息。系统会返回如下输出: Distributor ID: Ubuntu Description: Ubun…...

观测Taotoken平台API调用的延迟与稳定性体感分享

观测Taotoken平台API调用的延迟与稳定性体感分享 1. 多模型服务的响应体验 在日常开发中持续调用Taotoken平台提供的多模型服务时,最直接的体感是不同模型之间的响应速度存在自然差异。例如,调用Claude系列模型完成文本生成任务时,从发送请…...

谷歌联手推出 AI UI 神器,狂揽 68000+ Star!

AI 编程工具在写代码这件事上已经越来越溜,但让它生成 UI 界面时,大家很快就发现一个头疼的问题。明明给了需求,AI 也确实把页面做出来了,可看着总觉得哪里不对劲。要么配色诡异,要么间距混乱,要么字体看着…...

Gemini 安装教程,新手零失败

如果你是第一次接触 Gemini,先别急着去找“最完整教程”。对新手来说,最容易失败的地方,往往不是模型本身,而是下载、登录、环境和入口选择这四步。看起来只是“安装”,实际更像一次基础配置。很多人之所以总觉得复杂&…...

如何用SVFI轻松实现视频流畅化:5分钟掌握AI补帧核心技术

如何用SVFI轻松实现视频流畅化:5分钟掌握AI补帧核心技术 【免费下载链接】Squirrel-RIFE 效果更好的补帧软件,显存占用更小,是DAIN速度的10-25倍,包含抽帧处理,去除动漫卡顿感 项目地址: https://gitcode.com/gh_mir…...

如何用AI补帧技术让普通视频秒变流畅大片?SVFI完整指南

如何用AI补帧技术让普通视频秒变流畅大片?SVFI完整指南 【免费下载链接】Squirrel-RIFE 效果更好的补帧软件,显存占用更小,是DAIN速度的10-25倍,包含抽帧处理,去除动漫卡顿感 项目地址: https://gitcode.com/gh_mirr…...

RubyLLM:统一AI接口,简化Ruby应用集成多模型开发

1. RubyLLM:为Ruby开发者打造的优雅AI统一接口如果你和我一样,是个Ruby开发者,最近被各种AI API搞得头大,那今天这个项目你可得好好看看。OpenAI有它的SDK,Anthropic有它的客户端,Google Gemini又是另一套&…...

【.NET 9容器配置黄金标准】:微软官方文档未公开的17项生产就绪配置参数详解

更多请点击: https://intelliparadigm.com 第一章:.NET 9容器配置演进与生产就绪核心范式 .NET 9 对容器化部署进行了深度重构,将配置生命周期与容器运行时语义对齐,显著提升云原生场景下的可观察性、安全性和启动一致性。核心变…...

MCP方法:提升AI工具描述质量的关键技术

1. 项目背景与核心价值在AI代理开发领域,工具描述的准确性和完整性直接影响着大语言模型对功能的理解与调用效率。传统方法中,开发者往往需要手动编写冗长的工具描述文档,这不仅耗时耗力,还容易因表述差异导致模型调用错误。MCP&a…...

基于Harness Engineering与多Agent协作的智能调试系统设计与实践

1. 项目概述:一个基于Harness Engineering范式的多Agent调试系统在软件开发中,调试是每个工程师都绕不开的“必修课”。从令人抓狂的“Cannot read property map of undefined”到拖垮整个系统的慢查询,每个问题背后都隐藏着复杂的上下文。传…...

html2elementor:本地化HTML转Elementor JSON工具,实现AI设计稿一键导入WordPress

1. 项目概述与核心价值 如果你和我一样,经常需要将设计稿或者AI生成的静态HTML页面,快速“搬”到WordPress的Elementor页面编辑器里,那你一定体会过那种重复、机械且容易出错的痛苦。手动在Elementor里拖拽组件、设置样式、调整布局&#xff…...

RAG-Fusion:多查询融合检索增强生成技术原理与工程实践

1. 项目概述:当RAG遇上“融合”思维 最近在折腾检索增强生成(RAG)应用的朋友,可能都遇到过这样一个痛点:用户的一个问题,背后可能藏着好几种不同的问法。比如,用户问“如何提高Python代码的运行…...

SimGRAG:基于相似子图检索的知识图谱增强RAG框架实践

1. 项目概述:当知识图谱遇上大语言模型 如果你正在探索如何让大语言模型(LLM)的回答更精准、更可信,尤其是在处理需要复杂事实推理的任务时,那么“检索增强生成”(RAG)技术你一定不陌生。传统的…...

基于Restic与S3的OpenClaw数据加密备份与恢复实战指南

1. 项目概述:为你的AI工作空间穿上“防弹衣”如果你和我一样,深度依赖 OpenClaw 作为日常的 AI 助手和开发伙伴,那你一定知道~/.openclaw/这个目录有多重要。它不仅仅是配置文件的家,更是你所有工作记忆、会话历史、自定义技能和核…...

2026年华为云详细教程:OpenClaw怎么部署及大模型API Key、Skill配置全攻略

2026年华为云详细教程:OpenClaw怎么部署及大模型API Key、Skill配置全攻略。OpenClaw作为阿里云生态下新一代的开源AI自动化代理平台,曾用名Moltbot/Clawdbot,凭借“自然语言交互自动化任务执行大模型智能决策”的核心能力,正在重…...

终极Switch游戏文件管理工具:NSC_BUILDER一站式解决方案完全指南

终极Switch游戏文件管理工具:NSC_BUILDER一站式解决方案完全指南 【免费下载链接】NSC_BUILDER Nintendo Switch Cleaner and Builder. A batchfile, python and html script based in hacbuild and Nuts python libraries. Designed initially to erase titleright…...

2026年腾讯云入门教程:如何搭建OpenClaw及大模型API Key、Skill配置全攻略

2026年腾讯云入门教程:如何搭建OpenClaw及大模型API Key、Skill配置全攻略。OpenClaw作为阿里云生态下新一代的开源AI自动化代理平台,曾用名Moltbot/Clawdbot,凭借“自然语言交互自动化任务执行大模型智能决策”的核心能力,正在重…...

AI Agent开发实战:主流SDK选型指南与架构设计

1. 从零到一:AI Agent SDK全景图与选型心法如果你最近也在研究AI Agent,想自己动手搞点东西,大概率会和我一样,被市面上眼花缭乱的SDK、框架和工具给整懵了。LangChain、LlamaIndex、Vercel AI SDK... 每个都说得天花乱坠&#xf…...

信息学奥赛‘围成面积’题解:从‘遍历外圈’到‘扩展边界’,两种BFS/DFS思路的保姆级拆解与避坑指南

信息学奥赛‘围成面积’题解:从‘遍历外圈’到‘扩展边界’,两种BFS/DFS思路的保姆级拆解与避坑指南 在信息学奥赛的赛场上,连通块类问题一直是高频考点,而"围成面积"这类题目更是考察选手对搜索算法理解的试金石。很多…...

AI+解剖学知识图谱:从医学影像到智能诊断的资源导航与实践指南

1. 项目概述:当AI遇见解剖学,一个知识图谱的诞生最近在GitHub上闲逛,发现了一个让我眼前一亮的项目:NeuZhou/awesome-ai-anatomy。作为一个在医学影像和人工智能交叉领域摸爬滚打了十来年的从业者,我深知“解剖学”这三…...

5个实用场景快速掌握BilibiliDown视频下载工具

5个实用场景快速掌握BilibiliDown视频下载工具 【免费下载链接】BilibiliDown (GUI-多平台支持) B站 哔哩哔哩 视频下载器。支持稍后再看、收藏夹、UP主视频批量下载|Bilibili Video Downloader 😳 项目地址: https://gitcode.com/gh_mirrors/bi/BilibiliDown …...

深入SRIO IP底层:从时钟复位原理到官方例程srio_request_gen模块源码解读

深入SRIO IP底层:从时钟复位原理到官方例程srio_request_gen模块源码解读 在FPGA高速互连技术领域,SRIO(Serial RapidIO)凭借其低延迟、高带宽的特性,成为嵌入式系统互连的重要选择。但对于真正需要驾驭这一技术的开发…...

大语言模型道德推理技术实现与评估体系

1. 道德推理机制的技术实现路径大语言模型的道德推理能力构建需要从三个技术层面协同推进。在架构设计阶段,我们采用多任务学习框架,将道德判断作为独立任务模块嵌入模型主体结构。具体实现上,通过并行注意力机制处理常规语义理解和道德维度分…...

为什么你的GPU需要专业显存测试:memtest_vulkan完整解决方案

为什么你的GPU需要专业显存测试:memtest_vulkan完整解决方案 【免费下载链接】memtest_vulkan Vulkan compute tool for testing video memory stability 项目地址: https://gitcode.com/gh_mirrors/me/memtest_vulkan 在现代计算环境中,GPU显存稳…...

终极免费解决方案:3分钟搞定微信QQ音频文件转MP3格式

终极免费解决方案:3分钟搞定微信QQ音频文件转MP3格式 【免费下载链接】silk-v3-decoder [Skype Silk Codec SDK]Decode silk v3 audio files (like wechat amr, aud files, qq slk files) and convert to other format (like mp3). Batch conversion support. 项目…...

WzComparerR2完整指南:冒险岛游戏资源提取与可视化终极工具

WzComparerR2完整指南:冒险岛游戏资源提取与可视化终极工具 【免费下载链接】WzComparerR2 Maplestory online Extractor 项目地址: https://gitcode.com/gh_mirrors/wz/WzComparerR2 WzComparerR2是一款专为《冒险岛》(MapleStory)游…...

WarcraftHelper:深度定制魔兽争霸III体验的模块化增强方案

WarcraftHelper:深度定制魔兽争霸III体验的模块化增强方案 【免费下载链接】WarcraftHelper Warcraft III Helper , support 1.20e, 1.24e, 1.26a, 1.27a, 1.27b 项目地址: https://gitcode.com/gh_mirrors/wa/WarcraftHelper 在现代硬件环境下运行经典游戏魔…...

3个实用场景:如何在Linux系统上深度控制ASUS ROG游戏本硬件

3个实用场景:如何在Linux系统上深度控制ASUS ROG游戏本硬件 【免费下载链接】asusctl Daemon and tools to control your ASUS ROG laptop. Supersedes rog-core. 项目地址: https://gitcode.com/gh_mirrors/as/asusctl asusctl是专为Linux系统设计的ASUS RO…...

Tentra-MCP:为AI编程助手构建持久记忆层的代码图谱解决方案

1. 项目概述:为AI编程助手构建持久记忆层 如果你和我一样,每天都要和Cursor、Claude Code这类AI编程助手打交道,那你一定遇到过这个痛点:每次新开一个会话,或者问一个关于代码库的复杂问题,AI助手就像得了…...

OmenSuperHub:基于WMI BIOS通信的游戏本硬件控制架构深度解析

OmenSuperHub:基于WMI BIOS通信的游戏本硬件控制架构深度解析 【免费下载链接】OmenSuperHub 使用 WMI BIOS控制性能和风扇速度,自动解除DB功耗限制。 项目地址: https://gitcode.com/gh_mirrors/om/OmenSuperHub OmenSuperHub是一个专为惠普OMEN…...