今天遇到一个关于CUDA的问题,我要跑的深度学习代码,他里面有cuda编程,需要编译。但是你运行就报错。

代码提示我大段报错。

(score-denoise) ubuntu@GPUA10002:~/wbd/score-denoise_Transformerdepth20$ python train.py 
Detected CUDA files, patching ldflags
Emitting ninja build file /home/ubuntu/wbd/score-denoise_Transformerdepth20/utils/cutils/build/build.ninja...
Building extension module cutils_...
Allowing ninja to set a default number of workers... (overridable by setting the environment variable MAX_JOBS=N)
[1/3] /usr/bin/nvcc  -DTORCH_EXTENSION_NAME=cutils_ -DTORCH_API_INCLUDE_EXTENSION_H -DPYBIND11_COMPILER_TYPE=\"_gcc\" -DPYBIND11_STDLIB=\"_libstdcpp\" -DPYBIND11_BUILD_ABI=\"_cxxabi1011\" -isystem /data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/include -isystem /data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/include/torch/csrc/api/include -isystem /data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/include/TH -isystem /data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/include/THC -isystem /data/miniconda3/envs/score-denoise/include/python3.8 -D_GLIBCXX_USE_CXX11_ABI=0 -D__CUDA_NO_HALF_OPERATORS__ -D__CUDA_NO_HALF_CONVERSIONS__ -D__CUDA_NO_BFLOAT16_CONVERSIONS__ -D__CUDA_NO_HALF2_OPERATORS__ --expt-relaxed-constexpr -gencode=arch=compute_80,code=compute_80 -gencode=arch=compute_80,code=sm_80 --compiler-options '-fPIC' -Xptxas -v --generate-code=arch=compute_80,code=sm_80 -std=c++14 -c /home/ubuntu/wbd/score-denoise_Transformerdepth20/utils/cutils/srcs/half_aligned_knn_sub_maxpooling.cu -o half_aligned_knn_sub_maxpooling.cuda.o 
FAILED: half_aligned_knn_sub_maxpooling.cuda.o 
/usr/bin/nvcc  -DTORCH_EXTENSION_NAME=cutils_ -DTORCH_API_INCLUDE_EXTENSION_H -DPYBIND11_COMPILER_TYPE=\"_gcc\" -DPYBIND11_STDLIB=\"_libstdcpp\" -DPYBIND11_BUILD_ABI=\"_cxxabi1011\" -isystem /data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/include -isystem /data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/include/torch/csrc/api/include -isystem /data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/include/TH -isystem /data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/include/THC -isystem /data/miniconda3/envs/score-denoise/include/python3.8 -D_GLIBCXX_USE_CXX11_ABI=0 -D__CUDA_NO_HALF_OPERATORS__ -D__CUDA_NO_HALF_CONVERSIONS__ -D__CUDA_NO_BFLOAT16_CONVERSIONS__ -D__CUDA_NO_HALF2_OPERATORS__ --expt-relaxed-constexpr -gencode=arch=compute_80,code=compute_80 -gencode=arch=compute_80,code=sm_80 --compiler-options '-fPIC' -Xptxas -v --generate-code=arch=compute_80,code=sm_80 -std=c++14 -c /home/ubuntu/wbd/score-denoise_Transformerdepth20/utils/cutils/srcs/half_aligned_knn_sub_maxpooling.cu -o half_aligned_knn_sub_maxpooling.cuda.o 
nvcc fatal   : Unsupported gpu architecture 'compute_80'
[2/3] /usr/bin/nvcc  -DTORCH_EXTENSION_NAME=cutils_ -DTORCH_API_INCLUDE_EXTENSION_H -DPYBIND11_COMPILER_TYPE=\"_gcc\" -DPYBIND11_STDLIB=\"_libstdcpp\" -DPYBIND11_BUILD_ABI=\"_cxxabi1011\" -isystem /data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/include -isystem /data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/include/torch/csrc/api/include -isystem /data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/include/TH -isystem /data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/include/THC -isystem /data/miniconda3/envs/score-denoise/include/python3.8 -D_GLIBCXX_USE_CXX11_ABI=0 -D__CUDA_NO_HALF_OPERATORS__ -D__CUDA_NO_HALF_CONVERSIONS__ -D__CUDA_NO_BFLOAT16_CONVERSIONS__ -D__CUDA_NO_HALF2_OPERATORS__ --expt-relaxed-constexpr -gencode=arch=compute_80,code=compute_80 -gencode=arch=compute_80,code=sm_80 --compiler-options '-fPIC' -Xptxas -v --generate-code=arch=compute_80,code=sm_80 -std=c++14 -c /home/ubuntu/wbd/score-denoise_Transformerdepth20/utils/cutils/srcs/aligned_knn_sub_maxpooling.cu -o aligned_knn_sub_maxpooling.cuda.o 
FAILED: aligned_knn_sub_maxpooling.cuda.o 
/usr/bin/nvcc  -DTORCH_EXTENSION_NAME=cutils_ -DTORCH_API_INCLUDE_EXTENSION_H -DPYBIND11_COMPILER_TYPE=\"_gcc\" -DPYBIND11_STDLIB=\"_libstdcpp\" -DPYBIND11_BUILD_ABI=\"_cxxabi1011\" -isystem /data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/include -isystem /data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/include/torch/csrc/api/include -isystem /data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/include/TH -isystem /data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/include/THC -isystem /data/miniconda3/envs/score-denoise/include/python3.8 -D_GLIBCXX_USE_CXX11_ABI=0 -D__CUDA_NO_HALF_OPERATORS__ -D__CUDA_NO_HALF_CONVERSIONS__ -D__CUDA_NO_BFLOAT16_CONVERSIONS__ -D__CUDA_NO_HALF2_OPERATORS__ --expt-relaxed-constexpr -gencode=arch=compute_80,code=compute_80 -gencode=arch=compute_80,code=sm_80 --compiler-options '-fPIC' -Xptxas -v --generate-code=arch=compute_80,code=sm_80 -std=c++14 -c /home/ubuntu/wbd/score-denoise_Transformerdepth20/utils/cutils/srcs/aligned_knn_sub_maxpooling.cu -o aligned_knn_sub_maxpooling.cuda.o 
nvcc fatal   : Unsupported gpu architecture 'compute_80'
ninja: build stopped: subcommand failed.
Traceback (most recent call last):File "/data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/utils/cpp_extension.py", line 1666, in _run_ninja_buildsubprocess.run(File "/data/miniconda3/envs/score-denoise/lib/python3.8/subprocess.py", line 516, in runraise CalledProcessError(retcode, process.args,
subprocess.CalledProcessError: Command '['ninja', '-v']' returned non-zero exit status 1.The above exception was the direct cause of the following exception:Traceback (most recent call last):File "train.py", line 13, in <module>from models.denoise import *File "/home/ubuntu/wbd/score-denoise_Transformerdepth20/models/denoise.py", line 7, in <module>from .feature import FeatureExtractionWithResLFEFile "/home/ubuntu/wbd/score-denoise_Transformerdepth20/models/feature.py", line 6, in <module>from .ResLFE_block import ResLFE_BlockFile "/home/ubuntu/wbd/score-denoise_Transformerdepth20/models/ResLFE_block.py", line 8, in <module>from utils.cutils import knn_edge_maxpoolingFile "/home/ubuntu/wbd/score-denoise_Transformerdepth20/utils/cutils/__init__.py", line 14, in <module>cutils = load("cutils_", sources=sources, extra_cflags=["-O3", "-mavx2", "-funroll-loops"], extra_cuda_cflags=["-Xptxas","-v",  "--generate-code=arch=compute_80,code=sm_80"],File "/data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/utils/cpp_extension.py", line 1080, in loadreturn _jit_compile(File "/data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/utils/cpp_extension.py", line 1293, in _jit_compile_write_ninja_file_and_build_library(File "/data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/utils/cpp_extension.py", line 1405, in _write_ninja_file_and_build_library_run_ninja_build(File "/data/miniconda3/envs/score-denoise/lib/python3.8/site-packages/torch/utils/cpp_extension.py", line 1682, in _run_ninja_buildraise RuntimeError(message) from e
RuntimeError: Error building extension 'cutils_'

然后你问ai,ai给你的建议是查看nvcc版本

nvcc --version

然后你发现,没有这个,然后会提示你

sudo apt install nvidia-cuda-toolkit

然后你又去安装,安装好后查看了一下

(base) ubuntu@GPUA10002:~/wbd/score-denoise_Transformerdepth20$ nvcc -V
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2017 NVIDIA Corporation
Built on Fri_Nov__3_21:07:56_CDT_2017
Cuda compilation tools, release 9.1, V9.1.85

发现这是很老的版本

新版本的这样的提示

(score-denoise) wu@wu:~/code/pointDenoise/score-denoise_Transformerdepth20$ nvcc --version
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2024 NVIDIA Corporation
Built on Tue_Feb_27_16:19:38_PST_2024
Cuda compilation tools, release 12.4, V12.4.99

然后老版本的,我就编译不通过。

然后我就一直在查找相关问题,一直在想,没安装nvcc前,别人也能够跑深度学习,然后感觉很奇怪。

然后我后面把这个卸载了

sudo apt remove nvidia-cuda-toolkit

这个是可以卸载的,大家放心。

然后就报错CUDA路径的问题
在这里插入图片描述然后我就去~/.bashrc

在这里插入图片描述发现里面是有这个路径的,然后我就试着在终端输入

export PATH=/usr/local/cuda-12.1/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda-12.1/lib64:$LD_LIBRARY_PATH

还是不行。

然后我就没辙了。

最后的最后,我进入/usr/local查看,发现他下载的是cuda-12.0,不是12.1

在这里插入图片描述

然后我就在我要跑的代码终端,输入下面两个命令,然后执行跑代码,就能够编译通过了。

export PATH=/usr/local/cuda-12.0/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda-12.0/lib64:$LD_LIBRARY_PATH

我也不知道为啥,~/.bashrc里面为啥不是cuda-12.1,所以我也没有把他里面改成12.1,就按照原来的吧,以后要跑,直接先输入这两行命令,然后执行代码,当然,如果你不要编译,你直接运行是没有关系的。

这个问题,浪费了我一下午的时间,如果你也有相关问题,一定要注意,去看看/usr/local/到底是多少版本的cuda。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/diannao/89811.shtml
繁体地址,请注明出处:http://hk.pswp.cn/diannao/89811.shtml
英文地址,请注明出处:http://en.pswp.cn/diannao/89811.shtml

如若内容造成侵权/违法违规/事实不符,请联系英文站点网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

js树的排序

树 树的前中后序遍历 树是一种重要的非线性数据结构&#xff0c;尤其是二叉树。二叉树的遍历是操作树的基础&#xff0c;主要有前序遍历、中序遍历和后序遍历三种方式。 前序遍历 访问顺序&#xff1a;根结点 -> 左子树 -> 右子树。 遍历规则&#xff1a;首先访问根结…

解码 Red Stuff:Walrus 高效可靠存储的引擎

Red Stuff 是 Walrus 所采用的二维&#xff08;2D&#xff09;纠删码协议&#xff0c;定义了数据如何被编码和存储。它是实现高效、安全、且高可用的去中心化存储的关键。通过 Red Stuff&#xff0c;Walrus 成功解决了去中心化存储系统常见的三大难题&#xff1a;安全性、复制效…

【ACP】阿里云云计算高级运维工程师--ACP

文章目录1、简要介绍2、核心特点3、考试相关信息4、适合人群1、简要介绍 阿里云云计算认证ACP&#xff08;Alibaba Cloud Certified Professional&#xff09;是面向云计算技术与应用从业者的专业级认证&#xff0c;旨在评估考生对阿里云云计算产品的理解、部署、运维及最佳实…

快速掌握Python编程基础

干货分享&#xff0c;感谢您的阅读&#xff01;备注&#xff1a;本博客将自己初步学习Python的总结进行分享&#xff0c;希望大家通过本博客可以在短时间内快速掌握Python的基本程序编码能力&#xff0c;如有错误请留言指正&#xff0c;谢谢&#xff01;&#xff08;持续更新&a…

「Java案例」鸡兔同笼问题

案例解析 鸡兔同笼求解 《孙子算经》是中国古代重要的数学著作&#xff0c;成书于南北朝时期&#xff0c;其中就记载了一个有趣的问题&#xff1a;鸡和兔在同一个笼子里&#xff0c;鸡和兔共有n条腿&#xff0c; m个头&#xff0c;问鸡和兔各有多少只&#xff1f;编写一个程序…

BLDC电机-运动控制---stm32时钟树定时器SYSTICKRTC的学习

一、时钟树 二、基本定时器 三、通用定时器 四、高级定时器 五、SYSTICK 六、RTC

Implementing a User-Defined Preconditioner in PETSc

文章目录Implementing a User-Defined Preconditioner in PETScBasic ApproachExample ImplementationUsing Your PreconditionerAdvanced OptionsImportant NotesUsing PCShell to Implement User-Defined Preconditioners in PETScBasic Implementation StepsAdvanced Featur…

DotNetBrowser 3.3.0 版本发布啦!

#Chromium 137 安全修复一次调用即可下载 URL更新了 Widevine APIDOM 元素绝对边界 &#x1f517; 点击此处了解更多详情。 &#x1f193; 获取 30 天免费试用。

Android-自定义View的实战学习总结

一、自定义View歌词界面LrcView 类-->自定义的歌词视图1. 构造函数和属性初始化自定义 View 通常需要提供多个构造函数以支持不同的初始化方式。在 LrcView 中&#xff0c;提供了四个构造函数&#xff0c;最终调用 super 父类构造函数完成初始化&#xff0c; context.obtain…

Maven 在 Eclipse 中的使用指南

Maven 在 Eclipse 中的使用指南 概述 Maven 是一个强大的构建自动化工具,用于项目管理和构建。它简化了项目构建、依赖管理和项目报告等任务。Eclipse 是一个流行的集成开发环境(IDE),支持多种编程语言,包括 Java。本文将详细介绍如何在 Eclipse 中使用 Maven 进行项目管…

zxing去白边

2025年了&#xff0c;可能干不了几年了&#xff0c;还能写这种文章还是有点可笑。 背景 zxing库生成的二维码自带白边 分析 生产二维码主要分两步&#xff1a; 1.用QRCodeWriter生成BitMatrix信息 2.根据信息生成bitmap 问题在1。 生成二维码的尺寸实际是有一些规格的&a…

Linux操作系统之文件(三):缓冲区

前言&#xff1a; 上节课我们讲授重定向的概念时&#xff0c;曾提到了一点缓冲区的概念。本文将会为大家更详细的带来缓冲区的有关内容&#xff1a;用户级缓冲区是什么&#xff0c;以及其与内核级缓冲区的关系&#xff0c;最后&#xff0c;我会为大家模拟实现一下stdio.h的关于…

Linux云计算基础篇(7)

一、< 输入重定向 wc -l < filelist .txt 统计数据&#xff0c;从file这个文件拿结果。 二、tr 转换字符命令 $ tr A-Za-z<.bash_profile 将bash_profile文件中的大写字符全部转成小写字符 三、管道符&#xff08;|&#xff09; com…

【学习笔记】Lean4基础 ing

文章目录 概述参考文档运行程序elan 命令行工具lean 命令行工具lake 命令行工具运行单文件程序Hello, world!验证 Lean4 证明 运行多文件项目 Lean4 基础语法注释表达式求值变量和定义定义类型变量 定义函数命名规则命名空间数据类型结构体构造子模式匹配多态List 列表Option 可…

FPGA实现40G网卡NIC,基于PCIE4C+40G/50G Ethernet subsystem架构,提供工程源码和技术支持

目录 1、前言工程概述免责声明 3、相关方案推荐我已有的所有工程源码总目录----方便你快速找到自己喜欢的项目我这里已有的以太网方案 4、工程详细设计方案工程设计原理框图测试用电脑PClE4CDMA40G/50G Ethernet subsystem工程源码架构驱动和测试文件 5、Vivado工程详解1详解&a…

SAP从入门到放弃系列之流程管理概述

文章目录前言1.Process Management&#xff08;过程管理&#xff09;2.关键术语2.1Control recipe destination2.2 Process instruction characteristic2.3 Process message characteristic2.4 Process instruction category2.5 Process message category2.6 PI sheet3.关键配置…

RCLAMP0554S.TCT升特Semtech 5通道TVS二极管,0.5pF+20kV防护,超高速接口!

RCLAMP0554S.TCT&#xff08;Semtech&#xff09;产品解析与推广文案 一、产品定位 RCLAMP0554S.TCT是Semtech&#xff08;升特半导体&#xff09;推出的5通道超低电容TVS二极管阵列&#xff0c;专为超高速数据接口&#xff08;USB4/雷电4/HDMI 2.1&#xff09;提供静电放电&a…

【人工智能】DeepSeek的AI实验室:解锁大语言模型的未来

《Python OpenCV从菜鸟到高手》带你进入图像处理与计算机视觉的大门! 解锁Python编程的无限可能:《奇妙的Python》带你漫游代码世界 DeepSeek作为中国AI领域的先锋,以其开源大语言模型(LLM)DeepSeek-V3和DeepSeek-R1在全球AI研究中掀起波澜。本文深入探讨DeepSeek AI实验…

nacos+nginx动态配置大文件上传限制

前言 今天还要跟大家分享的一个点就是微服务网关gateway用webflux响应式不用servlet后&#xff0c;引发的一个忽略点差点在演示的时候炸锅&#xff0c;也不多讲废话&#xff0c;说说现象&#xff0c;说说处理就了事。 一、上传超过20MB的视频报错 配置在nacos里&#xff0c;读…

mr 任务运行及jar

mainclass如下&#xff1a;LoggingDriver