pytorch(GPU版)安装

pytorch,gpu · 浏览次数 : 0

小编点评

**有英伟达显卡** 有,下载并安装英伟达的 CUDA 版本 11.7 或更高版本。 **没有英伟达显卡** 只有安装 CUDNN 库才能安装 pyTorch。 **安装 pyTorch 的步骤** 1. 从 PyTorch 网站(pytorch.org)下载历史版本。 2. 在命令行中运行以下命令: ``` pip install torch torchvision torchaudio --user ``` **注意** * 安装 pyTorch 之前,请确保您已经安装了 CUDA 11.7 或更高版本。 * 如果您遇到任何问题,请参考 PyTorch 官方文档或社区论坛。

正文

确认有无英伟达显卡,有才能安装GPU版的pytorch,否则只能装CPU版
1.任务管理器->性能:

设备管理器->显示适配器,也可以:

nvidia驱动安装地址(大部分电脑自带,不需要额外安装):
https://www.nvidia.cn/Download/index.aspx?lang=cn


2.nvidia控制面板->帮助->系统信息->组件
查看nvidia驱动器版本,图中为11.7,即要安装的cuda版本不高于11.7即可

cmd/anaconda prompt也可:
nvidia-smi

这里nvcc -V一定是你电脑目前版本,nvidia-smi不一定
3.在官网找到自己对应的历史版本
https://developer.nvidia.com/cuda-toolkit-archive

选择一个版本下载

根据B站小土堆佬说,pytorch似乎已经集成了cudnn,不需要另外下载。
4.进入pytorch官网https://pytorch.org/

这里版本都高于11.7,选择历史版本

5.在命令行安装
以下提供镜像源:
清华镜像源:https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/win-64/
北京镜像源:https://mirrors.bfsu.edu.cn/anaconda/cloud/pytorch/win-64/
阿里镜像源:http://mirrors. aliyun.com/anaconda/cloud pytorch/win-64/
安装pytorch其实主要是安装torch、torchvision、torchaudio这三个包,torch最大一个多G,直接安装可能速度较慢

这一步另一个方法可以通过网址:https://download.pytorch.org/whl/torch/查找

ctrl+F搜索cu117,cu表示cuda,cp表示python,找到对应的链接,下载
下载完成后在命令行输入pip install 路径\文件名安装
pip install E:\Anaconda\torch-1.13.1+cu117-cp37-cp37m-win_amd64.whl
6.查看
如果conda list中pytorch后面版本号带有cpu,那就是中间哪儿出错了,装的cpu版本,卸载重来。
命令行python->import torch->torch.cuda.is_available()
返回True即安装成功

over ^o^/

与pytorch(GPU版)安装相似的内容:

pytorch(GPU版)安装

确认有无英伟达显卡,有才能安装GPU版的pytorch,否则只能装CPU版 1.任务管理器->性能: 设备管理器->显示适配器,也可以: nvidia驱动安装地址(大部分电脑自带,不需要额外安装): https://www.nvidia.cn/Download/index.aspx?lang=cn

解决Python使用GPU

本文简单介绍了使用Python解决使用GPU的方法,并给出了TensorFlow和PyTorch示例;本文还介绍了TensorFlow GPU的安装版本介绍,以及介绍了安装CUDA的详细教程。

Pytorch入门—Tensors张量的学习

Tensors张量的学习 张量是一种特殊的数据结构,与数组和矩阵非常相似。在PyTorch中,我们使用张量来编码模型的输入和输出,以及模型的参数。 张量类似于NumPy的ndarrays,只是张量可以在GPU或其他硬件加速器上运行。事实上,张量和NumPy数组通常可以共享相同的底层内存,从而无需复制

Pytorch DistributedDataParallel(DDP)教程二:快速入门实践篇

一、简要回顾DDP 在上一篇文章中,简单介绍了Pytorch分布式训练的一些基础原理和基本概念。简要回顾如下: 1,DDP采用Ring-All-Reduce架构,其核心思想为:所有的GPU设备安排在一个逻辑环中,每个GPU应该有一个左邻和一个右邻,设备从它的左邻居接收数据,并将数据汇总后发送给右邻。

使用Triton部署chatglm2-6b模型

一、技术介绍 NVIDIA Triton Inference Server是一个针对CPU和GPU进行优化的云端和推理的解决方案。 支持的模型类型包括TensorRT、TensorFlow、PyTorch(meta-llama/Llama-2-7b)、Python(chatglm)、ONNX Run

事实胜于雄辩,苹果MacOs能不能玩儿机器/深度(ml/dl)学习(Python3.10/Tensorflow2)

坊间有传MacOs系统不适合机器(ml)学习和深度(dl)学习,这是板上钉钉的刻板印象,就好像有人说女生不适合编程一样的离谱。现而今,无论是Pytorch框架的MPS模式,还是最新的Tensorflow2框架,都已经可以在M1/M2芯片的Mac系统中毫无桎梏地使用GPU显卡设备,本次我们来分享如何在

PyTorch的安装与使用

本文介绍了热门AI框架PyTorch的conda安装方案,与简单的自动微分示例。并顺带讲解了一下PyTorch开源Github仓库中的两个Issue内容,分别是自动微分的关键词参数输入问题与自动微分参数数量不匹配时的参数返回问题,并包含了这两个Issue的解决方案。

Pytorch 最全入门介绍,Pytorch入门看这一篇就够了

> 本文通过详细且实践性的方式介绍了 PyTorch 的使用,包括环境安装、基础知识、张量操作、自动求导机制、神经网络创建、数据处理、模型训练、测试以及模型的保存和加载。 # 1. Pytorch简介 ![file](https://img2023.cnblogs.com/other/488581/

pytorch学习笔记——timm库

当使用ChatGPT帮我们工作的时候,确实很大一部分人就会失业,当然也有很大一部分人收益其中。我今天继续使用其帮我了解新的内容,也就是timm库。毫不夸张的说,Chat GPT比百分之80的博客讲的更清楚更好,仅次于源码。 当提到计算机视觉的深度学习框架时,PyTorch无疑是最受欢迎的选择之一。P

Pytorch:单卡多进程并行训练

在深度学习的项目中,我们进行单机多进程编程时一般不直接使用multiprocessing模块,而是使用其替代品torch.multiprocessing模块。它支持完全相同的操作,但对其进行了扩展。Python的multiprocessing模块可使用fork、spawn、forkserver三种方法来创建进程。但有一点需要注意的是,CUDA运行时不支持使用fork,我们可以使用spawn或for