Pytorch:使用Tensorboard记录训练状态

pytorch,使用,tensorboard,记录,训练,状态 · 浏览次数 : 509

小编点评

**使用TensorBoardX工具安装和使用** 1. 安装TensorBoardX:`pip install tensorboardx` 2. 创建一个名为`tensorboard`的日志记录文件: ```python from tensorboardX import SummaryWriterwriter = SummaryWriter('tensorboard/') x = range(100) for i in x: writer.add_scalar('y=2x', i * 2, i,) writer.add_scalar('y=x^2', i ** 2, i,) writer.close() ``` 3. 创建一个名称为 `tensorboard`的文件夹并保存日志记录文件。 4. 在当前路径下运行以下命令,查看数据可视化: ``` tensorboard --logdir tensorboard ``` 5. 打开 `http://localhost:6006/` 链接,访问数据可视化页面。 **导出数据** * 点击右边的 `Show data download links` 选项。 * 选择要导出的数据类型(例如矢量图)。 * 点击 `Download` 或 `Export`。 **其他说明** * 使用 `--load_fast=false`选项可以禁用快速数据加载。 * 在 PyTorch 版本 1.3 及更高版本中,TensorBoard 是集成进来的。 * 使用 `torch.utils.tensorboard` 可以直接导入 TensorBoard。

正文

我们知道TensorBoard是Tensorflow中的一个强大的可视化工具,它可以让我们非常方便地记录训练loss波动情况。如果我们是其它深度学习框架用户(如Pytorch),而想使用TensorBoard工具,可以安装TensorBoard的封装版本TensorBoardX:

pip install tensorboardx

具体使用方法如下:

from tensorboardX import SummaryWriter
writer = SummaryWriter('tensorboard/')

x = range(100)
for i in x:
    writer.add_scalar('y=2x', i * 2, i,)
    writer.add_scalar('y=x^2', i ** 2, i,)
writer.close()

然后再再当前路径下会生成名称为tensorboard文件夹及对应的记录文件,我们再使用命令 tensorboard --logdir tensorboard,可以看到对应输出:

(base) ➜  Learn-Pytorch tensorboard --logdir tensorboard

NOTE: Using experimental fast data loading logic. To disable, pass
    "--load_fast=false" and report issues on GitHub. More details:
    https://github.com/tensorflow/tensorboard/issues/4784

I1126 18:06:12.417282 6209499136 plugin.py:429] Monitor runs begin
Serving TensorBoard on localhost; to expose to the network, use a proxy or pass --bind_all
TensorBoard 2.9.0 at http://localhost:6006/ (Press CTRL+C to quit)

此时只需要按照提醒打开http://localhost:6006/路径即可查看数据可视化情况,如下所示:

如果我们想将图片保存为矢量图或者导出csv/json文件,可以点击右边的Show data download links选项,即可出现对应的导出选项:

最后,需要提到的是,因为Tensorboard太常用了,所以在目前最新的Pytorch版本中已经直接集成进来了。所以,现在使用Tensorboard只需要直接导入torch.utils.tensorboard即可:

from torch.utils.tensorboard import SummaryWriter

x = range(100)
for i in x:
    writer.add_scalar('y=2x', i * 2, i,)
    writer.add_scalar('y=x^2', i ** 2, i,)
writer.close()

与Pytorch:使用Tensorboard记录训练状态相似的内容:

Pytorch:使用Tensorboard记录训练状态

我们知道TensorBoard是Tensorflow中的一个强大的可视化工具,它可以让我们非常方便地记录训练loss波动情况。如果我们是其它深度学习框架用户(如Pytorch),而想使用TensorBoard工具,可以安装TensorBoard的封装版本TensorBoardX。最后,需要提到的是,因为Tensorboard太常用了,所以在目前最新的Pytorch版本中已经直接集成进来了。所以,现在使用Tensorboard只需要直接导入torch.utils.tensorboard即可。

Pytorch 最全入门介绍,Pytorch入门看这一篇就够了

> 本文通过详细且实践性的方式介绍了 PyTorch 的使用,包括环境安装、基础知识、张量操作、自动求导机制、神经网络创建、数据处理、模型训练、测试以及模型的保存和加载。 # 1. Pytorch简介 ![file](https://img2023.cnblogs.com/other/488581/

使用编码工具

本文主要介绍了对句子编码的过程,以及如何使用PyTorch中自带的编码工具,包括基本编码encode()、增强编码encode_plus()和批量编码batch_encode_plus()。 一.对一个句子编码例子 假设想在要对句子'the quick brown fox jumps over a

循环神经网络RNN完全解析:从基础理论到PyTorch实战

>在本文中,我们深入探讨了循环神经网络(RNN)及其高级变体,包括长短时记忆网络(LSTM)、门控循环单元(GRU)和双向循环神经网络(Bi-RNN)。文章详细介绍了RNN的基本概念、工作原理和应用场景,同时提供了使用PyTorch构建、训练和评估RNN模型的完整代码指南。 > 作者 TechLea

Pytorch入门—Tensors张量的学习

Tensors张量的学习 张量是一种特殊的数据结构,与数组和矩阵非常相似。在PyTorch中,我们使用张量来编码模型的输入和输出,以及模型的参数。 张量类似于NumPy的ndarrays,只是张量可以在GPU或其他硬件加速器上运行。事实上,张量和NumPy数组通常可以共享相同的底层内存,从而无需复制

pytorch学习笔记——timm库

当使用ChatGPT帮我们工作的时候,确实很大一部分人就会失业,当然也有很大一部分人收益其中。我今天继续使用其帮我了解新的内容,也就是timm库。毫不夸张的说,Chat GPT比百分之80的博客讲的更清楚更好,仅次于源码。 当提到计算机视觉的深度学习框架时,PyTorch无疑是最受欢迎的选择之一。P

Pytorch 安装

可以使用 Anaconda 安装,我这边直接用 pip 进行安装的 安装torch pip install torch torchvision torchaudio -i https://pypi.tuna.tsinghua.edu.cn/simple https://pytorch.org/get

深度学习(一)——使用Python读取图片

Pytorch处理图像的一些入门,内含os和PIL库相关的图像处理方法

PyTorch的安装与使用

本文介绍了热门AI框架PyTorch的conda安装方案,与简单的自动微分示例。并顺带讲解了一下PyTorch开源Github仓库中的两个Issue内容,分别是自动微分的关键词参数输入问题与自动微分参数数量不匹配时的参数返回问题,并包含了这两个Issue的解决方案。

使用TorchLens可视化一个简单的神经网络

TorchLens:可用于可视化任何PyTorch模型,一个包用于在一行代码中提取和映射PyTorch模型中每个张量运算的结果。TorchLens功能非常强大,如果能够熟练掌握,算是可视化PyTorch模型的一把利剑。本文通过TorchLens可视化一个简单神经网络,算是抛砖引玉吧。 一.定义一个简