目录
  • 所需库的安装
  • 常用函数功能
    • 1、SummaryWriter()
    • 2、writer.add_graph()
    • 3、writer.add_scalar()
    • 4、tensorboard –logdir=
  • 示例代码

    所需库的安装

    很多人问Pytorch要怎么可视化,于是决定搞一篇。

    tensorboardX==2.0
    tensorflow==1.13.2
    

    由于tensorboard原本是在tensorflow里面用的,所以需要装一个tensorflow。会自带一个tensorboard。

    也可以不装tensorboardX,直接使用pytorch当中的自带的Tensorboard。导入方式如下:

    from torch.utils.tensorboard import SummaryWriter
    

    不过由于我使用pytorch当中的自带的Tensorboard的时候有一些bug。所以还是使用tensorboardX来写这篇博客。

    常用函数功能

    1、SummaryWriter()

    这个函数用于创建一个tensorboard文件,其中常用参数有:

    log_dir:tensorboard文件的存放路径flush_secs:表示写入tensorboard文件的时间间隔

    调用方式如下:

    writer = SummaryWriter(log_dir='logs',flush_secs=60)

    2、writer.add_graph()

    这个函数用于在tensorboard中创建Graphs,Graphs中存放了网络结构,其中常用参数有:

    model:pytorch模型

    input_to_model:pytorch模型的输入

    如下所示为graphs:

    python神经网络Pytorch中Tensorboard函数使用

    调用方式如下:

    if Cuda:
        graph_inputs = torch.from_numpy(np.random.rand(1,3,input_shape[0],input_shape[1])).type(torch.FloatTensor).cuda()
    else:
        graph_inputs = torch.from_numpy(np.random.rand(1,3,input_shape[0],input_shape[1])).type(torch.FloatTensor)
    writer.add_graph(model, (graph_inputs,))
    

    3、writer.add_scalar()

    这个函数用于在tensorboard中加入loss,其中常用参数有:

    • tag:标签,如下图所示的Train_loss
    • scalar_value:标签的值
    • global_step:标签的x轴坐标

    python神经网络Pytorch中Tensorboard函数使用

    调用方式如下:

    writer.add_scalar('Train_loss', loss, (epoch*epoch_size + iteration))
    

    4、tensorboard –logdir=

    在完成tensorboard文件的生成后,可在命令行调用该文件,tensorboard网址。具体代码如下:

    tensorboard --logdir=D:\Study\Collection\Tensorboard-pytorch\logs
    

    python神经网络Pytorch中Tensorboard函数使用

    示例代码

    import torch
    from torch.autograd import Variable
    import torch.nn.functional as functional
    from tensorboardX import SummaryWriter
    import matplotlib.pyplot as plt
    import numpy as np
    # x的shape为(100,1)
    x = torch.from_numpy(np.linspace(-1,1,100).reshape([100,1])).type(torch.FloatTensor)
    # y的shape为(100,1)
    y = torch.sin(x) + 0.2*torch.rand(x.size())
    class Net(torch.nn.Module):
        def __init__(self, n_feature, n_hidden, n_output):
            super(Net, self).__init__()
            # Applies a linear transformation to the incoming data: :math:y = xA^T + b
            # 全连接层,公式为y = xA^T + b
            self.hidden = torch.nn.Linear(n_feature, n_hidden)
            self.predict = torch.nn.Linear(n_hidden, n_output)
        def forward(self, x):
            # 隐含层的输出
            hidden_layer = functional.relu(self.hidden(x))
            output_layer = self.predict(hidden_layer)
            return output_layer
    # 类的建立
    net = Net(n_feature=1, n_hidden=10, n_output=1)
    writer = SummaryWriter('logs')
    graph_inputs = torch.from_numpy(np.random.rand(2,1)).type(torch.FloatTensor)
    writer.add_graph(net, (graph_inputs,))
    # torch.optim是优化器模块
    optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)
    # 均方差loss
    loss_func = torch.nn.MSELoss() 
    for t in range(1000):
        prediction = net(x)
        loss = loss_func(prediction, y)
        # 反向传递步骤
        # 1、初始化梯度
        optimizer.zero_grad()
        # 2、计算梯度
        loss.backward()
        # 3、进行optimizer优化
        optimizer.step()
        writer.add_scalar('loss',loss, t)
    writer.close()
    

    效果如下:

    python神经网络Pytorch中Tensorboard函数使用

    以上就是python神经网络Pytorch中Tensorboard函数使用的详细内容,更多关于Pytorch Tensorboard函数的资料请关注其它相关文章!

    声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。