快上网专注成都网站设计 成都网站制作 成都网站建设
成都网站建设公司服务热线:028-86922220

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

Pytorch优化器内部的各参数信息打印结果

这篇文章主要介绍“Pytorch优化器内部的各参数信息打印结果”,在日常操作中,相信很多人在Pytorch优化器内部的各参数信息打印结果问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Pytorch优化器内部的各参数信息打印结果”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

10年积累的做网站、成都网站设计经验,可以快速应对客户对网站的新想法和需求。提供各种问题对应的解决方案。让选择我们的客户得到更好、更有力的网络服务。我虽然不认识你,你也不认识我。但先网站制作后付款的网站建设流程,更有丰县免费网站建设让你可以放心的选择与我们合作。

代码:

import timeimport torchimport torch.optim as optimclass Model(torch.nn.Module):def __init__(self):super(Model,self).__init__()self.conv1=torch.nn.Sequential(#输入torch.Size([64, 1, 28, 28])torch.nn.Conv2d(1,64,kernel_size=3,stride=1,padding=1),# 用于搭建卷积神经网络的卷积层,主要的输入参数有输入通道数、
                # 输出通道数、卷积核大小、卷积核移动步长和Padding值。
                # 输出维度 = 1+(输入维度-卷积核大小+2*padding)/卷积核步长 
                #输出torch.Size([64, 64, 28, 28])torch.nn.ReLU(),#输出torch.Size([64, 64, 28, 28])torch.nn.Conv2d(64,128,kernel_size=3,stride=1,padding=1),#输出torch.Size([64, 128, 28, 28])torch.nn.ReLU(),torch.nn.MaxPool2d(stride=2,kernel_size=2)# 主要的输入参数是池化窗口大小、池化窗口移动步长和Padding值
                #输出torch.Size([64, 128, 14, 14]))self.dense=torch.nn.Sequential(#输入torch.Size([64, 14*14*128])torch.nn.Linear(14*14*128,1024),#class torch.nn.Linear(in_features,out_features,bias = True)#输出torch.Size([64, 1024])torch.nn.ReLU(),torch.nn.Dropout(p=0.5),# torch.nn.Dropout类用于防止卷积神经网络在训练的过程中
                    # 发生过拟合,其工作原理简单来说就是在模型训练的过程中,
                    # 以一定的随机概率将卷积神经网络模型的部分参数归零,以达
                    # 到减少相邻两层神经连接的目的。这样做是为了让我们最后训
                    # 练出来的模型对各部分的权重参数不产生过度依赖,从而防止
                    # 过拟合。对于torch.nn.Dropout类,我们可以对随机概率值
                    # 的大小进行设置,如果不做任何设置,就使用默认的概率值0.5。
                    torch.nn.Linear(1024,10)#输出torch.Size([64, 10])        )
    def forward(self,x):#torch.Size([64, 1, 28, 28])x = self.conv1(x)#输出torch.Size([64, 128, 14, 14])x = x.view(-1,14*14*128)#view()函数作用是将一个多行的Tensor,拼接成一行,torch.Size([64, 14*14*128])x = self.dense(x)#输出torch.Size([64, 10])return x



model = Model() lr = 0.005optimizer = optim.Adam(model.parameters(), lr=lr)for param_group in optimizer.param_groups:print(param_group.keys())# print(type(param_group))print([type(value) for value in param_group.values()])print('查看学习率: ',param_group['lr'])

打印结果展示:

Windows PowerShell
版权所有 (C) Microsoft Corporation。保留所有权利。

尝试新的跨平台 PowerShell https://aka.ms/pscore6

加载个人及系统配置文件用了 925 毫秒。
(base) PS C:\Users\chenxuqi\Desktop\新建文件夹>  & 'D:\Anaconda3\envs\ssd4pytorch2_2_0\python.exe' 'c:\Users\chenxuqi\.vscode\extensions\ms-python.python-2020.11.371526539\pythonFiles\lib\python\debugpy\launcher' '60077' '--' 'c:\Users\chenxuqi\Desktop\新建文件夹\tt.py'        
dict_keys(['params', 'lr', 'betas', 'eps', 'weight_decay', 'amsgrad'])
[]
查看学习率:  0.005
(base) PS C:\Users\chenxuqi\Desktop\新建文件夹> conda activate ssd4pytorch2_2_0
(ssd4pytorch2_2_0) PS C:\Users\chenxuqi\Desktop\新建文件夹>

到此,关于“Pytorch优化器内部的各参数信息打印结果”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注创新互联网站,小编会继续努力为大家带来更多实用的文章!


新闻标题:Pytorch优化器内部的各参数信息打印结果
新闻来源:http://6mz.cn/article/jihcco.html

其他资讯