pytorch 输出中间层特征:
tensorflow输出中间特征,2种方式:
1. 保存全部模型(包括结构)时,需要之前先add_to_collection 或者 用slim模块下的end_points
2. 只保存模型参数时,可以读取网络结构,然后按照对应的中间层输出即可。
but:Pytorch 论坛给出的答案并不好用,无论是hooks,还是重建网络并去掉某些层,这些方法都不好用(在我看来)。
我们可以在创建网络class时,在forward时加入一个dict 或者 list,dict是将中间层名字与中间层输出分别作为key:value,然后作为第二个值返回。前提是:运行创建自己的网络(无论fine-tune),只保存网络参数。
个人理解:虽然每次运行都返回2个值,但是运行效率基本没有变化。
附上代码例子:
import torch import torchvision import numpy as np from torch import nn from torch.nn import init from torch.autograd import Variable from torch.utils import data EPOCH=20 BATCH_SIZE=64 LR=1e-2 train_data=torchvision.datasets.MNIST(root='./mnist',train=True, transform=torchvision.transforms.ToTensor(),download=False) train_loader=data.DataLoader(train_data,batch_size=BATCH_SIZE,shuffle=True) test_data=torchvision.datasets.MNIST(root='./mnist',train=False) test_x=Variable(torch.unsqueeze(test_data.test_data,dim=1).type(torch.FloatTensor)).cuda()/255 test_y=test_data.test_labels.cuda() class CNN(nn.Module): def __init__(self): super().__init__() self.conv1=nn.Sequential( nn.Conv2d(in_channels=1,out_channels=16,kernel_size=4,stride=1,padding=2), nn.ReLU(), nn.MaxPool2d(kernel_size=2,stride=2)) self.conv2=nn.Sequential(nn.Conv2d(16,32,4,1,2),nn.ReLU(),nn.MaxPool2d(2,2)) self.out=nn.Linear(32*7*7,10) def forward(self,x): per_out=[] ############修改处############## x=self.conv1(x) per_out.append(x) # conv1 x=self.conv2(x) per_out.append(x) # conv2 x=x.view(x.size(0),-1) output=self.out(x) return output,per_out cnn=CNN().cuda() # or cnn.cuda() optimizer=torch.optim.Adam(cnn.parameters(),lr=LR) loss_func=nn.CrossEntropyLoss().cuda()############################ for epoch in range(EPOCH): for step,(x,y) in enumerate(train_loader): b_x=Variable(x).cuda()# if channel==1 auto add c=1 b_y=Variable(y).cuda() # print(b_x.data.shape) optimizer.zero_grad() output=cnn(b_x)[0] ##原先只需要cnn(b_x) 但是现在需要用到第一个返回值## loss=loss_func(output,b_y)# Variable need to get .data loss.backward() optimizer.step() if step%50==0: test_output=cnn(test_x)[0] pred_y=torch.max(test_output,1)[1].cuda().data.squeeze() ''' why data ,because Variable .data to Tensor;and cuda() not to numpy() ,must to cpu and to numpy and .float compute decimal ''' accuracy=torch.sum(pred_y==test_y).data.float()/test_y.size(0) print('EPOCH: ',epoch,'| train_loss:%.4f'%loss.data[0],'| test accuracy:%.2f'%accuracy) # loss.data.cpu().numpy().item() get one value torch.save(cnn.state_dict(),'./model/model.pth') ##输出中间层特征,根据索引调用## conv1: conv1=cnn(b_x)[1][0] conv2: conv2=cnn(b_x)[1][1]
##########################
hook使用:
res=torchvision.models.resnet18() def get_features_hook(self, input, output):# self 代表类模块本身 print(output.data.cpu().numpy().shape) handle=res.layer2.register_forward_hook(get_features_hook) a=torch.ones([1,3,224,224])
b=res(a) 直接打印出 layer2的输出形状,但是不好用。因为,实际中,我们需要return,而hook明确指出 不可以return 只能print。
所以,不建议使用hook。
以上这篇pytorch 输出中间层特征的实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
pytorch,中间层,特征
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
稳了!魔兽国服回归的3条重磅消息!官宣时间再确认!
昨天有一位朋友在大神群里分享,自己亚服账号被封号之后居然弹出了国服的封号信息对话框。
这里面让他访问的是一个国服的战网网址,com.cn和后面的zh都非常明白地表明这就是国服战网。
而他在复制这个网址并且进行登录之后,确实是网易的网址,也就是我们熟悉的停服之后国服发布的暴雪游戏产品运营到期开放退款的说明。这是一件比较奇怪的事情,因为以前都没有出现这样的情况,现在突然提示跳转到国服战网的网址,是不是说明了简体中文客户端已经开始进行更新了呢?
更新日志
- 雨林唱片《赏》新曲+精选集SACD版[ISO][2.3G]
- 罗大佑与OK男女合唱团.1995-再会吧!素兰【音乐工厂】【WAV+CUE】
- 草蜢.1993-宝贝对不起(国)【宝丽金】【WAV+CUE】
- 杨培安.2009-抒·情(EP)【擎天娱乐】【WAV+CUE】
- 周慧敏《EndlessDream》[WAV+CUE]
- 彭芳《纯色角3》2007[WAV+CUE]
- 江志丰2008-今生为你[豪记][WAV+CUE]
- 罗大佑1994《恋曲2000》音乐工厂[WAV+CUE][1G]
- 群星《一首歌一个故事》赵英俊某些作品重唱企划[FLAC分轨][1G]
- 群星《网易云英文歌曲播放量TOP100》[MP3][1G]
- 方大同.2024-梦想家TheDreamer【赋音乐】【FLAC分轨】
- 李慧珍.2007-爱死了【华谊兄弟】【WAV+CUE】
- 王大文.2019-国际太空站【环球】【FLAC分轨】
- 群星《2022超好听的十倍音质网络歌曲(163)》U盘音乐[WAV分轨][1.1G]
- 童丽《啼笑姻缘》头版限量编号24K金碟[低速原抓WAV+CUE][1.1G]