1.介绍
当我们使用pytorch来构建网络框架的时候,也会遇到和tensorflow(tensorflow __init__、build 和call小结)类似的情况,即经常会遇到__init__、forward和call这三个互相搭配着使用,那么它们的主要区别又在哪里呢?
1)__init__主要用来做参数初始化用,比如我们要初始化卷积的一些参数,就可以放到这里面,这点和tf里面的用法是一样的
2)forward是表示一个前向传播,构建网络层的先后运算步骤
3)__call__的功能其实和forward类似,所以很多时候,我们构建网络的时候,可以用__call__替代forward函数,但它们两个的区别又在哪里呢?
当网络构建完之后,调__call__的时候,会去先调forward,即__call__其实是包了一层forward,所以会导致两者的功能类似。
在pytorch在nn.Module中,实现了__call__方法,而在__call__方法中调用了forward函数:
https://github.com/pytorch/pytorch/blob/master/torch/nn/modules/module.py
2.代码
import torch import torch.nn as nn import torch.nn.functional as F class Net(nn.Module): def __init__(self, in_channels, mid_channels, out_channels): super(Net, self).__init__() self.conv0 = torch.nn.Sequential( torch.nn.Conv2d(in_channels, mid_channels, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)), torch.nn.LeakyReLU()) self.conv1 = torch.nn.Sequential( torch.nn.Conv2d(mid_channels, out_channels * 2, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))) def forward(self, x): x = self.conv0(x) x = self.conv1(x) return x class Net(nn.Module): def __init__(self, in_channels, mid_channels, out_channels): super(Net, self).__init__() self.conv0 = torch.nn.Sequential( torch.nn.Conv2d(in_channels, mid_channels, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1)), torch.nn.LeakyReLU()) self.conv1 = torch.nn.Sequential( torch.nn.Conv2d(mid_channels, out_channels * 2, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))) def __call__(self, x): x = self.conv0(x) x = self.conv1(x) return x
补充:torch/nn目录结构以及__init__.py
torch/nn目录结构以及init.py
torch/nn目录结构
__init__.py:
from .modules import * #nn.modules 导入modules目录下内容 定义容器modules from .parameter import Parameter #nn.Parameter 导入parameter.py 定义parameter from .parallel import DataParallel #导入parallel目录下data_parallel.py中的DataParallel类 from . import init #nn.init 导入init.py 参数初始化 from . import utils #nn.utils 导入utils目录下内容 官网api下nn.utils下api
对于backends, functional.py, _functions 需要在代码前重新Import
例如我们常用的
import torch.nn.functional as F 就是导入了functional.py
backends和_functions是functional.py实现各种函数时所用到的。
以上为个人经验,希望能给大家一个参考,也希望大家多多支持。如有错误或未考虑完全的地方,望不吝赐教。
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
RTX 5090要首发 性能要翻倍!三星展示GDDR7显存
三星在GTC上展示了专为下一代游戏GPU设计的GDDR7内存。
首次推出的GDDR7内存模块密度为16GB,每个模块容量为2GB。其速度预设为32 Gbps(PAM3),但也可以降至28 Gbps,以提高产量和初始阶段的整体性能和成本效益。
据三星表示,GDDR7内存的能效将提高20%,同时工作电压仅为1.1V,低于标准的1.2V。通过采用更新的封装材料和优化的电路设计,使得在高速运行时的发热量降低,GDDR7的热阻比GDDR6降低了70%。
更新日志
- 小骆驼-《草原狼2(蓝光CD)》[原抓WAV+CUE]
- 群星《欢迎来到我身边 电影原声专辑》[320K/MP3][105.02MB]
- 群星《欢迎来到我身边 电影原声专辑》[FLAC/分轨][480.9MB]
- 雷婷《梦里蓝天HQⅡ》 2023头版限量编号低速原抓[WAV+CUE][463M]
- 群星《2024好听新歌42》AI调整音效【WAV分轨】
- 王思雨-《思念陪着鸿雁飞》WAV
- 王思雨《喜马拉雅HQ》头版限量编号[WAV+CUE]
- 李健《无时无刻》[WAV+CUE][590M]
- 陈奕迅《酝酿》[WAV分轨][502M]
- 卓依婷《化蝶》2CD[WAV+CUE][1.1G]
- 群星《吉他王(黑胶CD)》[WAV+CUE]
- 齐秦《穿乐(穿越)》[WAV+CUE]
- 发烧珍品《数位CD音响测试-动向效果(九)》【WAV+CUE】
- 邝美云《邝美云精装歌集》[DSF][1.6G]
- 吕方《爱一回伤一回》[WAV+CUE][454M]