github链接
导入方法:import torch.nn as nn
常用函数:nn.Sequential(), nn.Conv2d(), nn.Linear(), nn.ReLU(), nn.BatchNorm2d(),nn.MaxPool2d(),nn.MaxPool1d()
等。
github链接
这个库的导入方法一般为:import torch.nn.functional as F
常用函数有:F.max_pool2d(), F.avg_pool2d(), F.max_pool1d(), F.avg_pool1d(), F.relu()
等。
输入为(N, C, H_{in}, W_{in})
, 输出为(N, C, H_{out}, W_{out})
类型tensor。
【方法一】torch.nn.MaxPool2d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)
参数解释:
a = torch.randn(3,5,10)
b = nn.MaxPool2d((5, 1))
c = b(a)
print(c.shape) # torch.Size([3, 1, 10])
【方法二】F.max_pool2d(input, kernel)
这里的kernel与上面相同,也是tuple。
a = torch.randn(3,5,10)
c = F.max_pool2d(a, (5, 1))
print(c.shape) # torch.Size([3, 1, 10])
【方法三】nn.AdaptiveMaxPool2d(output_size)
自适应最大池化Adaptive Max Pooling
参考链接
输入为(N, C, L_{in})
,输出为(N, C, L_{out})
类型tensor。
【方法一】torch.nn.MaxPool1d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)
【方法二】F.max_pool1d(input, kernel)
这里的kernel与上面相同,在一维pooling的时候,kernel size为int型。
【方法三】nn.AdaptiveMaxPool1d(output_size)
自适应最大池化Adaptive Max Pooling
参考链接