我正在研究图像分类器数据集 . 我的数据集中有31个类,每个类都有一个文件夹 . 对于培训,我按以下方式加载数据:
from torchvision import datasets, transforms
import torch
def load_training(root_path, dir, batch_size, kwargs):
transform = transforms.Compose(
[transforms.Resize([256, 256]),
transforms.RandomCrop(224),
transforms.RandomHorizontalFlip(),
transforms.ToTensor()])
data = datasets.ImageFolder(root=root_path + dir, transform=transform)
train_loader = torch.utils.data.DataLoader(data, batch_size=batch_size, shuffle=False, drop_last=True, **kwargs)
return train_loader
现在,对于批量大小为32,每个批处理为: [32,3,224,224]
. 我知道Pytorch使用PIL来加载图像 . 但是,当我尝试使用以下代码片段使用PIL从名为 images
的大小为32的列表中加载图像时:
for i in images:
im = Image.open(root_dir + dir + i)
im = im.convert('RGB')
im.load()
im = im.resize((224, 224))
im = np.asarray( im, dtype="int32" )
print(im.shape)
temp_im_2 = torch.from_numpy(np.array(temp_im)).float()
它说 im.shape
是 (32,224,224,3)
. 我究竟做错了什么?在两种情况下,我应该怎么做才能使批次具有相同的形状_164066_?
1 回答
如何交换轴?如
im.transpose(0, 3, 1, 2)
,如果im
有四个维度 . 但是,im.shape
应返回(224, 224, 3)
,因为您只加载了一个图像,因此im.transpose(2, 0, 1)
应该为您提供第一维中包含通道的图像,然后您可以将它们堆叠在一起形成批处理 .