首页 文章

PyTorch:图像尺寸问题

提问于
浏览
1

我正在研究图像分类器数据集 . 我的数据集中有31个类,每个类都有一个文件夹 . 对于培训,我按以下方式加载数据:

from torchvision import datasets, transforms
import torch

def load_training(root_path, dir, batch_size, kwargs):
    transform = transforms.Compose(
        [transforms.Resize([256, 256]),
         transforms.RandomCrop(224),
         transforms.RandomHorizontalFlip(),
         transforms.ToTensor()])
    data = datasets.ImageFolder(root=root_path + dir, transform=transform)
    train_loader = torch.utils.data.DataLoader(data, batch_size=batch_size, shuffle=False, drop_last=True, **kwargs)
    return train_loader

现在,对于批量大小为32,每个批处理为: [32,3,224,224] . 我知道Pytorch使用PIL来加载图像 . 但是,当我尝试使用以下代码片段使用PIL从名为 images 的大小为32的列表中加载图像时:

for i in images:
    im = Image.open(root_dir + dir + i)
    im = im.convert('RGB')
    im.load()
    im = im.resize((224, 224))
    im = np.asarray( im, dtype="int32" )
    print(im.shape)
    temp_im_2 = torch.from_numpy(np.array(temp_im)).float()

它说 im.shape(32,224,224,3) . 我究竟做错了什么?在两种情况下,我应该怎么做才能使批次具有相同的形状_164066_?

1 回答

  • 0

    如何交换轴?如 im.transpose(0, 3, 1, 2) ,如果 im 有四个维度 . 但是, im.shape 应返回 (224, 224, 3) ,因为您只加载了一个图像,因此 im.transpose(2, 0, 1) 应该为您提供第一维中包含通道的图像,然后您可以将它们堆叠在一起形成批处理 .

相关问题