至少同一個batch內的數據的尺寸得相同吧


應該可以。

我每次跑都是不做處理,直接BN的,輸入圖片大小不同。做DCGAN感覺效果還可以吧。


語音就是不同尺寸的數據,語音識別任務中常用不同尺寸的數據構成batch


如果你是做圖像的話,現在各個深度學習框架都是要放到GPU裏訓練的,也就是把輸入數據構成一個指定的tensor向量放到GPU裏,圖像的話一般是(batchsize*channel*h*w),試想你如果一個batchsize裏的數據各個的h和w都不同的話怎麼構成一個四維的tensor向量放到GPU裡面學習呢?

當然了,你的batchsize=1的話,不同尺度當然也就沒有關係了


為什麼不在預處理是做好尺度歸一化


以前數據都是reshapwle成相同維度尺寸,然後寫一個minibatch的函數就能簡單構建隊列了,但是現在想要輸入不同尺寸的圖片不要轉成統一尺寸,有沒有什麼方法可以構建隊列呢。


PyTorch的話可以自定義DataLoader的collate_fn

torch.utils.data - PyTorch master documentation?

pytorch.org


推薦閱讀:
相關文章