记录自己在torch中遇到的一些bug

记录自己在torch中遇到的一些bug

这么写会导致默认的cuda:0中一直被占用内存
FloatTensor = torch.cuda.FloatTensor if x.is_cuda else torch.FloatTensor
LongTensor = torch.cuda.LongTensor if x.is_cuda else torch.LongTensor

anchor_w = FloatTensor(scaled_anchors_l).index_select(1, LongTensor([0]))
anchor_h = FloatTensor(scaled_anchors_l).index_select(1, LongTensor([1]))

记录自己在torch中遇到的一些bug最先出现在Python成神之路

版权声明:
作者:siwei
链接:https://www.techfm.club/p/27568.html
来源:TechFM
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>