注意,Pytorch多机分布式模块 torch.distributed 在单机上仍然需要手动fork进程 ... allows to apply a layer to every temporal slice of an input.
確定! 回上一頁