[ 输入参数用法不一致 ]torch.distributed.gather¶
torch.distributed.gather¶
torch.distributed.gather(tensor, gather_list=None, dst=0, group=None, async_op=False)
         paddle.distributed.gather¶
paddle.distributed.gather(tensor, gather_list=None, dst=0, group=None, sync_op=True)
         其中 PyTorch 和 Paddle 功能一致,参数用法不一致,具体如下:
参数映射¶
| PyTorch | PaddlePaddle | 备注 | 
|---|---|---|
| tensor | tensor | 操作的输入 Tensor。 | 
| gather_list | gather_list | 操作的输出 Tensor 列表。 | 
| dst | dst | 表示目标进程的 rank。 | 
| group | group | 工作的进程组编号。 | 
| async_op | sync_op | torch 为是否异步操作,Paddle 为是否同步操作,转写方式取反即可。 |