[ 输入参数用法不一致 ]torch.distributed.reduce_scatter¶
torch.distributed.reduce_scatter¶
torch.distributed.reduce_scatter(output, input_list, op=<RedOpType.SUM: 0>, group=None, async_op=False)
paddle.distributed.reduce_scatter¶
paddle.distributed.reduce_scatter(tensor, tensor_list, op=ReduceOp.SUM, group=None, sync_op=True)
其中 PyTorch 和 Paddle 功能一致,参数用法不一致,具体如下:
参数映射¶
PyTorch | PaddlePaddle | 备注 |
---|---|---|
output | tensor | 用于接收数据的 tensor,仅参数名不一致。 |
input_list | tensor_list | 将被规约和分发的 tensor 列表,仅参数名不一致。 |
op | op | 归约的操作类型。 |
group | group | 执行该操作的进程组实例。 |
async_op | sync_op | 该操作是否为异步或同步操作,PyTorch 和 Paddle 取值相反,需要转写。 |