From f5602107a1a678d937700c31b72be42984f3a8b3 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?=E7=89=87=E5=88=BB=E5=B0=8F=E5=93=A5=E5=93=A5?= Date: Sun, 5 May 2024 03:32:07 +0800 Subject: [PATCH] =?UTF-8?q?=E4=BF=AE=E6=AD=A3=E9=94=99=E5=88=AB=E5=AD=97?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- docs/LatestChanges/PyTorch_V1.10.md | 2 +- docs/LatestChanges/PyTorch_V2.3.md | 4 ++-- 2 files changed, 3 insertions(+), 3 deletions(-) diff --git a/docs/LatestChanges/PyTorch_V1.10.md b/docs/LatestChanges/PyTorch_V1.10.md index 340557637..066a37be0 100644 --- a/docs/LatestChanges/PyTorch_V1.10.md +++ b/docs/LatestChanges/PyTorch_V1.10.md @@ -37,7 +37,7 @@ FX提供了一个Python平台,用于转换和降低PyTorch程序。这是一 ### (Stable)nn.Module 参数化 -`nn.Module`parametrizaton是一个功能,允许用户在不修改`nn.Module`本身的情况下对`nn.Module`的任何参数或缓冲区进行参数化,在稳定中可用。此版本增加了重量归一化(`weight_norm`)、正交参数化(矩阵约束和部分修剪)以及在创建自己的参数化时更大的灵活性。 +`nn.Module`parametrizaton是一个功能,允许用户在不修改`nn.Module`本身的情况下对`nn.Module`的任何参数或缓冲区进行参数化,在稳定中可用。此版本增加了权重归一化(`weight_norm`)、正交参数化(矩阵约束和部分修剪)以及在创建自己的参数化时更大的灵活性。 有关更多详细信息,请参阅本[教程](https://pytorch.org/tutorials/intermediate/parametrizations.html)和一般[文档](https://pytorch.org/docs/master/generated/torch.nn.utils.parametrizations.spectral_norm.html?highlight=parametrize)。 diff --git a/docs/LatestChanges/PyTorch_V2.3.md b/docs/LatestChanges/PyTorch_V2.3.md index c56237cc6..edf4b29af 100644 --- a/docs/LatestChanges/PyTorch_V2.3.md +++ b/docs/LatestChanges/PyTorch_V2.3.md @@ -16,7 +16,7 @@ | **Beta** | **Prototype** | **Performance Improvements** | | --- | --- | --- | -| torch.compile 中用户定义的 Triton内核 | torch.export 添加了新的API来指定 dynamic_shapes | 仅重量量化引入 inductor CPU后端 | +| torch.compile 中用户定义的 Triton内核 | torch.export 添加了新的API来指定 dynamic_shapes | 仅权重量化化引入 inductor CPU后端 | | PyTorch分布式中的 Tensor 并行性 | 异步 checkpoint 生成 | | | 支持半结构化稀疏性 | | | @@ -64,7 +64,7 @@ ## 性能改进 -### [PROTOTYPE]在 inductor CPU后端引入仅重量量化 +### [PROTOTYPE]在 inductor CPU后端引入仅权重量化 PyTorch 2.3增强了火炬电感CPU后端的LLM推理性能。该项目[gpt-fast](https://github.com/pytorch-labs/gpt-fast)为使用*torch.compile*的变压器文本生成提供了简单高效的PyTorch原生加速。在2.3之前,只支持CUDA设备,此功能通过为int4和int8权重仅量化线性提供高度优化的内核来支持CPU对应。