本页展示了从多个客户端虚拟机访问单个 Google Cloud NetApp Volumes 卷的性能限制。您可以根据本页中的信息来调整工作负载的大小。
随机 I/O 与顺序 I/O
主要为随机 I/O 的工作负载无法像顺序 I/O 工作负载那样实现相同的吞吐量。
性能测试
以下测试结果显示了性能限制。在这些测试中,卷具有足够的容量,因此吞吐量不会影响基准测试。如果分配单个卷的容量时超出以下吞吐量数值,则不会获得额外的性能提升。
请注意,性能测试是使用 Fio 完成的。
对于性能测试结果,请注意以下注意事项:
标准、Premium 和 Extreme 服务等级的吞吐量性能会随卷容量线性调节,直到达到上限。
启用自定义性能的 Flex 服务级别可实现容量、IOPS 和吞吐量的独立伸缩。
IOPS 结果仅供参考。
用于生成以下结果的数字设置为显示最大结果数。以下结果应视为可实现的最大吞吐量容量分配的估计值。
每个项目使用多个快速卷可能受每个项目的限制。
以下性能测试结果仅涵盖 NFSv3、SMB 或这两种协议类型。未使用其他协议类型(例如 NFSv4.1)来测试 NetApp Volumes 性能。
NFSv3 访问的卷吞吐量限制
以下部分详细介绍了 NFSv3 访问的卷吞吐量限制。
测试分别在以下服务等级下运行:具有自定义性能的 Flex 服务等级和 Extreme 服务等级。以下是捕获的结果。
具有自定义性能的 Flex 服务等级
以下测试是在 Flex 自定义性能区域存储池中运行的,该存储池包含单个卷。该池配置了最大吞吐量和 IOPS,并捕获了结果。
64 KiB 块大小(顺序 I/O)
这些结果是使用 Fio 捕获的,并采用了以下设置:
64 KiB 块大小,针对具有 6 个
n2-standard-32
虚拟机的单个卷Red Hat 9 OS
每个虚拟机的工作集为 96 GiB,总共 576 GiB
在每个主机上配置的
nconnect
装载选项的值为 16已将
rsize
和wsize
装载选项配置为 65536卷大小为 10 TiB,服务等级为 Flex,具有自定义性能。在测试中,自定义性能设置为最大值 5,120 Gbps 和 160,000 IOPS。
在每个虚拟机上运行了 8 个作业,总共运行了 48 个作业。下表显示,在 NFSv3 上,单个卷估计能够以 64 KiB 的块大小处理大约 4,300 MiBps 的纯顺序读取和 1,480 MiBps 的纯顺序写入。
NFS 64 KiB 顺序 6 n2-standard-32
Red Hat 9 虚拟机的基准测试结果
100% 读取和 0% 写入 | 75% 读取和 25% 写入 | 50% 读取和 50% 写入 | 25% 读取和 75% 写入 | 0% 读取和 100% 写入 | |
---|---|---|---|---|---|
读取 MiBps | 4304 | 2963 | 1345 | 464 | 0 |
写入 MiBps | 0 | 989 | 1344 | 1390 | 1476 |
8 KiB 块大小(随机 I/O)
这些结果是使用 Fio 捕获的,并采用了以下设置:
8 KiB 块大小,针对具有 6 个
n2-standard-32
虚拟机的单个卷Red Hat 9 OS
每个虚拟机的工作集为 96 TiB,总共 576 TiB
在每个主机上配置的
nconnect
装载选项的值为 16每个主机的
rsize
和wsize
装载选项配置为 65536卷大小为 10 TiB,服务等级为 Flex,具有自定义性能。在测试中,自定义性能设置为最大值 5,120 Gbps 和 160,000 IOPS。
在每个虚拟机上运行了 8 个作业,总共运行了 48 个作业。下表显示,通过 NFSv3,单个卷估计能够处理大约 126,400 次纯随机读取 IOPS 和 78,600 次纯随机写入 IOPS(块大小为 8 KiB)。
NFS 8 KiB 随机 6 n2-standard-32
Red Hat 9 虚拟机的基准测试结果
100% 读取和 0% 写入 | 75% 读取和 25% 写入 | 50% 读取和 50% 写入 | 25% 读取和 75% 写入 | 0% 读取和 100% 写入 | |
---|---|---|---|---|---|
读取 IOPS | 126,397 | 101,740 | 57,223 | 23,600 | 0 |
写入 IOPS | 0 | 33,916 | 57,217 | 70,751 | 78,582 |
极高服务等级
以下测试是在极速存储池中运行的,结果已捕获。
64 KiB 块大小(顺序 I/O)
这些结果是使用 Fio 捕获的,并采用了以下设置:
64 KiB 块大小,针对具有 6 个
n2-standard-32
虚拟机的单个卷Red Hat 9 OS
每个虚拟机的工作集为 1 TiB,总共 6 TiB
在每个主机上配置的
nconnect
装载选项的值为 16卷大小为 75 TiB(极端服务等级)
在每个虚拟机上运行了 8 个作业,总共运行了 48 个作业。下表显示,在 NFSv3 上,单个卷估计能够处理大约 5,240 MiBps 的纯顺序读取和大约 2,180 MiBps 的纯顺序写入(块大小为 64 KiB)。
NFS 64 KiB 顺序 6 n2-standard-32
Red Hat 9 虚拟机的基准测试结果
100% 读取和 0% 写入 | 75% 读取和 25% 写入 | 50% 读取和 50% 写入 | 25% 读取和 75% 写入 | 0% 读取和 100% 写入 | |
---|---|---|---|---|---|
读取 MiBps | 4710 | 2050 | 1270 | 550 | 0 |
写入 MiBps | 0 | 690 | 1270 | 1650 | 1950 |
256 KiB 块大小(顺序 I/O)
这些结果是使用 Fio 捕获的,并采用了以下设置:
256 KiB 块大小,针对具有 6 个
n2-standard-32
虚拟机的单个卷Red Hat 9 OS
每个虚拟机的工作集为 1 TiB,总共 6 TiB
在每个主机上配置的
nconnect
装载选项的值为 16卷大小为 75 TiB(极端服务等级)
在每个虚拟机上运行了 8 个作业,总共运行了 48 个作业。下表显示,在 NFSv3 上,单个卷估计能够处理大约 4,930 MiBps 的纯顺序读取和大约 2,440 MiBps 的纯顺序写入(块大小为 256 KiB)。
NFS 256 KiB 顺序 6 n2-standard-32
Red Hat 9 虚拟机的基准测试结果
100% 读取和 0% 写入 | 75% 读取和 25% 写入 | 50% 读取和 50% 写入 | 25% 读取和 75% 写入 | 0% 读取和 100% 写入 | |
---|---|---|---|---|---|
读取 MiBps | 4430 | 2270 | 1470 | 610 | 0 |
写入 MiBps | 0 | 750 | 1480 | 1830 | 2200 |
4 KiB 块大小(随机 I/O)
这些结果是使用 Fio 捕获的,并采用了以下设置:
4 KiB 块大小,针对具有 6 个
n2-standard-32
虚拟机的单个卷Red Hat 9 OS
每个虚拟机的工作集为 1 TiB,总共 6 TiB
在每个主机上配置的
nconnect
装载选项的值为 16卷大小为 75 TiB(极端服务等级)
在每个虚拟机上运行了 8 个作业,总共运行了 48 个作业。下表显示,在 NFSv3 上,单个卷估计能够处理大约 38 万次纯随机读取和大约 12 万次纯随机写入(块大小为 4 KiB)。
NFS 4 KiB 随机 6 n2-standard-32
Red Hat 9 虚拟机的基准测试结果
100% 读取和 0% 写入 | 75% 读取和 25% 写入 | 50% 读取和 50% 写入 | 25% 读取和 75% 写入 | 0% 读取和 100% 写入 | |
---|---|---|---|---|---|
读取 IOPS | 340000 | 154,800 | 71,820 | 28,800 | 0 |
写入 IOPS | 0 | 51,570 | 71,820 | 86,580 | 106,200 |
8 KiB 块大小(随机 I/O)
这些结果是使用 Fio 捕获的,并采用了以下设置:
8 KiB 块大小,针对具有 6 个
n2-standard-32
虚拟机的单个卷Red Hat 9 OS
每个虚拟机的工作集为 1 TiB,总共 6 TiB
在每个主机上配置的
nconnect
装载选项的值为 16卷大小为 75 TiB(极端服务等级)
在每个虚拟机上运行了 8 个作业,总共运行了 48 个作业。下表显示,在 NFSv3 上,单个卷估计能够处理大约 27 万次纯随机读取和大约 11 万次纯随机写入(块大小为 8 KiB)。
NFS 8 KiB 6 n2-standard-32
Red Hat 9 虚拟机的基准测试结果
100% 读取和 0% 写入 | 75% 读取和 25% 写入 | 50% 读取和 50% 写入 | 25% 读取和 75% 写入 | 0% 读取和 100% 写入 | |
---|---|---|---|---|---|
读取 IOPS | 238,500 | 118,800 | 60,210 | 27,180 | 0 |
写入 IOPS | 0 | 39,690 | 60,210 | 81,450 | 93,600 |
SMB 访问的卷吞吐量限制
以下部分详细介绍了 SMB 访问的卷吞吐量限制。
64 KiB 块大小(顺序 I/O)
这些结果是使用 Fio 捕获的,并采用了以下设置:
64 KiB 块大小,针对具有 6 个
n2-standard-32
虚拟机的单个卷Windows 2022 操作系统
每个虚拟机的工作集为 1 TiB,总共 6 TiB
在每个虚拟机上配置的每个 RSS 网络接口的 SMB 连接数客户端选项,值为 16
卷大小为 75 TiB(极端服务等级)
在每个虚拟机上运行了 8 个作业,总共运行了 48 个作业。下表显示,单个卷估计能够通过 SMB 处理大约 5,130 MiBps 的纯顺序读取和大约 1,790 MiBps 的纯顺序写入(块大小为 64 KiB)。
SMB 64 KiB 顺序 6 个 n2-standard-32
Windows 2022 虚拟机
100% 读取和 0% 写入 | 75% 读取和 25% 写入 | 50% 读取和 50% 写入 | 25% 读取和 75% 写入 | 0% 读取和 100% 写入 | |
---|---|---|---|---|---|
读取 MiBps | 4610 | 2410 | 1310 | 500 | 0 |
写入 MiBps | 0 | 800 | 1310 | 1510 | 1600 |
256 KiB 块大小(顺序 I/O)
这些结果是使用 Fio 捕获的,并采用了以下设置:
针对具有六个 n2-standard-32 虚拟机的单个卷,块大小为 256 KiB
Windows 2022 操作系统
每个虚拟机的工作集为 1 TiB,总共 6 TiB
在每个主机上配置了 SMB 连接数(每个 RSS 网络接口)客户端选项,值为 16
卷大小为 75 TiB(极端服务等级)
在每个虚拟机上运行了 8 个作业,总共运行了 48 个作业。下表显示,单个卷估计能够通过 SMB 处理大约 4,620 MiBps 的纯顺序读取和大约 1,830 MiBps 的纯顺序写入(块大小为 256 KiB)。
SMB 256 KiB 顺序 6 n2-standard-32
Windows 2022 虚拟机
100% 读取和 0% 写入 | 75% 读取和 25% 写入 | 50% 读取和 50% 写入 | 25% 读取和 75% 写入 | 0% 读取和 100% 写入 | |
---|---|---|---|---|---|
读取 MiBps | 4150 | 2440 | 1380 | 530 | 0 |
写入 MiBps | 0 | 810 | 1380 | 1569 | 1643 |
4 KiB 块大小(随机 I/O)
这些结果是使用 Fio 捕获的,并采用了以下设置:
4 KiB 块大小,针对具有 6 个
n2-standard-32
虚拟机的单个卷Windows 2022 操作系统
每个虚拟机 1 TiB 的工作集,总共 6 TiB
在每个主机上启用 SMB 连接数(每个 RSS 网络接口)客户端选项,并将该选项的值设置为 16
卷大小为 75 TiB(极端服务等级)
在每个虚拟机上运行了 8 个作业,总共运行了 48 个作业。下表显示,单个卷估计能够通过 SMB 处理大约 39 万次纯随机读取和大约 11 万次纯随机写入(块大小为 4 KiB)。
SMB 4 KiB 随机 6 n2-standard-32
Windows 2022 虚拟机的基准测试结果
100% 读取和 0% 写入 | 75% 读取和 25% 写入 | 50% 读取和 50% 写入 | 25% 读取和 75% 写入 | 0% 读取和 100% 写入 | |
---|---|---|---|---|---|
读取 IOPS | 351,810 | 148,230 | 75,780 | 29,540 | 0 |
写入 IOPS | 0 | 49,360 | 75,780 | 88,650 | 98,370 |
8 KiB 块大小(随机 I/O)
这些结果是使用 Fio 捕获的,并采用了以下设置:
8 KiB 块大小,针对具有 6 个
n2-standard-32
虚拟机的单个卷Windows 2022 操作系统
每个虚拟机 1 TiB 的工作集,总共 6 TiB
在每个主机上配置的客户端选项“每个 RSS 网络接口的 SMB 连接数”,值为 16
卷大小为 75 TiB(极端服务等级)
在每个虚拟机上运行了 8 个作业,总共运行了 48 个作业。下表显示,单个卷估计能够通过 SMB 处理大约 280,000 次纯随机读取和大约 90,000 次纯随机写入(块大小为 8 KiB)。
SMB 8 KiB 随机 6 n2-standard-32
Windows 2022 虚拟机的基准测试结果
100% 读取和 0% 写入 | 75% 读取和 25% 写入 | 50% 读取和 50% 写入 | 25% 读取和 75% 写入 | 0% 读取和 100% 写入 | |
---|---|---|---|---|---|
读取 IOPS | 244,620 | 122,310 | 59,130 | 25,280 | 0 |
写入 IOPS | 0 | 40,763 | 59,310 | 75,960 | 76,950 |
电子设计自动化工作负载基准
NetApp Volumes 大容量支持提供高性能并行文件系统,非常适合电子设计自动化工作负载。这些文件系统可提供高达 1 PiB 的容量,并以低延迟提供高 I/O 和吞吐量速率。
电子设计自动化工作负载在前端和后端阶段有不同的性能要求。前端阶段优先考虑元数据和 IOPS,而后端阶段则侧重于吞吐量。
一个行业标准的电子设计自动化基准,具有混合的前端和后端工作负载,使用大量均匀分布在 6 个 IP 地址上的多个 NFSv3 客户端,可实现高达 21.5 GiBps 的吞吐量和高达 1,350,000 IOPS。
后续步骤
监控效果。