En esta página, se describen los límites de rendimiento de las instancias de Filestore, junto con la configuración de rendimiento recomendada y las opciones de prueba.
Cada nivel de servicio de Filestore proporciona un nivel diferente de rendimiento que puede variar debido a factores como el uso del almacenamiento en caché, la cantidad de VMs del cliente, el tipo de máquina de las VMs del cliente y la carga de trabajo probada.
En la siguiente tabla, se indica el rendimiento máximo que puedes lograr cuando estableces la capacidad mínima y máxima para cada nivel de servicio.
Todos los valores de la tabla son límites estimados y no están garantizados. Para obtener información sobre los parámetros de configuración y los límites de rendimiento personalizados, consulta Límites de rendimiento personalizados.
Nivel de servicio | Capacidad | IOPS de lectura | IOPS de escritura | Capacidad de procesamiento de lectura (MiBps) | Capacidad de procesamiento de escritura (MiBps) | Capacidad de procesamiento de lectura de un solo cliente (MiBps) | Capacidad de procesamiento de escritura de un solo cliente (MiBps) | Se admite el rendimiento personalizado |
---|---|---|---|---|---|---|---|---|
BASIC_HDD | 1 TiB a 10 TiB | 600 | 1,000 | 100 | 100 | 100 | 100 | No |
De 10 TiB a 63.9 TiB | 1,000 | 5,000 | 180 | 120 | 180 | 120 | ||
BASIC_SSD | De 2.5 TiB a 63.9 TiB | 60,000 | 25,000 | 1,200 | 350 | 1,200 | 350 | |
ZONAL | 1 TiB | 9,200 | 2,600 | 260 | 88 | 260 | 88 | Sí |
9.75 TiB | 89,700 | 25,350 | 2,535 | 858 | 450 | 260 | ||
10 TiB | 92,000 | 26,000 | 2,600 | 880 | 1,600 | 800 | ||
100 TiB | 920,000 | 260,000 | 26,000 | 8,800 | 1,600 | 800 | ||
REGIONAL | 1 TiB | 12,000 | 4,000 | 120 | 100 | 120 | 100 | |
9.75 TiB | 117,000 | 39,000 | 1,170 | 975 | 450 | 260 | ||
10 TiB | 92,000 | 26,000 | 2,600 | 880 | 1,600 | 800 | ||
100 TiB | 920,000 | 260,000 | 26,000 | 8,800 | 1,600 | 800 | ||
ENTERPRISE | 1 TiB | 12,000 | 4,000 | 120 | 100 | 120 | 100 | No |
10 TiB | 120,000 | 40,000 | 1,200 | 1,000 | 450 | 260 |
Escalamiento de rendimiento
El rendimiento se escala de forma lineal con la capacidad dentro de los límites de rendimiento que se indican en la tabla anterior. Por ejemplo, si duplicas la capacidad de tu instancia empresarial de 1 TiB a 2 TiB, el límite de rendimiento de la instancia se duplica de 12,000/4,000 IOPS de lectura y escritura a 24,000/8,000 IOPS de lectura y escritura.
En situaciones de uno o pocos clientes, debes aumentar la cantidad de conexiones de TCP con la opción de activación nconnect
para lograr el rendimiento máximo de NFS.
Para niveles de servicio específicos, te recomendamos que especifiques la siguiente cantidad de conexiones entre el cliente y el servidor:
Nivel | Capacidad | Número de conexiones |
---|---|---|
Regional o zonal | De 1 a 9.75 TiB | nconnect=2 |
Regional o zonal | De 10 a 100 TiB | nconnect=7 |
Enterprise | - | nconnect=2 |
SSD de escala masiva | - | nconnect=7 |
En general, cuanto mayor sea la capacidad del archivo compartido y menor sea la cantidad de VMs de cliente que se conectan, más rendimiento obtendrás mediante la especificación de conexiones adicionales con nconnect
.
Rendimiento personalizado
Establece un rendimiento personalizado para configurarlo según las necesidades de tu carga de trabajo, independientemente de la capacidad especificada. Puedes especificar una proporción de IOPS por TiB o establecer una cantidad fija de IOPS. Para obtener más información, consulta Rendimiento personalizado.
Tipo recomendado de máquina cliente
Recomendamos tener un tipo de máquina de Compute Engine, como n2-standard-8
, que proporcione un ancho de banda de salida de al menos 16 Gbps. Este ancho de banda de salida permite que el cliente obtenga un ancho de banda de lectura de alrededor de 16 Gbps para cargas de trabajo compatibles con la caché. Para obtener más contexto, consulta Ancho de banda de red.
Opciones de activación de cliente de Linux
Recomendamos usar las siguientes opciones de activación de NFS, en especial una activación hard
, async
, y las opciones rsize
y wsize
, para lograr el mejor rendimiento en instancias de VM cliente de Linux. Para obtener más información sobre las opciones de activación de NFS, consulta nfs.
Opción predeterminada | Descripción |
---|---|
hard |
El cliente de NFS reintenta las solicitudes NFS indefinidamente. |
timeo=600 |
El cliente de NFS espera 600 decisegundos (60 segundos) antes de volver a intentar una solicitud NFS. |
retrans=3 |
El cliente de NFS intenta las solicitudes NFS tres veces antes de tomar más medidas de recuperación. |
rsize=524288 |
El cliente de NFS puede recibir un máximo de 524,288 bytes del servidor NFS por solicitud READ . Nota: Para las instancias de nivel básico, establece el valor de rsize en 1048576 . |
wsize=1048576 |
El cliente de NFS puede enviar un máximo de 1,048,576 bytes (1 MiB) al servidor NFS por solicitud WRITE . |
resvport |
El cliente de NFS utiliza un puerto de origen privilegiado cuando se comunica con el servidor NFS de este punto de activación. |
async |
El cliente de NFS retrasa el envío de escrituras de la aplicación al servidor NFS hasta que se cumplen determinadas condiciones. Precaución: Usar la opción sync reduce significativamente el rendimiento. |
Optimiza la capacidad de procesamiento de lectura de NFS con el parámetro read_ahead_kb
El parámetro read_ahead_kb
de NFS especifica la cantidad de datos, en kilobytes, que el kernel de Linux debe recuperar previamente durante una operación de lectura secuencial. Como resultado, las solicitudes de lectura posteriores se pueden entregar directamente desde la memoria para reducir la latencia y mejorar el rendimiento general.
Para las versiones del kernel de Linux 5.4
y posteriores, el cliente NFS de Linux usa un valor predeterminado de read_ahead_kb
de 128 KB.
Te recomendamos que aumentes este valor a 20 MB para mejorar la capacidad de procesamiento de lectura secuencial.
Después de activar correctamente el recurso compartido de archivos en la VM cliente de Linux, puedes usar la siguiente secuencia de comandos para ajustar manualmente el valor del parámetro read_ahead_kb
:
mount_point=MOUNT_POINT_DIRECTORY
device_number=$(stat -c '%d' $mount_point)
((major = ($device_number & 0xFFF00) >> 8))
((minor = ($device_number & 0xFF) | (($device_number >> 12) & 0xFFF00)))
sudo bash -c "echo 20480 > /sys/class/bdi/$major:$minor/read_ahead_kb"
Aquí:
MOUNT_POINT_DIRECTORY es la ruta al directorio en el que se activa el archivo compartido.
Rendimiento de una sola VM de cliente y de varias
Los niveles de servicio escalables de Filestore tienen un rendimiento optimizado para varias VMs de cliente, no para una sola.
Para instancias zonales, regionales y empresariales, se necesitan al menos cuatro VMs cliente para aprovechar el rendimiento completo. Esto garantiza que todas las VMs del clúster subyacente de Filestore se utilicen por completo.
A modo de contexto, el clúster escalable de Filestore más pequeño tiene cuatro VM. Cada VM cliente se comunica con una sola VM de clúster de Filestore, independientemente de la cantidad de conexiones NFS por cliente especificadas con la opción de activación nconnect
. Si usas una sola VM de cliente, las operaciones de lectura y escritura solo se realizan desde una sola VM de clúster de Filestore.
Mejora el rendimiento de los Google Cloud recursos
Las operaciones en varios Google Cloud recursos, como copiar datos de Cloud Storage a una instancia de Filestore con la gcloud CLI, pueden ser lentas. Para mitigar los problemas de rendimiento, prueba lo siguiente:
Asegúrate de que el bucket de Cloud Storage, la VM del cliente y la instancia de Filestore se encuentren en la misma región.
Las regiones dobles proporcionan una opción de máximo rendimiento para los datos almacenados en Cloud Storage. Si usas esta opción, asegúrate de que los otros recursos residan en una de las regiones únicas que contiene la región doble. Por ejemplo, si tus datos de Cloud Storage residen en
us-central1,us-west1
, asegúrate de que tu VM cliente y la instancia de Filestore residan enus-central1
.Como referencia, verifica el rendimiento de una VM con un Persistent Disk (PD) conectado y compáralo con el rendimiento de una instancia de Filestore.
- Si el rendimiento de la VM conectada a PD es similar o más lento en comparación con la instancia de Filestore, es posible que se trate de un cuello de botella de rendimiento no relacionado con Filestore. Para mejorar el rendimiento del modelo de referencia de tus recursos que no son de Filestore, puedes ajustar las propiedades de gcloud CLI asociadas con las cargas compuestas paralelas. Para obtener más información, consulta Cómo las herramientas y las APIs usan las cargas compuestas paralelas.
Si el rendimiento de la instancia de Filestore es notablemente más lento que el de la VM con PD, intenta distribuir la operación en varias VMs.
Esto ayuda a mejorar el rendimiento de las operaciones de lectura desde Cloud Storage.
Para las instancias zonales, regionales y empresariales, se necesitan al menos cuatro VMs cliente para aprovechar el rendimiento completo. Esto garantiza que todas las VMs del clúster subyacente de Filestore se utilicen por completo. Para obtener más información, consulta Rendimiento de una sola VM de cliente y de varias.