Crea e implementa modelos de IA generativa y aprendizaje automático en una empresa

Last reviewed 2024-03-28 UTC

A medida que los modelos de IA generativa y aprendizaje automático (AA) se vuelven más comunes en las actividades y los procesos comerciales de las empresas, cada vez más empresas necesitan orientación sobre el desarrollo de modelos para garantizar la coherencia, la repetibilidad, la seguridad y la protección. Para ayudar a las grandes empresas a crear e implementar modelos de IA generativa y AA, creamos el plano de IA generativa y AA empresarial. Este plano te proporciona una guía completa de todo el ciclo de vida del desarrollo de IA, desde la exploración de datos y la experimentación preliminares hasta el entrenamiento, la implementación y la supervisión de modelos.

El plano de IA generativa y AA empresarial te proporciona muchos beneficios, incluidos los siguientes:

  • Orientación prescriptiva: Orientación clara sobre cómo crear, configurar e implementar un entorno de desarrollo de IA generativa y AA que se base en Vertex AI. Puedes usar Vertex AI para desarrollar tus propios modelos.
  • Mayor eficiencia: Amplia automatización para ayudar a reducir el trabajo repetitivo de implementar infraestructura y desarrollar modelos de AA y IA generativa. La automatización te permite enfocarte en tareas de valor agregado, como el diseño de modelos y la experimentación.
  • Administración y auditabilidad mejoradas: La reproducibilidad, la trazabilidad y la implementación controlada de modelos se incorporan en el diseño de este plano. Este beneficio te permite administrar mejor el ciclo de vida de la IA generativa y de los modelos de AA, y te ayuda a garantizar que puedas volver a entrenar y evaluar los modelos de manera coherente, con registros de auditoría claros.
  • Seguridad: el plano está diseñado para alinearse con los requisitos del framework del Instituto Nacional de Normas y Tecnología (NIST) y del framework del Cyber Risk Institute (CRI).

El plano de IA generativa y AA empresarial incluye lo siguiente:

  • Un repositorio de GitHub que contiene un conjunto de opciones de configuración de Terraform, un notebook de Jupyter, una definición VVertex AI Pipelines, un grafo acíclico dirigido (DAG) de Cloud Composer y secuencias de comandos auxiliares. Los componentes del repositorio completan lo siguiente:
    • La configuración de Terraform establece una plataforma de desarrollo de modelos de Vertex AI que puede admitir varios equipos de desarrollo de modelos.
    • El notebook de Jupyter te permite desarrollar un modelo de forma interactiva.
    • La definición de Vertex AI Pipelines traduce el notebook de Jupyter en un patrón reproducible que se puede usar para entornos de producción.
    • El DAG de Cloud Composer proporciona un método alternativo a Vertex AI Pipelines.
    • Las secuencias de comandos auxiliares ayudan a implementar el código y las canalizaciones de Terraform.
  • Una guía sobre la arquitectura, el diseño, los controles de seguridad y los procesos operativos que usas con este plano para implementar (este documento).

El plano de AA y IA generativa empresarial está diseñado para ser compatible con el plano de bases empresarial. El plano de base empresarial proporciona una serie de servicios de nivel base en los que se basa este plano, como las redes de VPC. Puedes implementar el plano de IA generativa y AA empresarial sin implementar el plano de base empresarial si tu entorno de Google Cloud proporciona la funcionalidad necesaria para admitir el plano de IA generativa y AA empresarial.

Este documento está dirigido a ingenieros de datos, arquitectos de la nube y científicos de datos que pueden usar el plano para compilar y, luego, implementar modelos de IA generativa o AA nuevos en Google Cloud. En este documento, se supone que estás familiarizado con el desarrollo de modelos de IA generativa y AA y la plataforma de aprendizaje automático de Vertex AI.

Descripción general del plano de IA generativa y AA empresarial

El plano de IA generativa y AA empresarial adopta un enfoque en capas para proporcionar las capacidades que permiten el entrenamiento de modelos de IA generativa y AA. El plano está diseñado para implementarse y controlarse a través de un flujo de trabajo de operaciones de AA (MLOps). En el siguiente diagrama, se muestra cómo la capa de MLOps que implementa este plano se relaciona con otras capas de tu entorno.

Las capas del plano.

En este diagrama, se incluye lo siguiente:

  • La infraestructura de Google Cloud te proporciona funciones de seguridad, como la encriptación en reposo y la encriptación en tránsito, así como componentes básicos, como el procesamiento y el almacenamiento.
  • La base empresarial te proporciona un modelo de referencia de recursos, como los sistemas de identidad, herramientas de redes, registro, implementación y supervisión que te permiten adoptar Google Cloud para tus cargas de trabajo de IA.
  • La capa de datos es una capa opcional de la pila de desarrollo que te proporciona varias capacidades, como la transferencia de datos, el almacenamiento de datos, el control de acceso a los datos y la administración de datos, la supervisión y el uso compartido de datos.
  • La capa de AA y IA generativa (este plano) te permite compilar e implementar modelos. Puedes usar esta capa para la exploración y experimentación de datos preliminares, el entrenamiento de modelos, la entrega de modelos y la supervisión.
  • La CI/CD te proporciona las herramientas para automatizar el aprovisionamiento, la configuración, la administración y la implementación de infraestructura, flujos de trabajo y componentes de software. Estos componentes te ayudan a garantizar implementaciones coherentes, confiables y auditables, a minimizar los errores manuales y a acelerar el ciclo de desarrollo general.

Para mostrar cómo se usan el entorno de AA y IA generativa, el plano incluye un desarrollo de modelo de AA de muestra. El desarrollo del modelo de ejemplo te guía a través de la creación de un modelo, la creación de canalizaciones operativas, el entrenamiento del modelo, la prueba del modelo y la implementación del modelo.

Arquitectura

El plano de IA generativa y AA empresarial te permite trabajar directamente con datos. Puedes crear modelos en un entorno interactivo (desarrollo) y promoverlos a un entorno operativo (de producción o que no es de producción).

En el entorno interactivo, desarrollas modelos de AA con Vertex AI Workbench, que es un servicio de Notebooks de Jupyter administrado por Google. Compilarás capacidades de extracción de datos, transformación de datos y ajuste de modelos en el entorno interactivo y promoverlas al entorno operativo.

En el entorno operativo (no de producción), usas canalizaciones para crear y probar sus modelos de forma repetible y controlable. Una vez que estés satisfecho con el rendimiento del modelo, puedes implementarlo en el entorno operativo (producción). En el siguiente diagrama, se muestran los diversos componentes de los entornos interactivos y operativos.

La arquitectura del plano.

En este diagrama, se incluye lo siguiente:

  1. Sistemas de implementación: Los servicios como el catálogo de servicios y Cloud Build implementan recursos de Google Cloud en el entorno interactivo. Cloud Build también implementa recursos de Google Cloud y flujos de trabajo de creación de modelos en el entorno operativo.
  2. Fuentes de datos: Servicios como BigQuery, Cloud Storage, Spanner y AlloyDB para PostgreSQL alojan tus datos. El plano proporciona datos de ejemplo en BigQuery y Cloud Storage.
  3. Entorno interactivo: Es un entorno en el que puedes interactuar directamente con los datos, experimentar con modelos y crear canalizaciones para usarlas en el entorno operativo.
  4. Entorno operativo: Es un entorno en el que puedes compilar y probar tus modelos de forma repetible y, luego, implementar modelos en producción.
  5. Servicios de modelo: Los siguientes servicios admiten varias actividades de MLOps:
  6. Almacenamiento de artefactos: Estos servicios almacenan el código y los contenedores para el desarrollo de modelos y canalizaciones. Entre estos servicios, se incluyen los siguientes:
    • Artifact Registry almacena contenedores que usan las canalizaciones en el entorno operativo para controlar las diversas etapas del desarrollo del modelo.
    • El repositorio de Git almacena la base de código de los diversos componentes que se usan en el desarrollo del modelo.

Arquetipos de la plataforma

Cuando implementas el plano, creas cuatro tipos de grupos de usuarios: un grupo de ingenieros de MLOps, un grupo de ingenieros DevOps, un grupo de científicos de datos y un grupo de ingenieros de datos. Los grupos tienen las siguientes responsabilidades:

  • El grupo de ingenieros de MLOps desarrolla las plantillas de Terraform que usa el catálogo de servicios. Este equipo proporciona plantillas que muchos modelos usan.
  • El grupo de ingenieros DevOps aprueba las plantillas de Terraform que crea el grupo de desarrolladores de MLOps.
  • El grupo de científicos de datos desarrolla modelos, canalizaciones y los contenedores que las canalizaciones usan. Por lo general, un solo equipo se dedica a compilar un solo modelo.
  • El grupo de ingenieros de datos aprueba el uso de los artefactos que crea el grupo de ciencia de datos.

Estructura de la organización

Este plano usa la estructura organizativa del plano de bases empresarial como base para implementar cargas de trabajo de IA y AA. En el siguiente diagrama, se muestran los proyectos que se agregan a la base para habilitar las cargas de trabajo de IA y AA.

La estructura organizativa del modelo

En la siguiente tabla, se describen los proyectos que usa el plano de IA generativa y AA.

Carpeta Proyecto Descripción

common

prj-c-infra-pipeline

Contiene la canalización de implementación que se usa para compilar los componentes de IA generativa y AA del plano. Para obtener más información, consulta la canalización de infraestructura en el plano de bases empresarial.

prj-c-service-catalog

Contiene la infraestructura que usa el catálogo de servicios para implementar recursos en el entorno interactivo.

development

prj-d-machine-learning

Contiene los componentes para desarrollar un caso de uso de IA y AA en un modo interactivo.

non-production

prj-n-machine-learning

Contiene los componentes para probar y evaluar un caso de uso de IA y AA que se puede implementar en producción.

production

prj-p-machine-learning

Contiene los componentes para implementar un caso de uso de IA y AA en producción.

Redes

El modelo usa la red de VPC compartida creada en el plano de bases empresarial. En el entorno interactivo (de desarrollo), los notebooks de Vertex AI Workbench se implementan en proyectos de servicio. Los usuarios locales pueden acceder a los proyectos mediante el espacio de direcciones IP privadas en la red de VPC compartida. Los usuarios locales pueden acceder a las APIs de Google Cloud, como Cloud Storage, a través de Private Service Connect. Cada red de VPC compartida (desarrollo, no producción y producción) tiene un extremo de Private Service Connect distinto.

La red del plano

El entorno operativo (el de no producción y el de producción) tiene dos redes de VPC compartidas distintas a las que los recursos locales pueden acceder a través de direcciones IP privadas. Los entornos interactivos y operativos están protegidos mediante los Controles del servicio de VPC.

Cloud Logging

Este plano usa las capacidades de Cloud Logging que proporciona el plano de base empresarial.

Cloud Monitoring

Para supervisar trabajos de entrenamiento personalizados, el plano incluye un panel que te permite supervisar las siguientes métricas:

  • Uso de CPU de cada nodo de entrenamiento
  • Uso de memoria de cada nodo de entrenamiento
  • Uso de red

Si un trabajo de entrenamiento personalizado falló, el plano usa Cloud Monitoring para proporcionarte un mecanismo de alerta por correo electrónico a fin de notificarte sobre la falla. Para la supervisión de modelos implementados que usan el extremo de Vertex AI, el plano viene con un panel que tiene las siguientes métricas:

  • Métricas de rendimiento:
    • Predicciones por segundo
    • Latencia del modelo
  • Uso de recursos:
    • Uso de CPU
    • Uso de memoria

Configuración de las políticas de la organización

Además de las políticas de la organización creadas por el plano de base empresarial, este plano agrega las políticas de la organización que se enumeran en Postura predefinida para una IA segura, extendida.

Operaciones

En esta sección, se describen los entornos que se incluyen en el plano.

Entorno interactivo

Para permitirte explorar datos y desarrollar modelos mientras mantienes la postura de seguridad de tu organización, el entorno interactivo te proporciona un conjunto controlado de acciones que puedes realizar. Puedes implementar recursos de Google Cloud mediante uno de los siguientes métodos:

  • Con el Catálogo de servicios, que se preconfigura a través de la automatización con plantillas de recursos
  • Compilando artefactos de código y confirmarlos en repositorios de Git con notebooks de Vertex AI Workbench

En el siguiente diagrama, se muestra el entorno interactivo.

El entorno interactivo del plano.

Un flujo interactivo típico tiene los siguientes pasos y componentes asociados:

  1. El Catálogo de servicios proporciona una lista seleccionada de recursos de Google Cloud que los científicos de datos pueden implementar en el entorno interactivo. Los científicos de datos implementan el recurso de notebook de Vertex AI Workbench desde el Catálogo de servicios.
  2. Los notebooks de Vertex AI Workbench son la interfaz principal que usan los científicos de datos para trabajar con recursos de Google Cloud que se implementan en el entorno interactivo. Los notebooks permiten a los científicos de datos extraer su código de Git y actualizarlo según sea necesario.
  3. Los datos de origen se almacenan fuera del entorno interactivo y se administran por separado de este modelo. Un propietario de los datos controla el acceso a los datos. Los científicos de datos pueden solicitar acceso de lectura a los datos de origen, pero no pueden escribir en ellos.
  4. Los científicos de datos pueden transferir datos de origen al entorno interactivo en recursos creados a través del catálogo de servicios. En el entorno interactivo, los científicos de datos pueden leer, escribir y manipular los datos. Sin embargo, los científicos de datos no pueden transferir datos fuera del entorno interactivo ni otorgar acceso a los recursos que crea el catálogo de servicios. BigQuery almacena datos estructurados y semiestructurados, y Cloud Storage almacena datos no estructurados.
  5. Feature Store proporciona a los científicos de datos acceso de baja latencia a los atributos para el entrenamiento de modelos.
  6. Los científicos de datos entrenan modelos con los trabajos de entrenamiento personalizados de Vertex AI. El plano también usa Vertex AI para el ajuste de hiperparámetros.

  7. Los científicos de datos evalúan los modelos con Vertex AI Experiments y Vertex AI TensorBoard. Vertex AI Experiments te permite ejecutar varios entrenamientos en un modelo mediante diferentes parámetros, técnicas de modelado, arquitecturas y entradas. Vertex AI TensorBoard te permite visualizar y comparar los diversos experimentos que ejecutaste, y hacer un seguimiento de ellos y, luego, elegir el modelo con las mejores características observadas para validar.

  8. Los científicos de datos validan sus modelos con la evaluación de Vertex AI. Para validar sus modelos, los científicos de datos dividen los datos de origen en un conjunto de datos de entrenamiento y un conjunto de datos de validación, y ejecutan una evaluación de Vertex AI de tu modelo.

  9. Los científicos de datos compilan contenedores mediante Cloud Build, los almacenan en Artifact Registry y los usan en canalizaciones que se encuentran en el entorno operativo.

Entorno operativo

El entorno operativo usa un repositorio de Git y canalizaciones. Este entorno incluye el entorno de producción y el entorno que no es de producción del plano de bases empresarial. En el entorno que no es de producción, el científico de datos selecciona una canalización de una de las que se desarrollaron en el entorno interactivo. El científico de datos puede ejecutar la canalización en el entorno que no es de producción, evaluar los resultados y, luego, determinar qué modelo promover al entorno de producción.

El plano incluye una canalización de ejemplo que se compiló con Cloud Composer y una canalización de ejemplo que se compiló con Vertex AI Pipelines. En el siguiente diagrama, se muestra el entorno operativo.

El entorno operativo del plano.

Un flujo operativo típico consta de los siguientes pasos:

  1. Un científico de datos combina correctamente una rama de desarrollo con una rama de implementación.
  2. La combinación en la rama de implementación activa una canalización de Cloud Build.
  3. Ocurre uno de los siguientes casos:
    • Si un científico de datos usa Cloud Composer como organizador, la canalización de Cloud Build mueve un DAG a Cloud Storage.
    • Si el científico de datos usa Vertex AI Pipelines como organizador, la canalización mueve un archivo de Python a Cloud Storage.
  4. La canalización de Cloud Build activa el organizador (Cloud Composer o Vertex AI Pipelines).
  5. El orquestador extrae su definición de canalización desde Cloud Storage y comienza a ejecutarla.
  6. La canalización extrae un contenedor de Artifact Registry que usan todas las etapas de la canalización para activar los servicios de Vertex AI.
  7. La canalización usa el contenedor y activa una transferencia de datos desde el proyecto de datos de origen hacia entorno operativo.
  8. La canalización transforma, valida, divide y prepara los datos para el entrenamiento y la validación del modelo.
  9. Si es necesario, la canalización traslada los datos a Vertex AI Feature Store para facilitar el acceso durante el entrenamiento del modelo.
  10. La canalización usa el entrenamiento de modelos personalizados de Vertex AI para entrenar el modelo.
  11. La canalización usa la evaluación de Vertex AI para validar el modelo.
  12. La canalización importa un modelo validado a Model Registry.
  13. Luego, el modelo importado se usa para generar predicciones a través de predicciones en línea o predicciones por lotes.
  14. Después de implementar el modelo en el entorno de producción, la canalización usa Vertex AI Model Monitoring para detectar si el rendimiento del modelo se degrada mediante la supervisión del sesgo del entrenamiento y del desvío de predicción.

Implementación

El plano usa una serie de canalizaciones de Cloud Build para aprovisionar la infraestructura del plano, la canalización en el entorno operativo y los contenedores usados a fin de crear modelos de AA y IA generativa. Las canalizaciones usadas y los recursos aprovisionados son los siguientes:

  • Canalización de infraestructura: Esta canalización forma parte del modelo de referencia de la base empresarial. Esta canalización aprovisiona los recursos de Google Cloud asociados con el entorno interactivo y el entorno operativo.
  • Canalización interactiva: La canalización interactiva forma parte del entorno interactivo. Esta canalización copia las plantillas de Terraform de un repositorio de Git a un bucket de Cloud Storage que el catálogo de servicios puede leer. La canalización interactiva se activa cuando se realiza una solicitud de extracción para combinarla con la rama principal.
  • Canalización de contenedores: El plano incluye una canalización de Cloud Build para compilar contenedores que se usan en la canalización operativa. Los contenedores que se implementan en distintos entornos son imágenes de contenedor inmutables. Las imágenes de contenedor inmutables ayudan a garantizar que la misma imagen se implemente en todos los entornos y no se pueda modificar mientras se ejecutan. Si necesitas modificar la aplicación, debes volver a crear e implementar la imagen. Las imágenes de contenedor que se usan en el plano se almacenan en Artifact Registry y se hace referencia a ellas en los archivos de configuración que se usan en la canalización operativa.
  • Canalización operativa: La canalización operativa forma parte del entorno operativo. Esta canalización copia los DAG para Cloud Composer o Vertex AI Pipelines, que luego se usan a fin de compilar, probar e implementar modelos.

Catálogo de servicios

Con el catálogo de servicios, los desarrolladores y administradores de la nube logran que los usuarios empresariales internos usen sus soluciones. Los módulos de Terraform en el catálogo de servicios se compilan y publican como artefactos en el bucket de Cloud Storage con la canalización de CI/CD de Cloud Build. Después de copiar los módulos en el bucket, los desarrolladores pueden usarlos para crear soluciones de Terraform en la página de administrador del catálogo de servicios, agregar las soluciones al catálogo de servicios y compartir las soluciones con proyectos de entorno interactivos para que usuarios pueden implementar los recursos.

El entorno interactivo usa el catálogo de servicios para permitir que los científicos de datos implementen recursos de Google Cloud de una manera que cumpla con la postura de seguridad de su empresa. Cuando se desarrolla un modelo que requiere recursos de Google Cloud, como un bucket de Cloud Storage, el científico de datos selecciona el recurso del catálogo de servicios, lo configura y lo implementa en el entorno interactivo. El catálogo de servicios contiene plantillas preconfiguradas para varios recursos de Google Cloud que los científicos de datos pueden implementar en el entorno interactivo. Los científicos de datos no pueden alterar las plantillas de recursos, pero pueden configurar los recursos a través de las variables de configuración que expone la plantilla. En el siguiente diagrama, se muestra la estructura de cómo se relacionan el catálogo de servicios y el entorno interactivo.

El catálogo del plano.

Los científicos de datos implementan recursos mediante el catálogo de servicios, como se describe en los siguientes pasos:

  1. El ingeniero de MLOps coloca una plantilla de recursos de Terraform para Google Cloud en un repositorio de Git.
  2. La confirmación a Git activa una canalización de Cloud Build.
  3. Cloud Build copia la plantilla y los archivos de configuración asociados en Cloud Storage.
  4. El ingeniero de operaciones de MLOps configura el catálogo de servicios y las soluciones de este de forma manual. Luego, el ingeniero comparte el catálogo de servicios con un proyecto de servicio en el entorno interactivo.
  5. El científico de datos selecciona un recurso del catálogo de servicios.
  6. El catálogo de servicios implementa la plantilla en el entorno interactivo.
  7. El recurso extrae todas las secuencias de comandos de configuración necesarias.
  8. El científico de datos interactúa con los recursos.

Repositorios

Las canalizaciones descritas en Implementación se activan mediante cambios en el repositorio correspondiente. Para garantizar que nadie pueda realizar cambios independientes en el entorno de producción, existe una separación de responsabilidades entre los usuarios que pueden enviar código y los que pueden aprobar los cambios de código. En la siguiente tabla, se describen los repositorios de planos, y sus remitentes y responsables de aprobación.

Repositorio Canalización Descripción Remitente Responsable de aprobación

ml-foundation

Infraestructura
Contiene el código de Terraform para el plano de AA y IA generativa que crea los entornos interactivos y operativos. Ingeniero de MLOps Ingeniero DevOps

service-catalog

Interactivo Contiene las plantillas para los recursos que puede implementar el catálogo de servicios. Ingeniero de MLOps Ingeniero DevOps

artifact-publish

Contenedor Contiene los contenedores que pueden usar las canalizaciones en el entorno operativo. Científico de datos Ingeniero de datos

machine-learning

Operacional Contiene el código fuente que pueden usar las canalizaciones en el entorno operativo. Científico de datos Ingeniero de datos

Estrategia de ramificación

El plano usa la ramificación persistente para implementar código en el entorno asociado. El plano usa tres ramas (desarrollo, no producción y producción) que reflejan los entornos correspondientes.

Controles de seguridad

El plano de AA y IA generativa empresarial usa un modelo de seguridad de defensa en profundidad en capas que usa las funciones predeterminadas de Google Cloud, los servicios de Google Cloud y las capacidades de seguridad que se configuran a través del plano de base empresarial. En el siguiente diagrama, se muestran las capas de los diversos controles de seguridad del plano.

Los controles de seguridad del plano

Las funciones de las capas son las siguientes:

  • Interfaz: Proporciona a los científicos de datos servicios que les permiten interactuar con el esquema de manera controlada.
  • Implementación: Proporciona una serie de canalizaciones que implementan infraestructura, compilan contenedores y crean modelos. El uso de canalizaciones permite la auditabilidad, la trazabilidad y la repetibilidad.
  • Herramientas de redes: Proporciona protecciones contra el robo de datos en torno a los recursos del plano en la capa de la API y la capa de IP.
  • Administración de acceso: controla quién puede acceder a qué recursos y ayuda a evitar el uso no autorizado de los recursos.
  • Encriptación: te permite controlar tus claves de encriptación y los Secrets, y ayudar a proteger tus datos a través de la encriptación en reposo y en tránsito predeterminada.
  • Detección: Te ayuda a detectar parámetros de configuración incorrectos y actividad maliciosa.
  • Prevención: Te proporciona los medios para controlar y restringir la forma en que se implementa tu infraestructura.

En la siguiente tabla, se describen los controles de seguridad asociados con cada capa.

Capa Recurso Control de seguridad
Interfaz Vertex AI Workbench Proporciona una experiencia de notebook administrada que incorpora control de acceso de usuarios, control de acceso a la red, control de acceso de IAM y descargas de archivos inhabilitadas. Estas funciones permiten una experiencia del usuario más segura.
Repositorios de Git Proporciona control de acceso de usuarios para proteger tus repositorios.
Catálogo de servicios Proporciona a los científicos de datos una lista seleccionada de recursos que solo se pueden implementar en configuraciones aprobadas.
Implementación Canalización de infraestructura Proporciona un flujo seguro para implementar la infraestructura del plano mediante el uso de Terraform.
Canalización interactiva Proporciona un flujo seguro para transferir plantillas de un repositorio de Git a un bucket dentro de tu organización de Google Cloud.
Canalización de contenedores Proporciona un flujo seguro para compilar contenedores que usa la canalización operativa.
Canalización operativa Proporciona un flujo controlado para entrenar, probar, validar e implementar modelos.
Artifact Registry Almacena imágenes de contenedores de forma segura con el control de acceso a los recursos
Red Private Service Connect Te permite comunicarte con las APIs de Google Cloud mediante direcciones IP privadas para que puedas evitar exponer el tráfico a Internet.
VPC con direcciones IP privadas El plano usa VPC con direcciones IP privadas para ayudar a eliminar la exposición a las amenazas orientadas a Internet.
Controles del servicio de VPC Ayuda a proteger los recursos resguardados contra el robo de datos.
Firewall Ayuda a proteger la red de VPC contra el acceso no autorizado.
Administración de acceso Cloud Identity Proporciona una administración de usuarios centralizada, lo que reduce el riesgo de acceso no autorizado.
IAM Proporciona un control detallado de quién puede hacer qué en qué recursos, lo que habilita el privilegio mínimo en la administración de accesos.
Encriptación Cloud KMS Te permite controlar las claves de encriptación que se usan en tu organización de Google Cloud.
Secret Manager Proporciona un almacén de secretos que controla IAM para tus modelos.
Encriptación en reposo De forma predeterminada, Google Cloud encripta los datos en reposo.
Encriptación en tránsito De forma predeterminada, Google Cloud encripta los datos en tránsito.
De detección Security Command Center Proporciona detectores de amenazas que ayudan a proteger tu organización de Google Cloud.
Arquitectura continua Verifica de forma continua tu organización de Google Cloud en función de una serie de políticas de Open Policy Agent (OPA) que hayas definido.
Recomendador de IAM Analiza los permisos del usuario y proporciona sugerencias sobre la reducción de permisos para ayudar a aplicar el principio de privilegio mínimo.
Estadísticas de firewall Analiza las reglas de firewall, identifica reglas de firewall demasiado permisivas y sugiere firewalls más restrictivos para ayudarte a fortalecer tu postura de seguridad general.
Cloud Logging Proporciona visibilidad de la actividad del sistema y ayuda a habilitar la detección de anomalías y actividad maliciosa.
Cloud Monitoring Realiza un seguimiento de los indicadores y eventos clave que pueden ayudar a identificar actividad sospechosa.
Preventivo Servicio de políticas de la organización Te permite restringir acciones dentro de tu organización de Google Cloud.

¿Qué sigue?