Crear y desplegar modelos de IA generativa y aprendizaje automático en una empresa

Last reviewed 2024-03-28 UTC

A medida que los modelos de IA generativa y aprendizaje automático (ML) se vuelven más comunes en las actividades y los procesos empresariales de las empresas, estas necesitan cada vez más orientación sobre el desarrollo de modelos para garantizar la coherencia, la repetibilidad, la seguridad y la protección. Para ayudar a las grandes empresas a crear e implementar modelos de IA generativa y aprendizaje automático, hemos creado el plan de IA generativa y aprendizaje automático para empresas. Este plan te ofrece una guía completa de todo el ciclo de vida del desarrollo de la IA, desde la exploración y la experimentación preliminares de los datos hasta el entrenamiento, el despliegue y la monitorización de los modelos.

El plan de IA generativa y aprendizaje automático para empresas ofrece muchas ventajas, entre las que se incluyen las siguientes:

  • Orientación prescriptiva: instrucciones claras sobre cómo crear, configurar y desplegar un entorno de desarrollo de IA generativa y aprendizaje automático basado en Vertex AI. Puedes usar Vertex AI para desarrollar tus propios modelos.
  • Mayor eficiencia: automatización exhaustiva para reducir el trabajo pesado que supone desplegar la infraestructura y desarrollar modelos de IA generativa y aprendizaje automático. La automatización te permite centrarte en tareas de valor añadido, como el diseño y la experimentación de modelos.
  • Gobernanza y auditabilidad mejoradas: la reproducibilidad, la trazabilidad y la implementación controlada de modelos se incorporan al diseño de este plan. Esta ventaja te permite gestionar mejor el ciclo de vida de tus modelos de IA generativa y aprendizaje automático, así como volver a entrenar y evaluar modelos de forma coherente, con registros de auditoría claros.
  • Seguridad: el plan se ha diseñado para que se ajuste a los requisitos del framework del Instituto Nacional de Normas y Tecnología (NIST) y del framework del Instituto de Riesgos Cibernéticos (CRI).

El plan de IA generativa y aprendizaje automático para empresas incluye lo siguiente:

  • Un repositorio de GitHub que contiene un conjunto de configuraciones de Terraform, un cuaderno de Jupyter, una definición de Vertex AI Pipelines, un gráfico acíclico dirigido (DAG) de Cloud Composer y secuencias de comandos auxiliares. Los componentes del repositorio hacen lo siguiente:
    • La configuración de Terraform configura una plataforma de desarrollo de modelos de Vertex AI que puede admitir varios equipos de desarrollo de modelos.
    • El cuaderno de Jupyter te permite desarrollar un modelo de forma interactiva.
    • La definición de Vertex AI Pipelines traduce el cuaderno de Jupyter en un patrón reproducible que se puede usar en entornos de producción.
    • El DAG de Cloud Composer ofrece un método alternativo a Vertex AI Pipelines.
    • Las secuencias de comandos auxiliares ayudan a desplegar el código y las pipelines de Terraform.
  • Una guía sobre la arquitectura, el diseño, los controles de seguridad y los procesos operativos que se utilizan en este plano técnico (este documento).

El plano de IA generativa y aprendizaje automático para empresas se ha diseñado para que sea compatible con el plano de aspectos básicos de las empresas. El plano de aspectos básicos de las empresas proporciona una serie de servicios básicos en los que se basa este plano, como las redes de VPC. Puedes implementar el plan de IA generativa y aprendizaje automático para empresas sin implementar el plan de bases para empresas si tu Google Cloud entorno proporciona las funciones necesarias para admitir el plan de IA generativa y aprendizaje automático para empresas.

Este documento está dirigido a arquitectos de la nube, científicos de datos e ingenieros de datos que pueden usar el plano para crear e implementar nuevos modelos de IA generativa o de aprendizaje automático en Google Cloud. En este documento se da por hecho que conoces el desarrollo de modelos de IA generativa y aprendizaje automático y la plataforma de aprendizaje automático Vertex AI.

Para obtener una descripción general de los principios y las recomendaciones de arquitectura específicos de las cargas de trabajo de IA y aprendizaje automático en Google Cloud, consulta la sección Perspectiva de IA y aprendizaje automático del framework Well-Architected.

Descripción general del plan de IA generativa y aprendizaje automático para empresas

El plan de IA generativa y aprendizaje automático para empresas se basa en un enfoque por capas para proporcionar las funciones que permiten entrenar modelos de IA generativa y de aprendizaje automático. El blueprint se debe desplegar y controlar mediante un flujo de trabajo de operaciones de aprendizaje automático (MLOps). En el siguiente diagrama se muestra cómo se relaciona la capa de MLOps implementada por este blueprint con otras capas de tu entorno.

Las capas del plano.

Este diagrama incluye lo siguiente:

  • La Google Cloud infraestructura te ofrece funciones de seguridad como el cifrado en reposo y el cifrado en tránsito, así como componentes básicos como la computación y el almacenamiento.
  • La base empresarial te proporciona un conjunto de recursos básicos, como sistemas de identidad, redes, registro, monitorización e implementación, que te permiten adoptar Google Cloud para tus cargas de trabajo de IA.
  • La capa de datos es una capa opcional de la pila de desarrollo que te ofrece varias funciones, como la ingestión, el almacenamiento, el control de acceso, la gobernanza, la monitorización y el uso compartido de datos.
  • La capa de IA generativa y aprendizaje automático (este plano) te permite crear e implementar modelos. Puedes usar esta capa para explorar y experimentar con los datos preliminares, entrenar modelos, ofrecer modelos y monitorizarlos.
  • CI/CD te proporciona las herramientas para automatizar el aprovisionamiento, la configuración, la gestión y la implementación de la infraestructura, los flujos de trabajo y los componentes de software. Estos componentes te ayudan a garantizar que las implementaciones sean coherentes, fiables y auditables, a minimizar los errores manuales y a acelerar el ciclo de desarrollo en general.

Para mostrar cómo se usa el entorno de IA generativa y aprendizaje automático, el plano incluye un ejemplo de desarrollo de un modelo de aprendizaje automático. En el desarrollo del modelo de ejemplo se explica cómo crear un modelo, crear flujos de trabajo operativos, entrenar el modelo, probarlo y desplegarlo.

Arquitectura

El plan de IA generativa y aprendizaje automático para empresas te permite trabajar directamente con los datos. Puedes crear modelos en un entorno interactivo (de desarrollo) y promoverlos a un entorno operativo (de producción o no de producción).

En el entorno interactivo, puedes desarrollar modelos de aprendizaje automático con Vertex AI Workbench, un servicio de Jupyter Notebook gestionado por Google. Puedes crear funciones de extracción de datos, transformación de datos y ajuste de modelos en el entorno interactivo y promoverlas al entorno operativo.

En el entorno operativo (no de producción), usas flujos de trabajo para compilar y probar sus modelos de forma repetible y controlable. Cuando estés satisfecho con el rendimiento del modelo, podrás desplegarlo en el entorno operativo (de producción). En el siguiente diagrama se muestran los distintos componentes de los entornos interactivo y operativo.

La arquitectura del plano.

Este diagrama incluye lo siguiente:

  1. Sistemas de implementación: servicios como Service Catalog y Cloud Build implementan recursos en el entorno interactivo. Google Cloud Cloud Build también despliega Google Cloud recursos y flujos de trabajo de creación de modelos en el entorno operativo.
  2. Fuentes de datos: servicios como BigQuery, Cloud Storage, Spanner y AlloyDB para PostgreSQL alojan tus datos. El blueprint proporciona datos de ejemplo en BigQuery y Cloud Storage.
  3. Entorno interactivo: entorno en el que puedes interactuar directamente con los datos, experimentar con modelos y crear flujos de trabajo para usarlos en el entorno operativo.
  4. Entorno operativo: entorno en el que puedes crear y probar tus modelos de forma repetible y, a continuación, desplegarlos en producción.
  5. Servicios de modelos: los siguientes servicios admiten varias actividades de MLOps:
  6. Almacenamiento de artefactos: estos servicios almacenan el código y los contenedores de tu desarrollo de modelos y tus pipelines. Entre estos servicios se incluyen los siguientes:
    • Artifact Registry almacena los contenedores que usan las canalizaciones en el entorno operativo para controlar las distintas fases del desarrollo del modelo.
    • El repositorio de Git almacena la base de código de los distintos componentes que se usan en el desarrollo del modelo.

Perfiles ficticios de la plataforma

Cuando implementas el blueprint, creas cuatro tipos de grupos de usuarios: un grupo de ingenieros de MLOps, un grupo de ingenieros de DevOps, un grupo de científicos de datos y un grupo de ingenieros de datos. Los grupos tienen las siguientes responsabilidades:

  • El grupo Ingeniero de MLOps desarrolla las plantillas de Terraform que usa el catálogo de servicios. Este equipo proporciona plantillas que usan muchos modelos.
  • El grupo Ingeniero de DevOps aprueba las plantillas de Terraform que crea el grupo de desarrolladores de MLOps.
  • El grupo Científico de datos desarrolla modelos, flujos de procesamiento y los contenedores que utilizan los flujos de procesamiento. Normalmente, un solo equipo se dedica a crear un único modelo.
  • El grupo Ingeniero de datos aprueba el uso de los artefactos que crea el grupo de ciencia de datos.

Estructura de la organización

Este plano técnico usa la estructura organizativa del plano técnico de la base de la empresa como base para implementar cargas de trabajo de IA y aprendizaje automático. En el siguiente diagrama se muestran los proyectos que se añaden a la base para habilitar las cargas de trabajo de IA y aprendizaje automático.

La estructura organizativa del plan.

En la siguiente tabla se describen los proyectos que se usan en el blueprint de IA generativa y aprendizaje automático.

Carpeta Proyecto Descripción

common

prj-c-infra-pipeline

Contiene la canalización de implementación que se usa para desarrollar los componentes de IA generativa y aprendizaje automático del plano. Para obtener más información, consulta la pipeline de infraestructura en el blueprint de la base de la empresa.

prj-c-service-catalog

Contiene la infraestructura que usa el catálogo de servicios para desplegar recursos en el entorno interactivo.

development

prj-d-machine-learning

Contiene los componentes para desarrollar un caso práctico de IA y aprendizaje automático en modo interactivo.

non-production

prj-n-machine-learning

Contiene los componentes para probar y evaluar un caso práctico de IA y aprendizaje automático que se puede implementar en producción.

production

prj-p-machine-learning

Contiene los componentes para implementar un caso práctico de IA y aprendizaje automático en producción.

Redes

El blueprint usa la red de VPC compartida creada en el blueprint de la base de la empresa. En el entorno interactivo (de desarrollo), los cuadernos de Vertex AI Workbench se implementan en proyectos de servicio. Los usuarios locales pueden acceder a los proyectos mediante el espacio de direcciones IP privadas de la red de VPC compartida. Los usuarios on-premise pueden acceder a las APIs de Google Cloud, como Cloud Storage, a través de Private Service Connect. Cada red de VPC compartida (desarrollo, no producción y producción) tiene un endpoint de Private Service Connect distinto.

La red de planos.

El entorno operativo (de preproducción y de producción) tiene dos redes de VPC compartidas independientes a las que los recursos on-premise pueden acceder mediante direcciones IP privadas. Los entornos interactivo y operativo están protegidos con Controles de Servicio de VPC.

Cloud Logging

Este plano usa las funciones de Cloud Logging que proporciona el plano de los fundamentos para empresas.

Cloud Monitoring

Para monitorizar tareas de entrenamiento personalizadas, el blueprint incluye un panel de control que te permite monitorizar las siguientes métricas:

  • Uso de CPU de cada nodo de entrenamiento
  • Utilización de memoria de cada nodo de entrenamiento
  • Uso de red

Si una tarea de entrenamiento personalizada ha fallado, el blueprint usa Cloud Monitoring para proporcionarte un mecanismo de alerta por correo electrónico que te avise del fallo. Para monitorizar los modelos desplegados que usan el endpoint de Vertex AI, el blueprint incluye un panel de control con las siguientes métricas:

  • Métricas de rendimiento:
    • Predicciones por segundo
    • Latencia del modelo
  • Uso de recursos:
    • Uso de CPU
    • Uso de memoria

Configuración de la política de la organización

Además de las políticas de la organización creadas por el blueprint de la base de la empresa, este blueprint añade las políticas de la organización que se indican en la postura predefinida para una IA segura y ampliada.

Operaciones

En esta sección se describen los entornos que se incluyen en el plan.

Entorno interactivo

Para que puedas explorar los datos y desarrollar modelos sin dejar de mantener la postura de seguridad de tu organización, el entorno interactivo te ofrece un conjunto controlado de acciones que puedes llevar a cabo. Puedes implementar recursos Google Cloud con uno de los siguientes métodos:

  • Usando el catálogo de servicios, que se preconfigura mediante la automatización con plantillas de recursos
  • Crear artefactos de código y confirmarlos en repositorios de Git con cuadernos de Vertex AI Workbench

En el siguiente diagrama se muestra el entorno interactivo.

El entorno interactivo de Blueprint.

Un flujo interactivo típico tiene los siguientes pasos y componentes asociados:

  1. El catálogo de servicios proporciona una lista seleccionada deGoogle Cloud recursos que los científicos de datos pueden desplegar en el entorno interactivo. El científico de datos despliega el recurso de cuaderno de Vertex AI Workbench desde el catálogo de servicios.
  2. Los cuadernos de Vertex AI Workbench son la interfaz principal que usan los científicos de datos para trabajar con Google Cloud recursos que se despliegan en el entorno interactivo. Los cuadernos permiten a los científicos de datos extraer su código de Git y actualizarlo según sea necesario.
  3. Los datos de origen se almacenan fuera del entorno interactivo y se gestionan por separado de este plano. El acceso a los datos lo controla un propietario de los datos. Los científicos de datos pueden solicitar acceso de lectura a los datos de origen, pero no pueden escribir en ellos.
  4. Los científicos de datos pueden transferir datos de origen al entorno interactivo en recursos creados a través del catálogo de servicios. En el entorno interactivo, los científicos de datos pueden leer, escribir y manipular los datos. Sin embargo, los científicos de datos no pueden transferir datos fuera del entorno interactivo ni conceder acceso a los recursos creados por el catálogo de servicios. BigQuery almacena datos estructurados y semiestructurados, mientras que Cloud Storage almacena datos sin estructurar.
  5. Feature Store proporciona a los científicos de datos acceso de baja latencia a las funciones para entrenar modelos.
  6. Los científicos de datos entrenan modelos con trabajos de entrenamiento personalizados de Vertex AI. El blueprint también usa Vertex AI para el ajuste de hiperparámetros.

  7. Los científicos de datos evalúan los modelos mediante Vertex AI Experiments y Vertex AI TensorBoard. Vertex AI Experiments te permite ejecutar varios entrenamientos en un modelo con diferentes parámetros, técnicas de modelización, arquitecturas y entradas. Vertex AI TensorBoard te permite monitorizar, visualizar y comparar los distintos experimentos que has realizado y, a continuación, elegir el modelo con las mejores características observadas para validarlo.

  8. Los científicos de datos validan sus modelos con Vertex AI Evaluation. Para validar sus modelos, los científicos de datos dividen los datos de origen en un conjunto de datos de entrenamiento y un conjunto de datos de validación, y ejecutan una evaluación de Vertex AI en el modelo.

  9. Los científicos de datos crean contenedores con Cloud Build, los almacenan en Artifact Registry y los usan en las canalizaciones que se encuentran en el entorno operativo.

Entorno operativo

El entorno operativo usa un repositorio de Git y pipelines. Este entorno incluye el entorno de producción y el entorno que no es de producción del blueprint de la base de la empresa. En el entorno que no es de producción, el científico de datos selecciona un flujo de uno de los flujos que se han desarrollado en el entorno interactivo. El científico de datos puede ejecutar la canalización en el entorno de no producción, evaluar los resultados y, a continuación, determinar qué modelo se va a promocionar al entorno de producción.

El blueprint incluye una canalización de ejemplo creada con Cloud Composer y otra creada con Vertex AI Pipelines. En el diagrama siguiente se muestra el entorno operativo.

El entorno operativo del plan.

Un flujo de operaciones típico consta de los siguientes pasos:

  1. Un científico de datos combina correctamente una rama de desarrollo en una rama de implementación.
  2. La combinación en la rama de implementación activa una pipeline de Cloud Build.
  3. Se produce uno de los siguientes casos:
    • Si un científico de datos usa Cloud Composer como orquestador, la canalización de Cloud Build mueve un DAG a Cloud Storage.
    • Si el científico de datos usa Vertex AI Pipelines como orquestador, la canalización mueve un archivo de Python a Cloud Storage.
  4. El flujo de procesamiento de Cloud Build activa el orquestador (Cloud Composer o Vertex AI Pipelines).
  5. El orquestador extrae su definición de flujo de Cloud Storage y empieza a ejecutar el flujo.
  6. La canalización extrae un contenedor de Artifact Registry que usan todas las fases de la canalización para activar los servicios de Vertex AI.
  7. El flujo de procesamiento, que usa el contenedor, activa una transferencia de datos desde el proyecto de datos de origen al entorno operativo.
  8. La canalización transforma, valida, divide y prepara los datos para el entrenamiento y la validación de modelos.
  9. Si es necesario, la canalización mueve los datos a Vertex AI Feature Store para que se pueda acceder a ellos fácilmente durante el entrenamiento del modelo.
  10. La canalización usa el entrenamiento de modelos personalizados de Vertex AI para entrenar el modelo.
  11. La canalización usa la evaluación de Vertex AI para validar el modelo.
  12. La canalización importa al registro de modelos un modelo validado.
  13. El modelo importado se usa para generar predicciones mediante predicciones online o predicciones por lotes.
  14. Una vez que el modelo se ha desplegado en el entorno de producción, la canalización usa Vertex AI Model Monitoring para detectar si el rendimiento del modelo se degrada monitorizando el sesgo de entrenamiento-servicio y la deriva de las predicciones.

Implementación

El plano técnico usa una serie de flujos de trabajo de Cloud Build para aprovisionar la infraestructura del plano técnico, el flujo de trabajo del entorno operativo y los contenedores que se usan para crear modelos de IA generativa y aprendizaje automático. Las canalizaciones usadas y los recursos aprovisionados son los siguientes:

  • Pipeline de infraestructura: este pipeline forma parte del plano de los fundamentos de la empresa. Esta canalización proporciona los Google Cloud recursos asociados al entorno interactivo y al entorno operativo.
  • Proceso interactivo: el proceso interactivo forma parte del entorno interactivo. Esta canalización copia plantillas de Terraform de un repositorio de Git en un segmento de Cloud Storage que puede leer Service Catalog. La canalización interactiva se activa cuando se hace una solicitud de extracción para combinarla con la rama principal.
  • Pipeline de contenedores: el blueprint incluye un pipeline de Cloud Build para compilar los contenedores que se usan en el pipeline operativo. Los contenedores que se despliegan en distintos entornos son imágenes de contenedor inmutables. Las imágenes de contenedor inmutables ayudan a asegurar que la misma imagen se despliegue en todos los entornos y no se pueda modificar mientras se ejecuta. Si necesitas modificar la aplicación, debes volver a compilar y desplegar la imagen. Las imágenes de contenedor que se usan en el plano se almacenan en Artifact Registry y se hace referencia a ellas en los archivos de configuración que se usan en la canalización operativa.
  • Pipeline operativo: el pipeline operativo forma parte del entorno operativo. Este flujo de procesamiento copia los DAGs de Cloud Composer o Vertex AI Pipelines, que se usan para crear, probar e implementar modelos.

Catálogo de servicios

El catálogo de servicios permite a los desarrolladores y administradores de la nube hacer que sus soluciones puedan usarlas los usuarios internos de la empresa. Los módulos de Terraform de Service Catalog se compilan y se publican como artefactos en el segmento de Cloud Storage con el flujo de procesamiento de CI/CD de Cloud Build. Una vez que los módulos se hayan copiado en el contenedor, los desarrolladores podrán usarlos para crear soluciones de Terraform en la página Administrar de Service Catalog, añadir las soluciones a Service Catalog y compartirlas con proyectos de entornos interactivos para que los usuarios puedan implementar los recursos.

El entorno interactivo usa Service Catalog para permitir que los científicos de datos desplieguen recursos de forma que cumplan los requisitos de seguridad de su empresa. Google Cloud Cuando se desarrolla un modelo que requiere recursos deGoogle Cloud , como un segmento de Cloud Storage, el científico de datos selecciona el recurso del catálogo de servicios, lo configura y lo implementa en el entorno interactivo. Service Catalog contiene plantillas preconfiguradas para varios recursos de Google Cloud que el científico de datos puede desplegar en el entorno interactivo. El científico de datos no puede modificar las plantillas de recursos, pero sí puede configurar los recursos mediante las variables de configuración que expone la plantilla. En el siguiente diagrama se muestra la estructura de la relación entre el catálogo de servicios y el entorno interactivo.

El catálogo de planos.

Los científicos de datos implementan recursos mediante Service Catalog, tal como se describe en los siguientes pasos:

  1. El ingeniero de MLOps coloca una plantilla de recursos de Terraform paraGoogle Cloud en un repositorio de Git.
  2. La confirmación en Git activa una canalización de Cloud Build.
  3. Cloud Build copia la plantilla y los archivos de configuración asociados en Cloud Storage.
  4. El ingeniero de MLOps configura las soluciones del catálogo de servicios y el catálogo de servicios manualmente. A continuación, el ingeniero comparte el catálogo de servicios con un proyecto de servicio en el entorno interactivo.
  5. El científico de datos selecciona un recurso del catálogo de servicios.
  6. Service Catalog implementa la plantilla en el entorno interactivo.
  7. El recurso extrae las secuencias de comandos de configuración necesarias.
  8. El científico de datos interactúa con los recursos.

Repositorios

Los pipelines descritos en Implementación se activan cuando se producen cambios en su repositorio correspondiente. Para asegurarnos de que nadie pueda hacer cambios independientes en el entorno de producción, hemos separado las responsabilidades entre los usuarios que pueden enviar código y los que pueden aprobar los cambios en el código. En la siguiente tabla se describen los repositorios de planos, así como los usuarios que pueden enviar y aprobar planos.

Repositorio Flujo de procesamiento Descripción Remitente Aprobador

ml-foundation

Infraestructura
Contiene el código de Terraform del blueprint de IA generativa y aprendizaje automático que crea los entornos interactivos y operativos. Ingeniero de MLOps Ingeniero de DevOps

service-catalog

Interactivo Contiene las plantillas de los recursos que puede desplegar el catálogo de servicios. Ingeniero de MLOps Ingeniero de DevOps

artifact-publish

Container Contiene los contenedores que pueden usar las canalizaciones del entorno operativo. Científico de datos Ingeniero de datos

machine-learning

Gastos Contiene el código fuente que pueden usar las canalizaciones del entorno operativo. Científico de datos Ingeniero de datos

Estrategia de ramificación

El blueprint usa ramificaciones persistentes para implementar el código en el entorno asociado. El plan usa tres ramas (desarrollo, no producción y producción) que reflejan los entornos correspondientes.

Controles de seguridad

El plan de IA generativa y aprendizaje automático para empresas usa un modelo de seguridad de defensa en profundidad por capas que utiliza funciones, servicios y funciones de seguridad predeterminados Google Cloud Google Cloud que se configuran mediante el plan de aspectos básicos de seguridad para empresas. En el siguiente diagrama se muestra la superposición de los distintos controles de seguridad del plano.

Los controles de seguridad del plano.

Las funciones de las capas son las siguientes:

  • Interfaz: proporciona a los científicos de datos servicios que les permiten interactuar con el plano de forma controlada.
  • Despliegue: proporciona una serie de pipelines que despliegan infraestructura, compilan contenedores y crean modelos. El uso de las canalizaciones permite la auditabilidad, la trazabilidad y la repetibilidad.
  • Redes: ofrece protección contra la filtración de datos en los recursos de planos en la capa de API y en la capa de IP.
  • Gestión de acceso: controla quién puede acceder a qué recursos y ayuda a evitar el uso no autorizado de tus recursos.
  • Encriptado: te permite controlar tus claves de encriptado y secretos, así como proteger tus datos mediante el encriptado predeterminado en reposo y en tránsito.
  • Detective: te ayuda a detectar configuraciones incorrectas y actividades maliciosas.
  • Preventivo: te proporciona los medios para controlar y restringir cómo se implementa tu infraestructura.

En la siguiente tabla se describen los controles de seguridad asociados a cada capa.

Layer Recurso Control de seguridad
Interfaz Vertex AI Workbench Proporciona una experiencia de cuaderno gestionado que incorpora control de acceso de usuarios, control de acceso a la red, control de acceso de gestión de identidades y accesos y descargas de archivos inhabilitadas. Estas funciones permiten disfrutar de una experiencia de usuario más segura.
Repositorios de Git Proporciona control de acceso de usuarios para proteger tus repositorios.
Catálogo de servicios Proporciona a los científicos de datos una lista seleccionada de recursos que solo se pueden implementar en configuraciones aprobadas.
Implementación Pipeline de infraestructura Proporciona un flujo seguro para desplegar la infraestructura del plano técnico mediante Terraform.
Flujo de procesamiento interactivo Proporciona un flujo seguro para transferir plantillas de un repositorio de Git a un contenedor de tu organización de Google Cloud .
Canal de contenedores Proporciona un flujo seguro para crear contenedores que utiliza el flujo de procesamiento operativo.
Flujo de procesamiento operativo Proporciona un flujo controlado para entrenar, probar, validar y desplegar modelos.
Artifact Registry Almacena imágenes de contenedor de forma segura mediante el control de acceso a los recursos.
Red Private Service Connect Te permite comunicarte con las APIs de Google Cloud mediante direcciones IP privadas para evitar exponer el tráfico a Internet.
VPC con direcciones IP privadas El plano técnico usa VPCs con direcciones IP privadas para ayudar a eliminar la exposición a amenazas de Internet.
Controles de Servicio de VPC Ayuda a proteger los recursos protegidos contra la filtración externa de datos.
Cortafuegos Ayuda a proteger la red de VPC frente a accesos no autorizados.
Gestión de accesos Cloud Identity Proporciona una gestión de usuarios centralizada, lo que reduce el riesgo de acceso no autorizado.
Gestión de identidades y accesos Proporciona un control pormenorizado de quién puede hacer qué en cada recurso, lo que permite aplicar el principio de los mínimos accesos en la gestión de acceso.
Cifrado Cloud KMS Te permite controlar las claves de cifrado que se usan en tu organizaciónGoogle Cloud .
Secret Manager Proporciona un almacén de secretos para tus modelos controlado por IAM.
Encriptado en reposo De forma predeterminada, Google Cloud cifra los datos en reposo.
Encriptado en tránsito De forma predeterminada, Google Cloud cifra los datos en tránsito.
De detección Security Command Center Proporciona detectores de amenazas que ayudan a proteger tu Google Cloud organización.
Arquitectura continua Comprueba continuamente tu Google Cloud organización con una serie de políticas de Open Policy Agent (OPA) que hayas definido.
Recomendador de IAM Analiza los permisos de los usuarios y ofrece sugerencias sobre cómo reducir los permisos para aplicar el principio de mínimos accesos.
Firewall Insights Analiza las reglas de cortafuegos, identifica las que son demasiado permisivas y sugiere cortafuegos más restrictivos para ayudarte a reforzar tu nivel de seguridad general.
Cloud Logging Ofrece visibilidad sobre la actividad del sistema y ayuda a detectar anomalías y actividades maliciosas.
Cloud Monitoring Monitoriza las señales y los eventos clave que pueden ayudar a identificar actividad sospechosa.
Preventivo Servicio de política de organización Te permite restringir las acciones en tu Google Cloud organización.

Siguientes pasos