Crea ed esegui il deployment di modelli di IA generativa e machine learning in un'azienda

Last reviewed 2024-03-28 UTC

Man mano che i modelli di AI generativa e machine learning (ML) diventano più comuni nelle attività e nei processi aziendali delle imprese, queste hanno sempre più bisogno di indicazioni sullo sviluppo dei modelli per garantire coerenza, ripetibilità, sicurezza e protezione. Per aiutare le grandi aziende a creare e implementare modelli di AI generativa e ML, abbiamo creato il progetto base per l'AI generativa e il machine learning aziendale. Questo progetto fornisce una guida completa all'intero ciclo di vita dello sviluppo dell'AI, dall'esplorazione e sperimentazione preliminari dei dati all'addestramento, al deployment e al monitoraggio del modello.

Il blueprint per l'AI generativa e il ML aziendali offre molti vantaggi, tra cui:

  • Indicazioni prescrittive:indicazioni chiare su come creare, configurare ed eseguire il deployment di un ambiente di sviluppo dell'AI generativa e del ML basato su Vertex AI. Puoi utilizzare Vertex AI per sviluppare i tuoi modelli.
  • Maggiore efficienza:automazione estesa per ridurre il lavoro di deployment dell'infrastruttura e di sviluppo di modelli di AI generativa e ML. L'Automation ti consente di concentrarti su attività a valore aggiunto come la progettazione e la sperimentazione di modelli.
  • Governance e controllabilità migliorate: la riproducibilità, la tracciabilità e l'implementazione controllata dei modelli sono incorporate nella progettazione di questo blueprint. Questo vantaggio ti consente di gestire meglio il ciclo di vita dei modelli di AI generativa e ML e ti aiuta a garantire che tu possa eseguire il retraining e valutare i modelli in modo coerente, con audit trail chiari.
  • Sicurezza:il progetto è pensato per essere in linea con i requisiti del framework del National Institute of Standards and Technology (NIST) e del framework del Cyber Risk Institute (CRI).

Il progetto di AI generativa e ML per le aziende include quanto segue:

  • Un repository GitHub che contiene un insieme di configurazioni Terraform, un notebook Jupyter, una definizione di Vertex AI Pipelines, un grafo aciclico diretto (DAG) di Cloud Composer e script ausiliari. I componenti nel repository completano le seguenti operazioni:
    • La configurazione Terraform configura una piattaforma di sviluppo di modelli Vertex AI in grado di supportare più team di sviluppo di modelli.
    • Il notebook Jupyter ti consente di sviluppare un modello in modo interattivo.
    • La definizione di Vertex AI Pipelines traduce il notebook Jupyter in un pattern riproducibile che può essere utilizzato per gli ambienti di produzione.
    • Il DAG di Cloud Composer fornisce un metodo alternativo a Vertex AI Pipelines.
    • Gli script ausiliari aiutano a eseguire il deployment del codice Terraform e delle pipeline.
  • Una guida all'architettura, alla progettazione, ai controlli di sicurezza e ai processi operativi che utilizzi questo blueprint per implementare (questo documento).

Il progetto di AI generativa e ML per le aziende è progettato per essere compatibile con il progetto di fondazione di un'azienda. Il blueprint delle fondamenta aziendali fornisce una serie di servizi di base su cui si basa questo blueprint, ad esempio reti VPC. Puoi eseguire il deployment del blueprint per l'AI generativa e l'ML aziendali senza eseguire il deployment del blueprint per le fondamenta aziendali se il tuo Google Cloud ambiente fornisce la funzionalità necessaria per supportare il blueprint per l'AI generativa e l'ML aziendali.

Questo documento è destinato ad architetti cloud, data scientist e data engineer che possono utilizzare il blueprint per creare ed eseguire il deployment di nuovi modelli di AI generativa o ML su Google Cloud. Questo documento presuppone che tu abbia familiarità con l'AI generativa e lo sviluppo di modelli ML e con la piattaforma di machine learning Vertex AI.

Per una panoramica dei principi e dei consigli architetturali specifici per i workload di AI e ML in Google Cloud, consulta la prospettiva AI e ML nel framework Well-Architected.

Panoramica del progetto di AI generativa e ML di livello enterprise

Il progetto di AI generativa e ML aziendale adotta un approccio a più livelli per fornire le funzionalità che consentono l'addestramento di modelli di AI generativa e ML. Il blueprint è progettato per essere implementato e controllato tramite un workflow di operazioni ML (MLOps). Il seguente diagramma mostra la relazione tra il livello MLOps implementato da questo blueprint e gli altri livelli del tuo ambiente.

I livelli del progetto.

Questo diagramma include quanto segue:

  • L'infrastruttura Google Cloud ti offre funzionalità di sicurezza come la crittografia at-rest e la crittografia in transito, nonché elementi di base come computing e archiviazione.
  • La base aziendale fornisce una linea di base di risorse come identità, networking, logging, monitoraggio e sistemi di deployment che consentono di adottare Google Cloud per i carichi di lavoro AI.
  • Il livello dati è un livello facoltativo nello stack di sviluppo che ti offre varie funzionalità, come l&importazione dati;importazione, l'archiviazione, il controllo dell'accesso, la governance, il monitoraggio e la condivisione dei dati.
  • Il livello di AI generativa e ML (questo progetto) ti consente di creare e implementare modelli. Puoi utilizzare questo livello per l'esplorazione e la sperimentazione preliminari dei dati, l'addestramento, la pubblicazione e il monitoraggio dei modelli.
  • CI/CD ti fornisce gli strumenti per automatizzare il provisioning, la configurazione, la gestione e il deployment di infrastrutture, flussi di lavoro e componenti software. Questi componenti ti aiutano a garantire deployment coerenti, affidabili e verificabili, a ridurre al minimo gli errori manuali e ad accelerare il ciclo di sviluppo complessivo.

Per mostrare come viene utilizzato l'ambiente di AI generativa e ML, il progetto include un esempio di sviluppo di un modello ML. Lo sviluppo del modello di esempio ti guida nella creazione di un modello, nella creazione di pipeline operative, nell'addestramento del modello, nel test del modello e nel deployment del modello.

Architettura

Il blueprint per l'AI generativa e l'ML per le aziende ti consente di lavorare direttamente con i dati. Puoi creare modelli in un ambiente interattivo (di sviluppo) e promuoverli in un ambiente operativo (di produzione o non di produzione).

Nell'ambiente interattivo, sviluppi modelli ML utilizzando Vertex AI Workbench, un servizio di notebook Jupyter gestito da Google. Crea funzionalità di estrazione, trasformazione e ottimizzazione dei modelli nell'ambiente interattivo e promuovile nell'ambiente operativo.

Nell'ambiente operativo (non di produzione), utilizzi le pipeline per creare e testare i modelli in modo ripetibile e controllabile. Quando le prestazioni del modello ti soddisfano, puoi eseguirne il deployment nell'ambiente operativo (di produzione). Il seguente diagramma mostra i vari componenti degli ambienti interattivi e operativi.

L'architettura del progetto base.

Questo diagramma include quanto segue:

  1. Sistemi di deployment:servizi come Service Catalog e Cloud Build eseguono il deployment delle risorse Google Cloud nell'ambiente interattivo. Cloud Build esegue anche il deployment delle risorse Google Cloud e dei flussi di lavoro di creazione dei modelli nell'ambiente operativo.
  2. Origini dati:servizi come BigQuery, Cloud Storage, Spanner, e AlloyDB per PostgreSQL ospitano i tuoi dati. Il progetto fornisce dati di esempio in BigQuery e Cloud Storage.
  3. Ambiente interattivo:un ambiente in cui puoi interagire direttamente con i dati, sperimentare i modelli e creare pipeline da utilizzare nell'ambiente operativo.
  4. Ambiente operativo:un ambiente in cui puoi creare e testare i tuoi modelli in modo ripetibile e poi eseguirne il deployment in produzione.
  5. Servizi di modelli:i seguenti servizi supportano varie attività MLOps:
  6. Archiviazione degli artefatti:questi servizi archiviano il codice e i container per lo sviluppo e le pipeline del modello. Questi servizi includono:
    • Artifact Registry memorizza i container utilizzati dalle pipeline nell'ambiente operativo per controllare le varie fasi dello sviluppo del modello.
    • Il repository Git archivia la base di codice dei vari componenti utilizzati nello sviluppo del modello.

Utenti tipo della piattaforma

Quando esegui il deployment del blueprint, crei quattro tipi di gruppi di utenti: un gruppo di ingegneri MLOps, un gruppo di ingegneri DevOps, un gruppo di data scientist e un gruppo di data engineer. I gruppi hanno le seguenti responsabilità:

  • Il gruppo Ingegnere MLOps sviluppa i modelli Terraform utilizzati dal catalogo dei servizi. Questo team fornisce modelli utilizzati da molti modelli.
  • Il gruppo DevOps engineer approva i modelli Terraform creati dal gruppo di sviluppatori MLOps.
  • Il gruppo data scientist sviluppa modelli, pipeline e i container utilizzati dalle pipeline. In genere, un singolo team è dedicato alla creazione di un unico modello.
  • Il gruppo Data engineer approva l'utilizzo degli artefatti creati dal gruppo di data science.

Struttura dell'organizzazione

Questo blueprint utilizza la struttura organizzativa del blueprint di base dell'impresa come base per il deployment dei carichi di lavoro AI e ML. Il seguente diagramma mostra i progetti aggiunti alla base per abilitare i workload di AI e ML.

La struttura organizzativa del progetto.

La seguente tabella descrive i progetti utilizzati dal blueprint di AI generativa e ML.

Cartella Progetto Descrizione

common

prj-c-infra-pipeline

Contiene la pipeline di deployment utilizzata per creare i componenti di AIA generativa e ML del blueprint. Per maggiori informazioni, consulta la pipeline dell'infrastruttura nel progetto della base aziendale.

prj-c-service-catalog

Contiene l'infrastruttura utilizzata da catalogo dei servizi per implementare le risorse nell'ambiente interattivo.

development

prj-d-machine-learning

Contiene i componenti per sviluppare un caso d'uso di AI e ML in modalità interattiva.

non-production

prj-n-machine-learning

Contiene i componenti per testare e valutare un caso d'uso di AI e ML che può essere implementato in produzione.

production

prj-p-machine-learning

Contiene i componenti per il deployment di un caso d'uso di AI e ML in produzione.

Networking

Il progetto base utilizza la rete VPC condiviso creata nel progetto base dell'impresa. Nell'ambiente interattivo (di sviluppo), i notebook Vertex AI Workbench vengono implementati nei progetti di servizio. Gli utenti on-premise possono accedere ai progetti utilizzando lo spazio indirizzi IP privato nella rete VPC condiviso. Gli utenti on-premise possono accedere alle API Google Cloud, come Cloud Storage, tramite Private Service Connect. Ogni rete VPC condivisa (sviluppo, non di produzione e produzione) ha un endpoint Private Service Connect distinto.

La rete del progetto.

L'ambiente operativo (non di produzione e di produzione) ha due reti VPC condiviso separate a cui le risorse on-premise possono accedere tramite indirizzi IP privati. Gli ambienti interattivi e operativi sono protetti utilizzando i Controlli di servizio VPC.

Cloud Logging

Questo progetto utilizza le funzionalità di Cloud Logging fornite dal progetto di base per le aziende.

Cloud Monitoring

Per monitorare i job di addestramento personalizzati, il blueprint include una dashboard che ti consente di monitorare le seguenti metriche:

  • Utilizzo della CPU di ciascun nodo di addestramento
  • Utilizzo di memoria di ogni nodo di addestramento
  • Utilizzo della rete

Se un job di addestramento personalizzato non è riuscito, il blueprint utilizza Cloud Monitoring per fornirti un meccanismo di avviso via email per comunicarti l'errore. Per il monitoraggio dei modelli di cui è stato eseguito il deployment che utilizzano l'endpoint Vertex AI, il blueprint include un dashboard con le seguenti metriche:

  • Metriche del rendimento:
    • Previsioni al secondo
    • Latenza del modello
  • Utilizzo delle risorse:
    • Utilizzo CPU
    • Utilizzo memoria

Configurazione dei criteri dell'organizzazione

Oltre ai criteri dell'organizzazione creati dal blueprint della base aziendale, questo blueprint aggiunge i criteri dell'organizzazione elencati nella postura predefinita per l'AI sicura, estesa.

Operazioni

Questa sezione descrive gli ambienti inclusi nel blueprint.

Ambiente interattivo

Per consentirti di esplorare i dati e sviluppare modelli mantenendo la security posture della tua organizzazione, l'ambiente interattivo ti fornisce un insieme controllato di azioni che puoi eseguire. Puoi eseguire il deployment Google Cloud delle risorse utilizzando uno dei seguenti metodi:

  • Utilizzo di Service Catalog, preconfigurato tramite l'automazione con i modelli di risorse
  • Creazione di artefatti di codice e commit nei repository Git utilizzando i notebook Vertex AI Workbench

Il seguente diagramma mostra l'ambiente interattivo.

L'ambiente interattivo del progetto.

Un tipico flusso interattivo ha i seguenti passaggi e componenti associati:

  1. Catalogo dei servizi fornisce un elenco selezionato di risorseGoogle Cloud che i data scientist possono eseguire il deployment nell'ambiente interattivo. Il data scientist esegue il deployment della risorsa notebook Vertex AI Workbench dal catalogo dei servizi.
  2. I blocchi note Vertex AI Workbench sono l'interfaccia principale che i data scientist utilizzano per lavorare con le risorse Google Cloud che vengono implementate nell'ambiente interattivo. I blocchi note consentono ai data scientist di estrarre il codice da Git e aggiornarlo in base alle esigenze.
  3. I dati di origine vengono archiviati al di fuori dell'ambiente interattivo e gestiti separatamente da questo progetto. L'accesso ai dati è controllato da un proprietario dei dati. I data scientist possono richiedere l'accesso in lettura ai dati di origine, ma non possono scrivere nei dati di origine.
  4. I data scientist possono trasferire i dati di origine nell'ambiente interattivo in risorse create tramite il catalogo dei servizi. Nell'ambiente interattivo, i data scientist possono leggere, scrivere e manipolare i dati. Tuttavia, i data scientist non possono trasferire dati dall'ambiente interattivo né concedere l'accesso alle risorse create da catalogo dei servizi. BigQuery archivia dati strutturati e semistrutturati e Cloud Storage archivia dati non strutturati.
  5. Feature Store offre ai data scientist un accesso a bassa latenza alle caratteristiche per l'addestramento dei modelli.
  6. I data scientist addestrano i modelli utilizzando i job di addestramento personalizzato di Vertex AI. Il progetto utilizza anche Vertex AI per l'ottimizzazione degli iperparametri.

  7. I data scientist valutano i modelli utilizzando Vertex AI Experiments e Vertex AI TensorBoard. Vertex AI Experiments ti consente di eseguire più addestramenti su un modello utilizzando parametri, tecniche di modellazione, architetture e input diversi. Vertex AI TensorBoard ti consente di monitorare, visualizzare e confrontare i vari esperimenti che hai eseguito e poi scegliere il modello con le migliori caratteristiche osservate da convalidare.

  8. I data scientist convalidano i propri modelli con la valutazione di Vertex AI. Per convalidare i modelli, i data scientist dividono i dati di origine in un set di dati di addestramento e un set di dati di convalida ed eseguono una valutazione Vertex AI sul modello.

  9. I data scientist creano container utilizzando Cloud Build, li archiviano in Artifact Registry e li utilizzano nelle pipeline che si trovano nell'ambiente operativo.

Ambiente operativo

L'ambiente operativo utilizza un repository Git e pipeline. Questo ambiente include l'ambiente di produzione e l'ambiente non di produzione del blueprint di base dell'impresa. Nell'ambiente non di produzione, il data scientist seleziona una pipeline tra quelle sviluppate nell'ambiente interattivo. Il data scientist può eseguire la pipeline nell'ambiente non di produzione, valutare i risultati e poi determinare quale modello promuovere nell'ambiente di produzione.

Il blueprint include una pipeline di esempio creata utilizzando Cloud Composer e una pipeline di esempio creata utilizzando Vertex AI Pipelines. Il diagramma seguente mostra l'ambiente operativo.

L'ambiente operativo del progetto base.

Un tipico flusso operativo prevede i seguenti passaggi:

  1. Un data scientist unisce un ramo di sviluppo a un ramo di deployment.
  2. L'unione nel ramo di deployment attiva una pipeline di Cloud Build.
  3. Si verifica uno dei seguenti eventi:
    • Se un data scientist utilizza Cloud Composer come orchestratore, la pipeline Cloud Build sposta un DAG in Cloud Storage.
    • Se il data scientist utilizza Vertex AI Pipelines come orchestratore, la pipeline sposta un file Python in Cloud Storage.
  4. La pipeline Cloud Build attiva l'orchestratore (Cloud Composer o Vertex AI Pipelines).
  5. L'orchestratore estrae la definizione della pipeline da Cloud Storage e inizia a eseguirla.
  6. La pipeline estrae un contenitore da Artifact Registry utilizzato da tutte le fasi della pipeline per attivare i servizi Vertex AI.
  7. La pipeline, utilizzando il container, attiva un trasferimento di dati dal progetto di dati di origine all'ambiente operativo.
  8. I dati vengono trasformati, convalidati, suddivisi e preparati per l'addestramento e la convalida del modello dalla pipeline.
  9. Se necessario, la pipeline sposta i dati in Vertex AI Feature Store per un facile accesso durante l'addestramento del modello.
  10. La pipeline utilizza l'addestramento personalizzato del modello Vertex AI per addestrare il modello.
  11. La pipeline utilizza la valutazione di Vertex AI per convalidare il modello.
  12. Un modello convalidato viene importato nel registro dei modelli dalla pipeline.
  13. Il modello importato viene quindi utilizzato per generare previsioni tramite previsioni online o previsioni batch.
  14. Dopo il deployment del modello nell'ambiente di produzione, la pipeline utilizza Vertex AI Model Monitoring per rilevare se le prestazioni del modello peggiorano monitorando il disallineamento tra addestramento e pubblicazione e la deviazione della previsione.

Deployment

Il blueprint utilizza una serie di pipeline Cloud Build per eseguire il provisioning dell'infrastruttura del blueprint, della pipeline nell'ambiente operativo e dei container utilizzati per creare modelli di AI generativa e ML. Le pipeline utilizzate e le risorse di cui è stato eseguito il provisioning sono le seguenti:

  • Pipeline dell'infrastruttura: Questa pipeline fa parte del progetto della piattaforma aziendale. Questa pipeline esegue il provisioning delle risorse Google Cloud associate all'ambiente interattivo e all'ambiente operativo.
  • Pipeline interattiva:la pipeline interattiva fa parte dell'ambiente interattivo. Questa pipeline copia i modelli Terraform da un repository Git a un bucket Cloud Storage che catalogo dei servizi può leggere. La pipeline interattiva viene attivata quando viene effettuata una richiesta pull per l'unione con il ramo principale.
  • Pipeline dei container:il progetto include una pipeline Cloud Build per creare i container utilizzati nella pipeline operativa. I container di cui viene eseguito il deployment in più ambienti sono immagini container immutabili. Le immagini container immutabili contribuiscono a garantire che la stessa immagine venga implementata in tutti gli ambienti e non possa essere modificata durante l'esecuzione. Se devi modificare l'applicazione, devi ricompilare e ridistribuire l'immagine. Le immagini container utilizzate nel blueprint vengono archiviate in Artifact Registry e a cui fanno riferimento i file di configurazione utilizzati nella pipeline operativa.
  • Pipeline operativa:la pipeline operativa fa parte dell'ambiente operativo. Questa pipeline copia i DAG per Cloud Composer o Vertex AI Pipelines, che vengono poi utilizzati per creare, testare ed eseguire il deployment dei modelli.

Catalogo dei servizi

Catalogo dei servizi consente a sviluppatori e amministratori cloud di rendere le loro soluzioni utilizzabili dagli utenti aziendali interni. I moduli Terraform in catalogo dei servizi vengono creati e pubblicati come artefatti nel bucket Cloud Storage con la pipeline CI/CD di Cloud Build. Una volta copiati i moduli nel bucket, gli sviluppatori possono utilizzarli per creare soluzioni Terraform nella pagina di amministrazione del catalogo dei servizi, aggiungere le soluzioni al catalogo dei servizi e condividerle con i progetti di ambienti interattivi in modo che gli utenti possano eseguire il deployment delle risorse.

L'ambiente interattivo utilizza catalogo dei servizi per consentire ai data scientist di eseguire il deployment delle risorse in modo conforme alla postura di sicurezza della loro azienda. Google Cloud Quando sviluppa un modello che richiede risorseGoogle Cloud , ad esempio un bucket Cloud Storage, il data scientist seleziona la risorsa dal catalogo dei servizi, la configura e la implementa nell'ambiente interattivo. Catalogo dei servizi contiene modelli preconfigurati per varie risorse Google Cloud che il data scientist può implementare nell'ambiente interattivo. Il data scientist non può modificare i modelli di risorse, ma può configurare le risorse tramite le variabili di configurazione esposte dal modello. Il seguente diagramma mostra la struttura di interrelazione tra il catalogo dei servizi e l'ambiente interattivo.

Il catalogo dei progetti.

I data scientist eseguono il deployment delle risorse utilizzando catalogo dei servizi, come descritto nei seguenti passaggi:

  1. L'ingegnere MLOps inserisce un modello di risorsa Terraform per Google Cloud in un repository Git.
  2. Il commit su Git attiva una pipeline Cloud Build.
  3. Cloud Build copia il modello e tutti i file di configurazione associati in Cloud Storage.
  4. L'ingegnere MLOps configura manualmente le soluzioni del catalogo dei servizi e il catalogo dei servizi. L'ingegnere condivide quindi il catalogo dei servizi con un progetto di servizio nell'ambiente interattivo.
  5. Il data scientist seleziona una risorsa dal catalogo dei servizi.
  6. Catalogo dei servizi esegue il deployment del modello nell'ambiente interattivo.
  7. La risorsa recupera gli script di configurazione necessari.
  8. Il data scientist interagisce con le risorse.

Repository

Le pipeline descritte in Deployment vengono attivate dalle modifiche nel repository corrispondente. Per contribuire a garantire che nessuno possa apportare modifiche indipendenti all'ambiente di produzione, esiste una separazione delle responsabilità tra gli utenti che possono inviare codice e gli utenti che possono approvare le modifiche al codice. La tabella seguente descrive i repository dei blueprint e i relativi autori e approvatori.

Repository Pipeline Descrizione Richiedente Approvatore

ml-foundation

Infrastruttura
Contiene il codice Terraform per il progetto di AI generativa e ML che crea gli ambienti interattivi e operativi. Ingegnere MLOps Ingegnere DevOps

service-catalog

Interattiva Contiene i modelli per le risorse che il catalogo dei servizi può eseguire il deployment. Ingegnere MLOps Ingegnere DevOps

artifact-publish

Container Contiene i container che possono essere utilizzati dalle pipeline nell'ambiente operativo. Data scientist Data engineer

machine-learning

Operativo Contiene il codice sorgente che le pipeline nell'ambiente operativo possono utilizzare. Data scientist Data engineer

Strategia di ramificazione

Il blueprint utilizza il ramo persistente per eseguire il deployment del codice nell'ambiente associato. Il blueprint utilizza tre rami (sviluppo, non di produzione e produzione) che riflettono gli ambienti corrispondenti.

Controlli di sicurezza

Il progetto di AI generativa e ML per le aziende utilizza un modello di sicurezza di difesa in profondità a più livelli che utilizza funzionalità Google Cloud , serviziGoogle Cloud e funzionalità di sicurezza predefiniti configurati tramite il progetto base per la sicurezza. Il seguente diagramma mostra la stratificazione dei vari controlli di sicurezza per il blueprint.

I controlli di sicurezza del progetto.

Le funzioni dei livelli sono le seguenti:

  • Interfaccia:fornisce ai data scientist servizi che consentono loro di interagire con il blueprint in modo controllato.
  • Deployment:fornisce una serie di pipeline che eseguono il deployment dell'infrastruttura, creano container e modelli. L'utilizzo delle pipeline consente verificabilità, tracciabilità e ripetibilità.
  • Networking:fornisce protezioni per l'esfiltrazione di dati intorno alle risorse del blueprint a livello di API e IP.
  • Gestione dell'accesso:controlla chi può accedere a quali risorse e contribuisce a prevenire l'utilizzo non autorizzato delle risorse.
  • Crittografia:ti consente di controllare le chiavi di crittografia, i segreti e proteggere i tuoi dati tramite la crittografia at-rest e in transito predefinita.
  • Detective:ti aiuta a rilevare errori di configurazione e attività dannose.
  • Preventivo:ti fornisce i mezzi per controllare e limitare la modalità di deployment della tua infrastruttura.

La tabella seguente descrive i controlli di sicurezza associati a ogni livello.

incorporato Risorsa Controllo di sicurezza
Interfaccia Vertex AI Workbench Fornisce un'esperienza di blocco note gestita che incorpora il controllo dell'accesso degli utenti, il controllo dell'accesso alla rete, il controllo dell'accesso IAM e i download di file disabilitati. Queste funzionalità consentono un'esperienza utente più sicura.
Repository Git Fornisce controllo dell'accesso degli utenti per proteggere i tuoi repository.
Catalogo dei servizi Fornisce ai data scientist un elenco selezionato di risorse che possono essere implementate solo in configurazioni approvate.
Deployment Pipeline dell'infrastruttura Fornisce un flusso sicuro per eseguire il deployment dell'infrastruttura del progetto iniziale tramite l'utilizzo di Terraform.
Pipeline interattiva Fornisce un flusso sicuro per trasferire i modelli da un repository Git in un bucket all'interno della tua organizzazione Google Cloud .
Pipeline di container Fornisce un flusso sicuro per creare container utilizzati dalla pipeline operativa.
Pipeline operativa Fornisce un flusso controllato per addestrare, testare, convalidare e implementare i modelli.
Artifact Registry Archivia le immagini container in modo sicuro utilizzando il controllo dell'accesso alle risorse
Rete Private Service Connect Consente di comunicare con le API Google Cloud utilizzando indirizzi IP privati, in modo da evitare di esporre il traffico a internet.
VPC con indirizzi IP privati Il blueprint utilizza VPC con indirizzi IP privati per contribuire a eliminare l'esposizione a minacce rivolte a internet.
Controlli di servizio VPC Contribuisce a proteggere le risorse protette dall'esfiltrazione di dati.
Firewall Contribuisce a proteggere la rete VPC da accessi non autorizzati.
Gestione degli accessi Cloud Identity Fornisce una gestione centralizzata degli utenti, riducendo il rischio di accesso non autorizzato.
IAM Fornisce un controllo granulare di chi può fare cosa e su quali risorse, consentendo così il privilegio minimo nella gestione dell'accesso.
Crittografia Cloud KMS Consente di controllare le chiavi di crittografia utilizzate all'interno della tua organizzazioneGoogle Cloud .
Secret Manager Fornisce un archivio dei secret per i tuoi modelli controllato da IAM.
Crittografia at-rest Per impostazione predefinita, Google Cloud cripta i dati at-rest.
Crittografia dei dati in transito Per impostazione predefinita, Google Cloud cripta i dati in transito.
Rilevamento Security Command Center Fornisce rilevatori di minacce che contribuiscono a proteggere la tua Google Cloud organizzazione.
Architettura continua Controlla continuamente la tua Google Cloud organizzazione in base a una serie di policy Open Policy Agent (OPA) che hai definito.
Motore per suggerimenti IAM Analizza le autorizzazioni utente e fornisce suggerimenti su come ridurle per contribuire all'applicazione del principio del privilegio minimo.
Firewall Insights Analizza le regole firewall, identifica quelle eccessivamente permissive e suggerisce firewall più restrittivi per contribuire a rafforzare la tua postura di sicurezza complessiva.
Cloud Logging Fornisce visibilità sull'attività del sistema e contribuisce a rilevare anomalie e attività dannose.
Cloud Monitoring Monitora segnali ed eventi chiave che possono contribuire a identificare attività sospette.
Preventivo Servizio Criteri dell'organizzazione Ti consente di limitare le azioni all'interno della tua Google Cloud organizzazione.

Passaggi successivi