Per eseguire il deployment di un modello per la previsione online, è necessario un endpoint. Gli endpoint possono essere suddivisi nei seguenti tipi:
È possibile accedere agli endpoint pubblici tramite internet pubblico. Sono più facili da usare perché non è richiesta alcuna infrastruttura di rete privata. Esistono due tipi di endpoint pubblici: dedicati e condivisi. Un endpoint pubblico dedicato è un endpoint più veloce che offre isolamento in produzione, supporta dimensioni del payload maggiori e timeout delle richieste più lunghi rispetto a un endpoint pubblico condiviso. Inoltre, quando invii una richiesta di previsione a un endpoint pubblico dedicato, questa viene isolata dal traffico di altri utenti. Per questi motivi, come best practice si consiglia di utilizzare endpoint pubblici dedicati.
Gli endpoint di Private Service Connect forniscono una connessione sicura per la comunicazione privata tra le risorse on-premise e Google Cloud. Possono essere utilizzati per controllare il traffico delle API di Google tramite le API Private Service Connect. Sono consigliate come best practice.
Gli endpoint privati forniscono anche una connessione sicura al modello e possono essere utilizzati anche per le comunicazioni private tra on-premise eGoogle Cloud. Utilizzano l'accesso privato ai servizi tramite una connessione di peering di rete VPC.
Per ulteriori informazioni sul deployment di un modello in un endpoint, consulta Eseguire il deployment di un modello in un endpoint.
La tabella seguente mette a confronto i tipi di endpoint supportati per la pubblicazione delle previsioni online di Vertex AI.
Endpoint pubblico dedicato (consigliato) | Endpoint pubblico condiviso | Endpoint Private Service Connect (consigliato) | Endpoint privato | |
---|---|---|---|---|
Finalità | Esperienza di networking predefinita. Consente di inviare richieste da internet pubblico (se i Controlli di servizio VPC non sono abilitati). | Esperienza di networking predefinita. Consente di inviare richieste da internet pubblico (se i Controlli di servizio VPC non sono abilitati). | Consigliata per le applicazioni aziendali di produzione. Migliora la latenza e la sicurezza della rete garantendo che le richieste e le risposte vengano inoltrate in privato. | Consigliata per le applicazioni aziendali di produzione. Migliora la latenza e la sicurezza della rete garantendo che le richieste e le risposte vengano inoltrate in privato. |
Networking in entrata | Rete internet pubblica che utilizza un piano di rete dedicato | Rete internet pubblica che utilizza un piano di networking condiviso | Rete privata che utilizza l'endpoint Private Service Connect | Networking privato con accesso privato ai servizi (peering di reti VPC) |
Networking in uscita | Rete internet pubblica | Rete internet pubblica | Non supportata | Networking privato con accesso privato ai servizi (peering di reti VPC) |
Controlli di servizio VPC | Non supportati. Utilizza invece un endpoint Private Service Connect. | Supportato | Supportato | Supportato |
Costo | Vertex AI Prediction | Vertex AI Prediction | Vertex AI Prediction + endpoint Private Service Connect | Vertex AI Prediction + accesso ai servizi privati (vedi "Utilizzo di un endpoint di Private Service Connect (regola di inoltro) per accedere a un servizio pubblicato") |
Latenza di rete | Ottimizzata | Non ottimizzato | Ottimizzata | Ottimizzata |
Crittografia dei dati in transito | TLS con certificato firmato dall'autorità di certificazione | TLS con certificato firmato dall'autorità di certificazione | TLS facoltativo con certificato autofirmato | Nessuno |
Timeout di inferenza | Configurabile fino a 1 ora | 60 secondi | Configurabile fino a 1 ora | 60 secondi |
Limite di dimensioni del payload | 10 MB | 1,5 MB | 10 MB | 10 MB |
Quota QPM | Illimitato | 30.000 | Illimitato | Illimitato |
Supporto del protocollo | HTTP o gRPC | HTTP | HTTP o gRPC | HTTP |
Supporto per lo streaming | Sì (SSE) | No | Sì (SSE) | No |
Suddivisione traffico | Sì | Sì | Sì | No |
Log di richieste e risposte | Sì | Sì | Sì | No |
Logging degli accessi | Sì | Sì | Sì | No |
Modelli AutoML e spiegabilità | No | Sì | No | No |
Librerie client supportate | SDK Vertex AI per Python | Librerie client Vertex AI, SDK Vertex AI per Python | SDK Vertex AI per Python | SDK Vertex AI per Python |
Passaggi successivi
- Scopri di più sul deployment di un modello in un endpoint.