AI responsabile

Vertex AI Agent Builder consente agli sviluppatori di sfruttare la potenza dei modelli di base, delle competenze di ricerca e delle tecnologie di IA conversazionale di Google per creare applicazioni di IA generativa di livello enterprise tramite Vertex AI Agents e Vertex AI Search. Essendo una tecnologia ancora in fase iniziale, le sue capacità e i suoi utilizzi in evoluzione generano un potenziale di applicazioni errate, usi impropri e conseguenze non volute o impreviste. Ad esempio, Vertex AI Agent Builder può generare output inaspettati, inclusi testi offensivi, insensibili o inesatti.

Dati questi rischi e queste complessità, Vertex AI Agent Builder è progettato tenendo conto dei principi dell'IA di Google. Tuttavia, è importante che gli sviluppatori comprendano e testino i propri modelli per eseguirne il deployment in modo sicuro e responsabile. Per aiutare gli sviluppatori, Vertex AI Agent Builder ha filtri di sicurezza integrati per aiutare i clienti a bloccare le uscite potenzialmente dannose all'interno del loro caso d'uso. Per ulteriori informazioni, consulta Impostazioni di sicurezza per Vertex AI Search.

Quando Vertex AI Agent Builder viene integrato nel caso d'uso e nel contesto unici di un cliente, potrebbero essere prese in considerazione ulteriori considerazioni sull'AI responsabile e limitazioni del modello. Incoraggiamo i clienti a utilizzare le best practice consigliate per l'equità, l'interpretabilità, la privacy e la sicurezza.

Vertex AI Search offre filtri SafeSearch per filtrare i risultati di ricerca espliciti sul sito web. I risultati espliciti potrebbero includere contenuti come pornografia, violenza e spargimenti di sangue. Il filtro SafeSearch non è disponibile per i contenuti privati.

Il riepilogo (sia per la ricerca sul sito web sia per i contenuti privati) esclude risposte come informazioni dispregiatorie, sessualmente esplicite, dannose o violente. Inoltre, la risposta di sintesi contiene attributi di sicurezza, tra cui "categorie dannose" e argomenti che potrebbero essere considerati sensibili.

Ricerca nel sito web

SafeSearch può essere applicato ai contenuti pubblici indicizzati da Vertex AI Search, ad esempio i siti web. Se SafeSearch è attivo, la funzionalità Vertex AI Search aiuta a filtrare i contenuti espliciti nei risultati di Vertex AI Search di un cliente per tutte le query relative a immagini, video e siti web. Anche se questi filtri non sono precisi al 100%, valutiamo e aggiorniamo continuamente le funzionalità di filtro.

In determinati contesti e casi d'uso, i clienti potrebbero richiedere l'accesso a una vasta gamma di informazioni, anche se includono contenuti espliciti, per raccogliere approfondimenti e risultati completi da Vertex AI Search. I clienti possono attivare e disattivare i filtri di sicurezza utilizzando l'API impostando safe_search su "true" o "false".

Per attivare SafeSearch per la ricerca Vertex AI, utilizza la seguente chiamata dell'API:

curl -X POST\
 -H "Authorization: Bearer $(gcloud auth application-default print-access-token)"
 -H "Content-Type: application/json"\
"https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/servingConfigs/default_config:search"
     -d '{
      "query": { "input": "FREE_TEXT"},
  "serving_config": "SERVING_CONFIG_ID",
  "safe_search": "true",
}'

Per attivare SafeSearch per la ricerca con follow-up in Vertex AI Search, utilizza la seguente chiamata API:

curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json" \
"https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/conversations/CONVERSATION_ID:converse" \
-d '{
  "query": { "input": "FREE_TEXT"},
  "serving_config": "SERVING_CONFIG_ID",
  "safe_search": "true",
}'

L'impostazione safe_search si applica ai risultati di ricerca e anche agli output di Vertex AI Search, come il riepilogo (basato sui risultati di ricerca).

Le uscite di Vertex AI Search, come il riassunto, vengono valutate in base a un elenco di attributi di sicurezza che filtrano i contenuti potenzialmente dannosi anche quando safe_search è disattivato.

Sintesi per contenuti privati e ricerca sui siti web

Le uscite di Vertex AI Search, come il riepilogo, vengono valutate in base a un elenco di attributi di sicurezza, che filtrano i contenuti potenzialmente dannosi come informazioni denigratorie, di natura sessuale, dannose o violente, anche quando safe_search per la ricerca sul sito web è disattivato. Inoltre, puoi filtrare le risposte che includono "categorie dannose" e argomenti che potrebbero essere considerati sensibili utilizzando safetyAttributes nella risposta dell'API Vertex AI Search.

Risposte di riserva

Se il modello di sintesi risponde a una richiesta con una stringa vuota o con una risposta generica, significa che l'input o l'output sta attivando un filtro di sicurezza. Nella risposta dell'API Vertex AI Search, SummarySkippedReason è impostato su BLOCKED_DUE_TO_POTENTIAL_POLICY_VIOLATION se viene rilevata una potenziale violazione delle norme.

Se ritieni che un filtro di sicurezza sia attivato in modo inappropriato, segnala il problema tramite la console Google Cloud.

Impostazioni di sicurezza per Vertex AI Agents

La chat utilizza vari meccanismi di filtro di sicurezza sia per le query degli utenti sia per le risposte degli agenti. Il filtro include categorie come informazioni denigratorie, sessualmente esplicite, dannose o violente. In questo modo, le risposte della chat si adattano alle query non sicure e sono sicure in generale. Puoi anche specificare filtri aggiuntivi per i contenuti che ritieni indesiderati e definire risposte di riserva quando il filtro viene applicato nella console Dialogflow. Se ritieni che il filtro di sicurezza venga attivato in modo inappropriato, segnala il problema tramite la console Google Cloud.

Best practice per l'IA responsabile

Quando utilizzi gli agenti Vertex AI, ti consigliamo di seguire le seguenti best practice per l'IA responsabile:

  • Assicurati che gli utenti finali siano informati che stanno interagendo con un bot

  • Se applicabile, indica agli utenti se e quando le loro risposte vengono registrate

  • Offrire agli utenti un modo per segnalare le risposte dannose

Limitazioni

Vertex AI Agents incorpora la responsabilità in diversi modi, tra cui i filtri di sicurezza per categorie come informazioni offensive, sessualmente esplicite, dannose o violente. Tuttavia, come indicato sopra, questi filtri di sicurezza non sono accurati al 100%. Mentre continuiamo a valutare e aggiornare le nostre funzionalità di filtro, invitiamo i clienti a fornire feedback sui modelli, a esplorare casi d'uso che genereranno vantaggi per la società ed evitare di utilizzare gli agenti Vertex AI in contesti critici per la sicurezza.

Vertex AI Agents è uno dei diversi strumenti che possono fornire informazioni agli esperti in materia e non è destinato a essere utilizzato in contesti decisionali senza supervisione umana. Quando vengono incorporati dati privati non strutturati in cui i filtri di sicurezza non sono attivati, incoraggiamo un ruolo più ampio della valutazione del modello e della convalida umana prima dell'utilizzo.

Risorse aggiuntive