Integração do Model Armor com a Vertex AI

O Model Armor pode ser integrado diretamente à Vertex AI usando configurações de limite mínimo ou modelos. A integração do Model Armor à Vertex AI permite analisar solicitações enviadas e respostas dos modelos do Gemini, além de inspecionar ou bloquear solicitações ou respostas se elas violarem os limites das configurações mínimas. O Model Armor oferece proteção de comandos e respostas no método generateContent da API Gemini na Vertex AI. É necessário ativar o Cloud Logging para ter visibilidade dos resultados da higienização de comandos e respostas. Os locais compatíveis com essa integração são us-central1, us-east4, us-west1 e europe-west4. Durante o pré-lançamento, não há custo financeiro para usar essa integração. Para informações sobre preços, consulte Preços do Model Armor.

Antes de começar

Conceda à conta de serviço da Vertex AI a permissão de usuário do Model Armor.

gcloud projects add-iam-policy-binding PROJECT_ID --member='serviceAccount:service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.iam.gserviceaccount.com' --role='roles/modelarmor.user'
  

Substitua:

  • PROJECT_ID: o ID do projeto do Google Cloud .
  • PROJECT_NUMBER: o número do projeto Google Cloud .

Definir configurações mínimas

Você usa as configurações mínimas para configurar os limites básicos de detecção dos modelos do Model Armor. Essas configurações verificam se todos os modelos novos e modificados atendem aos requisitos da política de preço mínimo.

Antes de configurar as opções de preço mínimo, considere o seguinte:

  • As configurações de limite mínimo podem ser definidas no nível da organização, da pasta e do projeto. A interface do usuário está disponível apenas para as configurações de piso no nível do projeto. Para definir as configurações de mínimo no nível da organização ou da pasta, use a API.
  • A interface do usuário está disponível apenas no nível do projeto e permite herdar as configurações da organização ou da pasta.

Para configurar as opções de limite mínimo, consulte Definir configurações mínimas.

Depois de configurar os limites mínimos para ativar a limpeza da Vertex AI, o Model Armor limpa todas as chamadas da API generateContent para os endpoints do Gemini do projeto usando as configurações de filtro especificadas.

O exemplo de código a seguir mostra como usar o método generateContent.

curl -X POST -H "Content-Type: application/json" -H "Authorization: Bearer $(gcloud auth print-access-token)" "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/gemini-2.0-flash-001:generateContent" -d '{
"contents": [
    {
        "role": "user",
        "parts": [
            {
                "text": ""
            }
        ]
    }
]
, "generationConfig": {
    "responseModalities": ["TEXT"]
    ,"temperature": 0.2
    ,"maxOutputTokens": 1024
    ,"topP": 0.8
}
}'

Substitua:

  • PROJECT_ID: o ID do projeto do Google Cloud .
  • LOCATION: o Google Cloud local do endpoint do Gemini. Para locais compatíveis, consulte Locais da API Model Armor.

O exemplo de código a seguir mostra a resposta do método generateContent.

{
  "promptFeedback": {
    "blockReason": "MODEL_ARMOR",
    "blockReasonMessage": "Blocked by Floor Setting. The prompt violated Responsible AI Safety settings (Harassment, Dangerous), Prompt Injection and Jailbreak filters."
  },
  "usageMetadata": {
    "trafficType": "ON_DEMAND"
  },
  "modelVersion": "gemini-2.0-flash-001",
  "createTime": "2025-03-26T13:14:36.961184Z",
  "responseId": "vP3jZ6DVOqLKnvgPqZL-8Ao"
}

Configurar modelos do Model Armor

O Model Armor também pode ser integrado à Vertex AI usando modelos do Model Armor. Com os modelos, você configura como o Model Armor examina comandos e respostas e define configurações de filtro de segurança.

Primeiro, crie modelos e depois use-os com o método generateContent do Gemini. Para mais informações sobre modelos, consulte Criar e gerenciar modelos do Model Armor.

Depois de configurar o modelo do Model Armor, transmita o ID dele como um parâmetro ao fazer uma chamada para a API Gemini usando o método generateContent. A Vertex AI vai encaminhar a solicitação para o Model Armor para processamento.

O exemplo de código a seguir mostra a solicitação para o método generateContent.

curl -X POST -H "Content-Type: application/json" -H "Authorization: Bearer $(gcloud auth print-access-token)" "https://{LOCATION}-aiplatform.googleapis.com/v1/projects/{PROJECT_ID}/locations/{LOCATION}/publishers/google/models/gemini-2.0-flash-001:generateContent" -d '{
"contents": [
    {
        "role": "user",
        "parts": [
            {
                "text": ""
            }
        ]
    }
]
, "generationConfig": {
    "responseModalities": ["TEXT"]
    ,"temperature": 0.2
    ,"maxOutputTokens": 1024
    ,"topP": 0.8
},
 "model_armor_config": {
        "prompt_template_name": "projects/PROJECT_ID/locations/LOCATION/templates/TEMPLATE_ID",
"response_template_name": "projects/PROJECT_ID/locations/LOCATION/templates/TEMPLATE_ID"
    }
}'

Substitua:

  • PROJECT_ID: o ID do projeto do Google Cloud .
  • LOCATION: o Google Cloud local do endpoint do Gemini. Os locais compatíveis são us-central1, us-east4, us-west1 e europe-west4.
  • TEMPLATE_ID: ID do modelo do Model Armor.

O exemplo de código a seguir mostra a resposta do método generateContent.

{
  "promptFeedback": {
    "blockReason": "MODEL_ARMOR",
    "blockReasonMessage": "Blocked by Floor Setting. The prompt violated Responsible AI Safety settings (Harassment, Dangerous), Prompt Injection and Jailbreak filters."
  },
  "usageMetadata": {
    "trafficType": "ON_DEMAND"
  },
  "modelVersion": "gemini-2.0-flash-001",
  "createTime": "2025-03-26T13:14:36.961184Z",
  "responseId": "vP3jZ6DVOqLKnvgPqZL-8Ao"
}