Visão geral do Model Armor

O Model Armor é um serviço totalmente gerenciado Google Cloud que aumenta a segurança dos aplicativos de IA. O Model Armor funciona analisando comandos e respostas de LLM para vários riscos de segurança. O Model Armor tem os seguintes recursos:

  • Independente de modelo e de nuvem: o Model Armor foi projetado para oferecer suporte a qualquer modelo em qualquer plataforma de nuvem. Isso inclui cenários de várias nuvens e vários modelos para escolher as melhores soluções de IA para suas necessidades específicas.
  • Gerenciamento e aplicação centralizados: o Model Armor permite o gerenciamento e a aplicação centralizados de políticas de segurança e proteção.
  • APIs REST públicas: o Model Armor oferece uma API REST pública que pode ser usada para integrar a triagem de comandos e respostas diretamente aos seus aplicativos. Essa abordagem baseada em API é compatível com vários cenários de implantação.
  • Controle de acesso baseado em função (RBAC): o Model Armor incorpora o RBAC para gerenciar o acesso e as permissões no serviço, de modo que diferentes funções de usuário tenham níveis adequados de controle e visibilidade.
  • Endpoints: a API Model Armor oferece endpoints regionais para baixa latência e multirregionais para alta disponibilidade. Para mais informações, consulte Endpoints do Model Armor.
  • Integração com o Security Command Center: o Model Armor é integrado ao Security Command Center, o que significa que você pode ver as descobertas no painel do Security Command Center e identificar e corrigir violações na origem.
  • Recursos de segurança:
  • Suporte à triagem de documentos: o Model Armor oferece suporte à triagem de texto nos seguintes tipos de documentos para conteúdo malicioso.
    • Arquivos PDF
    • Documentos DOCX, DOCM, DOTX e DOTM
    • Apresentações PPTX, PPTM, POTX e POT
    • Planilhas XLSX, XLSM, XLTX e XLTM

Vantagens

O Model Armor oferece vários benefícios para as organizações, incluindo os seguintes:

  • Segurança e proteção de IA aprimoradas: o Model Armor ajuda as organizações a mitigar os riscos de segurança e proteção associados ao uso de LLMs. O Model Armor aborda preocupações como injeção de comandos e tentativas de jailbreak, geração de conteúdo nocivo, URLs maliciosos e perda de dados sensíveis, permitindo integrações seguras e confiáveis de LLMs em produtos e serviços.
  • Visibilidade e controle centralizados: o Model Armor oferece gerenciamento centralizado em todos os aplicativos de LLM, permitindo que CISOs e arquitetos de segurança monitorem e controlem políticas de segurança e proteção.
  • Opções de implantação flexíveis: o Model Armor é compatível com cenários multicloud, multimodelo e multi-LLM e pode ser implantado em diferentes pontos da arquitetura de aplicativos de LLM, oferecendo flexibilidade para que as organizações integrem o Model Armor à infraestrutura e aos fluxos de trabalho atuais.
  • Personalização e integração: o Model Armor permite a personalização de políticas para atender a casos de uso específicos de aplicativos e se integra a fluxos de trabalho operacionais atuais.

Arquitetura

Arquitetura do Model Armor

Este diagrama de arquitetura mostra um aplicativo usando o Model Armor para proteger um LLM e um usuário. As etapas a seguir explicam o fluxo de dados.

  1. Um usuário fornece um comando ao aplicativo.
  2. O Model Armor inspeciona o comando recebido em busca de conteúdo potencialmente sensível.
  3. O comando (ou comando higienizado) é enviado ao LLM.
  4. O LLM gera uma resposta.
  5. O Model Armor inspeciona a resposta gerada em busca de conteúdo potencialmente sensível.
  6. A resposta (ou resposta higienizada) é enviada ao usuário. O Model Armor envia uma descrição detalhada dos filtros acionados e não acionados na resposta.

Em resumo, o Model Armor funciona como um filtro, inspecionando a entrada (comando) e a saída (resposta) para garantir que o LLM não seja exposto nem forneça entradas ou saídas maliciosas ou sensíveis.

Casos de uso

O Model Armor tem vários casos de uso em vários setores:

  • Segurança

    • As organizações podem reduzir o risco de vazamento de propriedade intelectual (PI) sensível e informações de identificação pessoal (PII) que podem ser incluídas em comandos ou respostas de LLMs.
    • As organizações podem se proteger contra ataques de injeção de comandos e jailbreak, impedindo que usuários maliciosos manipulem sistemas de IA para realizar ações indesejadas.
    • As organizações podem verificar se há conteúdo sensível ou malicioso em textos de PDFs.
  • Segurança e IA responsável

    • As organizações podem impedir que o chatbot recomende soluções da concorrência, mantendo a integridade da marca e a fidelidade do cliente.
    • As organizações podem filtrar postagens de redes sociais geradas pela IA que contenham mensagens nocivas, como conteúdo perigoso ou de incitação ao ódio.

Suporte ao idioma

Os filtros do Model Armor ajudam a higienizar comandos e respostas em vários idiomas.

Há duas maneiras de ativar a detecção de vários idiomas:

Preços

O Model Armor pode ser comprado como parte integrada do Security Command Center ou como um serviço independente. Para informações sobre preços, consulte Preços do Security Command Center.

Tokens

Os modelos de IA generativa dividem o texto e outros dados em unidades chamadas tokens. O Model Armor usa o número total de tokens em comandos e respostas de IA para fins de preços. O Model Armor limita o número de tokens processados em cada comando e resposta. O Model Armor tem limites de token variados, dependendo do filtro específico. Se o comando ou a resposta exceder o limite de token do filtro, a acurácia da detecção será reduzida, mas nenhum erro será retornado.

Filtro Limite de tokens
Detecção de jailbreak e injeção de comando Até 2.000
Prevenção contra perda de dados (DLP) usando a Proteção de Dados Sensíveis Até 130.000
IA responsável 10.000
Material de abuso sexual infantil 10.000

Considerações

Ao usar o Model Armor, considere o seguinte:

  • As configurações de piso não podem aplicar a proteção de dados sensíveis.
  • O Model Armor rejeita solicitações para verificar arquivos no formato rich text com tamanho de 50 bytes ou menos, porque é muito provável que esses arquivos sejam inválidos.

A seguir