Visão geral da proteção por IA

A Proteção de IA ajuda a gerenciar a postura de segurança das suas cargas de trabalho de IA detectando ameaças e ajudando a mitigar riscos no inventário de recursos de IA. Este documento oferece uma visão geral da Proteção de IA, incluindo os benefícios e vários conceitos importantes.

Visão geral da proteção por IA

A Proteção contra IA oferece vários recursos para ajudar você a gerenciar ameaças e riscos aos seus sistemas de IA, incluindo:

  • Avalie seu inventário de IA: avalie e entenda seus sistemas e recursos de IA, incluindo modelos e conjuntos de dados.
  • Gerenciar riscos e compliance: gerencie proativamente os riscos aos seus recursos de IA e verifique se as implantações de IA aderem aos padrões de segurança relevantes.
  • Reduza os riscos legais e financeiros: diminua os riscos financeiros, de reputação e legais associados a violações de segurança e não conformidade regulatória.
  • Detectar e gerenciar ameaças: detecte e responda a possíveis ameaças aos seus sistemas e recursos de IA em tempo hábil.
  • Ver um painel: gerencie todos os riscos e ameaças relacionados à IA em um painel centralizado.

Casos de uso

A Proteção de IA ajuda as organizações a melhorar a segurança identificando e mitigando ameaças e riscos relacionados a sistemas de IA e dados sensíveis. Os casos de uso a seguir são exemplos de como a Proteção com IA pode ser usada em diferentes organizações:

  • Instituição de serviços financeiros: dados financeiros do cliente

    Uma grande instituição de serviços financeiros usa modelos de IA que processam dados financeiros sensíveis.

    • Desafio:o processamento de dados financeiros altamente sensíveis com modelos de IA envolve vários riscos, incluindo violações e exfiltração de dados durante o treinamento ou a inferência, além de vulnerabilidades na infraestrutura de IA subjacente.
    • Caso de uso:a Proteção de IA monitora continuamente os fluxos de trabalho de IA para detectar atividades suspeitas, acesso não autorizado a dados e comportamento anômalo do modelo, realiza a classificação de dados sensíveis e ajuda a melhorar a conformidade com regulamentações como PCI DSS e GDPR.
  • Profissional de saúde: privacidade e conformidade do paciente

    Um grande prestador de serviços de saúde gerencia prontuários eletrônicos e usa IA para diagnósticos e planejamento de tratamento, lidando com informações protegidas de saúde (PHI).

    • Desafio:as PHIs analisadas por modelos de IA estão sujeitas a regulamentações rigorosas, como a HIPAA. Os riscos incluem exposição acidental de PHI por erros de configuração ou ataques maliciosos que visam sistemas de IA para dados de pacientes.
    • Caso de uso:a Proteção de IA identifica e alerta sobre possíveis violações da HIPAA, detecta acesso não autorizado a PHI por modelos ou usuários, sinaliza serviços de IA vulneráveis e potencialmente mal configurados e monitora vazamentos de dados.
  • Empresa de manufatura e robótica: propriedade intelectual exclusiva

    Uma empresa de manufatura especializada em robótica avançada e automação depende muito da IA para otimizar linhas de produção e controle robótico, com propriedade intelectual (PI) vital incorporada aos algoritmos de IA e dados de manufatura.

    • Desafio:algoritmos de IA proprietários e dados operacionais sensíveis estão vulneráveis a roubo por ameaças internas ou adversários externos, o que pode levar a desvantagens competitivas ou interrupções operacionais.
    • Caso de uso:a Proteção de IA monitora o acesso não autorizado a modelos de IA e repositórios de código, detecta tentativas de exfiltração de modelos treinados e padrões incomuns de acesso a dados e sinaliza vulnerabilidades em ambientes de desenvolvimento de IA para evitar o roubo de IP.

Framework de proteção de IA

A Proteção de IA consiste em uma estrutura que inclui controles específicos da nuvem implantados automaticamente no modo de detecção. O modo de detetive significa que o controle de nuvem é aplicado aos recursos definidos para fins de monitoramento. Todas as violações são detectadas e alertas são gerados. Você usa estruturas e controles de nuvem para definir os requisitos de proteção de IA e aplicá-los ao seu ambiente Google Cloud . A Proteção por IA inclui o framework padrão, que define controles básicos recomendados para a Proteção por IA. Quando você ativa a Proteção com IA, a estrutura padrão é aplicada automaticamente à organização Google Cloud no modo de detecção.

Se necessário, faça cópias da estrutura para criar estruturas personalizadas de proteção por IA. É possível adicionar os controles de nuvem aos seus frameworks personalizados e aplicá-los à organização, pastas ou projetos. Por exemplo, é possível criar estruturas personalizadas que aplicam controles jurisdicionais específicos a pastas específicas para garantir que os dados nessas pastas permaneçam em uma região geográfica específica.

Controles de nuvem no framework padrão de proteção com IA

Os seguintes controles de nuvem fazem parte da estrutura padrão de proteção de IA.

Nome do Cloud Control Descrição

Bloquear a rede VPC padrão para instâncias do Vertex AI Workbench

Não crie instâncias do Workbench na rede VPC padrão para evitar o uso das regras de firewall padrão muito permissivas.

Bloquear o endereço IP público para instâncias do Vertex AI Workbench

Não permita endereços IP externo para instâncias do Workbench para reduzir a exposição à Internet e minimizar o risco de acesso não autorizado.

Ativar a CMEK para jobs personalizados da Vertex AI

Exija chaves de criptografia gerenciadas pelo cliente (CMEK) em jobs de treinamento personalizados da Vertex AI para ter mais controle sobre a criptografia de entradas e saídas de jobs.

Ativar a CMEK para a Feature Store da Vertex AI

Exija chaves de criptografia gerenciadas pelo cliente (CMEK) para o repositório de recursos do Vertex AI e tenha mais controle sobre a criptografia e o acesso aos dados.

Ativar a CMEK para jobs de ajuste de hiperparâmetros da Vertex AI

Exija chaves de criptografia gerenciadas pelo cliente (CMEK) em jobs de ajuste de hiperparâmetros para ter mais controle sobre a criptografia dos dados treinamento de modelo e da configuração do job.

Ativar a CMEK para modelos da Vertex AI

Exija chaves de criptografia gerenciadas pelo cliente (CMEK) para modelos da Vertex AI e tenha mais controle sobre a criptografia de dados e o gerenciamento de chaves.

Ativar a CMEK para modelos de ambiente de execução de notebooks da Vertex AI

Exigir chaves de criptografia gerenciadas pelo cliente (CMEK) para modelos de tempo de execução do Colab Enterprise, ajudando a proteger ambientes de execução e dados associados.

Ativar a CMEK para o TensorBoard da Vertex AI

Exija chaves de criptografia gerenciadas pelo cliente (CMEK) para o TensorBoard da Vertex AI e tenha mais controle sobre a criptografia de dados de experimentos e visualizações de modelos.

Ativar a CMEK para pipelines de treinamento da Vertex AI

Exija chaves de criptografia gerenciadas pelo cliente (CMEK) em pipelines de treinamento da Vertex AI para ter mais controle sobre a criptografia de dados de treinamento e artefatos resultantes.

Ativar a CMEK para instâncias do Vertex AI Workbench

Exija chaves de criptografia gerenciadas pelo cliente (CMEK) para instâncias do Vertex AI Workbench e tenha mais controle sobre a criptografia de dados.

Ativar o desligamento por inatividade para modelos de ambiente de execução da Vertex AI

Ative o desligamento automático por inatividade nos modelos de ambiente de execução do Colab Enterprise para otimizar os custos da nuvem, melhorar o gerenciamento de recursos e aumentar a segurança.

Ativar o monitoramento de integridade para instâncias do Vertex AI Workbench

Ative o monitoramento de integridade nas instâncias do Workbench para atestar continuamente a integridade da inicialização das VMs em relação a um valor de referência confiável.

Ativar a inicialização segura para instâncias do Vertex AI Workbench

Ative a inicialização segura para instâncias do Workbench e evite que softwares não autorizados ou maliciosos sejam executados durante o processo de inicialização.

Ativar o vTPM em instâncias do Vertex AI Workbench

Ative o módulo de plataforma confiável virtual (vTPM) nas instâncias do Workbench para proteger o processo de inicialização e ter mais controle sobre a criptografia.

Restringir o uso da conta de serviço padrão para instâncias do Vertex AI Workbench

Restrinja o uso da conta de serviço padrão altamente permissiva para instâncias do Workbench e reduza o risco de acesso não autorizado aos serviços do Google Cloud.

Áreas funcionais compatíveis

Esta seção define as áreas funcionais que a Proteção com IA pode ajudar a proteger.

  • Workloads de IA: os workloads de aplicativos de IA variam de ferramentas internas destinadas a melhorar a produtividade dos funcionários até soluções voltadas ao consumidor projetadas para melhorar a experiência do usuário e impulsionar os negócios. Por exemplo, agentes de IA, assistentes virtuais, chatbots de IA de conversação e recomendações personalizadas.
  • Modelos de IA: são classificados como modelos de IA de fundação, ajustados, padrão próprios e personalizados. Por exemplo, Gemini, Llama, modelos de tradução e modelos personalizados para tarefas específicas.
  • Recursos de IA: contribuem para pipelines de operações de aprendizado de máquina e são usados por cargas de trabalho de IA. Os tipos de recursos de IA incluem:
    • Ativos de IA declarativos: ferramentas de gerenciamento do ciclo de vida da IA, como a Vertex AI, rastreiam esses ativos.
    • Recursos de IA inferidos: recursos de uso geral, como recursos de computação e armazenamento, usados para processar dados ou cargas de trabalho de IA.
    • Modelo como serviço (somente API): recursos com chamadas programáticas para modelos de IA próprios ou de terceiros.

Usar o painel de segurança de IA

O painel de segurança de IA oferece uma visão abrangente do inventário de recursos de IA da sua organização e propõe possíveis mitigações para melhorar o gerenciamento de riscos e ameaças.

Acessar o painel

Para acessar o painel de segurança de IA, no console Google Cloud , acesse Visão geral de riscos > Segurança de IA.

Para mais informações, consulte o painel de segurança da IA.

Entenda as informações de risco

Esta seção fornece informações sobre os possíveis riscos associados aos sistemas de IA. Você pode conferir os principais riscos no seu inventário de IA.

Clique em qualquer problema para abrir um painel de detalhes que mostra uma visualização dele.

Ver ameaças de IA

Esta seção fornece insights sobre ameaças associadas a sistemas de IA. Você pode conferir as cinco principais ameaças recentes associadas aos seus recursos de IA.

Nessa página, você pode fazer o seguinte:

  • Clique em Ver tudo para conferir as ameaças associadas aos seus recursos de IA.
  • Clique em qualquer ameaça para ver mais detalhes.

Visualizar inventário

É possível conferir uma visualização do seu inventário de IA no painel, que fornece um resumo dos projetos que envolvem IA generativa, os modelos próprios e de terceiros em uso ativo e os conjuntos de dados usados no treinamento dos modelos de terceiros.

Nessa página, você pode fazer o seguinte:

  • Para acessar a página de detalhes do inventário, clique em qualquer um dos nós na visualização.
  • Para ver uma lista detalhada de recursos individuais, como modelos de base e modelos personalizados, clique na dica.
  • Para abrir uma visualização detalhada do modelo, clique nele. Essa visualização mostra detalhes como os endpoints em que o modelo está hospedado e o conjunto de dados usado para treinar o modelo. Se a Proteção de dados sensíveis estiver ativada, a visualização de conjuntos de dados também vai aparecer se o conjunto de dados contiver dados sensíveis.

Resumo das descobertas

Esta seção ajuda você a avaliar e gerenciar as descobertas geradas pelas políticas de segurança de dados e de estrutura de IA. Esta seção inclui:

  • Descobertas: esta seção mostra um resumo das descobertas geradas por políticas de segurança de IA e de dados. Clique em Ver todas as descobertas ou clique na contagem de cada categoria para acessar a página de detalhes das descobertas. Clique em uma descoberta para mostrar mais informações sobre ela.
  • Dados sensíveis em conjuntos de dados da Vertex AI: esta seção mostra um resumo das descobertas com base em dados sensíveis em conjuntos de dados, conforme informado pela proteção de dados sensíveis.

Examinar as descobertas do Model Armor

Um gráfico mostra o número total de comandos ou respostas verificados pelo Model Armor e o número de problemas detectados. Além disso, ele mostra estatísticas resumidas para vários tipos de problemas detectados, como injeção de comandos, detecção de jailbreak e detecção de dados sensíveis.

Essas informações são preenchidas com base nas métricas que o Model Armor publica no Cloud Monitoring.

A seguir