Usar a IA de forma segura e responsável

Last reviewed 2025-02-05 UTC

Esse princípio no pilar de segurança do Google Cloud Well-Architected Framework fornece recomendações para ajudar você a proteger seus sistemas de IA. Essas recomendações estão alinhadas ao framework de IA segura (SAIF) do Google, que oferece uma abordagem prática para lidar com as preocupações de segurança e risco dos sistemas de IA. O SAIF é um framework conceitual que visa fornecer padrões em todo o setor para criar e implantar IA com responsabilidade.

Visão geral do princípio

Para garantir que seus sistemas de IA atendam aos requisitos de segurança, privacidade e compliance, adote uma estratégia holística que comece com o design inicial e se estenda à implantação e às operações. É possível implementar essa estratégia holística aplicando os seis elementos principais do SAIF.

O Google usa a IA para aprimorar as medidas de segurança, como identificar ameaças, automatizar tarefas de segurança e melhorar as capacidades de detecção, mantendo os humanos envolvidos nas decisões críticas.

O Google enfatiza uma abordagem colaborativa para avançar na segurança da IA. Essa abordagem envolve parcerias com clientes, setores e governos para aprimorar as diretrizes do SAIF e oferecer recursos práticos e úteis.

As recomendações para implementar esse princípio estão agrupadas nas seções a seguir:

Recomendações para usar a IA de forma segura

Para usar a IA de forma segura, você precisa de controles de segurança básicos e específicos para IA. Esta seção oferece uma visão geral das recomendações para garantir que suas implantações de IA e ML atendam aos requisitos de segurança, privacidade e compliance da sua organização. Para uma visão geral dos princípios e recomendações de arquitetura específicos para cargas de trabalho de IA e ML no Google Cloud, consulte a perspectiva de IA e ML no framework bem arquitetado.

Definir metas e requisitos claros para o uso de IA

Esta recomendação é relevante para as seguintes áreas de foco:

  • Governança, risco e compliance na nuvem
  • Segurança de IA e ML

Essa recomendação se alinha ao elemento do SAIF sobre a contextualização dos riscos dos sistemas de IA nos processos comerciais relacionados. Ao projetar e desenvolver sistemas de IA, é importante entender suas metas de negócios, riscos e requisitos de compliance específicos.

Manter os dados seguros e evitar perdas ou uso indevido

Esta recomendação é relevante para as seguintes áreas de foco:

  • Segurança da infraestrutura
  • Gerenciamento de identidade e acesso
  • Segurança de dados
  • Segurança para aplicativos
  • Segurança de IA e ML

Essa recomendação está alinhada aos seguintes elementos do SAIF:

  • Adotar fundamentos sólidos de segurança no ecossistema de IA. Esse elemento inclui coleta, armazenamento, controle de acesso e proteção contra envenenamento de dados.
  • Contextualizar os riscos dos sistemas de IA. Enfatize a segurança de dados para apoiar objetivos de negócios e conformidade.

Mantenha os pipelines de IA seguros e robustos contra adulteração

Esta recomendação é relevante para as seguintes áreas de foco:

  • Segurança da infraestrutura
  • Gerenciamento de identidade e acesso
  • Segurança de dados
  • Segurança para aplicativos
  • Segurança de IA e ML

Essa recomendação está alinhada aos seguintes elementos do SAIF:

  • Adotar fundamentos sólidos de segurança no ecossistema de IA. Como um elemento fundamental para estabelecer um sistema de IA seguro, proteja seus artefatos de código e modelo.
  • Adaptar controles para ciclos de feedback mais rápidos. Como é importante para a mitigação e a resposta a incidentes, acompanhe seus recursos e execuções de pipeline.

Implante apps em sistemas seguros usando ferramentas e artefatos seguros

Esta recomendação é relevante para as seguintes áreas de foco:

  • Segurança da infraestrutura
  • Gerenciamento de identidade e acesso
  • Segurança de dados
  • Segurança para aplicativos
  • Segurança de IA e ML

Usar sistemas seguros e ferramentas e artefatos validados em aplicativos baseados em IA está alinhado ao elemento do SAIF sobre a expansão de bases de segurança sólidas para o ecossistema e a cadeia de suprimentos de IA. Para resolver essa recomendação, siga estas etapas:

Proteger e monitorar entradas

Esta recomendação é relevante para as seguintes áreas de foco:

  • Geração de registros, auditoria e monitoramento
  • Operações de segurança
  • Segurança de IA e ML

Essa recomendação está alinhada ao elemento SAIF sobre estender a detecção e a resposta para trazer a IA para o universo de ameaças de uma organização. Para evitar problemas, é fundamental gerenciar comandos para sistemas de IA generativa, monitorar entradas e controlar o acesso do usuário.

Recomendações para governança de IA

Todas as recomendações nesta seção são relevantes para a seguinte área de foco: governança, risco e compliance na nuvem.

Google Cloud oferece um conjunto robusto de ferramentas e serviços que podem ser usados para criar sistemas de IA responsáveis e éticos. Também oferecemos um framework de políticas, procedimentos e considerações éticas que podem orientar o desenvolvimento, a implantação e o uso de sistemas de IA.

Conforme refletido nas nossas recomendações, a abordagem do Google para governança de IA é orientada pelos seguintes princípios:

  • Imparcialidade
  • Transparência
  • Responsabilidade
  • Privacidade
  • Segurança

Usar indicadores de imparcialidade

A Vertex AI pode detectar vieses durante a coleta de dados ou o processo de avaliação pós-treinamento. A Vertex AI fornece métricas de avaliação de modelo, como viés de dados e viés de modelo, para ajudar você a avaliar o modelo quanto ao viés.

Essas métricas estão relacionadas à imparcialidade em diferentes categorias, como raça, gênero e classe. No entanto, interpretar desvios estatísticos não é um exercício simples, porque as diferenças entre categorias podem não ser resultado de viés ou um sinal de dano.

Usar o Vertex Explainable AI

Para entender como os modelos de IA tomam decisões, use a Vertex Explainable AI. Esse recurso ajuda a identificar possíveis vieses que podem estar ocultos na lógica do modelo.

Esse recurso de explicabilidade é integrado ao BigQuery ML e à Vertex AI, que oferecem explicações baseadas em atributos. É possível fazer a explicabilidade no BigQuery ML ou registrar seu modelo na Vertex AI e fazer a explicabilidade na Vertex AI.

Rastrear linhagem de dados

Rastreie a origem e a transformação dos dados usados nos seus sistemas de IA. Esse rastreamento ajuda você a entender a jornada dos dados e identificar possíveis fontes de viés ou erro.

A linhagem de dados é um recurso do Dataplex Universal Catalog que permite acompanhar como os dados se movimentam nos sistemas: origem, destino e quais transformações são aplicadas a eles.

Estabelecer responsabilidade

Estabeleça responsabilidades claras para o desenvolvimento, a implantação e os resultados dos seus sistemas de IA.

Use o Cloud Logging para registrar eventos e decisões importantes tomadas pelos seus sistemas de IA. Os registros fornecem uma trilha de auditoria para ajudar você a entender o desempenho do sistema e identificar áreas de melhoria.

Use o Error Reporting para analisar sistematicamente os erros cometidos pelos sistemas de IA. Essa análise pode revelar padrões que apontam para vieses implícitos ou áreas em que o modelo precisa de mais refinamento.

Implementar a privacidade diferencial

Durante o treinamento de modelo, adicione ruído aos dados para dificultar a identificação de pontos de dados individuais, mas ainda permitir que o modelo aprenda com eficiência. Com o SQL no BigQuery, é possível transformar os resultados de uma consulta com agregações diferencialmente particulares.