Esse princípio no pilar de segurança do Google Cloud Well-Architected Framework fornece recomendações para ajudar você a proteger seus sistemas de IA. Essas recomendações estão alinhadas ao framework de IA segura (SAIF) do Google, que oferece uma abordagem prática para lidar com as preocupações de segurança e risco dos sistemas de IA. O SAIF é um framework conceitual que visa fornecer padrões em todo o setor para criar e implantar IA com responsabilidade.
Visão geral do princípio
Para garantir que seus sistemas de IA atendam aos requisitos de segurança, privacidade e compliance, adote uma estratégia holística que comece com o design inicial e se estenda à implantação e às operações. É possível implementar essa estratégia holística aplicando os seis elementos principais do SAIF.
O Google usa a IA para aprimorar as medidas de segurança, como identificar ameaças, automatizar tarefas de segurança e melhorar as capacidades de detecção, mantendo os humanos envolvidos nas decisões críticas.
O Google enfatiza uma abordagem colaborativa para avançar na segurança da IA. Essa abordagem envolve parcerias com clientes, setores e governos para aprimorar as diretrizes do SAIF e oferecer recursos práticos e úteis.
As recomendações para implementar esse princípio estão agrupadas nas seções a seguir:
Recomendações para usar a IA de forma segura
Para usar a IA de forma segura, você precisa de controles de segurança básicos e específicos para IA. Esta seção oferece uma visão geral das recomendações para garantir que suas implantações de IA e ML atendam aos requisitos de segurança, privacidade e compliance da sua organização. Para uma visão geral dos princípios e recomendações de arquitetura específicos para cargas de trabalho de IA e ML no Google Cloud, consulte a perspectiva de IA e ML no framework bem arquitetado.
Definir metas e requisitos claros para o uso de IA
Esta recomendação é relevante para as seguintes áreas de foco:
- Governança, risco e compliance na nuvem
- Segurança de IA e ML
Essa recomendação se alinha ao elemento do SAIF sobre a contextualização dos riscos dos sistemas de IA nos processos comerciais relacionados. Ao projetar e desenvolver sistemas de IA, é importante entender suas metas de negócios, riscos e requisitos de compliance específicos.
Manter os dados seguros e evitar perdas ou uso indevido
Esta recomendação é relevante para as seguintes áreas de foco:
- Segurança da infraestrutura
- Gerenciamento de identidade e acesso
- Segurança de dados
- Segurança para aplicativos
- Segurança de IA e ML
Essa recomendação está alinhada aos seguintes elementos do SAIF:
- Adotar fundamentos sólidos de segurança no ecossistema de IA. Esse elemento inclui coleta, armazenamento, controle de acesso e proteção contra envenenamento de dados.
- Contextualizar os riscos dos sistemas de IA. Enfatize a segurança de dados para apoiar objetivos de negócios e conformidade.
Mantenha os pipelines de IA seguros e robustos contra adulteração
Esta recomendação é relevante para as seguintes áreas de foco:
- Segurança da infraestrutura
- Gerenciamento de identidade e acesso
- Segurança de dados
- Segurança para aplicativos
- Segurança de IA e ML
Essa recomendação está alinhada aos seguintes elementos do SAIF:
- Adotar fundamentos sólidos de segurança no ecossistema de IA. Como um elemento fundamental para estabelecer um sistema de IA seguro, proteja seus artefatos de código e modelo.
- Adaptar controles para ciclos de feedback mais rápidos. Como é importante para a mitigação e a resposta a incidentes, acompanhe seus recursos e execuções de pipeline.
Implante apps em sistemas seguros usando ferramentas e artefatos seguros
Esta recomendação é relevante para as seguintes áreas de foco:
- Segurança da infraestrutura
- Gerenciamento de identidade e acesso
- Segurança de dados
- Segurança para aplicativos
- Segurança de IA e ML
Usar sistemas seguros e ferramentas e artefatos validados em aplicativos baseados em IA está alinhado ao elemento do SAIF sobre a expansão de bases de segurança sólidas para o ecossistema e a cadeia de suprimentos de IA. Para resolver essa recomendação, siga estas etapas:
- Implementar um ambiente seguro para treinamento e implantação de ML
- Usar imagens de contêiner validadas
- Aplicar as diretrizes dos Níveis da cadeia de suprimentos para artefatos de software (SLSA)
Proteger e monitorar entradas
Esta recomendação é relevante para as seguintes áreas de foco:
- Geração de registros, auditoria e monitoramento
- Operações de segurança
- Segurança de IA e ML
Essa recomendação está alinhada ao elemento SAIF sobre estender a detecção e a resposta para trazer a IA para o universo de ameaças de uma organização. Para evitar problemas, é fundamental gerenciar comandos para sistemas de IA generativa, monitorar entradas e controlar o acesso do usuário.
Recomendações para governança de IA
Todas as recomendações nesta seção são relevantes para a seguinte área de foco: governança, risco e compliance na nuvem.
Google Cloud oferece um conjunto robusto de ferramentas e serviços que podem ser usados para criar sistemas de IA responsáveis e éticos. Também oferecemos um framework de políticas, procedimentos e considerações éticas que podem orientar o desenvolvimento, a implantação e o uso de sistemas de IA.
Conforme refletido nas nossas recomendações, a abordagem do Google para governança de IA é orientada pelos seguintes princípios:
- Imparcialidade
- Transparência
- Responsabilidade
- Privacidade
- Segurança
Usar indicadores de imparcialidade
A Vertex AI pode detectar vieses durante a coleta de dados ou o processo de avaliação pós-treinamento. A Vertex AI fornece métricas de avaliação de modelo, como viés de dados e viés de modelo, para ajudar você a avaliar o modelo quanto ao viés.
Essas métricas estão relacionadas à imparcialidade em diferentes categorias, como raça, gênero e classe. No entanto, interpretar desvios estatísticos não é um exercício simples, porque as diferenças entre categorias podem não ser resultado de viés ou um sinal de dano.
Usar o Vertex Explainable AI
Para entender como os modelos de IA tomam decisões, use a Vertex Explainable AI. Esse recurso ajuda a identificar possíveis vieses que podem estar ocultos na lógica do modelo.
Esse recurso de explicabilidade é integrado ao BigQuery ML e à Vertex AI, que oferecem explicações baseadas em atributos. É possível fazer a explicabilidade no BigQuery ML ou registrar seu modelo na Vertex AI e fazer a explicabilidade na Vertex AI.
Rastrear linhagem de dados
Rastreie a origem e a transformação dos dados usados nos seus sistemas de IA. Esse rastreamento ajuda você a entender a jornada dos dados e identificar possíveis fontes de viés ou erro.
A linhagem de dados é um recurso do Dataplex Universal Catalog que permite acompanhar como os dados se movimentam nos sistemas: origem, destino e quais transformações são aplicadas a eles.
Estabelecer responsabilidade
Estabeleça responsabilidades claras para o desenvolvimento, a implantação e os resultados dos seus sistemas de IA.
Use o Cloud Logging para registrar eventos e decisões importantes tomadas pelos seus sistemas de IA. Os registros fornecem uma trilha de auditoria para ajudar você a entender o desempenho do sistema e identificar áreas de melhoria.
Use o Error Reporting para analisar sistematicamente os erros cometidos pelos sistemas de IA. Essa análise pode revelar padrões que apontam para vieses implícitos ou áreas em que o modelo precisa de mais refinamento.
Implementar a privacidade diferencial
Durante o treinamento de modelo, adicione ruído aos dados para dificultar a identificação de pontos de dados individuais, mas ainda permitir que o modelo aprenda com eficiência. Com o SQL no BigQuery, é possível transformar os resultados de uma consulta com agregações diferencialmente particulares.