잘 설계된 프레임워크: AI 및 ML 관점의 이 문서는 AI 및 ML 배포가 조직의 보안 및 규정 준수 요구사항을 충족할 수 있도록 하는 원칙과 권장사항을 간략히 설명합니다. 이 문서의 권장사항은 Google Cloud 잘 설계된 프레임워크의 보안 핵심 요소와 일치합니다.
AI 및 ML 워크로드의 안전한 배포는 특히 엔터프라이즈 환경에서 중요한 요구사항입니다. 이 요구사항을 충족하려면 AI 및 ML 솔루션의 초기 개념화부터 개발, 배포, 지속적인 운영에 이르기까지 종합적인 보안 접근 방식을 채택해야 합니다. Google Cloud 은 AI 및 ML 워크로드를 보호하는 데 도움이 되도록 설계된 강력한 도구와 서비스를 제공합니다.
명확한 목표 및 요구사항 정의
개발 후에 컨트롤을 추가하는 것보다 설계 및 개발 프로세스 초기에 필수 보안 및 규정 준수 제어를 통합하는 것이 더 쉽습니다. 설계 및 개발 프로세스를 시작할 때 특정 위험 환경과 비즈니스 우선순위에 적합한 결정을 내리세요.
다음 권장사항을 고려하세요.
- 잠재적인 공격 벡터를 식별하고 처음부터 보안 및 규정 준수 관점을 채택합니다. AI 시스템을 설계하고 발전시킬 때 공격 표면, 잠재적 위험, 직면할 수 있는 의무를 추적해야 합니다.
- AI 및 ML 보안 작업을 비즈니스 목표에 맞추고 보안이 전체 전략의 핵심이 되도록 합니다. 보안 선택사항이 주요 비즈니스 목표에 미치는 영향을 이해하십시오.
데이터를 안전하게 보관하고 손실 또는 잘못된 처리 방지
데이터는 안전하게 보관해야 하는 중요하고 민감한 자산입니다. 데이터 보안을 통해 사용자의 신뢰를 유지하고 비즈니스 목표를 지원하며 규정 준수 요구사항을 충족할 수 있습니다.
다음 권장사항을 고려하세요.
- 비즈니스 목표에 꼭 필요하지 않은 데이터는 수집, 보관, 사용하지 마세요. 가능하면 합성 데이터 또는 완전히 익명처리된 데이터를 사용하세요.
- 데이터 수집, 저장, 변환 모니터링하기 모든 데이터 액세스 및 조작 활동에 대한 로그를 유지합니다. 로그를 사용하면 데이터 액세스를 감사하고 무단 액세스 시도를 감지하며 원치 않는 액세스를 방지할 수 있습니다.
- 사용자 역할에 따라 다양한 액세스 수준 (예: 액세스 권한 없음, 읽기 전용 또는 쓰기)을 구현합니다. 최소 권한의 원칙에 따라 권한이 할당되는지 확인합니다. 사용자에게는 역할 활동을 수행하는 데 필요한 최소한의 권한만 있어야 합니다.
- 암호화, 보안 경계, 데이터 이동 제한과 같은 조치를 구현합니다. 이러한 조치는 데이터 무단 반출 및 데이터 손실을 방지하는 데 도움이 됩니다.
- ML 학습 시스템의 데이터 포이즈닝을 방지합니다.
조작으로부터 AI 파이프라인을 안전하고 강력하게 보호
AI 및 ML 코드와 코드 정의 파이프라인은 중요한 애셋입니다. 보호되지 않은 코드는 조작될 수 있으며, 이로 인해 데이터 유출, 규정 준수 실패, 중요한 비즈니스 활동 중단이 발생할 수 있습니다. AI 및 ML 코드를 안전하게 유지하면 모델 및 모델 출력의 무결성과 가치를 유지하는 데 도움이 됩니다.
다음 권장사항을 고려하세요.
- 모델 개발 중에는 종속 항목 관리 또는 입력 검증 및 정리와 같은 안전한 코딩 방식을 사용하여 취약점을 방지하세요.
- 파이프라인 코드와 모델 아티팩트(예: 파일, 모델 가중치, 배포 사양)를 무단 액세스로부터 보호합니다. 사용자 역할 및 요구사항에 따라 각 아티팩트에 서로 다른 액세스 수준을 구현합니다.
- 애셋 및 파이프라인 실행의 계보와 추적을 적용합니다. 이 시행을 통해 규정 준수 요구사항을 충족하고 프로덕션 시스템의 손상을 방지할 수 있습니다.
안전한 도구와 아티팩트로 보안 시스템에 배포
환경에 배포된 도구와 아티팩트에 대한 보안을 보장하는 강력한 액세스 제어 시스템이 있는 안전한 환경에서 코드와 모델이 실행되도록 합니다.
다음 권장사항을 고려하세요.
- 적절한 액세스 제어와 무단 사용 또는 조작으로부터 보호받을 수 있는 안전한 환경에서 모델을 학습시키고 배포합니다.
- 모델 및 소프트웨어 패키지와 같은 AI 관련 아티팩트는 표준 SLSA (Supply-chain Levels for Software Artifacts) 가이드라인을 따릅니다.
- AI 워크로드를 위해 특별히 설계된 검증된 사전 빌드된 컨테이너 이미지를 사용하는 것이 좋습니다.
입력 보호 및 모니터링
AI 시스템에는 예측, 콘텐츠 생성 또는 작업 자동화에 입력이 필요합니다 일부 입력은 위험을 초래하거나 감지 및 정리가 필요한 공격 벡터로 사용될 수 있습니다. 잠재적인 악성 입력을 조기에 감지하면 AI 시스템의 보안을 유지하고 의도한 대로 작동하는 데 도움이 됩니다.
다음 권장사항을 고려하세요.
- 생성형 AI 시스템용 프롬프트를 개발 및 관리하기 위한 보안 관행을 구현하고, 프롬프트에 유해한 의도가 있는지 검증합니다.
- 예측 또는 생성 시스템에 대한 입력을 모니터링하여 과부하된 엔드포인트 또는 시스템에서 처리하도록 설계되지 않은 프롬프트와 같은 문제를 방지합니다.
- 배포된 시스템의 의도된 사용자만 사용할 수 있도록 합니다.
결과를 모니터링, 평가, 대응 준비
AI 시스템은 인간의 의사 결정을 보강, 최적화, 자동화하는 출력을 생성하기 때문에 가치를 제공합니다 AI 시스템과 애플리케이션의 무결성과 신뢰성을 유지하려면 출력이 안전하고 예상 매개변수 내에 있는지 확인해야 합니다. 사고 대응 계획도 필요합니다
다음 권장사항을 고려하세요.
- 프로덕션 환경에서 AI 및 ML 모델의 출력을 모니터링하고 성능, 보안, 규정 준수 문제를 식별합니다.
- 예측 모델에서 범위를 벗어난 생성 응답 또는 극단적인 출력을 식별하는 등 강력한 측정항목과 보안 조치를 구현하여 모델 성능을 평가합니다. 모델 성능에 대한 사용자 의견 수집
- 강력한 알림 및 이슈 대응 절차를 구현하여 잠재적 문제를 해결합니다.
참여자
저자:
- 카밀라 쿠르타 | 생성형 AI/ML 전문가 고객 엔지니어
- 필리페 그라시오, 박사 | 고객 엔지니어
- 모하메드 파우지 | 베네룩스 보안 및 규정 준수 리드
기타 참여자: