책임감 있는 AI

대규모 언어 모델(LLM)은 언어 번역, 텍스트 요약, 창작 작성, 코드 생성, 챗봇 및 가상 어시스턴트 구동, 검색엔진 및 추천 시스템 보완을 수행할 수 있습니다. 그와 동시에 초기 단계 기술로서 발전하는 기능과 이를 활용하면 악용, 오용, 의도치 않거나 예측하지 못한 결과가 발생할 수 있습니다. 대형 언어 모델은 불쾌감을 주거나 민감하지 않거나 사실에 맞지 않는 텍스트를 포함하여 예상치 못한 출력을 생성할 수 있습니다.

또한 LLM의 놀라운 다양성으로 인해 발생할 수 있는 의도치 않거나 예측하지 못한 출력의 유형을 정확히 예측하기가 어렵습니다. 이러한 위험과 복잡성을 고려하여 Vertex AI 생성형 AI API는 Google의 AI 원칙을 염두에 두고 설계되었습니다. 그러나 개발자가 이를 이해하고 안전하고 책임감 있는 배포를 위해 모델을 테스트하는 것이 중요합니다. Vertex AI Studio에서는 개발자를 지원하기 위해 콘텐츠 필터링이 기본 제공되며 Google의 생성형 AI API는 고객이 Google의 안전 필터를 테스트하고 사용 사례와 비즈니스에 적합한 신뢰도 기준을 정의하는 데 도움이 되는 안전 속성 점수를 제공합니다. 자세한 내용은 안전 필터 및 속성 섹션을 참조하세요.

생성형 API가 고유한 사용 사례 및 컨텍스트에 통합된 경우 추가적인 책임감 있는 AI 고려사항과 제한사항을 고려해야 합니다. 공정성, 해석 가능성, 개인 정보 보호 및 보안 권장 지침을 승격하는 것이 좋습니다.

안전 필터 및 속성

API에 안전 필터 및 속성을 사용하는 방법은 다음 페이지를 참조하세요.

모델 제한사항

생성형 AI 모델을 사용할 때 발생할 수 있는 제한사항은 다음과 같습니다(이에 국한되지 않음).

  • 특이한 케이스: 특이한 케이스는 학습 데이터에 잘 표현되지 않는 일반적이지 않거나 드물거나 예외적인 상황을 나타냅니다. 이러한 케이스로 인해 모델 과신, 잘못된 컨텍스트 해석, 부적절한 출력 등 모델 성능이 제한될 수 있습니다.

  • 모델 할루시네이션, 그라운딩, 사실성: 생성형 AI 모델은 실제 지식, 물리적 속성 또는 정확한 이해에 대한 사실성이 부족할 수 있습니다. 이러한 제한사항으로 인해 모델 할루시네이션이 발생할 수 있습니다. 모델 할루시네이션이란 그럴싸하게 들리지만 사실 관계가 틀렸거나, 관련성이 없거나, 부적절하거나, 모순적인 출력이 생성될 수 있는 경우를 의미합니다. 이러한 오류 가능성을 줄이기 위해 모델을 특정 데이터 기반으로 학습시킬 수 있습니다. Vertex AI의 그라운딩에 대한 자세한 내용은 그라운딩 개요를 참조하세요.

  • 데이터 품질 및 미세 조정: 모델에 표시되는 프롬프트 또는 데이터 입력의 품질, 정확성, 편향은 성능에 큰 영향을 미칠 수 있습니다. 사용자가 부정확하거나 잘못된 데이터 또는 프롬프트를 입력하면 모델에 최적화되지 않은 성능이나 거짓 모델 출력이 있을 수 있습니다.

  • 편향 증폭: 생성형 AI 모델은 학습 데이터의 기존 편향을 의도치 않게 증폭시켜 사회적 편견과 특정 그룹의 불공평한 대우를 더욱 강화하는 결과가 발생할 수 있습니다.

  • 언어 품질: 모델은 평가 대상 벤치마크에 매우 뛰어난 다국어 기능을 제공하지만 대부분의 벤치마크(모든 공정성 평가 포함)는 영어로 제공됩니다. 자세한 내용은 Google 연구팀 블로그를 참조하세요.

    • 생성형 AI 모델은 사용자마다 일관성 없는 서비스 품질을 제공할 수 있습니다. 예를 들어 학습 데이터의 과소 표현으로 인해 텍스트 생성이 일부 언어나 언어 다양성에 효과적이지 않을 수 있습니다. 영어가 아닌 언어나 표현이 적은 영어와 유사한 언어의 경우 성능이 저하될 수 있습니다.
  • 공정성 벤치마크 및 하위 그룹: 생성형 AI 모델에 대한 Google 연구팀의 공정성 분석은 다양한 잠재적 위험을 포괄적으로 다루지 않습니다. 예를 들어 성별, 인종, 민족성, 종교 축에 따른 편향에 초점을 맞추지만 영어 데이터와 데이터 출력에 대한 분석만 수행합니다. 자세한 내용은 Google 연구팀 블로그를 참조하세요.

  • 제한된 도메인 전문 지식: 생성형 AI 모델은 고도로 전문화되거나 기술적인 주제에 대한 정확하고 자세한 응답을 제공하는 데 필요한 깊이 있는 지식이 부족하여 피상적이거나 잘못된 정보를 전달할 수 있습니다. 전문화되고 복잡한 사용 사례의 경우 모델은 도메인 특정 데이터에 맞게 조정되어야 하며 개별 권리에 중대한 영향을 미칠 가능성이 있는 컨텍스트에 인간이 의미 있게 감독해야 합니다.

  • 입력 및 출력의 길이와 구조: 생성형 AI 모델은 최대 입력 및 출력 토큰 한도가 있습니다. 입력이나 출력이 이 한도를 초과하면 안전 분류자가 적용되지 않으므로 결국 모델 성능이 저하될 수 있습니다. 모델은 광범위한 텍스트 형식을 처리하도록 설계되었지만 입력 데이터가 비정상적이거나 복잡한 구조인 경우 성능에 영향을 줄 수 있습니다.

이 기술을 안전하고 책임감 있게 사용하려면 또한 내장된 기술적 보호 장치 외에도 사용 사례, 사용자, 비즈니스 컨텍스트에 따라 기타 위험 요소를 고려하는 것이 중요합니다.

다음 조치를 취하는 것이 좋습니다.

  1. 애플리케이션의 보안 위험을 평가합니다.
  2. 사용 사례에 적합한 안전 테스트를 수행합니다.
  3. 필요한 경우 안전 필터를 구성합니다.
  4. 사용자 피드백을 요청하고 콘텐츠를 모니터링합니다.

악용 사례 신고

Google Cloud에서 의심스러운 악용 사례 신고 양식을 사용하여 악용이 의심되는 서비스 또는 부적절한 자료나 부정확한 정보를 포함하는 생성된 출력을 신고할 수 있습니다.

추가 리소스