Vertex AI에서 원격 모델로 예측

Vertex AI 엔드포인트를 원격 모델로 등록하고 ML.PREDICT를 사용하여 BigQuery에서 바로 호출할 수 있습니다.

이는 모델이 BigQuery로 가져오기에 너무 큰 경우이거나, 온라인, 일괄, 마이크로 배치 사용 사례에 단일 추론 지점을 사용하려는 경우에 유용합니다.

이 튜토리얼에서는 일반 텍스트 IMDB 영화 리뷰로 BERT 모델을 미세 조정하여 맞춤설정된 감정 분석 모델을 사용합니다. 결과 모델은 텍스트 입력(영화 리뷰)을 사용하고 (0, 1) 사이의 감정 점수를 반환합니다. 모델은 Vertex AI Model Registry에 등록되고 Vertex AI 엔드포인트에 제공됩니다. 그러면 모델이 원격 모델로 BigQuery에 추가됩니다. BigQuery의 원격 모델을 사용하여 텍스트 열에 대한 감정 예측을 얻을 수 있습니다(100,000개 행 테이블의 bigquery-public-data.imdb.reviews 리뷰).

Python 버전 GitHub 튜토리얼은 BQML 원격 모델 튜토리얼을 참조하세요.

워크플로 개요

튜토리얼 설정

이 튜토리얼에서는 Cloud Storage, Vertex AI, BigQuery와 같은 비용이 청구될 수 있는 Google Cloud 구성요소를 사용합니다. 이 튜토리얼을 마친 후 청구 가능한 구성요소를 삭제합니다.

  1. Vertex AI, Cloud Storage, BigQuery Cloud 리소스 연결에 대해 API를 사용 설정하려면 여기를 클릭하세요.
  2. Cloud Storage: 이 안내에 따라 기본 US 멀티 리전에서 버킷을 만듭니다.

ML 모델 만들기

BQML 원격 모델 튜토리얼을 사용하여 모델을 만듭니다. 여기에는 분류 레이어를 추가하는 동안 BERT 모델을 조정하여 만든 감정 분석 예측 모델이 포함됩니다.

샘플 모델을 이미 학습시킨 후 직접 사용할 수 있도록 gs://cloud-samples-data/bigquery/ml/remote_model_tutorial/에 업로드해 두었습니다.

Vertex AI에 모델 배포

안내에 따라 Vertex AI Model Registry에 모델을 등록합니다.

안내에 따라 Vertex AI Model Registry의 모델을 Vertex AI 엔드포인트에 배포합니다.

최대 컴퓨팅 노드 수를 설정하는 것이 좋습니다. 이렇게 하면 Vertex AI 측에서 자동 확장 기능이 사용 설정되고 BigQuery 데이터 테이블에 행이 많은 경우 엔드포인트에서 더 많은 요청을 처리할 수 있습니다.

BigQuery ML 원격 모델

BigQuery ML 원격 모델 생성 과정은 BigQuery Cloud 리소스 연결과 연결을 사용하는 BigQuery 원격 모델과 같은 두 가지 구성요소로 이루어집니다.

BigQuery Cloud 리소스 연결 만들기

Vertex AI에 연결하려면 Cloud 리소스 연결이 필요합니다.

다음 옵션 중 하나를 선택합니다.

콘솔

  1. BigQuery 페이지로 이동합니다.

    BigQuery로 이동

  2. 연결을 만들려면 추가를 클릭한 다음 외부 데이터 소스에 연결을 클릭합니다.

  3. 연결 유형 목록에서 Vertex AI 원격 모델, 원격 함수, BigLake(Cloud 리소스)를 선택합니다.

  4. 연결 ID 필드에 연결 이름을 입력합니다.

  5. 연결 만들기를 클릭합니다.

  6. 연결로 이동을 클릭합니다.

  7. 연결 정보 창에서 나중의 단계에 사용할 서비스 계정 ID를 복사합니다.

bq

  1. 명령줄 환경에서 연결을 만듭니다.

    bq mk --connection --location=REGION --project_id=PROJECT_ID \
        --connection_type=CLOUD_RESOURCE CONNECTION_ID

    --project_id 매개변수는 기본 프로젝트를 재정의합니다.

    다음을 바꿉니다.

    • REGION: 연결 리전
    • PROJECT_ID: Google Cloud 프로젝트 ID
    • CONNECTION_ID: 연결의 ID

    연결 리소스를 만들면 BigQuery가 고유한 시스템 서비스 계정을 만들고 이를 연결에 연계합니다.

    문제 해결: 다음 연결 오류가 발생하면 Google Cloud SDK를 업데이트하세요.

    Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
    
  2. 이후 단계에서 사용할 수 있도록 서비스 계정 ID를 가져와 복사합니다.

    bq show --connection PROJECT_ID.REGION.CONNECTION_ID

    출력은 다음과 비슷합니다.

    name                          properties
    1234.REGION.CONNECTION_ID     {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
    

Terraform

google_bigquery_connection 리소스를 사용합니다.

BigQuery에 인증하려면 애플리케이션 기본 사용자 인증 정보를 설정합니다. 자세한 내용은 클라이언트 라이브러리의 인증 설정을 참조하세요.

다음 예에서는 US 리전에 my_cloud_resource_connection라는 Cloud 리소스 연결을 만듭니다.


# This queries the provider for project information.
data "google_project" "default" {}

# This creates a cloud resource connection in the US region named my_cloud_resource_connection.
# Note: The cloud resource nested object has only one output field - serviceAccountId.
resource "google_bigquery_connection" "default" {
  connection_id = "my_cloud_resource_connection"
  project       = data.google_project.default.project_id
  location      = "US"
  cloud_resource {}
}

Google Cloud 프로젝트에 Terraform 구성을 적용하려면 다음 섹션의 단계를 완료하세요.

Cloud Shell 준비

  1. Cloud Shell을 실행합니다.
  2. Terraform 구성을 적용할 기본 Google Cloud 프로젝트를 설정합니다.

    이 명령어는 프로젝트당 한 번만 실행하면 되며 어떤 디렉터리에서도 실행할 수 있습니다.

    export GOOGLE_CLOUD_PROJECT=PROJECT_ID

    Terraform 구성 파일에서 명시적 값을 설정하면 환경 변수가 재정의됩니다.

디렉터리 준비

각 Terraform 구성 파일에는 자체 디렉터리(루트 모듈이라고도 함)가 있어야 합니다.

  1. Cloud Shell에서 디렉터리를 만들고 해당 디렉터리 내에 새 파일을 만드세요. 파일 이름에는 .tf 확장자가 있어야 합니다(예: main.tf). 이 튜토리얼에서는 파일을 main.tf라고 합니다.
    mkdir DIRECTORY && cd DIRECTORY && touch main.tf
  2. 튜토리얼을 따라 하는 경우 각 섹션이나 단계에서 샘플 코드를 복사할 수 있습니다.

    샘플 코드를 새로 만든 main.tf에 복사합니다.

    필요한 경우 GitHub에서 코드를 복사합니다. 이는 Terraform 스니펫이 엔드 투 엔드 솔루션의 일부인 경우에 권장됩니다.

  3. 환경에 적용할 샘플 매개변수를 검토하고 수정합니다.
  4. 변경사항을 저장합니다.
  5. Terraform을 초기화합니다. 이 작업은 디렉터리당 한 번만 수행하면 됩니다.
    terraform init

    원하는 경우 최신 Google 공급업체 버전을 사용하려면 -upgrade 옵션을 포함합니다.

    terraform init -upgrade

변경사항 적용

  1. 구성을 검토하고 Terraform에서 만들거나 업데이트할 리소스가 예상과 일치하는지 확인합니다.
    terraform plan

    필요에 따라 구성을 수정합니다.

  2. 다음 명령어를 실행하고 프롬프트에 yes를 입력하여 Terraform 구성을 적용합니다.
    terraform apply

    Terraform에 '적용 완료' 메시지가 표시될 때까지 기다립니다.

  3. 결과를 보려면 Google Cloud 프로젝트를 엽니다. Google Cloud 콘솔에서 UI의 리소스로 이동하여 Terraform이 리소스를 만들었거나 업데이트했는지 확인합니다.

액세스 설정

연결의 서비스 계정에 Vertex AI 사용자 역할을 부여합니다. BigQuery ML 원격 모델 만들기 섹션의 원격 모델 엔드포인트 URL(또는 짧은 버전 엔드포인트를 사용하는 경우 모델 프로젝트)에 지정할 동일한 프로젝트에서 이 역할을 부여해야 합니다. 다른 프로젝트에서 역할을 부여하면 bqcx-1234567890-xxxx@gcp-sa-bigquery-condel.iam.gserviceaccount.com does not have the permission to access resource 오류가 발생합니다.

역할을 부여하려면 다음 단계를 따르세요.

  1. IAM 및 관리자 페이지로 이동합니다.

    IAM 및 관리자로 이동

  2. 액세스 권한 부여를 클릭합니다.

  3. 새 주 구성원 필드에 앞에서 복사한 서비스 계정 ID를 입력합니다.

  4. 역할 선택 필드에서 Vertex AI를 선택한 후 Vertex AI 사용자 역할을 선택합니다.

  5. 저장을 클릭합니다.

데이터 세트 만들기

ML 모델을 저장할 BigQuery 데이터 세트를 만듭니다.

  1. Google Cloud 콘솔에서 BigQuery 페이지로 이동합니다.

    BigQuery 페이지로 이동

  2. 탐색기 창에서 프로젝트 이름을 클릭합니다.

  3. 작업 보기 > 데이터 세트 만들기를 클릭합니다.

    데이터 세트 만들기

  4. 데이터 세트 만들기 페이지에서 다음을 수행합니다.

    • 데이터 세트 IDbqml_tutorial를 입력합니다.

    • 위치 유형에 대해 멀티 리전을 선택한 다음 US(미국 내 여러 리전)를 선택합니다.

      공개 데이터 세트는 US 멀티 리전에 저장됩니다. 편의상 같은 위치에 데이터 세트를 저장합니다.

    • 나머지 기본 설정은 그대로 두고 데이터 세트 만들기를 클릭합니다.

      데이터 세트 만들기 페이지

BigQuery ML 원격 모델 만들기

엔드포인트에 요청을 전송하여 TensorFlow 모델의 입력 및 출력 스키마를 확인하려면 다음 단계를 따르세요.

요청 예시:

curl -X POST -H "Authorization: Bearer $(gcloud auth print-access-token)" -H "Content-Type: application/json" https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/endpoints/ENDPOINT_ID:predict -d "{'instances': [{ 'text': 'This is an amazing movie'}, { 'text': 'The movie was terrible'}]}"

응답의 예시:

{
  "predictions": [
    [
      [ 0.999410391 ]
    ],
    [
      [ 0.000628352049 ]
    ]
  ]
}

원격 모델을 만들 때 입력 및 출력 필드 이름과 유형은 Vertex AI 입력 및 출력과 정확히 동일해야 합니다.

단일 출력이 있는 모델의 경우 Vertex AI는 필드 이름을 반환하지 않습니다. CREATE MODEL에서 필드 이름을 지정할 수 있습니다.

다음 예시는 연결을 사용하여 원격 모델을 만드는 방법을 보여줍니다.

CREATE OR REPLACE MODEL `PROJECT_ID.bqml_tutorial.bert_sentiment`
    INPUT (text STRING)
    OUTPUT(scores ARRAY<FLOAT64>)
    REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID`
    OPTIONS(endpoint = 'ENDPOINT_URL')

ML.PREDICT로 예측 가져오기

ML.PREDICT 함수를 사용하여 BigQuery의 원격 모델에서 예측을 가져오세요. 여기에서는 10,000개의 레코드가 선택되고 예측을 위해 전송됩니다. 원격 모델의 배치 크기는 기본적으로 요청의 인스턴스 128개로 설정됩니다.

SELECT *
FROM ML.PREDICT (
    MODEL `PROJECT_ID.bqml_tutorial.bert_sentiment`,
    (
        SELECT review as text
        FROM `bigquery-public-data.imdb.reviews`
        LIMIT 10000
    )
)

지원되는 리전

BigQuery에는 두 가지 유형의 위치가 있습니다.

  • 리전은 특정한 지리적 장소(예: 런던)입니다.
  • 멀티 리전은 두 개 이상의 지리적 장소를 포함하는 넓은 지리적 지역(예: 미국)입니다.

단일 리전

BigQuery 단일 리전 데이터 세트의 경우 동일한 리전에 배포된 Vertex AI 엔드포인트를 사용하는 원격 모델만 만들 수 있습니다. BigQuery 단일 리전 us-central1의 원격 모델은 us-central1의 Vertex AI만 사용할 수 있습니다. 따라서 단일 리전의 경우 Vertex AI와 BigQuery를 모두 지원하는 리전에서만 원격 모델이 지원됩니다.

멀티 리전

BigQuery 멀티 리전(US, EU) 데이터 세트에서 동일한 대규모 지리적 영역(US, EU) 내 리전에 배포된 원격 모델을 사용하는 원격 모델만 만들 수 있습니다. 예를 들어, BigQuery 미국 멀티 리전의 원격 모델은 us-central1, us-east4, us-west2 등 미국 지리적 영역 내의 단일 리전에 배포된 Vertex AI 엔드포인트만 사용할 수 있습니다.

BigQuery EU 멀티 리전의 원격 모델은 유럽 연합 회원국에 속하는 단일 리전(예: europe-north1, europe-west3 등)에 배포된 Vertex AI 엔드포인트만 사용할 수 있습니다.

BigQuery 리전 및 멀티 리전에 대한 자세한 내용은 데이터 세트 위치 페이지를 참조하세요. Vertex AI 리전에 대한 자세한 내용은 Vertex AI 위치를 참조하세요.

VPC 서비스 제어 사용

VPC 서비스 제어는 데이터 무단 반출을 방지하기 위해 보안 경계를 설정할 수 있는 Google Cloud 기능입니다. 추가 보안을 위해 원격 모델과 함께 VPC 서비스 제어를 사용하려면 VPC 서비스 제어 가이드를 따라 서비스 경계를 만드세요.

원격 모델을 사용하여 쿼리의 BigQuery 프로젝트를 경계에 추가합니다. 엔드포인트 프로젝트를 경계에 추가하고 엔드포인트 유형에 따라 제한된 서비스에서 Vertex AI API를 설정합니다. 자세한 내용은 Vertex AI VPC 서비스 제어를 참조하세요.

삭제

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.