ML.TRANSCRIBE 함수를 사용하여 오디오 파일 텍스트 변환

이 문서에서는 원격 모델에서 ML.TRANSCRIBE 함수를 사용하여 객체 테이블에서 오디오 파일을 텍스트로 변환하는 방법을 설명합니다.

지원되는 위치

다음 위치 중 하나에서 이 절차에 사용되는 원격 모델을 만들어야 합니다.

  • asia-northeast1
  • asia-south1
  • asia-southeast1
  • australia-southeast1
  • eu
  • europe-west1
  • europe-west2
  • europe-west3
  • europe-west4
  • northamerica-northeast1
  • us
  • us-central1
  • us-east1
  • us-east4
  • us-west1

원격 모델과 같은 리전에서 ML.TRANSCRIBE 함수를 실행해야 합니다.

필수 권한

  • Speech-to-Text 인식기를 사용하려면 다음 역할이 필요합니다.

    • speech.recognizers.create
    • speech.recognizers.get
    • speech.recognizers.recognize
    • speech.recognizers.update
  • 연결을 만들려면 다음 역할의 멤버십이 필요합니다.

    • roles/bigquery.connectionAdmin
  • BigQuery ML을 사용하여 모델을 만들려면 다음 권한이 필요합니다.

    • bigquery.jobs.create
    • bigquery.models.create
    • bigquery.models.getData
    • bigquery.models.updateData
    • bigquery.models.updateMetadata
  • 추론을 실행하려면 다음 권한이 필요합니다.

    • 객체 테이블에 대한 bigquery.tables.getData
    • 모델에 대한 bigquery.models.getData
    • bigquery.jobs.create

시작하기 전에

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the BigQuery, BigQuery Connection API, and Speech-to-Text APIs.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  6. Make sure that billing is enabled for your Google Cloud project.

  7. Enable the BigQuery, BigQuery Connection API, and Speech-to-Text APIs.

    Enable the APIs

인식기 만들기

Speech-to-Text는 인식기라는 리소스를 지원합니다. 인식기는 저장되고 재사용 가능한 인식 구성을 나타냅니다. 인식기를 만들어 애플리케이션의 스크립트 작성 또는 트래픽을 논리적으로 그룹화할 수 있습니다.

음성 인식기를 만드는 것은 선택사항입니다. 음성 인식기를 만들 경우 SPEECH_RECOGNIZER에 설명된 대로 CREATE MODEL 문에서 사용할 인식기의 프로젝트 ID, 위치, 인식기 ID를 기록해 둡니다. 음성 인식기를 만들지 않도록 선택한 경우 ML.TRANSCRIBE 함수의 recognition_config 인수 값을 지정해야 합니다.

음성 인식기 또는 제공한 recognition_config 값에서만 chirp 스크립트 작성 모델을 사용할 수 있습니다.

연결 만들기

클라우드 리소스 연결을 만들고 연결의 서비스 계정을 가져옵니다.

다음 옵션 중 하나를 선택합니다.

콘솔

  1. BigQuery 페이지로 이동합니다.

    BigQuery로 이동

  2. 연결을 만들려면 추가를 클릭한 다음 외부 데이터 소스에 연결을 클릭합니다.

  3. 연결 유형 목록에서 Vertex AI 원격 모델, 원격 함수, BigLake(Cloud 리소스)를 선택합니다.

  4. 연결 ID 필드에 연결 이름을 입력합니다.

  5. 연결 만들기를 클릭합니다.

  6. 연결로 이동을 클릭합니다.

  7. 연결 정보 창에서 나중의 단계에 사용할 서비스 계정 ID를 복사합니다.

bq

  1. 명령줄 환경에서 연결을 만듭니다.

    bq mk --connection --location=REGION --project_id=PROJECT_ID \
        --connection_type=CLOUD_RESOURCE CONNECTION_ID

    --project_id 매개변수는 기본 프로젝트를 재정의합니다.

    다음을 바꿉니다.

    • REGION: 연결 리전
    • PROJECT_ID: Google Cloud 프로젝트 ID
    • CONNECTION_ID: 연결의 ID

    연결 리소스를 만들면 BigQuery가 고유한 시스템 서비스 계정을 만들고 이를 연결에 연계합니다.

    문제 해결: 다음 연결 오류가 발생하면 Google Cloud SDK를 업데이트하세요.

    Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
    
  2. 이후 단계에서 사용할 수 있도록 서비스 계정 ID를 가져와 복사합니다.

    bq show --connection PROJECT_ID.REGION.CONNECTION_ID

    출력은 다음과 비슷합니다.

    name                          properties
    1234.REGION.CONNECTION_ID     {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
    

Terraform

main.tf 파일에 다음 섹션을 추가합니다.

 ## This creates a cloud resource connection.
 ## Note: The cloud resource nested object has only one output only field - serviceAccountId.
 resource "google_bigquery_connection" "connection" {
    connection_id = "CONNECTION_ID"
    project = "PROJECT_ID"
    location = "REGION"
    cloud_resource {}
}        
다음을 바꿉니다.

  • CONNECTION_ID: 연결의 ID
  • PROJECT_ID: Google Cloud 프로젝트 ID
  • REGION: 연결 리전

서비스 계정에 액세스 권한 부여

다음 옵션 중 하나를 선택합니다.

콘솔

  1. IAM 및 관리자 페이지로 이동합니다.

    IAM 및 관리자로 이동

  2. 액세스 권한 부여를 클릭합니다.

    주 구성원 추가 대화상자가 열립니다.

  3. 새 주 구성원 필드에 앞에서 복사한 서비스 계정 ID를 입력합니다.

  4. 역할 선택 필드를 클릭한 후 필터Cloud Speech Client를 입력합니다.

  5. 다른 역할 추가를 클릭합니다.

  6. 역할 선택 필드에서 Cloud Storage를 선택한 후 스토리지 객체 뷰어를 선택합니다.

  7. 저장을 클릭합니다.

gcloud

gcloud projects add-iam-policy-binding 명령어를 사용합니다.

gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/speech.client' --condition=None
gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/storage.objectViewer' --condition=None

다음을 바꿉니다.

  • PROJECT_NUMBER: 프로젝트 번호
  • MEMBER: 이전에 복사한 서비스 계정 ID입니다.

권한을 부여할 수 없으면 Permission denied 오류가 발생합니다.

데이터 세트 만들기

모델과 객체 테이블을 포함할 데이터 세트를 만듭니다.

객체 테이블 만들기

Cloud Storage의 오디오 파일 세트를 대상으로 객체 테이블을 만듭니다. 객체 테이블의 오디오 파일은 지원되는 유형이어야 합니다.

객체 테이블에서 사용하는 Cloud Storage 버킷은 모델을 만들고 ML.TRANSCRIBE 함수를 호출하려는 동일한 프로젝트에 있어야 합니다. 객체 테이블에서 사용하는 Cloud Storage 버킷이 포함된 프로젝트가 아닌 다른 프로젝트에서 ML.TRANSCRIBE 함수를 호출하려면 service-A@gcp-sa-aiplatform.iam.gserviceaccount.com 서비스 계정에 버킷 수준에서 스토리지 관리자 역할을 부여해야 합니다.

모델 만들기

CLOUD_AI_SPEECH_TO_TEXT_V2REMOTE_SERVICE_TYPE을 사용하여 원격 모델을 만듭니다.

CREATE OR REPLACE MODEL
`PROJECT_ID.DATASET_ID.MODEL_NAME`
REMOTE WITH CONNECTION `PROJECT_ID.REGION.CONNECTION_ID`
OPTIONS (
  REMOTE_SERVICE_TYPE = 'CLOUD_AI_SPEECH_TO_TEXT_V2',
  SPEECH_RECOGNIZER = 'projects/PROJECT_NUMBER/locations/LOCATION/recognizers/RECOGNIZER_ID'
);

다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • DATASET_ID: 모델을 포함할 데이터 세트의 ID
  • MODEL_NAME: 모델의 이름
  • REGION: 연결에 사용되는 리전입니다.
  • CONNECTION_ID: 연결 ID입니다(예: myconnection).

    Google Cloud 콘솔에서 연결 세부정보를 볼 때 연결 ID는 연결 ID에 표시되는 정규화된 연결 ID의 마지막 섹션에 있는 값입니다(예: projects/myproject/locations/connection_location/connections/myconnection).

  • PROJECT_NUMBER: 음성 인식기가 포함된 프로젝트의 프로젝트 번호입니다. Google Cloud 콘솔의 대시보드 페이지에 있는 프로젝트 정보 카드에서 이 값을 찾을 수 있습니다.
  • LOCATION: 음성 인식기에서 사용하는 위치입니다. Google Cloud 콘솔의 인식기 나열 페이지에 있는 위치 필드에서 이 값을 찾을 수 있습니다.
  • RECOGNIZER_ID: 음성 인식기 ID입니다. Google Cloud 콘솔의 인식기 나열 페이지에 있는 ID 필드에서 이 값을 찾을 수 있습니다.

    이 옵션은 필수가 아닙니다. 값을 지정하지 않으면 기본 인식기가 사용됩니다. 이 경우 기본 인식기에 구성을 제공하려면 ML.TRANSCRIBE 함수의 recognition_config 파라미터 값을 지정해야 합니다.

    제공하는 recognition_config 값에서만 chirp 스크립트 작성 모델을 사용할 수 있습니다.

오디오 파일 텍스트 변환

ML.TRANSCRIBE 함수를 사용하여 오디오 파일을 텍스트로 변환합니다.

SELECT *
FROM ML.TRANSCRIBE(
  MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`,
  TABLE `PROJECT_ID.DATASET_ID.OBJECT_TABLE_NAME`,
  RECOGNITION_CONFIG => ( JSON 'recognition_config')
);

다음을 바꿉니다.

  • PROJECT_ID: 프로젝트 ID
  • DATASET_ID: 모델이 포함된 데이터 세트의 ID
  • MODEL_NAME: 모델의 이름
  • OBJECT_TABLE_NAME: 처리할 오디오 파일의 URI가 포함된 객체 테이블의 이름
  • recognition_config: JSON 형식의 RecognitionConfig 리소스

    인식기가 SPEECH_RECOGNIZER 옵션을 사용하여 원격 모델에 지정된 경우 recognition_config 값을 지정할 수 없습니다.

    SPEECH_RECOGNIZER 옵션을 사용하여 원격 모델에 인식기가 지정되지 않은 경우 recognition_config 값을 지정해야 합니다. 이 값은 기본 인식기에 구성을 제공하는 데 사용됩니다.

    제공하는 recognition_config 값에서만 chirp 스크립트 작성 모델을 사용할 수 있습니다.

예시

예시 1

다음 예시에서는 인식기의 기본 구성을 재정의하지 않고 audio 테이블로 표시되는 오디오 파일을 텍스트로 변환합니다.

SELECT *
FROM ML.TRANSCRIBE(
  MODEL `myproject.mydataset.transcribe_model`,
  TABLE `myproject.mydataset.audio`
);

다음 예시에서는 audio 테이블로 표시되는 오디오 파일을 텍스트로 변환하고 기본 인식기의 구성을 제공합니다.

SELECT *
FROM ML.TRANSCRIBE(
  MODEL `myproject.mydataset.transcribe_model`,
  TABLE `myproject.mydataset.audio`,
  recognition_config => ( JSON '{"language_codes": ["en-US" ],"model": "chirp","auto_decoding_config": {}}')
);

다음 단계