Envie uma solicitação de transcrição para o Cloud Speech-to-Text On-Prem

Pré-requisitos

  1. Conclua todas as etapas necessárias no guia de início rápido antes de começar.
  2. Implante a API.
  3. Consulte a API para verificar se ela está funcionando.

Instale dependências

  1. Clone python-speech e mude o diretório para o de amostra.

    $ git clone https://github.com/googleapis/python-speech.git
    $ cd python-speech/samples/snippets
    
  2. Instale o pip e o virtualenv, caso ainda não tenha feito isso. Para mais informações, consulte o Guia de configuração do ambiente para desenvolvedores do Python no Google Cloud Platform.

  3. Crie um virtualenv. As amostras abaixo são compatíveis com o Python 2.7 e 3.4+.

    $ virtualenv env
    $ source env/bin/activate
    
  4. Instale as dependências necessárias para executar as amostras.

    $ pip install -r requirements.txt
    

Exemplo de código

A amostra de código abaixo usa a biblioteca google-cloud-speech. É possível usar o GitHub para procurar na origem e informar problemas.

Transcrever um arquivo de áudio

Use a amostra de código abaixo para transcrever um arquivo de áudio usando um IP público ou um IP no nível do cluster. Para mais informações sobre tipos de IP, consulte a documentação sobre como consultar a API.

IP público:

    # Using a Public IP
    $ python transcribe_onprem.py --file_path="../resources/two_channel_16k.wav" --api_endpoint=${PUBLIC_IP}:443

IP no nível do cluster:

    # Using a cluster level IP
    $ kubectl port-forward -n $NAMESPACE $POD 10000:10000
    $ python transcribe_onprem.py --file_path="../resources/two_channel_16k.wav" --api_endpoint="0.0.0.0:10000"

Python

Para autenticar no Speech-to-Text, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local.

def transcribe_onprem(
    local_file_path: str,
    api_endpoint: str,
) -> speech_v1p1beta1.RecognizeResponse:
    """
    Transcribe a short audio file using synchronous speech recognition on-prem

    Args:
      local_file_path: The path to local audio file, e.g. /path/audio.wav
      api_endpoint: Endpoint to call for speech recognition, e.g. 0.0.0.0:10000

    Returns:
      The speech recognition response
          {
    """
    # api_endpoint = '0.0.0.0:10000'
    # local_file_path = '../resources/two_channel_16k.raw'

    # Create a gRPC channel to your server
    channel = grpc.insecure_channel(target=api_endpoint)
    transport = speech_v1p1beta1.services.speech.transports.SpeechGrpcTransport(
        channel=channel
    )

    client = speech_v1p1beta1.SpeechClient(transport=transport)

    # The language of the supplied audio
    language_code = "en-US"

    # Sample rate in Hertz of the audio data sent
    sample_rate_hertz = 16000

    # Encoding of audio data sent. This sample sets this explicitly.
    # This field is optional for FLAC and WAV audio formats.
    encoding = speech_v1p1beta1.RecognitionConfig.AudioEncoding.LINEAR16
    config = {
        "encoding": encoding,
        "language_code": language_code,
        "sample_rate_hertz": sample_rate_hertz,
    }
    with io.open(local_file_path, "rb") as f:
        content = f.read()
    audio = {"content": content}

    response = client.recognize(request={"config": config, "audio": audio})
    for result in response.results:
        # First alternative is the most probable result
        alternative = result.alternatives[0]
        print(f"Transcript: {alternative.transcript}")

    return response