Chirp: modello vocale universale

Chirp è la nuova generazione di modelli di sintesi vocale di Google. Rappresentando il culmine di anni di ricerca, la prima versione di Chirp è ora disponibile per Speech-to-Text. Abbiamo intenzione di migliorare ed espandere Chirp ad altre lingue e domini. Per maggiori dettagli, consulta il nostro documento Google USM.

Abbiamo addestrato i modelli Chirp con un'architettura diversa da quella dei nostri attuali modelli vocali. Un unico modello unifica i dati di più lingue. Tuttavia, gli utenti specificano comunque la lingua in cui il modello deve riconoscere la voce. Chirp non supporta alcune delle funzionalità di Google Speech presenti in altri modelli. Consulta Supporto e limitazioni delle funzionalità per un elenco completo.

Identificatori modello

Chirp è disponibile nell'API Speech-to-Text v2. Puoi utilizzarlo come qualsiasi altro modello.

L'identificatore del modello per Chirp è: chirp.

Puoi specificare questo modello nelle richieste di riconoscimento sincrone o batch.

Metodi API disponibili

Chirp elabora la voce in blocchi molto più grandi rispetto ad altri modelli. Ciò significa che potrebbe non essere adatto a un utilizzo in tempo reale. Chirp è disponibile tramite i seguenti metodi API:

Chirp non è disponibile per i seguenti metodi API:

  • v2 Speech.StreamingRecognize
  • v1 Speech.StreamingRecognize
  • v1 Speech.Recognize
  • v1 Speech.LongRunningRecognize
  • v1p1beta1 Speech.StreamingRecognize
  • v1p1beta1 Speech.Recognize
  • v1p1beta1 Speech.LongRunningRecognize

Regioni

Chirp è disponibile nelle seguenti regioni:

  • us-central1
  • europe-west4
  • asia-southeast1

Per ulteriori informazioni, consulta la pagina delle lingue.

Lingue

Puoi visualizzare le lingue supportate nell'elenco completo delle lingue.

Supporto e limitazioni delle funzionalità

Chirp non supporta alcune funzionalità dell'API STT:

  • Punteggi di affidabilità: l'API restituisce un valore, ma non si tratta di un vero e proprio punteggio di affidabilità.
  • Adattamento vocale: non sono supportate funzionalità di adattamento.
  • Diarizzazione: la diarizzazione automatica non è supportata.
  • Normalizzazione forzata: non supportata.
  • Confidenza a livello di parola: non supportata.
  • Rilevamento della lingua: non supportato.

Chirp supporta le seguenti funzionalità:

  • Punteggiatura automatica: la punteggiatura viene prevista dal modello. può essere disattivata.
  • Tempi delle parole: restituiti facoltativamente.
  • Trascrizione audio indipendente dalla lingua: il modello deduce automaticamente la lingua parlata nel file audio e la aggiunge ai risultati.

Prima di iniziare

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the Speech-to-Text APIs.

    Enable the APIs

  5. Make sure that you have the following role or roles on the project: Cloud Speech Administrator

    Check for the roles

    1. In the Google Cloud console, go to the IAM page.

      Go to IAM
    2. Select the project.
    3. In the Principal column, find all rows that identify you or a group that you're included in. To learn which groups you're included in, contact your administrator.

    4. For all rows that specify or include you, check the Role column to see whether the list of roles includes the required roles.

    Grant the roles

    1. In the Google Cloud console, go to the IAM page.

      Vai a IAM
    2. Seleziona il progetto.
    3. Fai clic su Concedi l'accesso.
    4. Nel campo Nuove entità, inserisci il tuo identificatore utente. In genere si tratta dell'indirizzo email di un Account Google.

    5. Nell'elenco Seleziona un ruolo, seleziona un ruolo.
    6. Per concedere altri ruoli, fai clic su Aggiungi un altro ruolo e aggiungi ogni ruolo aggiuntivo.
    7. Fai clic su Salva.
  6. Install the Google Cloud CLI.

  7. If you're using an external identity provider (IdP), you must first sign in to the gcloud CLI with your federated identity.

  8. To initialize the gcloud CLI, run the following command:

    gcloud init
  9. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  10. Make sure that billing is enabled for your Google Cloud project.

  11. Enable the Speech-to-Text APIs.

    Enable the APIs

  12. Make sure that you have the following role or roles on the project: Cloud Speech Administrator

    Check for the roles

    1. In the Google Cloud console, go to the IAM page.

      Go to IAM
    2. Select the project.
    3. In the Principal column, find all rows that identify you or a group that you're included in. To learn which groups you're included in, contact your administrator.

    4. For all rows that specify or include you, check the Role column to see whether the list of roles includes the required roles.

    Grant the roles

    1. In the Google Cloud console, go to the IAM page.

      Vai a IAM
    2. Seleziona il progetto.
    3. Fai clic su Concedi l'accesso.
    4. Nel campo Nuove entità, inserisci il tuo identificatore utente. In genere si tratta dell'indirizzo email di un Account Google.

    5. Nell'elenco Seleziona un ruolo, seleziona un ruolo.
    6. Per concedere altri ruoli, fai clic su Aggiungi un altro ruolo e aggiungi ogni ruolo aggiuntivo.
    7. Fai clic su Salva.
  13. Install the Google Cloud CLI.

  14. If you're using an external identity provider (IdP), you must first sign in to the gcloud CLI with your federated identity.

  15. To initialize the gcloud CLI, run the following command:

    gcloud init
  16. Le librerie client possono utilizzare le credenziali predefinite dell'applicazione per autenticarsi facilmente con le API di Google e inviare richieste a queste API. Con Credenziali predefinite dell'applicazione, puoi testare la tua applicazione localmente e implementarla senza modificare il codice sottostante. Per maggiori informazioni, vedi Autenticarsi per l'utilizzo delle librerie client.

  17. If you're using a local shell, then create local authentication credentials for your user account:

    gcloud auth application-default login

    You don't need to do this if you're using Cloud Shell.

    If an authentication error is returned, and you are using an external identity provider (IdP), confirm that you have signed in to the gcloud CLI with your federated identity.

  18. Assicurati inoltre di aver installato la libreria client.

    Eseguire il riconoscimento vocale sincrono con Chirp

    Ecco un esempio di esecuzione del riconoscimento vocale sincrono su un file audio locale utilizzando Chirp:

    Python

    import os
    
    from google.api_core.client_options import ClientOptions
    from google.cloud.speech_v2 import SpeechClient
    from google.cloud.speech_v2.types import cloud_speech
    
    PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
    
    
    def transcribe_chirp(
        audio_file: str,
    ) -> cloud_speech.RecognizeResponse:
        """Transcribes an audio file using the Chirp model of Google Cloud Speech-to-Text API.
        Args:
            audio_file (str): Path to the local audio file to be transcribed.
                Example: "resources/audio.wav"
        Returns:
            cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
            the transcription results.
    
        """
        # Instantiates a client
        client = SpeechClient(
            client_options=ClientOptions(
                api_endpoint="us-central1-speech.googleapis.com",
            )
        )
    
        # Reads a file as bytes
        with open(audio_file, "rb") as f:
            audio_content = f.read()
    
        config = cloud_speech.RecognitionConfig(
            auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
            language_codes=["en-US"],
            model="chirp",
        )
    
        request = cloud_speech.RecognizeRequest(
            recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
            config=config,
            content=audio_content,
        )
    
        # Transcribes the audio into text
        response = client.recognize(request=request)
    
        for result in response.results:
            print(f"Transcript: {result.alternatives[0].transcript}")
    
        return response
    
    

    Eseguire una richiesta con la trascrizione indipendente dalla lingua attivata

    I seguenti esempi di codice mostrano come effettuare una richiesta con la trascrizione indipendente dalla lingua attivata.

    Python

    import os
    
    from google.api_core.client_options import ClientOptions
    from google.cloud.speech_v2 import SpeechClient
    from google.cloud.speech_v2.types import cloud_speech
    
    PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
    
    
    def transcribe_chirp_auto_detect_language(
        audio_file: str,
        region: str = "us-central1",
    ) -> cloud_speech.RecognizeResponse:
        """Transcribe an audio file and auto-detect spoken language using Chirp.
        Please see https://cloud.google.com/speech-to-text/v2/docs/encoding for more
        information on which audio encodings are supported.
        Args:
            audio_file (str): Path to the local audio file to be transcribed.
            region (str): The region for the API endpoint.
        Returns:
            cloud_speech.RecognizeResponse: The response containing the transcription results.
        """
        # Instantiates a client
        client = SpeechClient(
            client_options=ClientOptions(
                api_endpoint=f"{region}-speech.googleapis.com",
            )
        )
    
        # Reads a file as bytes
        with open(audio_file, "rb") as f:
            audio_content = f.read()
    
        config = cloud_speech.RecognitionConfig(
            auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
            language_codes=["auto"],  # Set language code to auto to detect language.
            model="chirp",
        )
    
        request = cloud_speech.RecognizeRequest(
            recognizer=f"projects/{PROJECT_ID}/locations/{region}/recognizers/_",
            config=config,
            content=audio_content,
        )
    
        # Transcribes the audio into text
        response = client.recognize(request=request)
    
        for result in response.results:
            print(f"Transcript: {result.alternatives[0].transcript}")
            print(f"Detected Language: {result.language_code}")
    
        return response
    
    

    Inizia a utilizzare Chirp nella Google Cloud console

    1. Assicurati di aver creato un account Google Cloud e un progetto.
    2. Vai a Speech nella console Google Cloud .
    3. Abilita l'API se non è già abilitata.
    4. Vai alla sottopagina Trascrizioni.
    5. Fai clic su Nuova trascrizione.
    6. Assicurati di avere uno spazio di lavoro STT. Se non ne hai uno, creane uno.

      1. Apri il menu a discesa Workspace e fai clic su Nuovo workspace.

      2. Nella barra di navigazione Crea un nuovo spazio di lavoro, fai clic su Sfoglia.

      3. Fai clic per creare un bucket.

      4. Inserisci un nome per il bucket e fai clic su Continua.

      5. Fai clic su Crea.

      6. Una volta creato il bucket, fai clic su Seleziona per selezionarlo.

      7. Fai clic su Crea per completare la creazione dello spazio di lavoro per Speech-to-Text.

    7. Esegui una trascrizione dell'audio.

      La pagina di creazione della trascrizione della sintesi vocale, che mostra la selezione o il caricamento dei file.
      1. Nella pagina Nuova trascrizione, scegli un'opzione per selezionare il file audio:
        • Carica facendo clic su Caricamento locale.
        • Fai clic su Cloud Storage per specificare un file Cloud Storage esistente.
      1. Fai clic su Continua.
      La pagina di creazione della trascrizione di sintesi vocale che mostra la selezione del modello Chirp e l'invio di un job di trascrizione.
      1. Nella sezione Opzioni di trascrizione, seleziona la lingua parlata che prevedi di utilizzare per il riconoscimento con Chirp dal riconoscitore creato in precedenza.

      2. Nel menu a discesa Modello*, seleziona Chirp.

      3. Nel menu a discesa Regione, seleziona una regione, ad esempio us-central1.

      4. Fai clic su Continua.

      5. Per eseguire la prima richiesta di riconoscimento utilizzando Chirp, nella sezione principale, fai clic su Invia.

    8. Visualizza il risultato della trascrizione di Chirp.

      1. Nella pagina Trascrizioni, fai clic sul nome della trascrizione.

      2. Nella pagina Dettagli della trascrizione, visualizza il risultato della trascrizione e, se vuoi, riproduci l'audio nel browser.

    Esegui la pulizia

    Per evitare che al tuo account Google Cloud vengano addebitati costi relativi alle risorse utilizzate in questa pagina, segui questi passaggi.

    1. Optional: Revoke the authentication credentials that you created, and delete the local credential file.

      gcloud auth application-default revoke
    2. Optional: Revoke credentials from the gcloud CLI.

      gcloud auth revoke

    Console

  19. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  20. In the project list, select the project that you want to delete, and then click Delete.
  21. In the dialog, type the project ID, and then click Shut down to delete the project.
  22. gcloud

    Delete a Google Cloud project:

    gcloud projects delete PROJECT_ID

    Passaggi successivi