Miglioramento dei risultati della trascrizione con l'adattamento del modello

Panoramica

Puoi utilizzare la funzionalità di adattamento del modello per aiutare Speech-to-Text a riconoscere parole o frasi specifiche più spesso rispetto ad altre opzioni che altrimenti potrebbero essere suggerite. Ad esempio, supponiamo che i tuoi dati audio includano spesso la parola "meteo". Quando Speech-to-Text rileva la parola "tempo", vuoi che la trascriva come "tempo" più spesso di "se". In questo caso, potresti utilizzare l'adattamento del modello per indirizzare Speech-to-Text a riconoscere "meteo".

L'adattamento del modello è particolarmente utile nei seguenti casi d'uso:

  • Migliorare l'accuratezza delle parole e delle frasi che si verificano frequentemente nei dati audio. Ad esempio, puoi avvisare il modello di riconoscimento dei comandi vocali che vengono in genere pronunciati dagli utenti.

  • Ampliamento del vocabolario di parole riconosciute da Speech-to-Text. Speech-to-Text include un vocabolario molto ampio. Tuttavia, se i tuoi dati audio contengono spesso parole rare nell'uso generale della lingua (come nomi propri o parole specifiche del dominio), puoi aggiungerle utilizzando l'adattamento del modello.

  • Migliorare l'accuratezza della trascrizione vocale quando l'audio fornito contiene rumore o non è molto chiaro.

Per verificare se la funzionalità di adattamento del modello è disponibile nella tua lingua, consulta la pagina delle lingue supportate.

Migliorare il riconoscimento di parole e frasi

Per aumentare la probabilità che la funzionalità di Speech-to-Text riconosca la parola "meteo" durante la trascrizione dei dati audio, puoi trasmettere la singola parola "meteo" nell'oggetto PhraseSet di una risorsa SpeechAdaptation.

Quando fornisci una frase composta da più parole, Speech-to-Text ha più probabilità di riconoscere le parole in sequenza. Fornire una frase aumenta anche la probabilità di riconoscere parti della frase, comprese singole parole. Consulta la pagina Limiti dei contenuti per i limiti relativi al numero e alle dimensioni di queste frasi.

Se vuoi, puoi ottimizzare la forza dell'adattamento del modello utilizzando la funzionalità di potenziamento dell'adattamento del modello.

Migliorare il riconoscimento utilizzando le classi

Le classi rappresentano concetti comuni che si verificano nel linguaggio naturale, come unità monetarie e date del calendario. Una classe ti consente di migliorare l'accuratezza della trascrizione per grandi gruppi di parole che corrispondono a un concetto comune, ma che non includono sempre parole o frasi identiche.

Ad esempio, supponiamo che i tuoi dati audio includano registrazioni di persone che dicono il loro indirizzo. Potresti avere una registrazione audio di qualcuno che dice "La mia casa è al civico 123 di Main Street, la quarta casa a sinistra". In questo caso, vuoi che Speech-to-Text riconosca la prima sequenza di numeri ("123") come indirizzo anziché come numero ordinale ("centoventitreesimo"). Tuttavia, non tutte le persone vivono al civico 123 di Main Street. È poco pratico elencare ogni possibile indirizzo in una risorsa PhraseSet. Puoi invece utilizzare una classe per indicare che un numero civico deve essere riconosciuto indipendentemente dal numero effettivo. In questo esempio, Speech-to-Text potrebbe trascrivere con maggiore precisione frasi come "123 Main Street" e "987 Grand Boulevard" perché entrambi sono riconosciuti come numeri di indirizzo.

Token di classe

Per utilizzare una classe nell'adattamento del modello, includi un token di classe nel campo phrases di una risorsa PhraseSet. Consulta l'elenco dei token di classe supportati per vedere quali token sono disponibili per la tua lingua. Ad esempio, per migliorare la trascrizione dei numeri civici dall'audio sorgente, fornisci il valore $ADDRESSNUM nell'oggetto SpeechContext.

Puoi utilizzare le classi come elementi autonomi nell'array phrases o incorporare uno o più token di classe in frasi più lunghe composte da più parole. Ad esempio, puoi indicare un numero di indirizzo in una frase più lunga includendo il token di classe in una stringa: ["my address is $ADDRESSNUM"]. Tuttavia, questa frase non sarà utile nei casi in cui l'audio contiene una frase simile ma non identica, ad esempio "Mi trovo al civico 123 di Main Street". Per facilitare il riconoscimento di frasi simili, è importante includere anche il token di classe da solo: ["my address is $ADDRESSNUM", "$ADDRESSNUM"]. Se utilizzi un token di classe non valido o malformato, Speech-to-Text ignora il token senza attivare un errore, ma utilizza comunque il resto della frase per il contesto.

Classi personalizzate

Puoi anche creare un CustomClass, una classe composta dal tuo elenco personalizzato di elementi o valori correlati. Ad esempio, vuoi trascrivere dati audio che probabilmente includono il nome di uno dei centinaia di ristoranti regionali. I nomi dei ristoranti sono relativamente rari nel linguaggio comune e quindi è meno probabile che vengano scelti come risposta "corretta" dal modello di riconoscimento. Puoi influenzare il modello di riconoscimento in modo da identificare correttamente questi nomi quando compaiono nell'audio utilizzando una classe personalizzata.

Per utilizzare una classe personalizzata, crea una risorsa CustomClass che includa il nome di ogni ristorante come ClassItem. Le classi personalizzate funzionano allo stesso modo dei token di classe predefiniti. Un phrase può includere sia token di classe predefiniti sia classi personalizzate.

Grammatiche ABNF

Puoi anche utilizzare le grammatiche in formato ABNF (Augmented Backus-Naur Form) per specificare pattern di parole. L'inclusione di una grammatica ABNF nell'adattamento del modello della richiesta aumenterà la probabilità che Speech-to-Text riconosca tutte le parole che corrispondono alla grammatica specificata.

Per utilizzare questa funzionalità, includi un oggetto ABNF grammar nel campo SpeechAdaptation della richiesta. Le grammatiche ABNF possono includere anche riferimenti alle risorse CustomClass e PhraseSet. Per saperne di più sulla sintassi di questo campo, consulta la Speech Recognition Grammar Specification e la nostra code sample di seguito.

Perfeziona i risultati della trascrizione utilizzando il boost

Per impostazione predefinita, l'adattamento del modello dovrebbe già fornire un effetto sufficiente nella maggior parte dei casi. La funzionalità di incremento dell'adattamento del modello consente di aumentare la distorsione del modello di riconoscimento assegnando un peso maggiore ad alcune frasi rispetto ad altre. Ti consigliamo di implementare il boost solo se 1) hai già implementato l'adattamento del modello e 2) vuoi regolare ulteriormente l'intensità degli effetti dell'adattamento del modello sui risultati della trascrizione.

Ad esempio, hai molte registrazioni di persone che chiedono informazioni sulla "tariffa per entrare alla fiera della contea", con la parola "fiera" che si verifica più frequentemente di "tariffa". In questo caso, puoi utilizzare l'adattamento del modello per aumentare la probabilità che il modello riconosca sia "fair" che "fare" aggiungendoli come phrases in una risorsa PhraseSet. In questo modo, Speech-to-Text riconoscerà "fair" e "fare" più spesso di, ad esempio, "hare" o "lair".

Tuttavia, "fair" dovrebbe essere riconosciuto più spesso di "fare" a causa della sua maggiore frequenza nell'audio. Potresti aver già trascritto l'audio utilizzando l'API Speech-to-Text e aver riscontrato un numero elevato di errori nel riconoscimento della parola corretta ("fiera"). In questo caso, potresti anche utilizzare le frasi con boost per assegnare un valore boost più alto a "fair" rispetto a "fare". Il valore ponderato più alto assegnato a "fair" fa sì che l'API Speech-to-Text scelga "fair" più spesso di "fare". Senza valori di boost, il modello di riconoscimento riconoscerà "fiera" e "tariffa" con uguale probabilità.

Nozioni di base sul boost

Quando utilizzi il boost, assegni un valore ponderato agli elementi phrase in una risorsa PhraseSet. Speech-to-Text fa riferimento a questo valore ponderato quando seleziona una possibile trascrizione per le parole nei dati audio. Maggiore è il valore, maggiore è la probabilità che Speech-to-Text scelga quella parola o frase tra le alternative possibili.

Ad esempio, vuoi assegnare un valore di boost alla frase "La mia mostra preferita all'American Museum of Natural History è la balenottera azzurra". Se aggiungi questa frase a un oggetto phrase e assegni un valore boost, il modello di riconoscimento avrà più probabilità di riconoscere la frase nella sua interezza, parola per parola.

Se non ottieni i risultati che cerchi aumentando l'offerta per una frase composta da più parole, ti consigliamo di aggiungere tutti i bigrammi (2 parole, in ordine) che compongono la frase come elementi phrase aggiuntivi e assegnare valori di aumento dell'offerta a ciascuno. Continuando con l'esempio precedente, potresti valutare di aggiungere altri bigrammi e N-grammi (più di due parole) come "il mio preferito", "la mia mostra preferita", "mostra preferita", "la mia mostra preferita all'American Museum of Natural History", "American Museum of Natural History", "balenottera azzurra" e così via. Il modello di riconoscimento Speech-to-Text ha quindi maggiori probabilità di riconoscere frasi correlate nell'audio che contengono parti della frase potenziata originale, ma non corrispondono parola per parola.

Impostare i valori di boost

I valori di boost devono essere un numero in virgola mobile maggiore di 0. Il limite massimo pratico per i valori di aggiustamento è 20. Per ottenere risultati ottimali, prova a modificare i risultati della trascrizione aumentando o diminuendo i valori di boost finché non ottieni risultati di trascrizione accurati.

Valori di boost più elevati possono comportare un numero inferiore di falsi negativi, ovvero casi in cui la parola o la frase è presente nell'audio, ma non è stata riconosciuta correttamente dalla funzionalità dSpeech-to-Textle. Tuttavia, l'incremento può anche aumentare la probabilità di falsi positivi, ovvero casi in cui la parola o la frase appare nella trascrizione anche se non è presente nell'audio.

Ricevere notifiche di timeout

Le risposte di Speech-to-Text includono un campo SpeechAdaptationInfo, che fornisce informazioni sul comportamento di adattamento del modello durante il riconoscimento. Se si è verificato un timeout relativo all'adattamento del modello, adaptationTimeout sarà true e timeoutMessage specificherà quale configurazione di adattamento ha causato il timeout. Quando si verifica un timeout, l'adattamento del modello non ha alcun effetto sulla trascrizione restituita.

Esempio di caso d'uso che utilizza l'adattamento del modello

L'esempio seguente illustra la procedura di utilizzo dell'adattamento del modello per trascrivere una registrazione audio di una persona che dice "call me fionity and oh my gosh what do we have here ionity". In questo caso è importante che il modello identifichi correttamente "fionity" e "ionity".

Il seguente comando esegue il riconoscimento dell'audio senza adattamento del modello. La trascrizione risultante è errata: "call me Fiona tea and oh my gosh what do we have here I own a day".

   curl -H "Authorization: Bearer $(gcloud auth
   --impersonate-service-account=$SA_EMAIL print-access-token)" -H
   "Content-Type: application/json; charset=utf-8"
   "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
   {"languageCode": "en-US"}, "audio":
   {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
   

Esempio di richiesta:

     {
       "config":{
       "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
     }
   

Migliorare la trascrizione utilizzando un PhraseSet

  1. Crea un PhraseSet:

    curl -X POST -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets"
    -d '{"phraseSetId": "test-phrase-set-1"}'

    Esempio di richiesta:

    {
       "phraseSetId":"test-phrase-set-1"
    }
  2. Ottieni il PhraseSet:

    curl -X GET -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id>/locations/global/phraseSets/test-phrase-set-1"\
  3. Aggiungi le frasi "fionity" e "ionity" a PhraseSet e assegna a ciascuna un valore boost di 10:

    curl -X PATCH -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases"\
    -d '{"phrases": [{"value": "ionity", "boost": 10}, {"value": "fionity", "boost": 10}]}'

    Il valore PhraseSet è stato aggiornato a:

    {
      "phrases":[
         {
              "value":"ionity",
              "boost":10
           },
           {
              "value":"fionity",
              "boost":10
           }
        ]
     }
  4. Riconosci di nuovo l'audio, questa volta utilizzando l'adattamento del modello e il PhraseSetcreato in precedenza. I risultati trascritti ora sono corretti: "call me fionity and oh my gosh what do we have here ionity".

    curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)"
    -H "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
    {"adaptation": {"phrase_set_references": ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]},
    "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'

    Esempio di richiesta:

    {
       "config":{
          "adaptation":{
             "phrase_set_references":[
                "projects/project_id/locations/global/phraseSets/test-phrase-set-1"
             ]
          },
          "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
    }

Migliorare i risultati della trascrizione utilizzando un CustomClass

  1. Crea un CustomClass:

    curl -X POST -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses"
    -d '{"customClassId": "test-custom-class-1"}'

    Esempio di richiesta:

    {
       "customClassId": "test-custom-class-1"
    }
  2. Ottieni il CustomClass:

     curl -X GET -H "Authorization: Bearer $(gcloud auth
     --impersonate-service-account=$SA_EMAIL print-access-token)" -H
     "Content-Type: application/json; charset=utf-8"
     "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"
     

  3. Riconoscere il clip audio di test. CustomClass è vuoto, quindi la trascrizione restituita è ancora errata: "call me Fiona tea and oh my gosh what do we have here I own a day":

    curl -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
    {"adaptation": {"phraseSets": [{"phrases": [{"value":
    "${projects/project_idlocations/global/customClasses/test-custom-class-1}",
    "boost": "10"}]}]}, "languageCode": "en-US"}, "audio":
    {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'

    Esempio di richiesta:

      {
       "config":{
          "adaptation":{
             "phraseSets":[
                {
                   "phrases":[
                      {
                         "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}",
                         "boost":"10"
                      }
                   ]
                }
             ]
          },
          "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
     }
  4. Aggiungi le frasi "fionity" e "ionity" alla classe personalizzata:

    curl -X PATCH -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1?updateMask=items"
    -d '{"items": [{"value": "ionity"}, {"value": "fionity"}]}'

    In questo modo, la classe personalizzata viene aggiornata come segue:

    {
       "items":[
          {
             "value":"ionity"
          },
          {
             "value":"fionity"
          }
       ]
    }
  5. Riconosci di nuovo l'audio di esempio, questa volta con "fionity" e "ionity" in CustomClass. La trascrizione ora è corretta: "call me fionity and oh my gosh what do we have here ionity".

    curl -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
    {"adaptation": {"phraseSets": [{"phrases": [{"value":
    "${projects/project_id/locations/global/customClasses/test-custom-class-1}",
    "boost": "10"}]}]}, "languageCode": "en-US"}, "audio":
    {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'

    Esempio di richiesta:

    {
       "config":{
          "adaptation":{
             "phraseSets":[
                {
                   "phrases":[
                      {
    "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}",
                         "boost":"10"
                      }
                   ]
                }
             ]
          },
          "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
    }

Fai riferimento a un CustomClass in un PhraseSet

  1. Aggiorna la risorsa PhraseSet creata in precedenza in modo che faccia riferimento a CustomClass:

    curl -X PATCH -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases"
    -d '{"phrases": [{"value": "${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost": 10}]}'

    Esempio di richiesta:

    {
       "config":{
          "adaptation":{
             "phraseSets":[
                {
                   "phrases":[
                      {
                         "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}",
                         "boost":"10"
                      }
                   ]
                }
             ]
          },
          "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
    }
  2. Riconosci l'audio utilizzando la risorsa PhraseSet (che si riferisce a CustomClass). La trascrizione è corretta: "call me fionity and oh my gosh what do we have here ionity".

    curl -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
    {"adaptation": {"phrase_set_references":
    ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]},
    "languageCode": "en-US"}, "audio":
    {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'

    Esempio di richiesta:

    {
       "phrases":[
          {
             "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}",
             "boost":10
          }
       ]
    }

Elimina CustomClass e PhraseSet

  1. Elimina il PhraseSet:

    curl -X DELETE -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1"
  2. Elimina il CustomClass:

    curl -X DELETE -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"

Migliorare i risultati della trascrizione utilizzando un ABNF Grammar

  1. Riconosci l'audio utilizzando un abnf_grammar. Questo esempio si riferisce a una risorsa CustomClass: projects/project_id/locations/global/customClasses/test-custom-class-1, a un CustomClass incorporato: test-custom-class-2, a un token di classe: ADDRESSNUM e a una risorsa PhraseSet: projects/project_id/locations/global/phraseSets/test-phrase-set-1. La prima regola nelle stringhe (dopo le dichiarazioni esterne) verrà trattata come radice.

    Esempio di richiesta:

    {
       "config":{
          "adaptation":{
             "abnf_grammar":{
                "abnf_strings": [ 
                  "external ${projects/project_id/locations/global/phraseSets/test-phrase-set-1}" ,
                  "external ${projects/project_id/locations/global/customClasses/test-custom-class-1}" ,
                  "external ${test-custom-class-2}" ,
                  "external $ADDRESSNUM" ,
                  "$root = $test-phrase-set-1 $name lives in $ADDRESSNUM;" ,
                  "$name = $title $test-custom-class-1 $test-custom-class-2" ,
                  "$title = Mr | Mrs | Miss | Dr | Prof ;" 
                ]
             }
          }
       }
    }

Passaggi successivi