Panoramica
Puoi utilizzare la funzionalità di adattamento del modello per aiutare Speech-to-Text a riconoscere parole o frasi specifiche più spesso rispetto ad altre opzioni che altrimenti potrebbero essere suggerite. Ad esempio, supponiamo che i tuoi dati audio includano spesso la parola "meteo". Quando Speech-to-Text rileva la parola "tempo", vuoi che la trascriva come "tempo" più spesso di "se". In questo caso, potresti utilizzare l'adattamento del modello per indirizzare Speech-to-Text a riconoscere "meteo".
L'adattamento del modello è particolarmente utile nei seguenti casi d'uso:
Migliorare l'accuratezza delle parole e delle frasi che si verificano frequentemente nei dati audio. Ad esempio, puoi avvisare il modello di riconoscimento dei comandi vocali che vengono in genere pronunciati dagli utenti.
Ampliamento del vocabolario di parole riconosciute da Speech-to-Text. Speech-to-Text include un vocabolario molto ampio. Tuttavia, se i tuoi dati audio contengono spesso parole rare nell'uso generale della lingua (come nomi propri o parole specifiche del dominio), puoi aggiungerle utilizzando l'adattamento del modello.
Migliorare l'accuratezza della trascrizione vocale quando l'audio fornito contiene rumore o non è molto chiaro.
Per verificare se la funzionalità di adattamento del modello è disponibile nella tua lingua, consulta la pagina delle lingue supportate.
Migliorare il riconoscimento di parole e frasi
Per aumentare la probabilità che la funzionalità di Speech-to-Text riconosca la parola "meteo" durante la trascrizione dei dati audio, puoi trasmettere la singola parola "meteo" nell'oggetto PhraseSet di una risorsa SpeechAdaptation.
Quando fornisci una frase composta da più parole, Speech-to-Text ha più probabilità di riconoscere le parole in sequenza. Fornire una frase aumenta anche la probabilità di riconoscere parti della frase, comprese singole parole. Consulta la pagina Limiti dei contenuti per i limiti relativi al numero e alle dimensioni di queste frasi.
Se vuoi, puoi ottimizzare la forza dell'adattamento del modello utilizzando la funzionalità di potenziamento dell'adattamento del modello.
Migliorare il riconoscimento utilizzando le classi
Le classi rappresentano concetti comuni che si verificano nel linguaggio naturale, come unità monetarie e date del calendario. Una classe ti consente di migliorare l'accuratezza della trascrizione per grandi gruppi di parole che corrispondono a un concetto comune, ma che non includono sempre parole o frasi identiche.
Ad esempio, supponiamo che i tuoi dati audio includano registrazioni di persone che dicono
il loro indirizzo. Potresti avere una registrazione audio di qualcuno che dice "La mia
casa è al civico 123 di Main Street, la quarta casa a sinistra". In questo caso, vuoi che
Speech-to-Text riconosca la prima sequenza di numeri ("123") come
indirizzo anziché come numero ordinale ("centoventitreesimo"). Tuttavia, non tutte
le persone vivono al civico 123 di Main Street. È poco pratico elencare ogni possibile indirizzo
in una risorsa PhraseSet. Puoi invece utilizzare una classe per indicare che
un numero civico deve essere riconosciuto indipendentemente dal numero effettivo. In
questo esempio, Speech-to-Text potrebbe trascrivere con maggiore precisione
frasi come "123 Main Street" e "987 Grand Boulevard" perché entrambi
sono riconosciuti come numeri di indirizzo.
Token di classe
Per utilizzare una classe nell'adattamento del modello, includi un token di classe nel
campo phrases di una risorsa PhraseSet. Consulta l'elenco dei token di classe supportati per vedere quali token sono disponibili per la tua lingua. Ad esempio, per migliorare la
trascrizione dei numeri civici dall'audio sorgente, fornisci il valore
$ADDRESSNUM nell'oggetto SpeechContext.
Puoi utilizzare le classi come elementi autonomi nell'array phrases o incorporare
uno o più token di classe in frasi più lunghe composte da più parole. Ad esempio, puoi
indicare un numero di indirizzo in una frase più lunga includendo il token di classe in una
stringa: ["my address is $ADDRESSNUM"]. Tuttavia, questa frase non sarà utile nei casi in cui l'audio contiene una frase simile ma non identica, ad esempio "Mi trovo al civico 123 di Main Street". Per facilitare il riconoscimento di frasi simili, è importante
includere anche il token di classe da solo: ["my address is $ADDRESSNUM",
"$ADDRESSNUM"]. Se utilizzi un token di classe non valido o malformato,
Speech-to-Text ignora il token senza attivare un errore, ma utilizza comunque
il resto della frase per il contesto.
Classi personalizzate
Puoi anche creare un CustomClass, una classe composta dal tuo elenco personalizzato di elementi o valori correlati. Ad esempio, vuoi trascrivere dati audio
che probabilmente includono il nome di uno dei centinaia di ristoranti
regionali. I nomi dei ristoranti sono relativamente rari nel linguaggio comune e
quindi è meno probabile che vengano scelti come risposta "corretta" dal modello di
riconoscimento. Puoi influenzare il modello di riconoscimento in modo da identificare correttamente questi
nomi quando compaiono nell'audio utilizzando una classe personalizzata.
Per utilizzare una classe personalizzata, crea una risorsa
CustomClass
che includa il nome di ogni ristorante come ClassItem. Le classi personalizzate
funzionano allo stesso modo dei
token di classe predefiniti. Un phrase può
includere sia token di classe predefiniti sia classi personalizzate.
Grammatiche ABNF
Puoi anche utilizzare le grammatiche in formato ABNF (Augmented Backus-Naur Form) per specificare pattern di parole. L'inclusione di una grammatica ABNF nell'adattamento del modello della richiesta aumenterà la probabilità che Speech-to-Text riconosca tutte le parole che corrispondono alla grammatica specificata.
Per utilizzare questa funzionalità, includi un oggetto ABNF
grammar
nel campo SpeechAdaptation della richiesta. Le grammatiche ABNF possono includere anche riferimenti
alle risorse CustomClass
e PhraseSet. Per saperne di più sulla sintassi di questo campo, consulta la
Speech Recognition Grammar Specification
e la nostra code sample
di seguito.
Perfeziona i risultati della trascrizione utilizzando il boost
Per impostazione predefinita, l'adattamento del modello dovrebbe già fornire un effetto sufficiente nella maggior parte dei casi. La funzionalità di incremento dell'adattamento del modello consente di aumentare la distorsione del modello di riconoscimento assegnando un peso maggiore ad alcune frasi rispetto ad altre. Ti consigliamo di implementare il boost solo se 1) hai già implementato l'adattamento del modello e 2) vuoi regolare ulteriormente l'intensità degli effetti dell'adattamento del modello sui risultati della trascrizione.
Ad esempio, hai molte registrazioni di persone che chiedono informazioni sulla "tariffa per entrare
alla fiera della contea", con la parola "fiera" che si verifica più frequentemente di
"tariffa". In questo caso, puoi utilizzare l'adattamento del modello per aumentare la probabilità
che il modello riconosca sia "fair" che "fare" aggiungendoli come phrases in una risorsa
PhraseSet. In questo modo, Speech-to-Text riconoscerà "fair" e "fare" più spesso di, ad esempio, "hare" o "lair".
Tuttavia, "fair" dovrebbe essere riconosciuto più spesso di "fare" a causa della sua maggiore frequenza nell'audio. Potresti aver già trascritto l'audio utilizzando l'API Speech-to-Text e aver riscontrato un numero elevato di errori nel riconoscimento della parola corretta ("fiera"). In questo caso, potresti anche utilizzare le frasi con boost per assegnare un valore boost più alto a "fair" rispetto a "fare". Il valore ponderato più alto assegnato a "fair" fa sì che l'API Speech-to-Text scelga "fair" più spesso di "fare". Senza valori di boost, il modello di riconoscimento riconoscerà "fiera" e "tariffa" con uguale probabilità.
Nozioni di base sul boost
Quando utilizzi il boost, assegni un valore ponderato agli elementi phrase in una risorsa PhraseSet. Speech-to-Text fa riferimento a questo valore ponderato quando
seleziona una possibile trascrizione per le parole nei dati audio. Maggiore è il valore, maggiore è la probabilità che Speech-to-Text scelga quella parola o frase tra le alternative possibili.
Ad esempio, vuoi assegnare un valore di boost alla frase "La mia mostra preferita
all'American Museum of Natural History è la balenottera azzurra". Se aggiungi questa frase a un oggetto phrase e assegni un valore boost, il modello di riconoscimento avrà più probabilità di riconoscere la frase nella sua interezza, parola per parola.
Se non ottieni i risultati che cerchi aumentando l'offerta per una frase composta da più parole,
ti consigliamo di aggiungere tutti i bigrammi (2 parole, in ordine) che compongono la frase
come elementi phrase aggiuntivi e assegnare valori di aumento dell'offerta a ciascuno. Continuando con l'esempio precedente, potresti valutare di aggiungere altri bigrammi e N-grammi (più di due parole) come "il mio preferito", "la mia mostra preferita", "mostra preferita", "la mia mostra preferita all'American Museum of Natural History", "American Museum of Natural History", "balenottera azzurra" e così via. Il modello di riconoscimento
Speech-to-Text ha quindi maggiori probabilità di riconoscere frasi correlate nell'audio
che contengono parti della frase potenziata originale, ma non corrispondono
parola per parola.
Impostare i valori di boost
I valori di boost devono essere un numero in virgola mobile maggiore di 0. Il limite massimo pratico per i valori di aggiustamento è 20. Per ottenere risultati ottimali, prova a modificare i risultati della trascrizione aumentando o diminuendo i valori di boost finché non ottieni risultati di trascrizione accurati.
Valori di boost più elevati possono comportare un numero inferiore di falsi negativi, ovvero casi in cui la parola o la frase è presente nell'audio, ma non è stata riconosciuta correttamente dalla funzionalità dSpeech-to-Textle. Tuttavia, l'incremento può anche aumentare la probabilità di falsi positivi, ovvero casi in cui la parola o la frase appare nella trascrizione anche se non è presente nell'audio.
Ricevere notifiche di timeout
Le risposte di Speech-to-Text includono un campo
SpeechAdaptationInfo, che fornisce informazioni sul comportamento di adattamento del modello durante
il riconoscimento. Se si è verificato un timeout relativo all'adattamento del modello,
adaptationTimeout sarà true e timeoutMessage specificherà quale
configurazione di adattamento ha causato il timeout. Quando si verifica un timeout, l'adattamento
del modello non ha alcun effetto sulla trascrizione restituita.
Esempio di caso d'uso che utilizza l'adattamento del modello
L'esempio seguente illustra la procedura di utilizzo dell'adattamento del modello per trascrivere una registrazione audio di una persona che dice "call me fionity and oh my gosh what do we have here ionity". In questo caso è importante che il modello identifichi correttamente "fionity" e "ionity".
Il seguente comando esegue il riconoscimento dell'audio senza adattamento del modello. La trascrizione risultante è errata: "call me Fiona tea and oh my gosh what do we have here I own a day".
curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Migliorare la trascrizione utilizzando un PhraseSet
Crea un
PhraseSet:curl -X POST -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets" -d '{"phraseSetId": "test-phrase-set-1"}'
Esempio di richiesta:
{ "phraseSetId":"test-phrase-set-1" }
Ottieni il
PhraseSet:curl -X GET -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id>/locations/global/phraseSets/test-phrase-set-1"\
Aggiungi le frasi "fionity" e "ionity" a
PhraseSete assegna a ciascuna un valoreboostdi 10:curl -X PATCH -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases"\ -d '{"phrases": [{"value": "ionity", "boost": 10}, {"value": "fionity", "boost": 10}]}'
Il valore
PhraseSetè stato aggiornato a:{ "phrases":[ { "value":"ionity", "boost":10 }, { "value":"fionity", "boost":10 } ] }
Riconosci di nuovo l'audio, questa volta utilizzando l'adattamento del modello e il
PhraseSetcreato in precedenza. I risultati trascritti ora sono corretti: "call me fionity and oh my gosh what do we have here ionity".curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phrase_set_references": ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phrase_set_references":[ "projects/project_id/locations/global/phraseSets/test-phrase-set-1" ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Migliorare i risultati della trascrizione utilizzando un CustomClass
Crea un
CustomClass:curl -X POST -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses" -d '{"customClassId": "test-custom-class-1"}'
Esempio di richiesta:
{ "customClassId": "test-custom-class-1" }
Ottieni il
CustomClass:curl -X GET -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"
Riconoscere il clip audio di test.
CustomClassè vuoto, quindi la trascrizione restituita è ancora errata: "call me Fiona tea and oh my gosh what do we have here I own a day":curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phraseSets": [{"phrases": [{"value": "${projects/project_idlocations/global/customClasses/test-custom-class-1}", "boost": "10"}]}]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phraseSets":[ { "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":"10" } ] } ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Aggiungi le frasi "fionity" e "ionity" alla classe personalizzata:
curl -X PATCH -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1?updateMask=items" -d '{"items": [{"value": "ionity"}, {"value": "fionity"}]}'
In questo modo, la classe personalizzata viene aggiornata come segue:
{ "items":[ { "value":"ionity" }, { "value":"fionity" } ] }
Riconosci di nuovo l'audio di esempio, questa volta con "fionity" e "ionity" in
CustomClass. La trascrizione ora è corretta: "call me fionity and oh my gosh what do we have here ionity".curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phraseSets": [{"phrases": [{"value": "${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost": "10"}]}]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phraseSets":[ { "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":"10" } ] } ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Fai riferimento a un CustomClass in un PhraseSet
Aggiorna la risorsa
PhraseSetcreata in precedenza in modo che faccia riferimento aCustomClass:curl -X PATCH -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases" -d '{"phrases": [{"value": "${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost": 10}]}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phraseSets":[ { "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":"10" } ] } ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Riconosci l'audio utilizzando la risorsa
PhraseSet(che si riferisce aCustomClass). La trascrizione è corretta: "call me fionity and oh my gosh what do we have here ionity".curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phrase_set_references": ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":10 } ] }
Elimina CustomClass e PhraseSet
Elimina il
PhraseSet:curl -X DELETE -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1"
Elimina il
CustomClass:curl -X DELETE -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"
Migliorare i risultati della trascrizione utilizzando un ABNF Grammar
Riconosci l'audio utilizzando un
abnf_grammar. Questo esempio si riferisce a una risorsaCustomClass: projects/project_id/locations/global/customClasses/test-custom-class-1, a unCustomClassincorporato: test-custom-class-2, a un token di classe: ADDRESSNUM e a una risorsaPhraseSet: projects/project_id/locations/global/phraseSets/test-phrase-set-1. La prima regola nelle stringhe (dopo le dichiarazioni esterne) verrà trattata come radice.Esempio di richiesta:
{ "config":{ "adaptation":{ "abnf_grammar":{ "abnf_strings": [ "external ${projects/project_id/locations/global/phraseSets/test-phrase-set-1}" , "external ${projects/project_id/locations/global/customClasses/test-custom-class-1}" , "external ${test-custom-class-2}" , "external $ADDRESSNUM" , "$root = $test-phrase-set-1 $name lives in $ADDRESSNUM;" , "$name = $title $test-custom-class-1 $test-custom-class-2" , "$title = Mr | Mrs | Miss | Dr | Prof ;" ] } } } }
Passaggi successivi
- Scopri come utilizzare l'adattamento del modello in una richiesta a Speech-to-Text.
- Consulta l'elenco dei token di classe supportati.