L'analisi conversazionale consente agli utenti di eseguire query sui dati modellati in LookML ponendo domande in linguaggio naturale all'interno di un'istanza di Looker.
Questa guida fornisce strategie e best practice per aiutare gli amministratori di Looker e gli sviluppatori LookML a configurare, eseguire il deployment e ottimizzare Analisi conversazionale. Questa guida tratta i seguenti argomenti:
- Best practice per LookML per Conversational Analytics
- Quando aggiungere il contesto a LookML anziché ad Analisi conversazionale
- Strategia di configurazione e implementazione consigliata
Preparando il modello LookML e l'analisi conversazionale, puoi aumentare l'adozione da parte degli utenti e assicurarti che ricevano risposte accurate e utili alle loro domande.
Scopri come e quando Gemini per Google Cloud utilizza i tuoi dati.
Best practice di LookML per l'analisi conversazionale
L'analisi conversazionale interpreta le domande in linguaggio naturale utilizzando due input principali:
Il modello LookML: Conversational Analytics analizza la struttura, i campi (dimensioni, misure), le etichette e le descrizioni definiti all'interno delle esplorazioni di Looker.
Valori dei campi distinti: Conversational Analytics esamina i valori dei dati all'interno dei campi (in particolare, le dimensioni stringa) per identificare le categorie e le entità disponibili su cui gli utenti potrebbero porre domande. La cardinalità (il numero di valori unici) può influire sul modo in cui vengono utilizzati questi valori.
Sebbene potente, l'efficacia di Conversational Analytics è direttamente correlata alla qualità e alla chiarezza di questi due input. La seguente tabella contiene i modi comuni in cui LookML poco chiaro o ambiguo può influire negativamente su Conversational Analytics, insieme alle soluzioni per migliorare l'output e l'esperienza utente.
Problema comune di qualità di LookML | Soluzione per un'analisi conversazionale più chiara |
---|---|
Mancanza di chiarezza:i campi che non hanno etichette o descrizioni chiare sono ambigui sia per Conversational Analytics sia per i suoi utenti. | Applica etichette chiare:utilizza il parametro label per assegnare ai campi nomi intuitivi e adatti alle attività che gli utenti probabilmente utilizzeranno nelle loro domande. |
Eccesso di campi:l'esposizione di un numero eccessivo di campi, in particolare ID interni (chiavi primarie), campi duplicati ereditati dalle unioni o campi di calcolo intermedi, può rendere più difficile la scelta delle opzioni disponibili per Conversational Analytics. | Nascondi i campi non pertinenti:assicurati che tutte le chiavi primarie, le chiavi esterne, i campi ridondanti dei join e i campi puramente tecnici rimangano nascosti. (Facoltativo) Estendi le esplorazioni:se l'esplorazione contiene un numero elevato di campi, valuta la possibilità di crearne una nuova che estenda una esistente. In questo modo, puoi personalizzare una versione dedicata dei contenuti più popolari per l'analisi conversazionale senza modificare le esplorazioni su cui potrebbero basarsi altri contenuti. |
Conflitti di denominazione:più campi con nomi o etichette simili o identici in diverse visualizzazioni all'interno dell'esplorazione possono comportare una selezione errata dei campi. | Scrivi descrizioni dettagliate:le descrizioni forniscono un contesto fondamentale per l'analisi conversazionale. Utilizza il parametro description per le seguenti attività:
Ad esempio, un campo con l'etichetta |
Complessità nascosta:se si fa molto affidamento sui campi personalizzati a livello di dashboard o sui calcoli delle tabelle, la logica di business potenzialmente critica non sarà accessibile ad Analytics conversazionale. | Incorpora logica personalizzata:identifica campi personalizzati o calcoli tabellari importanti e di uso comune. Converti la logica di questi campi in dimensioni e misure LookML in modo che Conversational Analytics possa utilizzarli. |
Dati disordinati:i seguenti tipi di dati incoerenti o scarsamente strutturati rendono difficile l'interpretazione accurata delle query da parte dell'analisi conversazionale.
|
Qualità dei dati dell'indirizzo:se possibile, segnala i problemi di qualità dei dati (valori, tipi e fusi orari incoerenti) che identifichi durante la cura dei dati. Collabora con i team di data engineering per pulire i dati di origine o applicare trasformazioni nel livello ETL/di modellazione dei dati. |
Per altre best practice per scrivere codice LookML pulito ed efficiente, consulta la seguente documentazione:
- Best practice: cosa fare e cosa non fare con LookML
- Best practice: crea un'esperienza positiva per gli utenti di Looker
- Best practice: scrivere codice LookML sostenibile e gestibile
Quando aggiungere il contesto a LookML anziché ad Analisi conversazionale
In Conversational Analytics, puoi aggiungere input di contesto, come sinonimi di campi e descrizioni, sia a LookML sia all'interno delle istruzioni dell'agente. Quando decidi dove aggiungere il contesto, segui queste indicazioni: il contesto che è sempre vero deve essere aggiunto direttamente al modello LookML. Le esplorazioni di Looker possono essere utilizzate in più posizioni, tra cui dashboard e analisi conversazionale, pertanto il contesto applicato in LookML deve essere valido per tutti i possibili utenti che interagiranno con i dati.
Il contesto dell'agente deve essere qualitativo e incentrato sull'utente. Inoltre, da un'unica esplorazione possono essere disponibili molti agenti che servono utenti diversi. Di seguito sono riportati alcuni esempi di contesto da includere nelle istruzioni dell'agente, ma non in LookML:
- Chi è l'utente che interagisce con l'agente? Che ruolo ricopre? Sono interni o esterni all'azienda? Qual è la sua esperienza precedente nell'analisi?
- Qual è l'obiettivo dell'utente? Che tipo di decisione vuole prendere al termine della conversazione?
- Quali tipi di domande porrà questo utente?
- Quali sono i campi principali specifici per questo utente? Quali sono i campi che questo utente non dovrà mai utilizzare?
Configurazione e strategia di implementazione consigliate
Questa guida consiglia il seguente approccio graduale per implementare Conversational Analytics in Looker:
- Fase 1: cura i dati e definisci l'ambito iniziale
- Fase 2: configura gli agenti e convalidali internamente
- Fase 3: espandi l'adozione di Conversational Analytics a più utenti
Questo approccio ti consente di iniziare con un ambito piccolo e controllato, convalidare la configurazione ed espanderti a un numero maggiore di utenti e dati.
Fase 1: cura i dati e definisci l'ambito iniziale
In questa fase, prepara i dati che gli utenti potranno interrogare con Conversational Analytics e definisci l'ambito dell'implementazione iniziale. Segui questi consigli per iniziare con un ambito piccolo e controllato:
- Limita l'accesso iniziale degli utenti: per consentire i test e la convalida interni, utilizza il sistema di autorizzazioni di Looker per concedere il ruolo Gemini a un piccolo gruppo di utenti che conoscono i dati.
- Limita l'accesso al modello Looker per Gemini: quando concedi il ruolo Gemini, puoi anche limitare i modelli a cui Gemini può accedere. Per iniziare, valuta la possibilità di limitare l'accesso di Gemini a uno o due modelli che hai selezionato per Conversational Analytics.
- Seleziona esplorazioni curate: inizia con una o due esplorazioni ben strutturate, basate su dati relativamente puliti e che forniscono un chiaro valore aziendale. Ottimizza queste esplorazioni per l'analisi conversazionale in Looker seguendo le istruzioni dettagliate riportate in Best practice di LookML per l'analisi conversazionale.
Fase 2: configura gli agenti e convalida internamente
In questa fase, crea e perfeziona gli agenti Conversational Analytics, quindi testali a fondo con gli utenti interni per verificarne l'accuratezza e l'efficacia. Questa fase prevede i seguenti passaggi:
- Crea agenti curati: crea agenti di Conversational Analytics basati solo sulle esplorazioni curate che hai preparato durante la fase di cura e configurazione iniziale.
Perfeziona con le istruzioni dell'agente: utilizza le istruzioni dell'agente per fornire ulteriore contesto e indicazioni. Ad esempio:
- Definisci i sinonimi per i nomi o i valori dei campi.
- Fornisci un contesto o regole specifiche per l'utilizzo di determinati campi.
Esegui la convalida internamente e itera: testa a fondo gli agenti con utenti che conoscono i dati. Poni varie domande, testa i casi limite e identifica i punti deboli. Apporta le seguenti modifiche in base al feedback dei test:
- Perfeziona il codice LookML. Ad esempio, modifica i valori dei parametri LookML
label
,description
ohidden
. - Modifica le istruzioni dell'agente.
- Continua a segnalare problemi relativi alla qualità dei dati.
- Perfeziona il codice LookML. Ad esempio, modifica i valori dei parametri LookML
Fase 3: espandi l'adozione di Conversational Analytics a più utenti
In questa fase, espandi l'adozione di Conversational Analytics a un maggior numero di utenti concedendo l'accesso, raccogliendo feedback e apportando modifiche agli agenti. Questa fase prevede i seguenti passaggi:
- Concedi l'accesso mirato: concedi l'accesso ad Analytics conversazionale ad altri utenti che hanno il ruolo Gemini e incoraggiali a utilizzare gli agenti specifici e verificati che hai creato.
Lancio e raccolta di feedback: sollecita attivamente feedback sui seguenti argomenti:
- Accuratezza delle risposte
- Facilità di utilizzo
- Informazioni mancanti o risultati confusi
Itera continuamente: utilizza il feedback per apportare ulteriori perfezionamenti a LookML e alle istruzioni dell'agente e dai la priorità agli sforzi di pulizia dei dati.
Amplia l'accesso: una volta che gli agenti si dimostrano stabili e validi, espandi l'accesso ad altri gruppi di utenti pertinenti e introduci nuovi agenti selezionati concedendo il ruolo Gemini. Puoi anche introdurre nuovi agenti curati ed espandere l'accesso ai modelli disponibili per il ruolo Gemini, seguendo le stesse procedure utilizzate nelle fasi precedenti.