Valutare gli agenti di IA generativa

Dopo aver creato e valutato il modello di IA generativa, puoi utilizzarlo per creare un agente come un chatbot. Il servizio di valutazione dell'IA generativa ti consente di misurare la capacità dell'agente di completare attività e obiettivi per il tuo caso d'uso.

Panoramica

Per valutare il tuo agente, hai a disposizione le seguenti opzioni:

  • Valutazione della risposta finale: valuta l'output finale di un agente (indipendentemente dal fatto che abbia raggiunto o meno il suo obiettivo).

  • Valutazione della traiettoria: valuta il percorso (sequenza di chiamate allo strumento) seguito dall'agente per raggiungere la risposta finale.

Con il servizio di valutazione dell'IA generativa, puoi attivare l'esecuzione di un agente e ottenere metriche sia per la valutazione della traiettoria sia per la valutazione della risposta finale in una singola query dell'SDK Vertex AI.

Agenti supportati

Il servizio di valutazione dell'IA generativa supporta le seguenti categorie di agenti:

Agenti supportati Descrizione
Agente creato con il modello di Agent Engine Agent Engine (LangChain su Vertex AI) è una Google Cloud piattaforma in cui puoi eseguire il deployment e gestire gli agenti.
Agenti LangChain creati utilizzando il modello personalizzabile di Agent Engine LangChain è una piattaforma open source.
Funzione agente personalizzata La funzione dell'agente personalizzato è una funzione flessibile che riceve un prompt per l'agente e restituisce una risposta e una traiettoria in un dizionario.

Definizione delle metriche per la valutazione degli agenti

Definisci le metriche per la valutazione della risposta finale o della traiettoria:

Valutazione della risposta finale

La valutazione della risposta finale segue la stessa procedura della valutazione della risposta del modello. Per ulteriori informazioni, consulta Definire le metriche di valutazione.

Valutazione della traiettoria

Le seguenti metriche ti aiutano a valutare la capacità del modello di seguire la traiettoria prevista:

Corrispondenza esatta

Se la traiettoria prevista è identica a quella di riferimento, con le stesse chiamate dello strumento nello stesso ordine, la metrica trajectory_exact_match restituisce un punteggio pari a 1, altrimenti 0.

Parametri di input delle metriche

Parametro di input Descrizione
predicted_trajectory L'elenco delle chiamate allo strumento utilizzate dall'agente per raggiungere la risposta finale.
reference_trajectory L'utilizzo dello strumento previsto per consentire all'agente di soddisfare la query.

Genera punteggi

Valore Descrizione
0 La traiettoria prevista non corrisponde al riferimento.
1 La traiettoria prevista corrisponde a quella di riferimento.

Corrispondenza in ordine

Se la traiettoria prevista contiene tutte le chiamate allo strumento della traiettoria di riferimento nello stesso ordine e può anche avere chiamate allo strumento aggiuntive, la metrica trajectory_in_order_match restituisce un punteggio pari a 1, altrimenti 0.

Parametri di input delle metriche

Parametro di input Descrizione
predicted_trajectory La traiettoria prevista utilizzata dall'agente per raggiungere la risposta finale.
reference_trajectory La traiettoria prevista per consentire all'agente di soddisfare la query.

Genera punteggi

Valore Descrizione
0 Le chiamate dello strumento nella traiettoria prevista non corrispondono all'ordine nella traiettoria di riferimento.
1 La traiettoria prevista corrisponde a quella di riferimento.

Corrispondenza in qualsiasi ordine

Se la traiettoria prevista contiene tutte le chiamate dello strumento della traiettoria di riferimento, ma l'ordine non è importante e possono essere presenti chiamate dello strumento aggiuntive, la metrica trajectory_any_order_match restituisce un punteggio pari a 1, altrimenti 0.

Parametri di input delle metriche

Parametro di input Descrizione
predicted_trajectory L'elenco delle chiamate allo strumento utilizzate dall'agente per raggiungere la risposta finale.
reference_trajectory L'utilizzo dello strumento previsto per consentire all'agente di soddisfare la query.

Genera punteggi

Valore Descrizione
0 La traiettoria prevista non contiene tutte le chiamate allo strumento nella traiettoria di riferimento.
1 La traiettoria prevista corrisponde a quella di riferimento.

Precisione

La metrica trajectory_precision misura quante chiamate allo strumento nella traiettoria prevista sono effettivamente pertinenti o corrette in base alla traiettoria di riferimento.

La precisione viene calcolata nel seguente modo: conteggia quante azioni nella traiettoria prevista compaiono anche nella traiettoria di riferimento. Dividi questo conteggio per il numero totale di azioni nella traiettoria prevista.

Parametri di input delle metriche

Parametro di input Descrizione
predicted_trajectory L'elenco delle chiamate allo strumento utilizzate dall'agente per raggiungere la risposta finale.
reference_trajectory L'utilizzo dello strumento previsto per consentire all'agente di soddisfare la query.

Genera punteggi

Valore Descrizione
Un valore float compreso nell'intervallo [0,1] Più alto è il punteggio, più precisa è la traiettoria prevista.

Richiamo

La metrica trajectory_recall misura quante chiamate allo strumento essenziali della traiettoria di riferimento vengono effettivamente acquisite nella traiettoria prevista.

Il richiamo viene calcolato nel seguente modo: conteggia quante azioni nella traiettoria di riferimento appaiono anche nella traiettoria prevista. Dividi questo conteggio per il numero totale di azioni nella traiettoria di riferimento.

Parametri di input delle metriche

Parametro di input Descrizione
predicted_trajectory L'elenco delle chiamate allo strumento utilizzate dall'agente per raggiungere la risposta finale.
reference_trajectory L'utilizzo dello strumento previsto per consentire all'agente di soddisfare la query.

Genera punteggi

Valore Descrizione
Un valore float compreso nell'intervallo [0,1] Più alto è il punteggio, maggiore è il richiamo della traiettoria prevista.

Utilizzo di un solo strumento

La metrica trajectory_single_tool_use verifica se nella traiettoria prevista viene utilizzato uno strumento specifico specificato nella specifica della metrica. Non controlla l'ordine delle chiamate allo strumento o quante volte viene utilizzato, ma solo se è presente o meno.

Parametri di input delle metriche

Parametro di input Descrizione
predicted_trajectory L'elenco delle chiamate allo strumento utilizzate dall'agente per raggiungere la risposta finale.

Genera punteggi

Valore Descrizione
0 Lo strumento non è presente
1 Lo strumento è presente.

Inoltre, per impostazione predefinita ai risultati della valutazione vengono aggiunte le seguenti due metriche sul rendimento dell'agente. Non è necessario specificarli in EvalTask.

latency

Tempo impiegato dall'agente per rispondere.

Valore Descrizione
Un galleggiante Calcolata in secondi.

failure

Un valore booleano per descrivere se l'invocazione dell'agente ha generato un errore o è andata a buon fine.

Genera punteggi

Valore Descrizione
1 Errore
0 Risposta valida restituita

Preparare il set di dati per la valutazione dell'agente

Prepara il set di dati per la valutazione finale della risposta o della traiettoria.

Lo schema di dati per la valutazione della risposta finale è simile a quello della valutazione della risposta del modello.

Per la valutazione della traiettoria basata su calcolo, il set di dati deve fornire le seguenti informazioni:

Tipo input Contenuti del campo di immissione
predicted_trajectory L'elenco delle chiamate allo strumento utilizzate dagli agenti per raggiungere la risposta finale.
reference_trajectory (non obbligatorio per trajectory_single_tool_use metric) L'utilizzo dello strumento previsto per consentire all'agente di soddisfare la query.

Esempi di set di dati di valutazione

Gli esempi riportati di seguito mostrano i set di dati per la valutazione della traiettoria. Tieni presente che reference_trajectory è obbligatorio per tutte le metriche, ad eccezione di trajectory_single_tool_use.

reference_trajectory = [
# example 1
[
  {
    "tool_name": "set_device_info",
    "tool_input": {
        "device_id": "device_2",
        "updates": {
            "status": "OFF"
        }
    }
  }
],
# example 2
[
    {
      "tool_name": "get_user_preferences",
      "tool_input": {
          "user_id": "user_y"
      }
  },
  {
      "tool_name": "set_temperature",
      "tool_input": {
          "location": "Living Room",
          "temperature": 23
      }
    },
  ]
]

predicted_trajectory = [
# example 1
[
  {
    "tool_name": "set_device_info",
    "tool_input": {
        "device_id": "device_3",
        "updates": {
            "status": "OFF"
        }
    }
  }
],
# example 2
[
    {
      "tool_name": "get_user_preferences",
      "tool_input": {
          "user_id": "user_z"
      }
    },
    {
      "tool_name": "set_temperature",
      "tool_input": {
          "location": "Living Room",
          "temperature": 23
      }
    },
  ]
]

eval_dataset = pd.DataFrame({
    "predicted_trajectory": predicted_trajectory,
    "reference_trajectory": reference_trajectory,
})

Importa il set di dati di valutazione

Puoi importare il set di dati nei seguenti formati:

  • File JSONL o CSV archiviato in Cloud Storage

  • Tabella BigQuery

  • DataFrame Pandas

Il servizio di valutazione dell'IA generativa fornisce set di dati pubblici di esempio per dimostrare come puoi valutare i tuoi agenti. Il codice seguente mostra come importare i set di dati pubblici da un bucket Cloud Storage:

# dataset name to be imported
dataset = "on-device" # Alternatives: "customer-support", "content-creation"

# copy the tools and dataset file
!gcloud storage cp gs://cloud-ai-demo-datasets/agent-eval-datasets/{dataset}/tools.py .
!gcloud storage cp gs://cloud-ai-demo-datasets/agent-eval-datasets/{dataset}/eval_dataset.json .

# load the dataset examples
import json

eval_dataset = json.loads(open('eval_dataset.json').read())

# run the tools file
%run -i tools.py

dove dataset è uno dei seguenti set di dati pubblici:

  • "on-device" per un assistente domestico on-device che controlla i dispositivi di casa. L'agente risponde a query come "Pianifica l'aria condizionata in camera da letto in modo che sia accesa tra le 23:00 e le 08:00 e spenta per il resto del tempo".

  • "customer-support" per contattare un addetto all'assistenza clienti. L'agente risponde a query come "Puoi annullare gli ordini in attesa e riassegnare i ticket di assistenza aperti?"

  • "content-creation" per un agente di creazione di contenuti di marketing. L'agente aiuta con query come "Riprogramma la campagna X come campagna una tantum sul sito di social media Y con un budget ridotto del 50%, solo il 25 dicembre 2024".

Esegui la valutazione dell'agente

Esegui una valutazione della traiettoria o della risposta finale:

Per la valutazione dell'agente, puoi combinare le metriche di valutazione della risposta e quelle di valutazione della traiettoria, come nel seguente codice:

single_tool_use_metric = TrajectorySingleToolUse(tool_name='tool_name')

eval_task = EvalTask(
    dataset=EVAL_DATASET,
    metrics=[
        "rouge_l_sum",
        "bleu",
        custom_trajectory_eval_metric, # custom computation-based metric
        "trajectory_exact_match",
        "trajectory_precision",
        single_tool_use_metric,
        response_follows_trajectory_metric # llm-based metric
    ],
)
eval_result = eval_task.evaluate(
    runnable=RUNNABLE,
)

Personalizzazione delle metriche

Puoi personalizzare una metrica basata su modelli linguistici di grandi dimensioni per la valutazione della traiettoria utilizzando un'interfaccia basata su modelli o da zero. Per maggiori dettagli, consulta la sezione sulle metriche basate su modelli. Ecco un esempio di modello:

response_follows_trajectory_prompt_template = PointwiseMetricPromptTemplate(
    criteria={
        "Follows trajectory": (
            "Evaluate whether the agent's response logically follows from the "
            "sequence of actions it took. Consider these sub-points:\n"
            "  - Does the response reflect the information gathered during the trajectory?\n"
            "  - Is the response consistent with the goals and constraints of the task?\n"
            "  - Are there any unexpected or illogical jumps in reasoning?\n"
            "Provide specific examples from the trajectory and response to support your evaluation."
        )
    },
    rating_rubric={
        "1": "Follows trajectory",
        "0": "Does not follow trajectory",
    },
    input_variables=["prompt", "predicted_trajectory"],
)

response_follows_trajectory_metric = PointwiseMetric(
    metric="response_follows_trajectory",
    metric_prompt_template=response_follows_trajectory_prompt_template,
)

Puoi anche definire una metrica basata su calcoli personalizzati per la valutazione della traiettoria o della risposta come segue:

def essential_tools_present(instance, required_tools = ["tool1", "tool2"]):
    trajectory = instance["predicted_trajectory"]
    tools_present = [tool_used['tool_name'] for tool_used in trajectory]
    if len(required_tools) == 0:
      return {"essential_tools_present": 1}
    score = 0
    for tool in required_tools:
      if tool in tools_present:
        score += 1
    return {
        "essential_tools_present": score/len(required_tools),
    }

custom_trajectory_eval_metric = CustomMetric(name="essential_tools_present", metric_function=essential_tools_present)

Visualizzare e interpretare i risultati

Per la valutazione della traiettoria o la valutazione della risposta finale, i risultati della valutazione vengono visualizzati come segue:

Tabelle per le metriche di valutazione degli agenti

I risultati della valutazione contengono le seguenti informazioni:

Metriche di risposta finale

Risultati a livello di istanza

Colonna Descrizione
risposta Risposta finale generata dall'agente.
latency_in_seconds Tempo impiegato per generare la risposta.
operazione non riuscita Indica se è stata generata o meno una risposta valida.
punteggio Un punteggio calcolato per la risposta specificata nella specifica della metrica.
spiegazione La spiegazione del punteggio specificato nella specifica della metrica.

Risultati aggregati

Colonna Descrizione
medio Punteggio medio per tutte le istanze.
deviazione standard Deviazione standard per tutti i punteggi.

Metriche relative alla traiettoria

Risultati a livello di istanza

Colonna Descrizione
trajectory_predicted Sequenza di chiamate allo strumento seguite dall'agente per raggiungere la risposta finale.
reference_trajectory Sequenza di chiamate dello strumento previste.
punteggio Un punteggio calcolato per la traiettoria prevista e la traiettoria di riferimento specificata nella specifica della metrica.
latency_in_seconds Tempo impiegato per generare la risposta.
operazione non riuscita Indica se è stata generata o meno una risposta valida.

Risultati aggregati

Colonna Descrizione
medio Punteggio medio per tutte le istanze.
deviazione standard Deviazione standard per tutti i punteggi.

Passaggi successivi

Prova i seguenti notebook per la valutazione degli agenti: