Installa e configura l'SDK Vertex AI per ABAP

Questo documento descrive come installare e configurare l'SDK Vertex AI per ABAP sul sistema host SAP su Compute Engine, su qualsiasi macchina virtuale cloud, su RISE with S/4HANA Cloud Private Edition o su istanze on-premise.

Installazione

Quando installi l'ultima versione dell'edizione on-premise o cloud di ABAP SDK for Google Cloud, viene installato l'SDK Vertex AI per ABAP. Per informazioni sui passaggi di installazione, consulta Installare e configurare la versione on-premise o cloud di ABAP SDK for Google Cloud.

Se utilizzi la versione 1.7 o precedenti dell'SDK ABAP per Google Cloud on-premise o di qualsiasi edizione cloud, aggiorna l'SDK all'ultima versione per ottenere l'SDK Vertex AI per ABAP. Per ulteriori informazioni, vedi Aggiornare ABAP SDK for Google Cloud.

Siamo consapevoli che l'accesso a Vertex AI e alle risorse cloud potrebbe essere limitato per alcuni sviluppatori. Per abilitare la prototipazione e la sperimentazione con una configurazione minima, consulta Prototipazione rapida con Gemini.

Abilita l'API Vertex AI

Abilita l'API Vertex AI nel tuo progetto Google Cloud .

API Vertex AI

Per informazioni su come abilitare le API Google Cloud , vedi Abilitazione delle API.

Abilitare i modelli partner in Vertex AI

Se vuoi utilizzare un modello partner, devi attivare il modello richiesto in Vertex AI.

Vertex AI SDK for ABAP supporta i seguenti modelli Anthropic Claude:

Per abilitare un modello Claude, vai alla scheda del modello Model Garden appropriata e poi fai clic su Abilita:

Autenticazione

Una volta configurata l'autenticazione per accedere alle Google Cloud API nella tua edizione on-premise o cloud di ABAP SDK for Google Cloud, l'SDK Vertex AI per ABAP utilizza lo stesso metodo di autenticazione per accedere all'API Vertex AI. Per informazioni su come configurare l'autenticazione nella versione on-premise o in qualsiasi versione cloud di ABAP SDK for Google Cloud, consulta Panoramica dell'autenticazione.

Prendi nota della chiave client che hai creato nell'ambito della configurazione dell'autenticazione. Utilizzi questa chiave client quando configuri i parametri di generazione e di ricerca del modello di AI.

Autorizzazioni IAM

Assicurati che il account di servizio dedicato per l'accesso API che hai configurato nella tabella delle chiavi client abbia accesso alle risorse Vertex AI.

Vertex AI

Per utilizzare le risorse Vertex AI, devi concedere il ruolo Utente Vertex AI (roles/aiplatform.user) al account di servizio dedicato a cui hai concesso le autorizzazioni per accedere all'API Vertex AI.

Se devi fornire autorizzazioni specifiche per creare, modificare ed eseguire il deployment degli artefatti, concedi le autorizzazioni IAM di Vertex AI specifiche in base alle esigenze.

Vertex AI Feature Store

Per utilizzare Vertex AI Feature Store, devi concedere i seguenti ruoli al account di servizio:

Funzionalità di AI Ruoli IAM richiesti
Vertex AI Feature Store

Configura i parametri di generazione del modello

I modelli linguistici di grandi dimensioni (LLM) sono modelli di deep learning addestrati su enormi quantità di dati testuali. Un modello include valori parametro che controllano il modo in cui il modello genera una risposta. Puoi ottenere risultati diversi dal modello modificando i valori dei parametri.

Per definire i parametri di generazione per un modello, l'SDK Vertex AI per ABAP utilizza la tabella /GOOG/AI_CONFIG.

Per configurare i parametri di generazione di un modello:

  1. In SAP GUI, esegui il codice transazione /GOOG/SDK_IMG.

    In alternativa, esegui il codice di transazione SPRO e poi fai clic su SAP Reference IMG.

  2. Fai clic su ABAP SDK for Google Cloud > Basic Settings > Vertex AI SDK: Configure Model Generation Parameters.

  3. Fai clic su Nuove voci.

  4. Scegli la famiglia di modelli e inserisci i valori appropriati:

    Gemini

    Campo Tipo di dati Descrizione
    Chiave del modello Stringa

    Un nome univoco che specifichi per identificare la configurazione del modello, ad esempio Gemini.

    Utilizzi questa chiave del modello durante l'istanza della classe del modello generativo o della classe degli incorporamenti per specificare la configurazione di generazione da applicare.

    ID modello Stringa

    ID modello dell'LLM, ad esempio gemini-1.5-flash-001.

    Per informazioni sulle versioni del modello Vertex AI, consulta Versioni e ciclo di vita del modello.

    Nome della chiave Google Cloud Stringa La chiave client che hai configurato per l'autenticazione a Google Cloud durante la configurazione dell'autenticazione.
    ID località regione Google Cloud Stringa

    L'ID località della regione Google Cloud in cui sono disponibili le funzionalità di Vertex AI che vuoi utilizzare.

    In genere, utilizzi la regione più vicina alla tua sede fisica o alla sede fisica degli utenti a cui ti rivolgi. Per ulteriori informazioni, consulta Località di Vertex AI.

    ID publisher del LLM Stringa Facoltativo. Il publisher dell'LLM, ad esempio google.
    Tipo MIME della risposta Stringa Facoltativo. Tipo MIME della risposta di output del testo candidato generato. Tipo MIME supportato:
    • text/plain: (predefinito) Output di testo.
    • application/json: risposta JSON nei candidati.
    Al modello deve essere richiesto di generare il tipo di risposta appropriato, altrimenti il comportamento è indefinito.
    Temperatura di casualità Stringa

    Facoltativo. Controlla la casualità delle previsioni. Per ulteriori informazioni, vedi Temperatura.

    Intervallo: [0.0, 1.0]

    Campionamento Top-K Numero in virgola mobile

    Facoltativo. Top-K cambia il modo in cui il modello seleziona i token per l'output.

    Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Per ulteriori informazioni, vedi Top-K.

    Intervallo: [1, 40]

    Campionamento Top-P Numero in virgola mobile

    Facoltativo. Top-P cambia il modo in cui il modello seleziona i token per l'output.

    Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Per ulteriori informazioni, vedi Top-P.

    Intervallo: [0.0, 1.0]

    Numero massimo di token di output per messaggio Numero intero

    Facoltativo. Il numero massimo di token che possono essere generati nella risposta. Un token equivale a circa quattro caratteri. 100 token corrispondono a circa 60-80 parole.

    Specifica un valore più basso per risposte più brevi e un valore più alto per risposte potenzialmente più lunghe.

    Penalità positive Numero in virgola mobile

    Facoltativo. I valori positivi penalizzano i token che sono apparsi nel testo generato, aumentando così la possibilità di generare argomenti più diversi.

    Intervallo: [-2,0, 2,0]

    Penalità per frequenza Numero in virgola mobile

    Facoltativo. I valori positivi penalizzano i token che compaiono ripetutamente nel testo generato, riducendo così la possibilità di ripetere gli stessi contenuti.

    Intervallo: [-2,0, 2,0]

    Claude

    Campo Tipo di dati Descrizione
    Chiave del modello Stringa

    Un nome univoco che specifichi per identificare la configurazione del modello, ad esempio Claude.

    Utilizzi questa chiave del modello durante l'istanza della classe del modello generativo per specificare la configurazione di generazione da applicare.

    ID modello Stringa

    ID modello del modello Claude supportato, ad esempio claude-sonnet-4@20250514.

    Sono supportati i seguenti modelli Claude:

    Nome della chiave Google Cloud Stringa La chiave client che hai configurato per l'autenticazione a Google Cloud durante la configurazione dell'autenticazione.
    ID località regione Google Cloud Stringa

    L'ID località della regione Google Cloud in cui è disponibile il modello Claude che vuoi utilizzare.

    In genere, utilizzi la regione più vicina alla tua sede fisica o alla sede fisica degli utenti a cui ti rivolgi. Per ulteriori informazioni, consulta Quote e disponibilità a livello regionale di Anthropic Claude.

    ID publisher del LLM Stringa Facoltativo. Il publisher dell'LLM, ad esempio anthropic.
    Tipo MIME della risposta Stringa Facoltativo. Tipo MIME della risposta di output del testo candidato generato. Tipo MIME supportato:
    • text/plain: (predefinito) Output di testo.
    • application/json: risposta JSON nei candidati.
    Al modello deve essere richiesto di generare il tipo di risposta appropriato, altrimenti il comportamento è indefinito.
    Temperatura di casualità Stringa

    Facoltativo. Controlla la casualità delle previsioni. Per ulteriori informazioni, vedi Temperatura.

    Intervallo: [0.0, 1.0]

    Campionamento Top-K Numero in virgola mobile

    Facoltativo. Top-K cambia il modo in cui il modello seleziona i token per l'output.

    Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Per ulteriori informazioni, vedi Top-K.

    Intervallo: [1, 40]

    Campionamento Top-P Numero in virgola mobile

    Facoltativo. Top-P cambia il modo in cui il modello seleziona i token per l'output.

    Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali. Per ulteriori informazioni, vedi Top-P.

    Intervallo: [0.0, 1.0]

    Numero massimo di token di output per messaggio Numero intero

    Facoltativo. Il numero massimo di token che possono essere generati nella risposta. Un token equivale a circa quattro caratteri. 100 token corrispondono a circa 60-80 parole.

    Specifica un valore più basso per risposte più brevi e un valore più alto per risposte potenzialmente più lunghe.

    Penalità positive Numero in virgola mobile

    Non applicabile

    Penalità per frequenza Numero in virgola mobile

    Non applicabile

    Se non fornisci un valore per un parametro facoltativo, l'SDK utilizza il valore predefinito del parametro specifico della versione del modello configurato in Model ID.

  5. Salva la nuova voce.

Configurare i parametri di Vector Search

Per definire le configurazioni di Vector Search, l'SDK Vertex AI per ABAP utilizza la tabella /GOOG/SEARCHCONF.

Per configurare i parametri di ricerca vettoriale:

  1. In SAP GUI, esegui il codice transazione /GOOG/SDK_IMG.

    In alternativa, esegui il codice di transazione SPRO e poi fai clic su SAP Reference IMG.

  2. Fai clic su ABAP SDK for Google Cloud > Basic Settings > Vertex AI SDK: Configure Vector Search Parameters.

  3. Fai clic su Nuove voci.

  4. Inserisci i valori per i seguenti campi:

    Campo Tipo di dati Descrizione
    Tasto per la ricerca Stringa Un nome univoco che specifichi per identificare la configurazione di ricerca.
    Nome della chiave Google Cloud Stringa La chiave client che hai configurato per l'autenticazione a Google Cloud durante la configurazione dell'autenticazione.
    ID località regione Google Cloud Stringa

    L'ID località della regione Google Cloud in cui sono disponibili le funzionalità di Vertex AI che vuoi utilizzare.

    In genere, utilizzi la regione più vicina alla tua sede fisica o alla sede fisica degli utenti a cui ti rivolgi. Per ulteriori informazioni, consulta Località di Vertex AI.

    ID deployment dell'indice vettoriale Stringa L'ID deployment di un indice. Quando esegui il deployment di un indice in un endpoint, gli assegni un ID deployment univoco.

    Per informazioni sul deployment dell'indice, vedi Eseguire il deployment di un indice vettoriale in un endpoint indice.

    ID endpoint indice vettoriale Stringa

    L'ID dell'endpoint dell'indice in cui viene eseguito il deployment dell'indice.

    Per informazioni sull'endpoint indice, vedi Creare un endpoint indice vettoriale.

  5. Salva la nuova voce.

Passaggi successivi