Vertex AI SDK for ABAP installieren und konfigurieren

In diesem Dokument wird beschrieben, wie Sie das Vertex AI SDK für ABAP auf Ihrem SAP-Hostsystem in Compute Engine, allen virtuellen Cloud-Maschinen, RISE with S/4HANA Cloud Private Edition oder lokalen Instanzen installieren und konfigurieren.

Installation

Wenn Sie die neueste Version der lokalen oder Cloud-Version des ABAP SDK for Google Cloud installieren, wird das Vertex AI SDK für ABAP für Sie installiert. Informationen zu den Installationsschritten finden Sie unter Lokale oder Cloud-Version des ABAP SDK for Google Cloud installieren und konfigurieren.

Wenn Sie Version 1.7 oder eine frühere Version der lokalen oder einer beliebigen Cloud-Version des ABAP SDK for Google Cloud verwenden, aktualisieren Sie Ihr SDK auf die neueste Version, um das Vertex AI SDK for ABAP zu erhalten. Weitere Informationen finden Sie unter ABAP SDK for Google Cloud aktualisieren.

Wir wissen, dass der Zugriff auf Vertex AI und Cloud-Ressourcen für einige Entwickler eingeschränkt sein kann. Informationen zum Prototyping und Experimentieren mit minimalem Einrichtungsaufwand finden Sie unter Schnelles Prototyping mit Gemini.

Vertex AI API aktivieren

Aktivieren Sie die Vertex AI API in Ihrem Google Cloud -Projekt.

Vertex AI API

Informationen zum Aktivieren von Google Cloud APIs finden Sie unter APIs aktivieren.

Partnermodelle in Vertex AI aktivieren

Wenn Sie ein Partnermodell verwenden möchten, müssen Sie das erforderliche Modell in Vertex AI aktivieren.

Das Vertex AI SDK für ABAP unterstützt die folgenden Anthropic Claude-Modelle:

Wenn Sie ein Claude-Modell aktivieren möchten, rufen Sie die entsprechende Model Garden-Modellkarte auf und klicken Sie auf Aktivieren:

Authentifizierung

Nachdem Sie die Authentifizierung für den Zugriff auf Google Cloud APIs in Ihrer lokalen oder einer beliebigen Cloud-Version des ABAP SDK for Google Cloud eingerichtet haben, verwendet das Vertex AI SDK für ABAP dieselbe Authentifizierungsmethode für den Zugriff auf die Vertex AI API. Informationen zum Einrichten der Authentifizierung in der lokalen oder einer beliebigen Cloud-Version des ABAP SDK for Google Cloud finden Sie unter Authentifizierung.

Notieren Sie sich den Clientschlüssel, den Sie im Rahmen der Einrichtung der Authentifizierung erstellt haben. Sie verwenden diesen Clientschlüssel, wenn Sie Parameter zur KI-Modellgenerierung und -Suchparameter konfigurieren.

IAM-Berechtigungen

Achten Sie darauf, dass das dedizierte Dienstkonto für den API-Zugriff, das Sie in der Clientschlüsseltabelle konfiguriert haben, Zugriff auf die Vertex AI-Ressourcen hat.

Vertex AI

Wenn Sie die Vertex AI-Ressourcen verwenden möchten, müssen Sie dem speziellen Dienstkonto, dem Sie Berechtigungen für den Zugriff auf die Vertex AI API gewährt haben, die Rolle Vertex AI User (roles/aiplatform.user) zuweisen.

Wenn Sie bestimmte Berechtigungen zum Erstellen, Ändern und Bereitstellen von Artefakten angeben müssen, gewähren Sie gegebenenfalls bestimmte Vertex AI-IAM-Berechtigungen.

Vertex AI Feature Store

Wenn Sie den Vertex AI Feature Store verwenden möchten, müssen Sie dem Dienstkonto die folgenden Rollen zuweisen:

KI-Funktionen Erforderliche IAM-Rollen
Vertex AI Feature Store

Parameter für die Modellgenerierung konfigurieren

Large Language Models (LLM) sind Deep-Learning-Modelle, die mit riesigen Textdaten trainiert wurden. Ein Modell enthält Parameterwerte, die steuern, wie das Modell eine Antwort generiert. Sie können unterschiedliche Ergebnisse vom Modell erhalten, indem Sie die Parameterwerte ändern.

Zum Definieren der Generierungsparameter für ein Modell verwendet das Vertex AI SDK für ABAP die Tabelle /GOOG/AI_CONFIG.

So konfigurieren Sie die Generierungsparameter für ein Modell:

  1. Führen Sie in der SAP-GUI den Transaktionscode /GOOG/SDK_IMG aus.

    Alternativ können Sie den Transaktionscode SPRO ausführen und dann auf SAP-Referenz-IMG klicken.

  2. Klicken Sie auf ABAP SDK for Google Cloud > Grundlegende Einstellungen > Vertex AI SDK: Parameter für die Modellgenerierung konfigurieren.

  3. Klicken Sie auf Neue Einträge.

  4. Wählen Sie die Modellfamilie aus und geben Sie die entsprechenden Werte ein:

    Gemini

    Feld Datentyp Beschreibung
    Modellschlüssel String

    Ein eindeutiger Name, den Sie zur Identifizierung der Modellkonfiguration angeben, z. B. Gemini.

    Sie verwenden diesen Modellschlüssel, wenn Sie die generative Modellklasse oder die Einbettungsklasse instanziieren, um die Generierungskonfiguration anzugeben, die wirksam werden soll.

    Modell-ID String

    Modell-ID des LLM, z. B. gemini-1.5-flash-001.

    Informationen zu Vertex AI-Modellversionen finden Sie unter Modellversionen und Lebenszyklus.

    Google Cloud-Schlüsselname String Der Clientschlüssel, den Sie während der Einrichtung der Authentifizierung für die Authentifizierung bei Google Cloud konfiguriert haben.
    Google Cloud-Regions-ID String

    Die Standort-ID der Google Cloud Region, in der die von Ihnen zu verwendenden Vertex AI-Features verfügbar sind.

    Sie sollten möglichst die Region verwenden, die Ihrem Standort (oder dem Standort Ihrer Nutzer) am nächsten ist. Weitere Informationen finden Sie unter Vertex AI-Standorte.

    Publisher-ID des LLM String Optional. Der Publisher des LLM, z. B. google.
    MIME-Typ der Antwort String Optional. MIME-Typ der Ausgabeantwort des generierten Kandidatentextes. Unterstützter MIME-Typ:
    • text/plain: (Standardeinstellung) Textausgabe.
    • application/json: JSON-Antwort in den Kandidaten.
    Das Modell muss aufgefordert werden, den entsprechenden Antworttyp auszugeben. Andernfalls ist das Verhalten nicht definiert.
    Zufallstemperatur String

    Optional. Steuert die Zufälligkeit von Vorhersagen. Weitere Informationen finden Sie unter Temperatur.

    Bereich: [0.0, 1.0]

    Top-K-Stichprobenerhebung Float

    Optional. Der Wert „Top-K“ ändert, wie das Modell Tokens für die Ausgabe auswählt.

    Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Weitere Informationen finden Sie unter Top-K.

    Bereich: [1, 40]

    Top-P-Stichprobenerhebung Float

    Optional. Der Wert „Top-P“ ändert, wie das Modell Tokens für die Ausgabe auswählt.

    Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Weitere Informationen finden Sie unter Top-P.

    Bereich: [0.0, 1.0]

    Maximale Anzahl an Ausgabetokens pro Nachricht Ganzzahl

    Optional. Maximale Anzahl an Tokens, die in der Antwort generiert werden können. Ein Token besteht aus etwa vier Zeichen. 100 Tokens entsprechen etwa 60–80 Wörtern.

    Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an.

    Positive Strafen Float

    Optional. Positive Werte nehmen Abzüge bei Tokens vor, die bereits im generierten Text angezeigt wurden, wodurch die Wahrscheinlichkeit vielfältigerer Themen erhöht wird.

    Bereich: [-2.0, 2.0]

    Strafen für die Häufigkeit Float

    Optional. Positive Werte nehmen Abzüge bei Tokens vor, die wiederholt im generierten Text angezeigt werden, wodurch die Möglichkeit der Wiederholung desselben Inhalts verringert wird.

    Bereich: [-2.0, 2.0]

    Claude

    Feld Datentyp Beschreibung
    Modellschlüssel String

    Ein eindeutiger Name, den Sie zur Identifizierung der Modellkonfiguration angeben, z. B. Claude.

    Sie verwenden diesen Modellschlüssel, wenn Sie die generative Modellklasse instanziieren, um die Generierungskonfiguration anzugeben, die wirksam werden soll.

    Modell-ID String

    Modell-ID des unterstützten Claude-Modells, z. B. claude-sonnet-4@20250514.

    Die folgenden Claude-Modelle werden unterstützt:

    Google Cloud-Schlüsselname String Der Clientschlüssel, den Sie während der Einrichtung der Authentifizierung für die Authentifizierung bei Google Cloud konfiguriert haben.
    Google Cloud-Regions-ID String

    Die Standort-ID der Google Cloud Region, in der das Claude-Modell, das Sie verwenden möchten, verfügbar ist.

    Sie sollten möglichst die Region verwenden, die Ihrem Standort (oder dem Standort Ihrer Nutzer) am nächsten ist. Weitere Informationen finden Sie unter Anthropic Claude-Kontingente und regionale Verfügbarkeit.

    Publisher-ID des LLM String Optional. Der Publisher des LLM, z. B. anthropic.
    MIME-Typ der Antwort String Optional. MIME-Typ der Ausgabeantwort des generierten Kandidatentextes. Unterstützter MIME-Typ:
    • text/plain: (Standardeinstellung) Textausgabe.
    • application/json: JSON-Antwort in den Kandidaten.
    Das Modell muss aufgefordert werden, den entsprechenden Antworttyp auszugeben. Andernfalls ist das Verhalten nicht definiert.
    Zufallstemperatur String

    Optional. Steuert die Zufälligkeit von Vorhersagen. Weitere Informationen finden Sie unter Temperatur.

    Bereich: [0.0, 1.0]

    Top-K-Stichprobenerhebung Float

    Optional. Der Wert „Top-K“ ändert, wie das Modell Tokens für die Ausgabe auswählt.

    Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Weitere Informationen finden Sie unter Top-K.

    Bereich: [1, 40]

    Top-P-Stichprobenerhebung Float

    Optional. Der Wert „Top-P“ ändert, wie das Modell Tokens für die Ausgabe auswählt.

    Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an. Weitere Informationen finden Sie unter Top-P.

    Bereich: [0.0, 1.0]

    Maximale Anzahl an Ausgabetokens pro Nachricht Ganzzahl

    Optional. Maximale Anzahl an Tokens, die in der Antwort generiert werden können. Ein Token besteht aus etwa vier Zeichen. 100 Tokens entsprechen etwa 60–80 Wörtern.

    Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an.

    Positive Strafen Float

    Nicht zutreffend

    Strafen für die Häufigkeit Float

    Nicht zutreffend

    Wenn Sie keinen Wert für einen optionalen Parameter angeben, verwendet das SDK den Standardwert des Parameters, der für die in Model ID konfigurierte Modellversion spezifisch ist.

  5. Speichern Sie den neuen Eintrag.

Parameter für die Vektorsuche konfigurieren

Für die Definition von Vektorsuchkonfigurationen verwendet das Vertex AI SDK for ABAP die Tabelle /GOOG/SEARCHCONF.

Führen Sie die folgenden Schritte aus, um die Parameter für die Vektorsuche zu konfigurieren:

  1. Führen Sie in der SAP-GUI den Transaktionscode /GOOG/SDK_IMG aus.

    Alternativ können Sie den Transaktionscode SPRO ausführen und dann auf SAP-Referenz-IMG klicken.

  2. Klicken Sie auf ABAP SDK for Google Cloud > Grundlegende Einstellungen > Vertex AI SDK: Parameter für die Vektorsuche konfigurieren.

  3. Klicken Sie auf Neue Einträge.

  4. Geben Sie Werte für die folgenden Felder ein:

    Feld Datentyp Beschreibung
    Suchschlüssel String Ein eindeutiger Name, den Sie zur Identifizierung der Suchkonfiguration angeben.
    Google Cloud-Schlüsselname String Der Clientschlüssel, den Sie während der Einrichtung der Authentifizierung für die Authentifizierung bei Google Cloud konfiguriert haben.
    Google Cloud-Regions-ID String

    Die Standort-ID der Google Cloud Region, in der die von Ihnen zu verwendenden Vertex AI-Features verfügbar sind.

    Sie sollten möglichst die Region verwenden, die Ihrem Standort (oder dem Standort Ihrer Nutzer) am nächsten ist. Weitere Informationen finden Sie unter Vertex AI-Standorte.

    Bereitstellungs-ID des Vektorindex String Die Bereitstellungs-ID eines Index. Wenn Sie einen Index auf einem Endpunkt bereitstellen, weisen Sie ihm eine eindeutige Bereitstellungs-ID zu.

    Informationen zur Indexbereitstellung finden Sie unter Vektorindex auf einem Indexendpunkt bereitstellen.

    Endpunkt-ID des Vektorindex String

    Die ID des Indexendpunkts, auf dem der Index bereitgestellt wird.

    Informationen zum Indexendpunkt finden Sie unter Vector-Indexendpunkt erstellen.

  5. Speichern Sie den neuen Eintrag.

Nächste Schritte