Vertex AI für AI Platform-Nutzer

Vertex AI bringt AI Platform und AutoML in einer einzigen Oberfläche zusammen. Auf dieser Seite wird Vertex AI und AI Platform für Nutzer verglichen, die mit AI Platform vertraut sind.

Benutzerdefiniertes Training

Mit Vertex AI können Sie Modelle mit AutoML trainieren. Alternativ können Sie ein benutzerdefiniertes Training durchführen. Dieser Workflow ist mit AI Platform Training vergleichbar.

Aufgabe AI Platform Training Vertex AI
Wählen Sie die Version des Frameworks für maschinelles Lernen aus, die verwendet werden soll Nutzer der Google Cloud Console legen den Framework-Namen und die Framework-Version fest.
Laufzeitversionen: Geben Sie beim Senden eines Trainingsjobs die Anzahl der Laufzeitversionen an, die das gewünschte Framework und die Framework-Version enthält. Vorkonfigurierter Container: Geben Sie beim Senden eines benutzerdefinierten Trainingsjobs den Artifact Registry-URI eines vorkonfigurierten Containers an, der Ihrem Framework und Ihrer Framework-Version entspricht.
Trainingsjob mit einem benutzerdefinierten Container senden Erstellen Sie einen eigenen benutzerdefinierten Container, hosten Sie ihn in Artifact Registry und verwenden Sie ihn, um Ihre Trainingsanwendung auszuführen.
Google Cloud-Region festlegen Geben Sie den Namen einer Region an, wenn Sie einen Trainingsjob an einen globalen Endpunkt senden (ml.googleapis.com). Senden Sie Ihren benutzerdefinierten Trainingsjob an einen regionalen Endpunkt wie us-central1-aiplatform.googleapis.com, Es gibt keinen globalen Endpunkt. Einige Regionen, die in AI Platform verfügbar sind, sind in Vertex AI nicht verfügbar. Liste der unterstützten Regionen auf der Seite "Standorte"
Maschinenkonfigurationen für verteiltes Training angeben Konfigurationen angeben, die nach bestimmten Rollen Ihres Trainingsclusters (masterConfig, workerConfig, parameterServerConfig und evaluatorConfig) benannt sind. Die Konfiguration ist eine allgemeine Liste – Maschinenkonfigurationen in CustomJobSpec.workerPoolSpecs[] angeben.
Trainingsjob mit einem Python-Paket senden Felder, die sich auf Ihr Python-Paket beziehen, befinden sich auf der obersten Ebene in TrainingInput. Felder, die sich auf Ihr Python-Paket beziehen, sind in pythonPackageSpec organisiert.
Maschinentypen angeben
  • Geben Sie beim Erstellen eines Trainingsjobs einen beliebigen verfügbaren Maschinentyp an.
  • Sowohl GPUs als auch TPUs werden unterstützt.
Hyperparameter-Abstimmungsjob senden Senden Sie einen Trainingsjob mit der Konfiguration hyperparameters. Unabhängig davon, ob ein Trainingsjob mit oder ohne Hyperparameter-Abstimmung gesendet wird, erstellt er eine API-Ressource TrainingJob. Senden Sie einen Hyperparameter-Abstimmungsjob mit einer studySpec-Konfiguration. Dadurch wird eine API-Ressource der obersten Ebene (HyperparameterTuningJob) erstellt. Benutzerdefinierte Trainingsjobs, die ohne Hyperparameter-Abstimmung gesendet werden, erstellen eine API-Ressource der obersten Ebene CustomJob.
Eine Trainingspipeline erstellen, um Trainingsjobs mit anderen Vorgängen zu orchestrieren Keine integrierte API-Ressource zur Orchestrierung vorhanden. Verwenden Sie AI Platform-Pipelines, Kubeflow oder ein anderes Orchestrierungstool. Erstellen Sie eine TrainingPipeline-Ressource, um einen Trainingsjob mit Modellbereitstellung zu orchestrieren.

Vorhersage

Aufgabe AI Platform Prediction Vertex AI
Wählen Sie die Version des Frameworks für maschinelles Lernen aus, die verwendet werden soll Nutzer der Google Cloud Console legen den Framework-Namen und die Framework-Version fest.
Laufzeitversionen: Wenn Sie ein Modell bereitstellen, geben Sie die Anzahl der Laufzeitversionen an, die das gewünschte Framework und die Framework-Version enthalten. Vorkonfigurierte Container: Geben Sie bei der Bereitstellung eines Modells den Artifact Registry-URI eines vorkonfigurierten Containers an, der Ihrem Framework und der Framework-Version entspricht. Verwenden Sie die multiregionale Option, die Ihrem regionalen Endpunkt entspricht, z. B. us-docker.pkg.dev für einen us-central1-Endpunkt.
Benutzerdefinierten Code mit Vorhersage ausführen Verwenden Sie benutzerdefinierte Vorhersageroutinen. Verwenden Sie benutzerdefinierte Vorhersageroutinen in Vertex AI.
Google Cloud-Region festlegen Geben Sie beim Erstellen eines Modells auf einem globalen API-Endpunkt (ml.googleapis.com) den Namen einer Region an. Erstellen Sie Ihr Modell auf einem regionalen Endpunkt wie us-central1-aiplatform.googleapis.com. Es gibt keinen globalen Endpunkt. Einige Regionen, die in AI Platform verfügbar sind, sind in Vertex AI nicht verfügbar. Liste der unterstützten Regionen auf der Seite "Standorte"
Modellartefakte speichern Modellartefakte werden in Cloud Storage gespeichert. Es gibt keine verknüpfte API-Ressource für Modellartefakte. Es ist verwalteter Modellspeicher für Modellartefakte verfügbar und dieser ist der Ressource Model zugeordnet.
Sie können weiterhin in Cloud Storage gespeicherte Modelle bereitstellen, ohne ein von Vertex AI verwaltetes Dataset zu verwenden.
Modellbereitstellung Sie stellen ein Modell direkt bereit, um es für Onlinevorhersagen zur Verfügung zu stellen. Sie erstellen ein Endpunkt-Objekt, das Ressourcen für Bereitstellungen von Onlinevorhersagen bietet. Anschließend stellen Sie das Modell auf dem Endpunkt bereit. Rufen Sie die Methode predict() auf, um Vorhersagen anzufragen.
Batchvorhersagen anfragen Sie können Batchvorhersagen für Modelle anfragen, die in Cloud Storage gespeichert sind, und in Ihrer Anfrage eine Laufzeitversion angeben. Alternativ können Sie Batchvorhersagen für bereitgestellte Modelle anfragen und die Laufzeitversion verwenden, die Sie während der Modellbereitstellung angegeben haben. Sie laden Ihr Modell in Vertex AI hoch und geben dann entweder einen vordefinierten Container oder einen benutzerdefinierten Container für die Vorhersagen an.
Anfragen für Onlinevorhersagen Die JSON-Struktur enthält eine Liste der Instanzen. Die JSON-Struktur enthält eine Liste der Instanzen und ein Feld für Parameter.
Maschinentypen angeben Geben Sie beim Erstellen einer Version einen beliebigen verfügbaren Maschinentyp an. Legacy-Maschinentypen für Onlinevorhersagen aus AI Platform (MLS1) werden nicht unterstützt. Nur Compute Engine-Maschinentypen sind verfügbar.
Modelle bereitstellen Erstellen Sie eine Modellressource und anschließend eine Versionsressource. Erstellen Sie eine Modellressource, erstellen Sie eine Endpunktressource und stellen Sie das Modell für den Endpunkt bereit. Geben Sie die Trafficaufteilung im Endpunkt an.

Vertex Explainable AI

Sie können Feature-Attributionen für tabellarische Modelle und Bildmodelle sowohl in AI Explanations for AI Platform als auch in Vertex Explainable AI verwenden.

Aufgabe AI Explanations for AI Platform Vertex Explainable AI
Feature-Attributionen für tabellarische Modelle abrufen Verwenden Sie Sampled Shapley oder integrierte Gradienten, um Feature-Attributionen für Tabellenmodelle zu erhalten.
Feature-Attributionen für Bildmodelle abrufen Verwenden Sie integrierte Gradienten oder XRAI, um Feature-Attributionen für Bildmodelle zu erhalten.