Auf dieser Seite finden Sie Vergleiche zwischen Legacy-AutoML-Produkten und AutoML in Vertex AI, damit Legacy-AutoML-Nutzer Vertex AI besser verstehen können.
Prüfen Sie die Tabellen, die für Ihren Anwendungsfall gelten, und prüfen Sie die Änderungen, die sich wahrscheinlich auf Ihren Workflow auswirken.
Allgemeine Verwendung
Diese Unterschiede gelten für alle Vertex AI-Nutzer.
Vorgang | Legacy-AutoML | Vertex AI |
---|---|---|
Modellbereitstellung | Sie stellen ein Modell direkt bereit, um es für Onlinevorhersagen zur Verfügung zu stellen. |
Sie erstellen ein Endpunkt-Objekt, das Ressourcen für Bereitstellungen von Onlinevorhersagen bietet. Anschließend stellen Sie das Modell auf dem Endpunkt bereit.
Rufen Sie die Methode predict() auf, um Vorhersagen anzufragen.
|
Projektnummer oder Projekt-ID verwenden |
Einige Teile der Legacy-AutoML-Dokumentation enthalten Beispiele, in denen project-number verwendet wird, und andere zeigen Beispiele, in denen project-id verwendet wird.
|
Sowohl project-number als auch project-id funktionieren in Vertex AI.
|
Nutzer von Legacy-AutoML Natural Language
AutoML Natural Language verwendet in Vertex AI den Datentyp Text.
Vorgang | Legacy-AutoML Natural Language | Vertex AI |
---|---|---|
Trainingsdatenformate | Sie können CSV-Dateien verwenden, um Inline-Text-Snippets aufzunehmen oder auf Dokumente zu verweisen. Für die Entitätsextraktion können Sie eine CSV- oder JSON Lines-Datei zum Referenzieren von Dokumenten verwenden (keine Inline-Textunterstützung). | Sie haben die Möglichkeit, mit CSV- oder JSON Lines-Dateien Inline-Text-Snippets einzubinden oder auf Dokumente vom Typ TXT zu verweisen. Dies gilt nicht für die Extraktion von Textentitäten. Die Entitätsextraktion unterstützt nur JSON Lines-Dateien. |
Dataset-Import | Mit einer CSV-Datei legen Sie fest, wie die Daten für die Verwendung von ML (für TRAINING, TEST und VALIDIERUNG) aufgeteilt werden sollen. | ML-Nutzungswerte werden entweder in einer optionalen Spalte für CSV, in derselben Zeile wie die Daten oder als Tag in JSON Lines im gleichen JSON-Objekt wie die Daten angegeben. Wenn Sie keine ML-Nutzungswerte angeben, werden die Daten automatisch für Training, Tests und Validierung aufgeteilt. Für die Sentimentanalyse müssen CSV-Dateien den Sentimentwert in der letzten Spalte jeder Zeile enthalten. |
Dataset-Annotation | Annotationen werden dem Dataset beim Import oder mithilfe der Google Cloud Console hinzugefügt. Wenn Sie Ihre Daten für ein anderes Dataset mit einem anderen Ziel verwenden möchten, müssen Sie ein neues Dataset mit unterschiedlichen Annotationen erstellen. |
Anmerkungen werden als ein AnnotationSet -Objekt gruppiert.
Sie können verschiedene Annotationssätze mit demselben Dataset verwenden.
|
Speicherkosten | Für in interne Speicher geladene Datasets fallen keine Kosten an. | Wenn Sie ein Dataset erstellen, werden Ihre Daten in Cloud Storage in Ihrem Projekt geladen. Für diesen Speicher entstehen Kosten. Weitere Informationen. |
Daten-Labeling | Sie laden die Anleitungen zur Labelverteilung in den internen Speicher und nehmen sie in die Anfrage zur Aufgabenerstellung auf. Annotationen sind eigenständige Objekte. |
Anleitungen zur Labelverteilung können Sie über eine URL bereitstellen. Annotationen sind Teil des Dataset -Objekts und können mit der API nicht bearbeitet werden.
|
Nutzer von AutoML Vision und AutoML Video Intelligence
In Vertex AI verwenden Legacy AutoML Vision und AutoML Video jeweils den Datentyp Bild bzw. Video.
Vorgang | Legacy-AutoML Vision und Legacy-AutoML Video | Vertex AI |
---|---|---|
Dateneingabeformat | Das JSON Lines-Format wird nicht unterstützt. | Das JSON Lines-Format wird für Ihre Datenquelle unterstützt. |
Datenimport (nur Video) | Sie geben die ML-Nutzung (TRAINING, TEST) für Videos mithilfe einer CSV-Datei mit zwei Ebenen an. | ML-Nutzungswerte werden entweder in einer optionalen Spalte für CSV, in derselben Zeile wie die Daten oder als Tag in JSON Lines im selben JSON-Objekt wie die Daten angegeben. Wenn Sie keine ML-Nutzungswerte angeben, werden die Daten automatisch für Training, Tests und Validierung aufgeteilt. |
Dataset-Annotation | Annotationen werden dem Dataset beim Import oder mithilfe der Google Cloud Console hinzugefügt. Wenn Sie Ihre Daten für ein anderes Dataset mit einem anderen Ziel verwenden möchten, müssen Sie ein neues Dataset mit unterschiedlichen Annotationen erstellen. |
Anmerkungen werden als ein AnnotationSet -Objekt gruppiert.
Sie können verschiedene Annotationssätze mit demselben Dataset verwenden.
|
Speicherkosten | Für in interne Speicher geladene Datasets fallen keine Kosten an. | Wenn Sie ein Dataset erstellen, werden Ihre Daten in Cloud Storage in Ihrem Projekt geladen. Für diesen Speicher entstehen Kosten. Weitere Informationen. |
Daten-Labeling | Sie laden die Anleitungen zur Labelverteilung in den internen Speicher und nehmen sie in die Anfrage zur Aufgabenerstellung auf. Annotationen sind eigenständige Objekte. |
Anleitungen zur Labelverteilung können Sie über eine URL bereitstellen. Annotationen sind Teil des Dataset -Objekts und können mit der API nicht bearbeitet werden.
|
Nutzer der bisherigen AutoML Tables-Version
Legacy AutoML Tables verwendet den tabellarischen Datentyp in Vertex AI.
Vorgang | Legacy-AutoML Tables | Vertex AI |
---|---|---|
Dataset-Erstellung | Daten werden in den internen Speicher importiert. Spätere Aktualisierungen der Datenquelle wirken sich nicht auf das AutoML-Dataset aus. | Die Datenquelle wird referenziert und nicht importiert. Spätere Aktualisierungen der Datenquelle werden übernommen, wenn ein Modell, das aus dieser Datenquelle trainiert wird, neu trainiert wird. |
Schemas prüfen | Beim Importieren von Daten in ein Dataset werden automatisch Statistiken über Ihre Daten generiert. | Sie müssen die Generierung von Statistiken für Ihr Dataset manuell initiieren. |
Schemas prüfen | Wenn Sie ein Dataset erstellen, prüfen Sie dessen Schema und achten Sie darauf, dass jedes Feature korrekt festgelegt ist. Künftige Modelle, die mit diesem Dataset trainiert werden, verwenden dieses Schemadesign, sofern Sie es nicht explizit ändern. | Wenn Sie ein Modell aus einem Dataset trainieren, erstellt Vertex AI Standardtransformationen für jedes Feature. Diese können Sie überschreiben, wenn sie für Ihre Daten und Ihr Ziel nicht korrekt sind. Transformationen in Zeitstempel und numerische Datentypen können aufgrund ungültiger Daten fehlschlagen. können Sie angeben, ob die gesamte Zeile ungültig werden soll oder nur die Spalte. |
Vorhersagen aus einem exportierten Modell bereitstellen | Vorhersagen aus einem exportierten Regressionsmodell geben kein Vorhersageintervall zurück. | Vorhersageintervalle werden für Vorhersagen aus exportierten Regressionsmodellen zurückgegeben. |
Featurewichtigkeit | Vertex Explainable AI bietet ähnliche Funktionen für AI Explanations für AutoML Tables. Sie können die globale Featurewichtigkeit für Ihr Modell oder die Featurewichtigkeit (Feature-Attributionen) für die Vorhersagen Ihres Modells verwenden. |
API-Nutzer
Ausführliche Informationen zur API finden Sie in der Vertex AI API-Referenzdokumentation.
Vorgang oder Entität | Legacy-AutoML | Vertex AI |
---|---|---|
Modellerstellung |
Zum Erstellen eines Modells verwenden Sie die Methode model.create() , die einen Vorgang mit langer Ausführungszeit zurückgibt.
|
Sie erstellen ein TrainingPipeline -Objekt, das einen Trainingsjob zurückgibt.
|
Clientbibliothek verwenden | Es gibt einen API-Client für die API. | Für jede API-Ressource gibt es verschiedene API-Clients. |
Vorhersagen anfordern |
Sie können Vorhersagen anfordern, indem Sie die Methode predict() für das Modell aufrufen.
|
Sie fordern Vorhersagen an, indem Sie die Methode predict() für die Endpunktressource aufrufen.
|
Endpunkt von Onlinevorhersagen | automl.googleapis.com und einige Produkte unterstützten auch eu-automl.googleapis.com |
Ersetzen Sie im Folgenden REGION durch die Region, in der sich Ihr Vorhersagemodell befindet.REGION-aiplatform.googleapis.com .
Beispiel: us-central1-aiplatform.googleapis.com |
Schema- und Definitionsdateien | Alle Eingaben an die Anfragen und Antworten werden vom API-Dienst definiert. Datenformate sind vordefiniert. | Einige Anfrage- und Antwortfelder sind in Schema- und Definitionsdateien definiert. Datenformate werden mit vordefinierten Schemadateien definiert. Dies ermöglicht die Flexibilität für die API und die Datenformate. |
Hostname | automl.googleapis.com |
aiplatform.googleapis.com |
Regionaler Hostname | Nicht für alle Produkte erforderlich. Beispiel: eu-automl.googleapis.com |
Erforderlich. Beispiel: us-central1-aiplatform.googleapis.com |