Auf dieser Seite wird beschrieben, wie Sie den Hintergrund eines Bildes ersetzen. Mit Imagen on Vertex AI können Sie die automatische Objektsegmentierung verwenden, um diese Inhalte beizubehalten, während andere Bildinhalte geändert werden. Mit Imagen 3 können Sie auch einen eigenen Maskenbereich angeben, um mehr Kontrolle bei der Bearbeitung zu haben.
Modellkarte für Imagen for Editing and Customization ansehen
Beispiel für die Bearbeitung eines Produktbilds
Im folgenden Anwendungsfall wird ein Produktbild optimiert, indem der Hintergrund eines Bildes geändert wird, das Aussehen des Produkts im Bild jedoch beibehalten wird.

Hinweise
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI API.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI API.
-
Richten Sie die Authentifizierung für Ihre Umgebung ein.
Select the tab for how you plan to use the samples on this page:
Console
When you use the Google Cloud console to access Google Cloud services and APIs, you don't need to set up authentication.
Python
Wenn Sie die Python Beispiele auf dieser Seite in einer lokalen Entwicklungsumgebung verwenden möchten, installieren und initialisieren Sie die gcloud CLI und richten dann die Standardanmeldedaten für Anwendungen mit Ihren Nutzeranmeldedaten ein.
-
Install the Google Cloud CLI.
-
If you're using an external identity provider (IdP), you must first sign in to the gcloud CLI with your federated identity.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
If you're using a local shell, then create local authentication credentials for your user account:
gcloud auth application-default login
You don't need to do this if you're using Cloud Shell.
If an authentication error is returned, and you are using an external identity provider (IdP), confirm that you have signed in to the gcloud CLI with your federated identity.
Weitere Informationen finden Sie in der Dokumentation zur Google Cloud -Authentifizierung unter ADC für eine lokale Entwicklungsumgebung einrichten.
REST
Verwenden Sie die von der gcloud CLI bereitgestellten Anmeldedaten, um die REST API-Beispiele auf dieser Seite in einer lokalen Entwicklungsumgebung zu verwenden.
After installing the Google Cloud CLI, initialize it by running the following command:
gcloud init
If you're using an external identity provider (IdP), you must first sign in to the gcloud CLI with your federated identity.
Weitere Informationen finden Sie in der Dokumentation zur Google Cloud -Authentifizierung unter Für die Verwendung von REST authentifizieren.
Mit einer automatisch erkannten Hintergrundmaske bearbeiten
Mit Imagen können Sie Produktbilder bearbeiten und den Hintergrund automatisch erkennen lassen. Das kann hilfreich sein, wenn Sie den Hintergrund eines Produktbilds ändern, aber das Produktdesign beibehalten möchten. Für die Bearbeitung von Produktbildern wird Google Product Studio (GPS) genutzt. Sie können das GPS-Feature als Teil von Imagen über die Console oder die API verwenden.
Bild, das mit der Imagen-Produktbildbearbeitungsfunktion über den Prompt generiert wurde: auf einem Tisch in einem Boutique-Geschäft sein. Originalbildquelle: Irene Kredenets auf Unsplash. Folgen Sie der Anleitung unten, um die Bearbeitung von Produktbildern mit automatischer Hintergrunderkennung zu aktivieren und zu verwenden.
Imagen 3
Verwenden Sie die folgenden Beispiele, um eine Anfrage zur Bearbeitung von Produktbildern mit dem Imagen 3-Modell zu senden.
Console
-
Rufen Sie in der Google Cloud Console die Seite Vertex AI> Media Studio auf.
- Klicken Sie auf Hochladen. Wählen Sie im angezeigten Dateidialogfeld eine Datei zum Hochladen aus.
- Klicken Sie auf Inpaint (Bereich füllen).
- Klicken Sie im Bereich Parameter auf Produkthintergrund.
- Klicken Sie in der Bearbeitungssymbolleiste auf background_replaceExtraktion.
-
Wählen Sie eine der Optionen zum Extrahieren von Masken aus:
- Hintergrundelemente: Erkennt die Hintergrundelemente und erstellt eine Maske um diese Elemente.
- Vordergrundelemente: Erkennt die Objekte im Vordergrund und erstellt eine Maske um diese herum.
- background_replacePersonen: Erkennt Personen und erstellt eine Maske um sie herum.
-
Optional: Passen Sie in der Seitenleiste Parameter die folgenden Optionen an:
- Modell: Das Imagen-Modell, das verwendet werden soll
- Anzahl der Ergebnisse: Die Anzahl der zu generierenden Ergebnisse
- Negativer Prompt: Elemente, die nicht generiert werden sollen
- Geben Sie im Prompt-Feld einen Prompt zum Ändern des Bildes ein.
- Klicken Sie auf SendenGenerieren.
Python
Installieren
pip install --upgrade google-genai
Weitere Informationen finden Sie in der SDK-Referenzdokumentation.
Umgebungsvariablen für die Verwendung des Gen AI SDK mit Vertex AI festlegen:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=us-central1 export GOOGLE_GENAI_USE_VERTEXAI=True
REST
Weitere Informationen finden Sie in der API-Referenz unter Bilder bearbeiten.
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_ID: Ihre Google Cloud Projekt-ID.
- LOCATION: Die Region Ihres Projekts. Beispiel:
us-central1
,europe-west2
oderasia-northeast3
. Eine Liste der verfügbaren Regionen finden Sie unter Generative AI an Vertex AI-Standorten. - TEXT_PROMPT: Der Text-Prompt, der bestimmt, welche Bilder das Modell generiert. Dieses Feld ist sowohl zum Erstellen als auch zum Bearbeiten erforderlich.
referenceType
: EinReferenceImage
ist ein Bild, das zusätzlichen Kontext für die Bildbearbeitung liefert. Für Bearbeitungsanwendungsfälle ist ein normales RGB-Rohbild als Referenz (REFERENCE_TYPE_RAW
) erforderlich. Eine Anfrage darf höchstens ein Rohreferenzbild enthalten. Das Ausgabebild hat dieselbe Höhe und Breite wie das RAW-Referenzbild. Für Anwendungsfälle mit maskierter Bearbeitung ist ein Maskenreferenzbild (REFERENCE_TYPE_MASK
) erforderlich.referenceId
: Die Ganzzahl-ID des Referenzbilds. In diesem Beispiel haben die beiden Referenzbildobjekte unterschiedliche Typen und daher unterschiedlichereferenceId
-Werte (1
und2
).- B64_BASE_IMAGE: Das Basisbild, das bearbeitet oder hochskaliert werden soll. Das Bild muss als base64-codierter Bytestring angegeben werden. Größenbeschränkung: 10 MB.
maskImageConfig.maskMode
: Der Maskenmodus für die Maskenbearbeitung.MASK_MODE_BACKGROUND
wird verwendet, um den Hintergrund automatisch zu maskieren, ohne dass eine vom Nutzer bereitgestellte Maske erforderlich ist.- MASK_DILATION – Gleitkommazahl. Der Prozentsatz der Bildbreite, um die diese Maske erweitert werden soll. Ein Wert von
0.00
wird empfohlen, um eine Verlängerung des Vordergrundprodukts zu vermeiden. Minimum: 0, Maximum: 1. Standardwert: 0,03. - EDIT_STEPS – Ganzzahl. Die Anzahl der Stichprobenschritte für das Basismodell. Wenn Sie Produktbilder bearbeiten möchten, beginnen Sie mit den Schritten unter
75
. - EDIT_IMAGE_COUNT: Die Anzahl der bearbeiteten Bilder. Zulässige Ganzzahlwerte: 1–4. Standardwert: 4
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict
JSON-Text der Anfrage:
{ "instances": [ { "prompt": "TEXT_PROMPT", "referenceImages": [ { "referenceType": "REFERENCE_TYPE_RAW", "referenceId": 1, "referenceImage": { "bytesBase64Encoded": "B64_BASE_IMAGE" } }, { "referenceType": "REFERENCE_TYPE_MASK", "referenceId": 2, "maskImageConfig": { "maskMode": "MASK_MODE_BACKGROUND", "dilation": MASK_DILATION } } ] } ], "parameters": { "editConfig": { "baseSteps": EDIT_STEPS }, "editMode": "EDIT_MODE_BGSWAP", "sampleCount": EDIT_IMAGE_COUNT } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen
request.json
und führen Sie den folgenden Befehl aus:curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict"PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen
request.json
und führen Sie den folgenden Befehl aus:$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict" | Select-Object -Expand Content{ "predictions": [ { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "BASE64_IMG_BYTES" }, { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" } ] }
Imagen 2
Verwenden Sie die folgenden Beispiele, um eine Anfrage zur Bearbeitung von Produktbildern mit dem Imagen 2- oder Imagen-Modell zu senden.
Console
Rufen Sie in der Google Cloud Console die Seite Vertex AI> Media Studio auf.
-
Klicken Sie im unteren Textbereich auf
Bearbeiten. -
Klicken Sie auf Hochladen, um Ihr lokal gespeichertes Produktbild zum Bearbeiten auszuwählen.
-
Wählen Sie im Bereich Parameter die Option
Bildbearbeitung im Produktstil aktivieren aus. -
Geben Sie in das Feld Prompt (Prompt hier eingeben) ein.
Klicken Sie auf Erstellen.
Python
Informationen zur Installation des Vertex AI SDK for Python finden Sie unter Vertex AI SDK for Python installieren. Weitere Informationen finden Sie in der Python-API-Referenzdokumentation.
REST
Weitere Informationen zu
imagegeneration
-Modellanfragen finden Sie in der API-Referenz desimagegeneration
-Modells.Um die Bearbeitung von Produktbildern mit dem Modell Imagen 2 Version 006 (
imagegeneration@006
) zu aktivieren, fügen Sie das folgende Feld im Objekt"editConfig": {}
ein:"editMode": "product-image"
. Diese Anfrage liefert immer 4 Bilder.Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_ID: Ihre Google Cloud Projekt-ID.
- LOCATION: Die Region Ihres Projekts. Beispiel:
us-central1
,europe-west2
oderasia-northeast3
. Eine Liste der verfügbaren Regionen finden Sie unter Generative AI an Vertex AI-Standorten. - TEXT_PROMPT: Der Text-Prompt, der bestimmt, welche Bilder das Modell generiert. Dieses Feld ist sowohl zum Erstellen als auch zum Bearbeiten erforderlich.
- B64_BASE_IMAGE: Das Basisbild, das bearbeitet oder hochskaliert werden soll. Das Bild muss als base64-codierter Bytestring angegeben werden. Größenbeschränkung: 10 MB.
- PRODUCT_POSITION: Optional. Eine Einstellung, um die ursprüngliche Positionierung des erkannten Produkts oder Objekts beizubehalten oder dem Modell zu ermöglichen, es neu zu positionieren. Verfügbare Werte:
reposition
(Standardwert), der eine Neupositionierung ermöglicht, oderfixed
, wodurch die Produktposition beibehalten wird. Bei nicht quadratischen Eingabebildern ist das Verhalten der Produktposition immer „neu positionieren“, auch wenn „fest“ eingestellt ist.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict
JSON-Text der Anfrage:
{ "instances": [ { "prompt": "TEXT_PROMPT", "image": { "bytesBase64Encoded": "B64_BASE_IMAGE" }, } ], "parameters": { "editConfig": { "editMode": "product-image", "productPosition": "PRODUCT_POSITION", } } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen
request.json
und führen Sie den folgenden Befehl aus:curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict"PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen
request.json
und führen Sie den folgenden Befehl aus:$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict" | Select-Object -Expand Content{ "predictions": [ { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "BASE64_IMG_BYTES" }, { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" } ] }
Mit einem definierten Maskenbereich bearbeiten
Sie können den Bereich, der ersetzt wird, maskieren, anstatt die Maske automatisch von Imagen erkennen zu lassen.
Console
-
Rufen Sie in der Google Cloud Console die Seite Vertex AI> Media Studio auf.
- Klicken Sie auf Hochladen. Wählen Sie im angezeigten Dateidialogfeld eine Datei zum Hochladen aus.
- Klicken Sie auf Inpaint (Bereich füllen).
- Klicken Sie im Bereich Parameter auf Produkthintergrund.
-
Führen Sie einen der folgenden Schritte aus:
- Eigene Maske hochladen:
- Erstellen Sie eine Maske auf Ihrem Computer.
- Klicken Sie auf Maske hochladen. Wählen Sie im angezeigten Dialogfeld eine Maske zum Hochladen aus.
- Eigene Maske definieren:Verwenden Sie in der Bearbeitungssymbolleiste die Maskentools (masked_transitions-Invertierungstool), um den Bereich oder die Bereiche anzugeben, in denen Inhalte hinzugefügt werden sollen. Feld, Pinsel oder
- Eigene Maske hochladen:
-
Optional: Passen Sie im Bereich Parameter die folgenden Optionen an:
- Modell: Das Imagen-Modell, das verwendet werden soll
- Anzahl der Ergebnisse: Die Anzahl der zu generierenden Ergebnisse
- Negativer Prompt: Elemente, die nicht generiert werden sollen
- Geben Sie im Prompt-Feld einen Prompt zum Ändern des Bildes ein.
- Klicken Sie auf Erstellen.
Python
Installieren
pip install --upgrade google-genai
Weitere Informationen finden Sie in der SDK-Referenzdokumentation.
Umgebungsvariablen für die Verwendung des Gen AI SDK mit Vertex AI festlegen:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=us-central1 export GOOGLE_GENAI_USE_VERTEXAI=True
REST
Weitere Informationen finden Sie in der API-Referenz unter Bilder bearbeiten.
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_ID: Ihre Google Cloud Projekt-ID.
- LOCATION: Die Region Ihres Projekts. Beispiel:
us-central1
,europe-west2
oderasia-northeast3
. Eine Liste der verfügbaren Regionen finden Sie unter Generative AI an Vertex AI-Standorten. - TEXT_PROMPT: Der Text-Prompt, der bestimmt, welche Bilder das Modell generiert. Dieses Feld ist sowohl zum Erstellen als auch zum Bearbeiten erforderlich.
referenceId
: Die Ganzzahl-ID des Referenzbilds. In diesem Beispiel haben die beiden Referenzbildobjekte unterschiedliche Typen und daher unterschiedlichereferenceId
-Werte (1
und2
).- B64_BASE_IMAGE: Das Basisbild, das bearbeitet oder hochskaliert werden soll. Das Bild muss als base64-codierter Bytestring angegeben werden. Größenbeschränkung: 10 MB.
- B64_MASK_IMAGE: Das Schwarz-Weiß-Bild, das Sie als Maskenebene zum Bearbeiten des Originalbilds verwenden möchten. Das Bild muss als base64-codierter Bytestring angegeben werden. Größenbeschränkung: 10 MB.
- MASK_DILATION – Gleitkommazahl. Der Prozentsatz der Bildbreite, um die diese Maske erweitert werden soll. Ein Wert von
0.00
wird empfohlen, um eine Verlängerung des Vordergrundprodukts zu vermeiden. Minimum: 0, Maximum: 1. Standardwert: 0,03. - EDIT_STEPS – Ganzzahl. Die Anzahl der Stichprobenschritte für das Basismodell. Wenn Sie Produktbilder bearbeiten möchten, beginnen Sie mit den Schritten unter
75
. - EDIT_IMAGE_COUNT: Die Anzahl der bearbeiteten Bilder. Zulässige Ganzzahlwerte: 1–4. Standardwert: 4
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict
JSON-Text der Anfrage:
{ "instances": [ { "prompt": "TEXT_PROMPT": [ { "referenceType": "REFERENCE_TYPE_RAW", "referenceId": 1, "referenceImage": { "bytesBase64Encoded": "B64_BASE_IMAGE" } }, { "referenceType": "REFERENCE_TYPE_MASK", "referenceId": 2, "referenceImage": { "bytesBase64Encoded": "B64_MASK_IMAGE" }, "maskImageConfig": { "maskMode": "MASK_MODE_USER_PROVIDED", "dilation": MASK_DILATION } } ] } ], "parameters": { "editConfig": { "baseSteps": EDIT_STEPS }, "editMode": "EDIT_MODE_BGSWAP", "sampleCount": EDIT_IMAGE_COUNT } }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen
request.json
und führen Sie den folgenden Befehl aus:curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict"PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen
request.json
und führen Sie den folgenden Befehl aus:$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict" | Select-Object -Expand Content{ "predictions": [ { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "BASE64_IMG_BYTES" }, { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" } ] }
Beschränkungen
Da Masken manchmal unvollständig sind, versucht das Modell möglicherweise, das Vordergrundobjekt zu vervollständigen, wenn an der Grenze extrem kleine Teile fehlen. In seltenen Fällen kann es vorkommen, dass das Modell das Vordergrundobjekt leicht erweitert, wenn es bereits vollständig ist.
Als Workaround können Sie die Modellausgabe segmentieren und dann zusammenführen. Das folgende Python-Snippet zeigt ein Beispiel für eine Problemumgehung:
blended = Image.composite(out_images[0].resize(image_expanded.size), image_expanded, mask_expanded)
Nächste Schritte
Artikel zu Imagen und anderen Produkten für generative KI in Vertex AI:
- Leitfaden für Entwickler zum Einstieg in Imagen 3 in Vertex AI
- Neue generative Medienmodelle und ‑tools, die von und für Creator entwickelt wurden
- Neu in Gemini: Benutzerdefinierte Gems und verbesserte Bildgenerierung mit Imagen 3
- Google DeepMind: Imagen 3 – unser bisher bestes Text-zu-Bild-Modell
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2025-07-14 (UTC).
-