En esta página, se describe cómo reemplazar el fondo de una imagen. Imagen en Vertex AI te permite usar la segmentación automática de objetos para mantener ese contenido y modificar otro contenido de imagen. Con Imagen 3, también puedes proporcionar tu propia área de máscara para tener más control al editar.
Consulta la tarjeta del modelo de Imagen para edición y personalización
Ejemplo de edición de imágenes del producto
En el siguiente caso de uso, se destaca la mejora de una imagen de producto a través de la modificación del fondo de la imagen, pero preservando la apariencia del producto dentro de la imagen.

Antes de comenzar
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI API.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI API.
-
Configura la autenticación para tu entorno.
Select the tab for how you plan to use the samples on this page:
Console
When you use the Google Cloud console to access Google Cloud services and APIs, you don't need to set up authentication.
Python
Para usar las muestras de Python de esta página en un entorno de desarrollo local, instala e inicializa gcloud CLI y, luego, configura las credenciales predeterminadas de la aplicación con tus credenciales de usuario.
-
Install the Google Cloud CLI.
-
If you're using an external identity provider (IdP), you must first sign in to the gcloud CLI with your federated identity.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
If you're using a local shell, then create local authentication credentials for your user account:
gcloud auth application-default login
You don't need to do this if you're using Cloud Shell.
If an authentication error is returned, and you are using an external identity provider (IdP), confirm that you have signed in to the gcloud CLI with your federated identity.
Si deseas obtener más información, consulta Configura ADC para un entorno de desarrollo local en la Google Cloud documentación de autenticación.
REST
Para usar las muestras de la API de REST en esta página en un entorno de desarrollo local, debes usar las credenciales que proporcionas a la CLI de gcloud.
After installing the Google Cloud CLI, initialize it by running the following command:
gcloud init
If you're using an external identity provider (IdP), you must first sign in to the gcloud CLI with your federated identity.
Si deseas obtener más información, consulta Autentica para usar REST en la Google Cloud documentación de autenticación.
Edita con una máscara de fondo detectada automáticamente
Imagen te permite editar imágenes de productos con detección automática de fondo. Esto puede ser útil si necesitas modificar el fondo de una imagen del producto, pero conservar su apariencia. La edición de imágenes de productos usa la oferta de Google Product Studio (GPS). Puedes usar la función de GPS como parte de Imagen a través de la consola o la API.
Imagen generada con la función de edición de fondos de productos de Imagen según la siguiente instrucción: en una mesa en una tienda boutique. Fuente de la imagen original: Irene Kredenets en Unsplash. Usa las siguientes instrucciones para habilitar y usar la edición de imágenes de productos con detección automática de fondos.
Imagen 3
Usa los siguientes ejemplos para enviar una solicitud de edición de imágenes de productos con el modelo de Imagen 3.
Console
-
En la Google Cloud consola, ve a la página Vertex AI > Media Studio .
- Haz clic en Subir. En el cuadro de diálogo de archivo que se muestra, selecciona un archivo para subir.
- Haz clic en Inpaint.
- En el panel Parámetros, haz clic en Fondo del producto.
- En la barra de herramientas de edición, haz clic en background_replaceExtraer.
-
Elige una de las siguientes opciones de extracción de máscaras:
- Elementos en segundo plano: Detecta los elementos en segundo plano y crea una máscara a su alrededor.
- Elementos en primer plano: Detecta los objetos en primer plano y crea una máscara alrededor de ellos.
- background_replacePersonas: Detecta personas y crea una máscara a su alrededor.
-
Opcional: En el panel lateral Parámetros, ajusta las siguientes
opciones:
- Modelo: Es el modelo de Imagen que se usará.
- Cantidad de resultados: Es la cantidad de resultados que se generarán.
- Instrucción negativa: Elementos que se deben evitar generar
- En el campo de mensaje, ingresa un mensaje para modificar la imagen.
- Haz clic en EnviarGenerar.
Python
Instalar
pip install --upgrade google-genai
Para obtener más información, consulta la documentación de referencia del SDK.
Establece variables de entorno para usar el SDK de IA generativa con Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=us-central1 export GOOGLE_GENAI_USE_VERTEXAI=True
REST
Para obtener más información, consulta la referencia de la API de Edit images.
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- PROJECT_ID: El Google Cloud ID del proyecto.
- LOCATION: La región del proyecto. Por ejemplo,
us-central1
,europe-west2
oasia-northeast3
. Para obtener una lista de las regiones disponibles, consulta IA generativa en ubicaciones de Vertex AI. - TEXT_PROMPT: Es la instrucción de texto que guía qué imágenes genera el modelo. Este campo es obligatorio para la generación y la edición.
referenceType
: UnaReferenceImage
es una imagen que proporciona contexto adicional para la edición de imágenes. Se requiere una imagen de referencia sin procesar RGB normal (REFERENCE_TYPE_RAW
) para los casos de uso de edición. En una solicitud, puede haber como máximo una imagen de referencia sin procesar. La imagen de salida tiene la misma altura y el mismo ancho que la imagen de referencia sin procesar. Se requiere una imagen de referencia de la máscara (REFERENCE_TYPE_MASK
) para los casos de uso de edición enmascarada.referenceId
: Es el ID entero de la imagen de referencia. En este ejemplo, los dos objetos de imagen de referencia son de diferentes tipos, por lo que tienen valores dereferenceId
distintos (1
y2
).- B64_BASE_IMAGE: La imagen base que se editará o mejorará. La imagen debe especificarse como una cadena de bytes codificada en base64. Límite de tamaño: 10 MB.
maskImageConfig.maskMode
: Es el modo de máscara para la edición de máscaras.MASK_MODE_BACKGROUND
se usa para enmascarar automáticamente el fondo sin una máscara proporcionada por el usuario.- MASK_DILATION: Número de punto flotante. Es el porcentaje del ancho de la imagen por el que se dilatará esta máscara. Se recomienda un valor de
0.00
para evitar extender el producto en primer plano. El valor mínimo es 0 y el máximo es 1. El valor predeterminado es 0.03. - EDIT_STEPS: Es un número entero. Es la cantidad de pasos de muestreo para el modelo base. Para editar imágenes de productos, comienza en los pasos de
75
. - EDIT_IMAGE_COUNT: Es la cantidad de imágenes editadas. Valores de números enteros aceptados: de 1 a 4. Valor predeterminado: 4.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict
Cuerpo JSON de la solicitud:
{ "instances": [ { "prompt": "TEXT_PROMPT", "referenceImages": [ { "referenceType": "REFERENCE_TYPE_RAW", "referenceId": 1, "referenceImage": { "bytesBase64Encoded": "B64_BASE_IMAGE" } }, { "referenceType": "REFERENCE_TYPE_MASK", "referenceId": 2, "maskImageConfig": { "maskMode": "MASK_MODE_BACKGROUND", "dilation": MASK_DILATION } } ] } ], "parameters": { "editConfig": { "baseSteps": EDIT_STEPS }, "editMode": "EDIT_MODE_BGSWAP", "sampleCount": EDIT_IMAGE_COUNT } }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado
request.json
y ejecuta el siguiente comando:curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict"PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado
request.json
y ejecuta el siguiente comando:$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict" | Select-Object -Expand Content{ "predictions": [ { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "BASE64_IMG_BYTES" }, { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" } ] }
Imagen 2
Usa los siguientes ejemplos para enviar una solicitud de edición de imágenes de productos con el modelo de Imagen 2 o Imagen.
Console
En la Google Cloud consola, ve a la página Vertex AI > Media Studio .
-
En el panel de tareas inferior, haz clic en
Editar imagen. -
Haz clic en Subir para seleccionar la imagen de tu producto almacenado de forma local a fin de editarla.
-
En el panel Parámetros, elige
Habilitar la edición de imágenes de estilo del producto. -
En el campo Instrucción (Escribe tu instrucción aquí), ingresa el mensaje.
Haz clic en Generar.
Python
Si deseas obtener información para instalar o actualizar el SDK de Vertex AI para Python, consulta Instala el SDK de Vertex AI para Python. Para obtener más información, consulta la documentación de referencia de la API de Python.
REST
Para obtener más información sobre las solicitudes del modelo
imagegeneration
, consulta la referencia de la API del modeloimagegeneration
.Para habilitar la edición de la imagen del producto con el modelo 006 de Imagen 2 (
imagegeneration@006
), incluye el siguiente campo en el objeto"editConfig": {}
:"editMode": "product-image"
. Esta solicitud siempre muestra 4 imágenes.Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- PROJECT_ID: El Google Cloud ID del proyecto.
- LOCATION: La región del proyecto. Por ejemplo,
us-central1
,europe-west2
oasia-northeast3
. Para obtener una lista de las regiones disponibles, consulta IA generativa en ubicaciones de Vertex AI. - TEXT_PROMPT: Es la instrucción de texto que guía qué imágenes genera el modelo. Este campo es obligatorio para la generación y la edición.
- B64_BASE_IMAGE: La imagen base que se editará o mejorará. La imagen debe especificarse como una cadena de bytes codificada en base64. Límite de tamaño: 10 MB.
- PRODUCT_POSITION: Opcional Un parámetro de configuración para mantener la posición original
del producto o el objeto detectados o permitir que el modelo lo cambie. Valores disponibles:
reposition
(valor predeterminado), que permite el cambio de posición ofixed
, que mantiene la posición del producto. En el caso de las imágenes de entrada que no son cuadradas, el comportamiento de la posición del producto siempre es “reposición”, incluso si se configura “fija”.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict
Cuerpo JSON de la solicitud:
{ "instances": [ { "prompt": "TEXT_PROMPT", "image": { "bytesBase64Encoded": "B64_BASE_IMAGE" }, } ], "parameters": { "editConfig": { "editMode": "product-image", "productPosition": "PRODUCT_POSITION", } } }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado
request.json
y ejecuta el siguiente comando:curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict"PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado
request.json
y ejecuta el siguiente comando:$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict" | Select-Object -Expand Content{ "predictions": [ { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "BASE64_IMG_BYTES" }, { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" } ] }
Edita con un área de máscara definida
Puedes elegir enmascarar el área que se reemplaza, en lugar de permitir que Imagen detecte la máscara automáticamente.
Console
-
En la Google Cloud consola, ve a la página Vertex AI > Media Studio .
- Haz clic en Subir. En el cuadro de diálogo de archivo que se muestra, selecciona un archivo para subir.
- Haz clic en Inpaint.
- En el panel Parámetros, haz clic en Fondo del producto.
-
Realiza una de las siguientes acciones:
- Sube tu propia máscara:
- Crea una máscara en tu computadora.
- Haz clic en Subir máscara. En el diálogo que se muestra, selecciona una máscara para subir.
- Define tu propia máscara: En la barra de herramientas de edición, usa las herramientas de máscara (masked_transitions) para especificar el área o áreas las que se agregará contenido. cuadro, pincel o herramienta invertida de
- Sube tu propia máscara:
-
Opcional: En el panel Parámetros, ajusta las siguientes
opciones:
- Modelo: Es el modelo de Imagen que se usará.
- Cantidad de resultados: Es la cantidad de resultados que se generarán.
- Instrucción negativa: Elementos que se deben evitar generar
- En el campo de mensaje, ingresa un mensaje para modificar la imagen.
- Haz clic en Generar .
Python
Instalar
pip install --upgrade google-genai
Para obtener más información, consulta la documentación de referencia del SDK.
Establece variables de entorno para usar el SDK de IA generativa con Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=us-central1 export GOOGLE_GENAI_USE_VERTEXAI=True
REST
Para obtener más información, consulta la referencia de la API de Edit images.
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- PROJECT_ID: El Google Cloud ID del proyecto.
- LOCATION: La región del proyecto. Por ejemplo,
us-central1
,europe-west2
oasia-northeast3
. Para obtener una lista de las regiones disponibles, consulta IA generativa en ubicaciones de Vertex AI. - TEXT_PROMPT: Es la instrucción de texto que guía qué imágenes genera el modelo. Este campo es obligatorio para la generación y la edición.
referenceId
: Es el ID entero de la imagen de referencia. En este ejemplo, los dos objetos de imagen de referencia son de diferentes tipos, por lo que tienen valores dereferenceId
distintos (1
y2
).- B64_BASE_IMAGE: La imagen base que se editará o mejorará. La imagen debe especificarse como una cadena de bytes codificada en base64. Límite de tamaño: 10 MB.
- B64_MASK_IMAGE: La imagen en blanco y negro que deseas usar como capa de máscara para editar la imagen original. La imagen debe especificarse como una cadena de bytes codificada en base64. Límite de tamaño: 10 MB.
- MASK_DILATION: Número de punto flotante. Es el porcentaje del ancho de la imagen por el que se dilatará esta máscara. Se recomienda un valor de
0.00
para evitar extender el producto en primer plano. El valor mínimo es 0 y el máximo es 1. El valor predeterminado es 0.03. - EDIT_STEPS: Es un número entero. Es la cantidad de pasos de muestreo para el modelo base. Para editar imágenes de productos, comienza en los pasos de
75
. - EDIT_IMAGE_COUNT: Es la cantidad de imágenes editadas. Valores de números enteros aceptados: de 1 a 4. Valor predeterminado: 4.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict
Cuerpo JSON de la solicitud:
{ "instances": [ { "prompt": "TEXT_PROMPT": [ { "referenceType": "REFERENCE_TYPE_RAW", "referenceId": 1, "referenceImage": { "bytesBase64Encoded": "B64_BASE_IMAGE" } }, { "referenceType": "REFERENCE_TYPE_MASK", "referenceId": 2, "referenceImage": { "bytesBase64Encoded": "B64_MASK_IMAGE" }, "maskImageConfig": { "maskMode": "MASK_MODE_USER_PROVIDED", "dilation": MASK_DILATION } } ] } ], "parameters": { "editConfig": { "baseSteps": EDIT_STEPS }, "editMode": "EDIT_MODE_BGSWAP", "sampleCount": EDIT_IMAGE_COUNT } }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado
request.json
y ejecuta el siguiente comando:curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict"PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado
request.json
y ejecuta el siguiente comando:$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict" | Select-Object -Expand Content{ "predictions": [ { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "BASE64_IMG_BYTES" }, { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" } ] }
Limitaciones
Debido a que las máscaras a veces están incompletas, el modelo puede intentar completar el objeto en primer plano cuando faltan bits extremadamente pequeños en el límite. Como efecto secundario poco frecuente, cuando el objeto en primer plano ya está completo, el modelo puede crear extensiones leves.
Una solución alternativa es segmentar la salida del modelo y, luego, combinarla. A continuación, se muestra un ejemplo de fragmento de Python que demuestra una solución alternativa:
blended = Image.composite(out_images[0].resize(image_expanded.size), image_expanded, mask_expanded)
¿Qué sigue?
Lee artículos sobre Imagen y otros productos de IA generativa en Vertex AI:
- Guía para desarrolladores para comenzar a usar Imagen 3 en Vertex AI
- Nuevos modelos y herramientas de medios generativos creados con y para los creadores
- Novedades de Gemini: Gemas personalizadas y generación de imágenes mejorada con Imagen 3
- Google DeepMind: Imagen 3: nuestro modelo de texto a imagen de mayor calidad
Salvo que se indique lo contrario, el contenido de esta página está sujeto a la licencia Atribución 4.0 de Creative Commons, y los ejemplos de código están sujetos a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
Última actualización: 2025-07-14 (UTC)
-