Perspectiva de la IA y el aprendizaje automático: excelencia operativa

Last reviewed 2025-04-28 UTC

Este documento del framework Well-Architected: perspectiva de IA y aprendizaje automático ofrece una descripción general de los principios y las recomendaciones para crear y operar sistemas de IA y aprendizaje automático sólidos en Google Cloud. Estas recomendaciones te ayudan a configurar elementos fundamentales, como la observabilidad, la automatización y la escalabilidad. Las recomendaciones de este documento se ajustan al pilar de excelencia operativa del Google Cloud framework Well-Architected.

La excelencia operativa en el ámbito de la IA y el aprendizaje automático es la capacidad de desplegar, gestionar y gobernar sin problemas los sistemas y las canalizaciones de IA y aprendizaje automático que ayudan a alcanzar los objetivos estratégicos de tu organización. La excelencia operativa te permite responder de forma eficiente a los cambios, reducir la complejidad operativa y asegurarte de que tus operaciones se ajusten a los objetivos de negocio.

Las recomendaciones de este documento se corresponden con los siguientes principios básicos:

Crea una base sólida para el desarrollo de modelos

Para desarrollar e implementar sistemas de IA fiables y escalables que te ayuden a alcanzar tus objetivos empresariales, es fundamental contar con una base sólida para el desarrollo de modelos. Esta base permite que los flujos de trabajo sean coherentes, automatiza los pasos críticos para reducir los errores y asegura que los modelos se puedan escalar en función de la demanda. Una base sólida para el desarrollo de modelos asegura que tus sistemas de aprendizaje automático se puedan actualizar, mejorar y volver a entrenar sin problemas. Además, te ayuda a alinear el rendimiento de tus modelos con las necesidades empresariales, a implementar soluciones de IA eficaces rápidamente y a adaptarte a los requisitos cambiantes.

Para sentar una base sólida que te permita desarrollar tus modelos de IA, ten en cuenta las siguientes recomendaciones.

Define los problemas y los resultados necesarios

Antes de iniciar cualquier proyecto de IA o aprendizaje automático, debes tener claro qué problemas de empresa quieres resolver y qué resultados quieres obtener. Empieza con un esquema de los objetivos de negocio y desglósalos en indicadores clave de rendimiento (KPIs) medibles. Para organizar y documentar las definiciones de los problemas y las hipótesis en un entorno de cuaderno de Jupyter, usa herramientas como Vertex AI Workbench. Para implementar el control de versiones de código y documentos, así como para documentar tus proyectos, objetivos y suposiciones, usa herramientas como Git. Para desarrollar y gestionar las peticiones de aplicaciones de IA generativa, puedes usar Vertex AI Studio.

Recoger y preprocesar los datos necesarios

Para implementar el preprocesamiento y la transformación de datos, puedes usar Dataflow (para Apache Beam), Dataproc (para Apache Spark) o BigQuery si es adecuado un proceso basado en SQL. Para validar esquemas y detectar anomalías, usa TensorFlow Data Validation (TFDV) y aprovecha las analizaciones de calidad de datos automatizadas en BigQuery cuando sea posible.

En el caso de la IA generativa, la calidad de los datos incluye la precisión, la relevancia, la diversidad y la alineación con las características de salida requeridas. En los casos en los que los datos reales son insuficientes o están desequilibrados, puedes generar datos sintéticos para mejorar la solidez y la generalización del modelo. Para crear conjuntos de datos sintéticos basados en patrones existentes o para aumentar los datos de entrenamiento y mejorar el rendimiento de los modelos, usa BigQuery DataFrames y Gemini. Los datos sintéticos son especialmente valiosos para la IA generativa, ya que pueden ayudar a mejorar la diversidad de las peticiones y la solidez general del modelo. Cuando crees conjuntos de datos para ajustar modelos de IA generativa, considera la posibilidad de usar las funciones de generación de datos sintéticos de Vertex AI.

En las tareas de IA generativa, como el ajuste preciso o el aprendizaje por refuerzo con retroalimentación humana (RLHF), asegúrate de que las etiquetas reflejen con precisión la calidad, la relevancia y la seguridad de los resultados generados.

Seleccionar un enfoque de aprendizaje automático adecuado

Al diseñar el modelo y los parámetros, ten en cuenta la complejidad del modelo y las necesidades computacionales. En función de la tarea (como la clasificación, la regresión o la generación), puedes usar entrenamiento personalizado de Vertex AI para crear modelos personalizados o AutoML para tareas de aprendizaje automático más sencillas. Para las aplicaciones habituales, también puedes acceder a modelos preentrenados a través de Vertex AI Model Garden. Puedes experimentar con una gran variedad de modelos fundacionales de vanguardia para diferentes casos prácticos, como generar texto, imágenes y código.

Puede que quieras afinar un modelo fundacional preentrenado para conseguir un rendimiento óptimo en tu caso práctico específico. Si necesitas un alto rendimiento en el entrenamiento personalizado, configura TPUs de Cloud o recursos de GPU para acelerar el entrenamiento y la inferencia de modelos de aprendizaje profundo, como los modelos de lenguaje grandes (LLMs) y los modelos de difusión.

Configurar el control de versiones para el código, los modelos y los datos

Para gestionar e implementar versiones de código de forma eficaz, utiliza herramientas como GitHub o GitLab. Estas herramientas ofrecen funciones de colaboración sólidas, estrategias de ramificación e integración con flujos de procesamiento de CI/CD para garantizar un proceso de desarrollo optimizado.

Usa las soluciones adecuadas para gestionar cada artefacto de tu sistema de aprendizaje automático, como los siguientes ejemplos:

  • En el caso de los artefactos de código, como las imágenes de contenedor y los componentes de la canalización, Artifact Registry ofrece una solución de almacenamiento escalable que puede ayudar a mejorar la seguridad. Artifact Registry también incluye el control de versiones y se puede integrar con Cloud Build y Cloud Deploy.
  • Para gestionar los artefactos de datos, como los conjuntos de datos que se usan para el entrenamiento y la evaluación, utiliza soluciones como BigQuery o Cloud Storage para el almacenamiento y el control de versiones.
  • Para almacenar metadatos y punteros a las ubicaciones de los datos, usa tu sistema de control de versiones o un catálogo de datos independiente.

Para mantener la coherencia y el control de versiones de los datos de las características, usa Vertex AI Feature Store. Para monitorizar y gestionar los artefactos de los modelos, incluidos los binarios y los metadatos, usa Vertex AI Model Registry, que te permite almacenar, organizar y desplegar versiones de modelos sin problemas.

Para asegurar la fiabilidad de los modelos, implementa Vertex AI Model Monitoring. Detecta la deriva de los datos, monitoriza el rendimiento e identifica anomalías en producción. En el caso de los sistemas de IA generativa, monitoriza los cambios en la calidad de los resultados y el cumplimiento de las medidas de seguridad.

Automatizar el ciclo de vida del desarrollo de modelos

La automatización te ayuda a optimizar cada fase del ciclo de vida de la IA y el AA. La automatización reduce el esfuerzo manual y estandariza los procesos, lo que conlleva una mayor eficiencia operativa y un menor riesgo de errores. Los flujos de trabajo automatizados permiten iterar más rápido, desplegar de forma coherente en todos los entornos y obtener resultados más fiables, de modo que tus sistemas puedan escalarse y adaptarse sin problemas.

Para automatizar el ciclo de vida del desarrollo de tus sistemas de IA y aprendizaje automático, ten en cuenta las siguientes recomendaciones.

Usar un sistema de orquestación de canalizaciones gestionado

Usa Vertex AI Pipelines para automatizar cada paso del ciclo de vida del aprendizaje automático, desde la preparación de los datos hasta el entrenamiento, la evaluación y el despliegue de los modelos. Para acelerar el despliegue y fomentar la coherencia entre proyectos, automatiza las tareas recurrentes con ejecuciones de canalizaciones programadas, monitoriza los flujos de trabajo con métricas de ejecución y desarrolla plantillas de canalizaciones reutilizables para flujos de trabajo estandarizados. Estas funciones se extienden a los modelos de IA generativa, que a menudo requieren pasos especializados, como la ingeniería de peticiones, el filtrado de respuestas y la evaluación human-in-the-loop. En el caso de la IA generativa, Vertex AI Pipelines puede automatizar estos pasos, incluida la evaluación de las salidas generadas en función de las métricas de calidad y las directrices de seguridad. Para mejorar la diversidad de las peticiones y la solidez del modelo, los flujos de trabajo automatizados también pueden incluir técnicas de aumento de datos.

Implementar flujos de procesamiento de CI/CD

Para automatizar la creación, la prueba y el despliegue de modelos de aprendizaje automático, usa Cloud Build. Este servicio es especialmente eficaz cuando ejecutas conjuntos de pruebas para el código de la aplicación, lo que asegura que la infraestructura, las dependencias y el empaquetado del modelo cumplan los requisitos de implementación.

Los sistemas de aprendizaje automático suelen necesitar pasos adicionales más allá de las pruebas de código. Por ejemplo, debes hacer pruebas de estrés de los modelos con cargas variables, realizar evaluaciones masivas para evaluar el rendimiento de los modelos en distintos conjuntos de datos y validar la integridad de los datos antes de volver a entrenarlos. Para simular cargas de trabajo realistas en las pruebas de estrés, puedes usar herramientas como Locust, Grafana k6 o Apache JMeter. Para identificar los cuellos de botella, monitoriza métricas clave como la latencia, la tasa de errores y la utilización de recursos a través de Cloud Monitoring. En el caso de la IA generativa, las pruebas también deben incluir evaluaciones específicas del tipo de contenido generado, como la calidad del texto, la fidelidad de la imagen o la funcionalidad del código. Estas evaluaciones pueden incluir métricas automatizadas, como la perplejidad en el caso de los modelos de lenguaje, o evaluaciones con participación humana para aspectos más sutiles, como la creatividad y la seguridad.

Para implementar tareas de prueba y evaluación, puedes integrar Cloud Build con otros Google Cloud servicios. Por ejemplo, puedes usar Vertex AI Pipelines para evaluar modelos automáticamente, BigQuery para analizar datos a gran escala y la validación de la canalización de Dataflow para validar las características.

Puedes mejorar aún más tu flujo de procesamiento de CI/CD usando Vertex AI para el entrenamiento continuo, lo que te permitirá volver a entrenar automáticamente los modelos con datos nuevos. En el caso concreto de la IA generativa, para que los resultados generados sean relevantes y diversos, el reentrenamiento puede implicar la actualización automática de los modelos con nuevos datos o peticiones de entrenamiento. Puedes usar Model Garden de Vertex AI para seleccionar los modelos base más recientes que estén disponibles para el ajuste. De esta forma, los modelos se mantienen actualizados y optimizados para las necesidades cambiantes de tu empresa.

Implementar lanzamientos de modelos seguros y controlados

Para minimizar los riesgos y garantizar que los lanzamientos sean fiables, implementa un enfoque de lanzamiento de modelos que te permita detectar problemas pronto, validar el rendimiento y revertir los cambios rápidamente cuando sea necesario.

Para empaquetar tus modelos y aplicaciones de aprendizaje automático en imágenes de contenedor y desplegarlos, usa Cloud Deploy. Puedes desplegar tus modelos en endpoints de Vertex AI.

Implementa lanzamientos controlados para tus aplicaciones y sistemas de IA mediante estrategias como los lanzamientos canary. En el caso de las aplicaciones que usan modelos gestionados, como Gemini, te recomendamos que publiques gradualmente las nuevas versiones de la aplicación para un subconjunto de usuarios antes de realizar la implementación completa. Este enfoque te permite detectar posibles problemas en una fase temprana, sobre todo cuando usas modelos de IA generativa en los que los resultados pueden variar.

Para lanzar modelos ajustados, puedes usar Cloud Deploy para gestionar el despliegue de las versiones del modelo y usar la estrategia de lanzamiento canary para minimizar los riesgos. Con los modelos gestionados y los modelos ajustados, el objetivo de los lanzamientos controlados es probar los cambios con una audiencia limitada antes de lanzar las aplicaciones y los modelos para todos los usuarios.

Para llevar a cabo una validación sólida, usa Vertex AI Experiments para comparar los modelos nuevos con los que ya tienes y Vertex AI Model Evaluation para evaluar el rendimiento de los modelos. En el caso concreto de la IA generativa, define métricas de evaluación que se ajusten al caso práctico previsto y a los posibles riesgos. Puedes usar el servicio de evaluación de IA generativa de Vertex AI para evaluar métricas como la toxicidad, la coherencia, la precisión de los datos y el cumplimiento de las directrices de seguridad.

Para garantizar la fiabilidad de la implementación, necesitas un plan de restauración sólido. En el caso de los sistemas de aprendizaje automático tradicionales, usa Vertex AI Model Monitoring para detectar la deriva de los datos y la degradación del rendimiento. En el caso de los modelos de IA generativa, puede monitorizar las métricas relevantes y configurar alertas para detectar cambios en la calidad de los resultados o la aparición de contenido dañino mediante la evaluación de modelos de Vertex AI junto con Cloud Logging y Cloud Monitoring. Configura alertas basadas en métricas específicas de la IA generativa para activar procedimientos de reversión cuando sea necesario. Para hacer un seguimiento del linaje de los modelos y volver a la versión estable más reciente, usa las estadísticas de Vertex AI Model Registry.

Implementar la observabilidad

El comportamiento de los sistemas de IA y aprendizaje automático puede cambiar con el tiempo debido a cambios en los datos o en el entorno, así como a actualizaciones de los modelos. Esta naturaleza dinámica hace que la observabilidad sea crucial para detectar problemas de rendimiento, sesgos o comportamientos inesperados. Esto es especialmente cierto en el caso de los modelos de IA generativa, ya que los resultados pueden ser muy variables y subjetivos. La observabilidad te permite abordar de forma proactiva los comportamientos inesperados y asegurarte de que tus sistemas de IA y aprendizaje automático sigan siendo fiables, precisos y justos.

Para implementar la observabilidad en tus sistemas de IA y aprendizaje automático, ten en cuenta las siguientes recomendaciones.

Monitorizar el rendimiento continuamente

Usa métricas y criterios de éxito para evaluar los modelos de forma continua después de la implementación.

Puedes usar Vertex AI Model Monitoring para hacer un seguimiento proactivo del rendimiento de los modelos, identificar el sesgo entre el entrenamiento y el servicio, así como la deriva de las predicciones, y recibir alertas para activar el reentrenamiento necesario de los modelos u otras intervenciones. Para monitorizar de forma eficaz la desviación entre el entrenamiento y el servicio, crea un conjunto de datos de referencia que represente la distribución de datos ideal y usa TFDV para analizar tus datos de entrenamiento y establecer un esquema de referencia.

Configura Monitorización de modelos para comparar la distribución de los datos de entrada con el conjunto de datos de referencia y detectar automáticamente las desviaciones. En el caso de los modelos de aprendizaje automático tradicionales, céntrate en las métricas, como la exactitud, la precisión, la recuperación, la puntuación F1, el AUC-ROC y la pérdida logarítmica. Define umbrales personalizados para las alertas en Monitorización de modelos. En el caso de la IA generativa, usa el servicio de evaluación de IA generativa para monitorizar continuamente la salida del modelo en producción. También puedes habilitar métricas de evaluación automática para la calidad, la seguridad, el cumplimiento de las instrucciones, la fundamentación, el estilo de escritura y la verbosidad de las respuestas. Para evaluar la calidad, la relevancia, la seguridad y el cumplimiento de las directrices de las respuestas generadas, puedes incorporar la evaluación human-in-the-loop.

Crea bucles de retroalimentación para volver a entrenar automáticamente los modelos con Vertex AI Pipelines cuando Model Monitoring active una alerta. Usa estas estadísticas para mejorar tus modelos continuamente.

Evaluar modelos durante el desarrollo

Antes de implementar tus LLMs y otros modelos de IA generativa, evalúalos a fondo durante la fase de desarrollo. Usa la evaluación de modelos de Vertex AI para conseguir un rendimiento óptimo y reducir los riesgos. Usa la evaluación rápida de Vertex AI para que Google Cloud ejecute automáticamente evaluaciones basadas en el conjunto de datos y las peticiones que proporciones.

También puede definir e integrar métricas personalizadas que sean específicas de su caso de uso. Para recibir comentarios sobre el contenido generado, integra flujos de trabajo con intervención humana mediante Vertex AI Model Evaluation.

Usa pruebas adversarias para identificar vulnerabilidades y posibles modos de fallo. Para identificar y mitigar posibles sesgos, usa técnicas como el análisis de subgrupos y la generación de contrafactuales. Usa las estadísticas obtenidas de las evaluaciones que se completaron durante la fase de desarrollo para definir tu estrategia de monitorización de modelos en producción. Prepara tu solución para la monitorización continua tal como se describe en la sección Monitoriza el rendimiento continuamente de este documento.

Monitorizar la disponibilidad

Para obtener visibilidad del estado y el rendimiento de los endpoints y la infraestructura implementados, utiliza Cloud Monitoring. En el caso de tus endpoints de Vertex AI, monitoriza métricas clave como la tasa de solicitudes, la tasa de errores, la latencia y el uso de recursos, y configura alertas para detectar anomalías. Para obtener más información, consulta las métricas de Cloud Monitoring de Vertex AI.

Monitoriza el estado de la infraestructura subyacente, que puede incluir instancias de Compute Engine, clústeres de Google Kubernetes Engine (GKE) y TPUs y GPUs. Recibe recomendaciones de optimización automatizadas de Active Assist. Si usas el autoescalado, monitoriza su comportamiento para asegurarte de que responde adecuadamente a los cambios en los patrones de tráfico.

Monitoriza el estado de los despliegues de modelos, incluidas las versiones canary y las restauraciones, integrando Cloud Deploy con Cloud Monitoring. Además, puedes monitorizar posibles amenazas y vulnerabilidades de seguridad con Security Command Center.

Configurar alertas personalizadas para umbrales específicos de la empresa

Para identificar y corregir anomalías y problemas a tiempo, configure alertas personalizadas basadas en umbrales específicos de sus objetivos de negocio. Estos son algunos ejemplos de Google Cloud productos que puedes usar para implementar un sistema de alertas personalizado:

  • Cloud Logging: recoge, almacena y analiza registros de todos los componentes de tu sistema de IA y AA.
  • Cloud Monitoring: crea paneles de control personalizados para visualizar métricas y tendencias clave, y define métricas personalizadas en función de tus necesidades. Configura alertas para recibir notificaciones sobre problemas críticos e integra las alertas con tus herramientas de gestión de incidentes, como PagerDuty o Slack.
  • Error Reporting: captura y analiza automáticamente los errores y las excepciones.
  • Cloud Trace: analiza el rendimiento de los sistemas distribuidos e identifica los cuellos de botella. El rastreo es especialmente útil para comprender la latencia entre los diferentes componentes de tu canalización de IA y aprendizaje automático.
  • Cloud Profiler: analiza continuamente el rendimiento de tu código en producción e identifica los cuellos de botella del rendimiento en el uso de la CPU o la memoria.

Crea una cultura de excelencia operativa

Centrarse en crear soluciones de IA sostenibles, fiables y eficaces, en lugar de solo en crear modelos. Permite que los equipos aprendan, innoven y mejoren continuamente, lo que conlleva ciclos de desarrollo más rápidos, menos errores y una mayor eficiencia. Si prioriza la automatización, la estandarización y las consideraciones éticas, puede asegurarse de que sus iniciativas de IA y AA aporten valor de forma constante, mitiguen los riesgos y promuevan el desarrollo responsable de la IA.

Para crear una cultura de excelencia operativa en tus sistemas de IA y aprendizaje automático, ten en cuenta las siguientes recomendaciones.

Impulsa la automatización y la estandarización

Para enfatizar la eficiencia y la coherencia, integra la automatización y las prácticas estandarizadas en cada fase del ciclo de vida de la IA y el aprendizaje automático. La automatización reduce los errores manuales y permite que los equipos se centren en la innovación. La estandarización asegura que los procesos se puedan repetir y escalar en todos los equipos y proyectos.

Prioriza el aprendizaje y la mejora continuos

Fomentar un entorno en el que la formación continua y la experimentación sean principios fundamentales. Anima a los equipos a mantenerse al día de los avances en IA y aprendizaje automático, y ofréceles oportunidades para aprender de proyectos anteriores. Una cultura de curiosidad y adaptación impulsa la innovación y asegura que los equipos estén preparados para afrontar nuevos retos.

Fomentar la responsabilidad y la implicación

Fomenta la confianza y la colaboración con roles, responsabilidades y métricas de éxito claramente definidos. Faculta a los equipos para que tomen decisiones fundamentadas dentro de estos límites y establece formas transparentes de medir el progreso. El sentimiento de propiedad motiva a los equipos y asegura la responsabilidad colectiva de los resultados.

Integrar consideraciones éticas y de seguridad de la IA

Prioriza las consideraciones éticas en cada fase del desarrollo. Anima a los equipos a reflexionar de forma crítica sobre el impacto de sus soluciones de IA y fomenta debates sobre la equidad, los sesgos y el impacto social. Los principios claros y los mecanismos de rendición de cuentas aseguran que tus sistemas de IA se ajusten a los valores de la organización y fomenten la confianza.

Diseñar para la escalabilidad

Para adaptarse al creciente volumen de datos y a las demandas de los usuarios, así como para maximizar el valor de las inversiones en IA, tus sistemas de IA y aprendizaje automático deben ser escalables. Los sistemas deben adaptarse y funcionar de forma óptima para evitar cuellos de botella en el rendimiento que obstaculicen la eficacia. Si diseñas una infraestructura escalable, te aseguras de que la infraestructura de IA pueda gestionar el crecimiento y mantener la capacidad de respuesta. Usa una infraestructura escalable, planifica la capacidad y emplea estrategias como el escalado horizontal y los servicios gestionados.

Para diseñar tus sistemas de IA y aprendizaje automático de forma que sean escalables, ten en cuenta las siguientes recomendaciones.

Planificar la capacidad y las cuotas

Evalúa el crecimiento futuro y planifica la capacidad de tu infraestructura y las cuotas de recursos en consecuencia. Colabora con las partes interesadas de la empresa para conocer el crecimiento previsto y, a continuación, define los requisitos de infraestructura en consecuencia.

Usa Cloud Monitoring para analizar el uso histórico de los recursos, identificar tendencias y prever las necesidades futuras. Realiza pruebas de carga periódicas para simular cargas de trabajo e identificar cuellos de botella.

Familiarízate con las Google Cloud cuotas de los servicios que utilizas, como Compute Engine, Vertex AI y Cloud Storage. Solicita de forma proactiva aumentos de cuota a través de la Google Cloud consola y justifica los aumentos con datos de previsión y pruebas de carga. Monitoriza el uso de las cuotas y configura alertas para recibir notificaciones cuando el uso se acerque a los límites de las cuotas.

Para optimizar el uso de los recursos en función de la demanda, ajusta el tamaño de los recursos, usa máquinas virtuales de Spot para las cargas de trabajo por lotes tolerantes a fallos e implementa el autoescalado.

Prepararse para los eventos de picos

Asegúrate de que tu sistema pueda gestionar picos repentinos de tráfico o carga de trabajo durante los eventos de máxima audiencia. Documenta tu estrategia para eventos con picos de tráfico y haz simulaciones periódicas para probar la capacidad de tu sistema de gestionar una carga mayor.

Para aumentar los recursos de forma agresiva cuando la demanda aumente, configura políticas de autoescalado en Compute Engine y GKE. Si los patrones de picos son predecibles, puedes usar el autoescalado predictivo. Para activar el autoescalado en función de señales específicas de la aplicación, usa métricas personalizadas en Cloud Monitoring.

Distribuye el tráfico entre varias instancias de la aplicación mediante Cloud Load Balancing. Elige el tipo de balanceador de carga adecuado en función de las necesidades de tu aplicación. Si tienes usuarios distribuidos geográficamente, puedes usar el balanceo de carga global para enrutar el tráfico a la instancia disponible más cercana. En el caso de las arquitecturas complejas basadas en microservicios, te recomendamos que uses Cloud Service Mesh.

Almacena en caché el contenido estático en el perímetro de la red de Google con Cloud CDN. Para almacenar en caché los datos a los que se accede con frecuencia, puedes usar Memorystore, que ofrece un servicio en memoria totalmente gestionado para Redis, Valkey o Memcached.

Desacopla los componentes de tu sistema mediante Pub/Sub para la mensajería en tiempo real y Cloud Tasks para la ejecución de tareas asíncronas.

Escalar aplicaciones para producción

Para garantizar un servicio escalable en producción, puedes usar servicios gestionados como Vertex AI distributed training y Vertex AI Inference. Vertex AI Inference te permite configurar los tipos de máquinas de tus nodos de predicción cuando despliegas un modelo en un endpoint o solicitas predicciones por lotes. En algunas configuraciones, puedes añadir GPUs. Elige el tipo de máquina y los aceleradores adecuados para optimizar la latencia, el rendimiento y el coste.

Para escalar aplicaciones complejas de IA y Python, así como cargas de trabajo personalizadas, en recursos de computación distribuida, puedes usar Ray en Vertex AI. Esta función puede ayudar a optimizar el rendimiento y permite una integración perfecta con los servicios deGoogle Cloud . Ray en Vertex AI simplifica la computación distribuida al gestionar la gestión de clústeres, la programación de tareas y la transferencia de datos. Se integra con otros servicios de Vertex AI, como entrenamiento, predicción y flujos de trabajo. Ray ofrece tolerancia a fallos y autoescalado, y te ayuda a adaptar la infraestructura a las cargas de trabajo cambiantes. Ofrece un marco unificado para el entrenamiento distribuido, el ajuste de hiperparámetros, el aprendizaje por refuerzo y el servicio de modelos. Usa Ray para el preprocesamiento de datos distribuidos con Dataflow o Dataproc, el entrenamiento de modelos acelerado, el ajuste de hiperparámetros escalable, el aprendizaje por refuerzo y la predicción por lotes paralela.

Colaboradores

Autores:

Otros colaboradores: