Glosario de Vertex AI para la IA predictiva

  • conjunto de anotaciones
    • Un conjunto de anotaciones contiene las etiquetas asociadas con los archivos fuente que se suben en un conjunto de datos. Un conjunto de anotaciones está asociado con un tipo de datos y un objetivo (por ejemplo, video/clasificación)
  • Extremo de API
    • Los extremos de API son un aspecto de la configuración del servicio que especifica las direcciones de la red, también conocidas como extremos de servicio (por ejemplo, aiplatform.googleapis.com).
  • Credenciales predeterminadas de la aplicación (ADC)
    • Las credenciales predeterminadas de la aplicación (ADC) proporcionan una forma sencilla de obtener credenciales de autorización para usarlas en las llamadas a las APIs de Google. Son más adecuadas para los casos en los que la llamada debe tener la misma identidad y nivel de autorización para la aplicación, independientemente del usuario. Este es el enfoque recomendado para autorizar llamadas a las APIs de Google Cloud, en especial cuando compilas una aplicación que se implementará en las máquinas virtuales de Google App Engine (GAE) o Compute Engine. Para obtener más información, consulta Cómo funcionan las credenciales predeterminadas de la aplicación.
  • Vecino más cercano aproximado (ANN)
  • artefacto
    • Un artefacto es una entidad discreta o un dato producido y consumido por un flujo de trabajo del aprendizaje automático. Algunos ejemplos de artefactos son los conjuntos de datos, modelos, archivos de entrada y registros de entrenamiento.
  • Artifact Registry
    • Artifact Registry es un servicio universal de administración de artefactos. Es el servicio recomendado para administrar contenedores y otros artefactos en Google Cloud. Para obtener más información, consulta Artifact Registry.
  • Inteligencia artificial (IA)
    • La inteligencia artificial (o IA) es el estudio y diseño de máquinas que parecen ser "inteligentes", es decir, que imitan funciones humanas o intelectuales, como el movimiento mecánico, el razonamiento o la resolución de problemas. Uno de los subcampos más populares de la IA es el aprendizaje automático, que utiliza un enfoque estadístico y basado en datos para crear IA. Sin embargo, algunas personas usan estos dos términos de forma indistinta.
  • autenticación
    • El proceso de verificar la identidad de un cliente (que puede ser un usuario o algún otro proceso) con el fin de obtener acceso a un sistema seguro. Se dice que un cliente que ha probado su identidad está autenticado. Para obtener más información, consulta Métodos de autenticación en Google.
  • Evaluación automática en paralelo (AutoSxS)
    • La Evaluación automática en paralelo (AutoSxS) es una herramienta de evaluación asistida por modelo que compara dos modelos de lenguaje grandes (LLM) en paralelo. Se puede usar para evaluar el rendimiento de los modelos de IA generativa en Model Registry de Vertex AI o las inferencias generadas previamente. AutoSxS usa un evaluador automático para decidir qué modelo brinda una mejor respuesta a un mensaje. AutoSxS está disponible a pedido y evalúa los modelos de lenguaje con un rendimiento comparable al de los evaluadores humanos.
  • AutoML
    • Algoritmos de aprendizaje automático que "aprenden a aprender" a través de la optimización de caja negra. Para obtener más información, consulta el Glosario de AA.
  • autologging
    • El registro automático es una función de las plataformas y bibliotecas de aprendizaje automático que registra automáticamente las métricas, los parámetros y los artefactos clave durante el proceso de entrenamiento de modelos sin necesidad de instrumentación explícita del código. Simplifica el seguimiento de experimentos, ya que captura automáticamente información como los hiperparámetros, las métricas de evaluación (por ejemplo, la exactitud y la pérdida) y los puntos de control del modelo, lo que permite a los desarrolladores comparar y reproducir experimentos con facilidad.
  • autorater
    • Un evaluador automático es un modelo de lenguaje que evalúa la calidad de las respuestas del modelo según un mensaje de inferencia original. Se usa en la canalización de AutoSxS para comparar las inferencias de dos modelos y determinar cuál tuvo el mejor rendimiento. Para obtener más información, consulta El evaluador automático.
  • Ajuste de escala automático
    • El ajuste de escala automático es la capacidad de un recurso de procesamiento, como el grupo de trabajadores de un clúster de Ray, para ajustar automáticamente la cantidad de nodos según las demandas de la carga de trabajo, lo que optimiza el uso de los recursos y los costos. Para obtener más información, consulta Cómo escalar clústeres de Ray en Vertex AI: Ajuste de escala automático.
  • grupo de referencia
    • Modelo que se usa como punto de referencia para comparar el rendimiento de otro modelo (por lo general, uno más complejo). Por ejemplo, un modelo de regresión logística podría servir como un buen modelo de referencia para un modelo profundo. Para un problema en particular, el modelo de referencia ayuda a los desarrolladores a cuantificar el rendimiento mínimo esperado que debe alcanzar un modelo nuevo para que sea útil. Para obtener más información, consulta Conjuntos de datos de referencia y objetivo.
  • batch
    • Es el conjunto de ejemplos que se usa en una iteración de entrenamiento. El tamaño del lote determina la cantidad de ejemplos que hay en un lote.
  • tamaño del lote
    • Es la cantidad de ejemplos en un lote. Por ejemplo, el tamaño del lote del SGD es 1, mientras que el tamaño del lote de un minilote suele ser entre 10 y 1,000. Por lo general, se fija el tamaño del lote durante el entrenamiento y la inferencia; sin embargo, TensorFlow permite tamaños de lotes dinámicos.
  • inferencia por lotes
  • Sesgo
    • 1. Estereotipo, prejuicio o preferencia de cosas, personas o grupos por sobre otros. Estos sesgos pueden afectar la recopilación y la interpretación de datos, el diseño de un sistema y cómo los usuarios interactúan con él. 2. Error sistemático debido a un procedimiento de muestreo o de realización de un informe.
  • bidireccional
    • Término que se usa para describir un sistema que evalúa el texto que precede y sigue a una sección de texto objetivo. En cambio, un sistema unidireccional solo evalúa el texto que precede a una sección objetivo de texto.
  • Bidirectional Encoder Representations from Transformers (BERT)
    • BERT es un método de entrenamiento previo de representaciones lingüísticas, lo que significa que entrenamos un modelo de "comprensión del lenguaje" de uso general en un gran corpus de texto (como Wikipedia) y, luego, usamos ese modelo para tareas de PNL posteriores que nos interesan (como responder preguntas). BERT supera a los métodos anteriores porque es el primer sistema no supervisado y profundamente bidireccional para el entrenamiento previo del PLN.
  • BigQuery
    • BigQuery es un almacén de datos empresariales completamente administrado, sin servidores y altamente escalable que proporciona Google Cloud, diseñado para analizar conjuntos de datos masivos con consultas en SQL a velocidades increíblemente altas. BigQuery permite realizar análisis y obtener inteligencia empresarial valiosa sin que los usuarios tengan que administrar ninguna infraestructura. Para obtener más información, consulta De almacén de datos a plataforma de IA y datos autónomos.
  • BigQuery ML
    • BigQuery ML es una función del almacén de datos BigQuery de Google Cloud que permite a los analistas y científicos de datos crear, entrenar e implementar modelos de aprendizaje automático directamente en BigQuery con consultas de SQL estándar. Esto elimina la necesidad de trasladar datos a plataformas de AA separadas, lo que simplifica el flujo de trabajo de aprendizaje automático y hace que el AA sea más accesible para los usuarios de SQL. Para obtener más información, consulta Crea modelos de aprendizaje automático en BigQuery ML.
  • Bigtable
    • Servicio de base de datos NoSQL completamente administrado, también recomendado como opción de almacenamiento para los datos de entrenamiento cuando se usa Vertex AI. Para obtener más información, consulta la descripción general de Bigtable.
  • Bilingual Evaluation Understudy (BLEU)
    • Es una medida popular para evaluar la calidad de un algoritmo de traducción automática comparando su resultado con el de una o más traducciones humanas.
  • cuadro de límite
    • Un cuadro de límite para un objeto en el marco de video se puede especificar de una de dos maneras (i) Mediante 2 vértices que consisten en un conjunto de coordenadas x,y si son puntos diagonalmente opuestos del rectángulo. Por ejemplo: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) Usar los 4 vértices. Para obtener más información, consulta Prepara datos de video.
  • segmento
    • Es la carpeta de nivel superior de Cloud Storage. Los nombres de los buckets deben ser únicos para todos los usuarios de Cloud Storage. Los buckets contienen archivos. Para obtener más información, consulta la Descripción general del producto Cloud Storage.
  • chat
    • Contenido de un diálogo bidireccional con un sistema de AA, por lo general, un modelo de lenguaje grande. La interacción anterior en un chat (lo que escribiste y cómo respondió el modelo de lenguaje extenso) se convierte en el contexto de las partes posteriores del chat. Un chatbot es una aplicación de un modelo de lenguaje grande.
  • checkpoint
    • Son los datos que capturan el estado de los parámetros de un modelo durante el entrenamiento o después de que este finaliza. Por ejemplo, durante el entrenamiento, puedes hacer lo siguiente: 1. Detener el entrenamiento, tal vez de forma intencional o como resultado de ciertos errores 2. Captura el punto de control. 3. Más adelante, vuelve a cargar el punto de control, posiblemente en hardware diferente. 4. Reinicia el entrenamiento. En Gemini, un punto de control hace referencia a una versión específica de un modelo de Gemini entrenado en un conjunto de datos específico.
  • modelo de clasificación
    • Es un modelo cuya inferencia es una clase. Por ejemplo, los siguientes son todos modelos de clasificación: Un modelo que predice el idioma de una oración de entrada (¿francés? ¿Español? ¿Italiano?). Un modelo que predice especies de árboles (¿arce? ¿Roble? ¿Baobab?). Es un modelo que predice la clase positiva o negativa para una afección médica en particular.
  • métricas de clasificación
    • Las métricas de clasificación admitidas en el SDK de Vertex AI para Python son la matriz de confusión y la curva ROC.
  • Cloud Logging
    • Cloud Logging es un servicio de registros en tiempo real completamente administrado que proporciona Google Cloud y que te permite recopilar, almacenar, analizar y supervisar registros de todos tus recursos de Google Cloud, aplicaciones locales y hasta fuentes personalizadas. Cloud Logging centraliza la administración de registros, lo que facilita la solución de problemas, la auditoría y la comprensión del comportamiento y el estado de tus aplicaciones y tu infraestructura. Para obtener más información, consulta Descripción general de Cloud Logging.
  • Cloud Monitoring
    • Cloud Monitoring es una plataforma de observabilidad integral que proporciona Google Cloud y que recopila y visualiza métricas, registros y eventos de los servicios de Google Cloud, la infraestructura local y los componentes de las aplicaciones. Permite que los usuarios obtengan estadísticas sobre el rendimiento, la disponibilidad y el estado general de sus sistemas, lo que permite la detección, la solución de problemas y las alertas proactivas. Para obtener más información, consulta Métricas de Cloud Monitoring para Vertex AI.
  • Cloud Profiler
    • Cloud Profiler es un servicio de generación de perfiles continuo que proporciona Google Cloud y que te ayuda a identificar y analizar el consumo de CPU y memoria, así como el uso de otros recursos (como montón, tiempo real, contención) en tus aplicaciones. Recopila automáticamente datos de generación de perfiles de tus aplicaciones de producción con una sobrecarga mínima, lo que te permite visualizar y comprender los cuellos de botella del rendimiento en varios servicios, y optimizar tu código para lograr una mayor eficiencia y reducir los costos. Para obtener más información, consulta la descripción general de Cloud Profiler.
  • Cloud Storage
    • Servicio de almacenamiento de objetos escalable y seguro de Google Cloud, recomendado para almacenar grandes conjuntos de datos que se usan en el entrenamiento y la verificación con Vertex AI para obtener un rendimiento óptimo. Para obtener más información, consulta la documentación de Cloud Storage.
  • Cloud TPU
    • Es un acelerador de hardware especializado diseñado para agilizar las cargas de trabajo de aprendizaje automático en Google Cloud.
  • Colab Enterprise
    • Colab Enterprise es un entorno de notebook de Jupyter colaborativo y administrado que lleva la popular experiencia del usuario de Google Colab a Google Cloud y ofrece capacidades de seguridad y cumplimiento a nivel empresarial. Colab Enterprise proporciona una experiencia centrada en los notebooks y sin configuración, con recursos de procesamiento administrados por Vertex AI, y se integra con otros servicios de Google Cloud, como BigQuery. Para obtener más información, consulta Introducción a Colab Enterprise.
  • imagen de contenedor
  • context
    • Un contexto se usa para agrupar artefactos y ejecuciones en una sola categoría consultable y escrita. Los contextos se pueden usar para representar conjuntos de metadatos. Un ejemplo de un contexto sería una ejecución de una canalización de aprendizaje automático.
  • caché de contexto
    • Una caché de contexto en Vertex AI es una gran cantidad de datos que se pueden usar en varias solicitudes a un modelo de Gemini. El contenido almacenado en caché se almacena en la región en la que se realiza la solicitud para crear la caché. Puede ser cualquier tipo de MIME compatible con los modelos multimodales de Gemini, como texto, audio o video. Para obtener más información, consulta la descripción general del almacenamiento en caché de contexto.
  • ventana de contexto
    • Es la cantidad de tokens que un modelo puede procesar en una instrucción determinada. Cuanto más grande sea la ventana de contexto, más información podrá usar el modelo para proporcionar respuestas coherentes y uniformes a la instrucción.
  • claves de encriptación administradas por el cliente (CMEK)
    • Las claves de encriptación administradas por el cliente (CMEK) son integraciones que permiten a los clientes encriptar datos en servicios de Google existentes mediante una clave que administran en Cloud KMS (también conocido como Storky). La clave de Cloud KMS es la clave de encriptación de claves que protege sus datos. Para obtener más información, consulta Claves de encriptación administradas por el cliente (CMEK).
  • CustomJob
    • Un CustomJob es uno de los tres recursos de Vertex AI que un usuario puede crear para entrenar modelos personalizados en Vertex AI. Los trabajos de entrenamiento personalizados son la forma básica de ejecutar código de entrenamiento personalizado de aprendizaje automático (AA) en Vertex AI. Para obtener más información, consulta Crea trabajos de entrenamiento personalizados.
  • imagen de contenedor personalizada
    • Una imagen de contenedor personalizada es un paquete ejecutable y autónomo que incluye el código de la aplicación del usuario, su tiempo de ejecución, bibliotecas, dependencias y configuración del entorno. En el contexto de Google Cloud, en particular Vertex AI, permite al usuario empaquetar su código de entrenamiento de aprendizaje automático o su aplicación de servicio con sus dependencias exactas, lo que garantiza la reproducibilidad y permite al usuario ejecutar una carga de trabajo en servicios administrados con versiones de software específicas o configuraciones únicas que no proporcionan los entornos estándar. Para obtener más información, consulta Requisitos de contenedores personalizados para la inferencia.
  • entrenamiento personalizado
    • El entrenamiento personalizado de Vertex AI es un servicio flexible que permite a los usuarios ejecutar sus propias aplicaciones de entrenamiento personalizadas (secuencias de comandos o contenedores) en la infraestructura de Google Cloud, lo que proporciona control sobre los tipos de máquinas y el ajuste de escala. Para obtener más información, consulta la descripción general del entrenamiento personalizado.
  • Dask
    • Dask es una plataforma de procesamiento distribuido que se suele usar con TensorFlow, PyTorch y otros frameworks de AA para administrar trabajos de entrenamiento distribuidos. Para obtener más información, consulta Wikipedia.
  • análisis de datos
    • El proceso de obtener una comprensión de los datos mediante la consideración de muestras, mediciones y visualizaciones. El análisis de datos puede ser particularmente útil cuando se recibe por primera vez un conjunto de datos, antes de crear el primer modelo. También es crucial para comprender los experimentos y problemas de depuración del sistema.
  • aumento de datos
    • Se incrementa de forma artificial el rango y cantidad de ejemplos de entrenamiento a través de transformaciones sobre los ejemplos existentes para crear ejemplos nuevos. Por ejemplo, supongamos que uno de los atributos son las imágenes, pero el conjunto de datos no tiene suficientes ejemplos de imágenes para que el modelo aprenda asociaciones útiles. Lo ideal sería agregar suficientes imágenes etiquetadas al conjunto de datos para permitir que el modelo se entrene adecuadamente. De no ser posible, la magnificación de datos puede rotar, estirar y reflejar cada imagen para producir variantes de la imagen original, lo que producirá, posiblemente, suficientes datos etiquetados para permitir un excelente entrenamiento.
  • DataFrame
    • Es un tipo de datos de Pandas popular para representar conjuntos de datos en la memoria. Un DataFrame es similar a una tabla o una hoja de cálculo. Cada columna de un DataFrame tiene un nombre (un encabezado) y cada fila se identifica con un número único. Cada columna de un DataFrame se estructura como un array bidimensional, excepto que a cada columna se le puede asignar su propio tipo de datos.
  • conjunto de datos
    • En términos generales, un conjunto de datos se define como una colección de registros de datos estructurados o no estructurados. Es una colección de datos sin procesar, que se organiza comúnmente (aunque no de forma exclusiva) en uno de los siguientes formatos: una hoja de cálculo o un archivo en formato CSV (valores separados por comas). Para obtener más información, consulta Crea un conjunto de datos.
  • decodificador
    • En general, cualquier sistema de AA que convierta de una representación procesada, densa o interna a una representación más sin procesar, dispersa o externa. Los decodificadores suelen ser un componente de un modelo más grande, en el que se combinan con un codificador. En las tareas de secuencia a secuencia, un decodificador comienza con el estado interno generado por el codificador para predecir la siguiente secuencia.
  • red neuronal profunda (DNN)
    • Una red neuronal con múltiples capas ocultas, que se programa a través de técnicas de aprendizaje profundo.
  • profundidad
    • Es la suma de los siguientes elementos en una red neuronal: 1. La cantidad de capas ocultas 2. La cantidad de capas de salida, que suele ser una 3. La cantidad de capas de embedding Por ejemplo, una red neuronal con cinco capas ocultas y una capa de salida tiene una profundidad de 6. Ten en cuenta que la capa de entrada no influye en la profundidad.
  • DevOps
    • DevOps es un paquete de productos de Google Cloud Platform, por ejemplo, Artifact Registry y Cloud Deploy.
  • interrupción anticipada
    • Es un método de regularización que implica finalizar el entrenamiento antes de que la pérdida de entrenamiento deje de disminuir. En la interrupción anticipada, detienes intencionalmente el entrenamiento del modelo cuando la pérdida en un conjunto de datos de validación comienza a aumentar, es decir, cuando empeora el rendimiento de generalización.
  • Incorporación
    • Son representaciones numéricas de palabras o fragmentos de texto. Estos números capturan el significado semántico y el contexto del texto. Las palabras o textos similares o relacionados tienden a tener incorporaciones similares, lo que significa que están más cerca unas de otras en el espacio vectorial de alta dimensión.
  • Espacio de embedding (espacio latente)
    • En la IA generativa, el espacio de embedding se refiere a una representación numérica de texto, imágenes o videos que captura las relaciones entre las entradas. Los modelos de aprendizaje automático, en especial los modelos de IA generativa, son adecuados para crear estos embeddings mediante la identificación de patrones en grandes conjuntos de datos. Las aplicaciones pueden usar incorporaciones para procesar y generar lenguaje, y reconocer significados complejos y relaciones semánticas específicas en el contenido.
  • vector de embedding
    • Es una representación vectorial densa, a menudo de baja dimensión, de un elemento, de modo que, si dos elementos son semánticamente similares, sus incorporaciones respectivas se ubican cerca entre sí en el espacio vectorial de incorporación.
  • codificador
    • En general, cualquier sistema de AA que convierta una representación sin procesar, dispersa o externa en una representación más procesada, densa o interna. Los codificadores suelen ser un componente de un modelo más grande, en el que se combinan con un decodificador. Algunos transformadores combinan codificadores con decodificadores, aunque otros solo usan el codificador o el decodificador. Algunos sistemas usan la salida del codificador como entrada para una red de clasificación o regresión. En las tareas de secuencia a secuencia, un codificador toma una secuencia de entrada y devuelve un estado interno (un vector). Luego, el decodificador usa ese estado interno para predecir la siguiente secuencia.
  • endpoint
    • Son los recursos en los que puedes implementar modelos entrenados para entregar inferencias. Para obtener más información, consulta Elige un tipo de extremo.
  • Ensamble
    • Es una colección de modelos entrenados de forma independiente cuyas inferencias se promedian o agregan. En muchos casos, un conjunto produce mejores inferencias que un solo modelo. Por ejemplo, un bosque aleatorio es un ensamble creado a partir de varios árboles de decisión. Ten en cuenta que no todos los bosques de decisión son conjuntos.
  • entorno
    • En el aprendizaje por refuerzo, es el mundo que contiene al agente y le permite observar su estado. Por ejemplo, el mundo representado puede ser un juego como el ajedrez o un mundo físico como un laberinto. Cuando el agente aplica una acción al entorno, este pasa de un estado a otro.
  • evaluación (eval)
    • Una evaluación, abreviatura de "evaluación", es un tipo de experimento en el que se envían búsquedas sintéticas o registradas a través de dos pilas de Search: una experimental que incluye tu cambio y una base que no lo incluye. Las evaluaciones producen diferencias y métricas que te permiten evaluar el impacto, la calidad y otros efectos de tu cambio en los resultados de la búsqueda y otras partes de la experiencia del usuario de Google. Las evaluaciones se usan durante el ajuste o las iteraciones de tu cambio. También se usan como parte del lanzamiento de un cambio en el tráfico de usuarios activos.
  • event
    • Un evento describe la relación entre los artefactos y las ejecuciones. Cada artefacto puede ser generado por una ejecución y consumido por otras ejecuciones. Los eventos te ayudan a determinar la procedencia de los artefactos en sus flujos de trabajo del AA mediante el encadenamiento de artefactos y ejecuciones.
  • ejecución
    • Una ejecución es un registro de un paso de flujo de trabajo de aprendizaje automático individual, que, por lo general, se anota con sus parámetros de entorno de ejecución. Algunos ejemplos de las ejecuciones son la transferencia de datos, la validación de datos, el entrenamiento de modelos, la evaluación de modelos y la implementación de modelos.
  • Experimento
    • Un experimento es un contexto que puede contener un conjunto de n ejecuciones de experimentos además de ejecuciones de canalizaciones en las que un usuario puede investigar, como un grupo, diferentes configuraciones como artefactos de entrada o hiperparámetros.
  • ejecución de experimento
    • Es una ejecución específica y rastreable dentro de un experimento de Vertex AI que registra las entradas (como el algoritmo, los parámetros y los conjuntos de datos) y las salidas (como los modelos, los puntos de control y las métricas) para supervisar y comparar las iteraciones del desarrollo del AA. Para obtener más información, consulta Crea y administra ejecuciones de experimentos.
  • Explainable AI
    • Es una función de Vertex AI que proporciona herramientas y capacidades para comprender e interpretar las inferencias que realizan los modelos de AA, y ofrece estadísticas sobre la importancia de los atributos y el comportamiento del modelo. Para obtener más información, consulta Introducción a Vertex Explainable AI.
  • análisis de datos exploratorio
    • En estadística, el análisis de datos exploratorio (EDA) es un enfoque para analizar los conjuntos de datos a fin de resumir sus principales características, a menudo con métodos visuales. Un modelo estadístico puede o no usarse, pero, sobre todo, EDA sirve para ver lo que los datos pueden decirnos, más allá del modelado formal o de la tarea de prueba de hipótesis.
  • Puntuación F1
    • La puntuación F1 es una métrica que se usa para evaluar la precisión del resultado de un modelo. Es particularmente útil para evaluar el rendimiento de los modelos en tareas en las que tanto la precisión como la recuperación son importantes, como la extracción de información. En el caso de los modelos de IA generativa, se puede usar la puntuación F1 para comparar las inferencias del modelo con los datos de verdad fundamental y determinar la precisión del modelo. Sin embargo, para las tareas generativas, como la generación de resúmenes y texto, otras métricas, como la puntuación Rough-L, podrían ser más adecuadas.
  • feature
    • En el aprendizaje automático (AA), un atributo es una característica o un atributo de una instancia o entidad que se usa como entrada para entrenar un modelo de AA o hacer inferencias.
  • ingeniería de atributos
    • La ingeniería de atributos es el proceso de transformar datos sin procesar de aprendizaje automático (AA) en atributos que pueden usarse para entrenar modelos de AA o hacer inferencias.
  • grupo de funciones
    • Un grupo de atributos es un recurso de registro de atributos que corresponde a una tabla de origen de BigQuery o una vista que contiene datos de atributos. Una vista de atributos puede contener atributos y puede considerarse una agrupación lógica de columnas de atributos en la fuente de datos.
  • entrada de atributos
    • Una entrada de atributos es una agregación de todos los valores de atributos que describen los atributos de una entidad única en un momento específico.
  • registro de funciones
    • Un registro de atributos es una interfaz central que sirve para registrar fuentes de datos de atributos que deseas entregar para inferencias en línea. Para obtener más información, consulta Configuración del registro de funciones.
  • entrega de atributos
    • La entrega de atributos es el proceso de exportar o recuperar valores de atributos para el entrenamiento o la inferencia. En Vertex AI hay dos tipos de entrega de atributos: entrega en línea y entrega sin conexión. La entrega en línea recupera los valores de atributos más recientes de un subconjunto de la fuente de datos de atributos para realizar inferencias en línea. La entrega sin conexión o por lotes exporta grandes volúmenes de datos de atributos, incluidos los datos históricos, para el procesamiento sin conexión, como el entrenamiento de modelos de AA.
  • marca de tiempo del atributo
    • La marca de tiempo de un atributo indica cuándo se generó el conjunto de valores de atributos en un registro de atributos específico de una entidad.
  • valor del atributo
    • El valor de atributo corresponde al valor real y medible de un atributo de una instancia o entidad. Una colección de valores de atributos de la entidad única representa el registro de atributos correspondiente a la entidad.
  • vista de funciones
    • Una vista de atributos es una colección lógica de atributos materializados de una fuente de datos de BigQuery en una instancia de tienda en línea. Una vista de atributos almacena y actualiza de forma periódica los datos de los atributos del cliente, que se actualizan de manera periódica desde la fuente de BigQuery. Una vista de atributos se asocia con el almacenamiento de datos de atributos, ya sea directamente o a través de asociaciones a recursos de registro de atributos.
  • modelo fundamental (FM)
    • Son modelos entrenados con datos amplios para que se puedan adaptar (por ejemplo, ajustar) a una amplia variedad de tareas downstream.
  • Operaciones de modelos fundamentales (FMOP)
    • Las FMOps amplían las capacidades de las MLOps y se enfocan en la producción eficiente de los FM previamente entrenados (entrenados desde cero) o personalizados (ajustados).
  • SDK de componentes de canalización de Google Cloud
    • El SDK de los componentes de canalización de Google Cloud (GCPC) proporciona un conjunto de componentes precompilados de Kubeflow Pipelines que son de calidad de producción, eficaces y fáciles de usar. Puedes usar los componentes de canalización de Google Cloud para definir y ejecutar canalizaciones de AA en Vertex AI Pipelines y otros backends de ejecución de canalizaciones de AA de acuerdo con Kubeflow Pipelines. Para obtener más información, consulta Introducción a los componentes de canalización de Google Cloud.
  • Sistema de módem integrado de Google (GEMS)
    • GEMS es un framework de software integrado que se orienta a los módems y un conjunto complementario de flujos de trabajo e infraestructura de desarrollo. La visión principal de GEMS es proporcionar código de sistema de módem de alta calidad con gran capacidad de reutilización en muchos dispositivos de Google que contienen módems. Para lograr esta visión amplia, GEMS proporciona un entorno integral para los desarrolladores, que incluye los principales componentes básicos que se muestran a continuación.
  • degradado
    • Vector de las derivadas parciales con respecto a todas las variables independientes. En el aprendizaje automático, el gradiente es el vector de las derivadas parciales de la función del modelo. El gradiente apunta en la dirección del aumento más empinado.
  • gráfico
    • En el contexto de Vertex AI, un grafo hace referencia a una estructura de datos que representa las relaciones entre las entidades y sus atributos. Se usa para modelar y analizar datos complejos, como gráficos de conocimiento, redes sociales y procesos comerciales. Para obtener más información, consulta Introducción a Vertex ML Metadata.
  • verdad fundamental (GT)
    • La verdad fundamental es un término que se usa en varios campos para referirse a la verdad absoluta de algún problema de decisión o medición, a diferencia de la estimación de algún sistema. En el aprendizaje automático, el término "verdad fundamental" se refiere al conjunto de entrenamiento para las técnicas de aprendizaje supervisado.
  • heurística
    • Es una solución simple y de rápida implementación para un problema. Por ejemplo, "Con una heurística, conseguimos un 86% de exactitud. Cuando cambiamos a una red neuronal profunda, la exactitud llegó al 98%".
  • Capa oculta
    • Capa en una red neuronal entre la capa de entrada (los atributos) y la capa de salida (la inferencia). Cada capa oculta consta de una o más neuronas. Una red neuronal profunda contiene más de una capa oculta.
  • histogram
    • Una presentación gráfica de la variación en un conjunto de datos mediante barras. En un histograma, se visualizan los patrones que son difíciles de detectar en una tabla simple de números.
  • hiperparámetro
    • Un hiperparámetro es una variable que rige el proceso de entrenamiento de un modelo de aprendizaje automático. Estas variables pueden incluir tasas de aprendizaje, valores de momentum en el optimizador y la cantidad de unidades en la última capa oculta de un modelo. Para obtener más información, consulta Descripción general del ajuste de hiperparámetros.
  • Ajuste de hiperparámetros
    • El ajuste de hiperparámetros en Vertex AI implica ejecutar varias pruebas de una aplicación de entrenamiento con diferentes valores para los hiperparámetros elegidos, establecidos dentro de los límites especificados. El objetivo es optimizar la configuración de los hiperparámetros para maximizar la exactitud predictiva del modelo. Para obtener más información, consulta Descripción general del ajuste de hiperparámetros.
  • Permisos de Identity and Access Management (IAM)
    • Los permisos de Identity and Access Management (IAM) son capacidades detalladas específicas que definen quién puede hacer qué en los recursos de Google Cloud. Se asignan a principales (como usuarios, grupos o cuentas de servicio) a través de roles, lo que permite un control preciso sobre el acceso a los servicios y los datos dentro de un proyecto u organización de Google Cloud. Para obtener más información, consulta Control de acceso con IAM.
  • reconocimiento de imágenes
    • El reconocimiento de imágenes es el proceso de clasificar objetos, patrones o conceptos en una imagen. También se conoce como clasificación de imágenes. El reconocimiento de imágenes es un subcampo del aprendizaje automático y la visión artificial.
  • index
    • Es una colección de vectores implementados juntos para la búsqueda de similitud. Los vectores pueden agregarse a un índice o quitarse de este. Las consultas de búsqueda de similitud se emiten a un índice específico y buscarán en los vectores de ese índice.
  • inferencia
    • En el contexto de la plataforma de Vertex AI, la inferencia se refiere al proceso de ejecutar datos a través de un modelo de aprendizaje automático para calcular un resultado, como una sola puntuación numérica. Este proceso también se conoce como “poner en funcionamiento un modelo de aprendizaje automático” o “poner en producción un modelo de aprendizaje automático”. La inferencia es un paso importante en el flujo de trabajo del aprendizaje automático, ya que permite que los modelos se usen para hacer inferencias sobre datos nuevos. En Vertex AI, la inferencia se puede realizar de varias maneras, incluidas la inferencia por lotes y la inferencia en línea. La inferencia por lotes implica ejecutar un grupo de solicitudes de inferencia y generar los resultados en un solo archivo, mientras que la inferencia en línea permite realizar inferencias en tiempo real sobre puntos de datos individuales.
  • recuperación de información (IR)
    • La recuperación de información (RI) es un componente clave de Vertex AI Search. Es el proceso de encontrar y recuperar información pertinente de una gran colección de datos. En el contexto de Vertex AI, la RI se usa para recuperar documentos de un corpus según la búsqueda de un usuario. Vertex AI ofrece un conjunto de APIs para ayudarte a compilar tus propias aplicaciones de Generación mejorada por recuperación (RAG) o tu propio motor de búsqueda. Para obtener más información, consulta Cómo usar Vertex AI Search como backend de recuperación con RAG Engine.
  • Infraestructura como código (IaC)
    • Infraestructura como código Es un enfoque para administrar la infraestructura de TI en el que los equipos pueden administrar y aprovisionar servicios a través del código. Con la IaC, se crean archivos de configuración que contienen las especificaciones de la infraestructura, lo que facilita la creación y edición de la infraestructura a gran escala.
  • Tasa de aprendizaje (tamaño del paso)
    • La tasa de aprendizaje es un hiperparámetro que se usa para ajustar el proceso de optimización de un modelo de aprendizaje automático. Determina el tamaño del paso en el que el modelo actualiza sus pesos durante el entrenamiento. Una tasa de aprendizaje más alta puede generar una convergencia más rápida, pero puede provocar inestabilidad o sobreajuste. Por el contrario, una tasa de aprendizaje más baja puede generar una convergencia más lenta, pero puede ayudar a evitar el sobreajuste. Para obtener más información, consulta Descripción general del ajuste de hiperparámetros.
  • pérdida (costo)
    • Durante el entrenamiento de un modelo supervisado, es una medida de qué tan lejos está la inferencia de un modelo de su etiqueta. Una función de pérdida calcula la pérdida.
  • Machine Learning Metadata
    • ML Metadata (MLMD) es una biblioteca para registrar y recuperar metadatos asociados con flujos de trabajo de desarrolladores de AA y científicos de datos. MLMD es una parte integral de TensorFlow Extended (TFX), pero está diseñada para que pueda usarse de forma independiente. Como parte de la plataforma TFX más amplia, la mayoría de los usuarios solo interactúa con MLMD cuando examina los resultados de los componentes de la canalización, por ejemplo, en notebooks o en TensorBoard.
  • conjunto de datos administrado
    • Un objeto de conjunto de datos creado y alojado por Vertex AI.
  • registro manual
    • Proceso de agregar código de forma explícita (por ejemplo, con el SDK de Vertex AI para Python) a una secuencia de comandos de entrenamiento para hacer un seguimiento de los parámetros, las métricas y los artefactos personalizados, y registrarlos en una ejecución de Vertex AI Experiments. Para obtener más información, consulta la descripción general de Monitoring y Logging.
  • ajuste manual
    • El ajuste de escala manual hace referencia al proceso de ajustar de forma explícita y deliberada la cantidad de recursos de procesamiento (como máquinas virtuales, contenedores o servidores) asignados a una aplicación o servicio por un usuario o administrador. A diferencia del ajuste de escala automático, que ajusta los recursos automáticamente según la demanda, el ajuste de escala manual requiere intervención directa para aprovisionar o desaprovisionar recursos, lo que proporciona un control preciso, pero carece de la capacidad de respuesta dinámica de las soluciones automatizadas. Para obtener más información, consulta Cómo escalar clústeres de Ray en Vertex AI: ajuste de escala manual.
  • Recursos de metadatos
    • Vertex ML Metadata expone un modelo de datos similar a un grafo para representar metadatos que se producen y consumen de los flujos de trabajo del AA. Los conceptos principales son los artefactos, las ejecuciones, los eventos y los contextos.
  • MetadataSchema
    • Un MetadataSchema describe el esquema para tipos específicos de artefactos, ejecuciones o contextos. Los MetadataSchemas se usan para validar los pares clave-valor durante la creación de los recursos de metadatos correspondientes. La validación del esquema solo se realiza en los campos que coinciden entre el recurso y el MetadataSchema. Los esquemas de tipo se representan con objetos de esquema de OpenAPI, que deben describirse mediante YAML.
  • MetadataStore
    • Un MetadataStore es el contenedor de nivel superior para los recursos de metadatos. MetadataStore está regionalizado y se asocia con un proyecto específico de Google Cloud. Por lo general, una organización usa un MetadataStore compartido para los recursos de metadatos dentro de cada proyecto.
  • Canalizaciones de AA
    • Las canalizaciones del AA son flujos de trabajo del AA portátiles y escalables que se basan en contenedores.
  • model
    • Cualquier modelo previamente entrenado o no. En general, cualquier construcción matemática que procese datos de entrada y devuelva un resultado. Dicho de otra manera, un modelo es el conjunto de parámetros y la estructura necesarios para que un sistema realice inferencias.
  • síntesis de modelos (síntesis de conocimiento, modelos profesor-alumno)
    • La destilación de modelos es una técnica que permite que un modelo estudiante más pequeño aprenda de un modelo profesor más grande. El modelo estudiante se entrena para imitar el resultado del modelo profesor y, luego, se puede usar para generar datos nuevos o realizar inferencias. La destilación de modelos se suele usar para que los modelos grandes sean más eficientes o más accesibles para los dispositivos con recursos limitados. También se puede usar para mejorar la generalización de los modelos, ya que reduce el sobreajuste.
  • Evaluación del modelo
    • Vertex AI Model Evaluation es un servicio administrado dentro de la plataforma Vertex AI de Google Cloud que ayuda al usuario a evaluar el rendimiento y la calidad de sus modelos de aprendizaje automático. Proporciona herramientas para generar varias métricas y visualizaciones de evaluación, lo que permite al usuario comprender el rendimiento de sus modelos, identificar posibles sesgos y tomar decisiones fundamentadas sobre la implementación y la mejora de los modelos. Para obtener más información, consulta Evaluación de modelos en Vertex AI.
  • Model Monitoring
    • Vertex AI Model Monitoring es un servicio que evalúa de forma continua el rendimiento de los modelos implementados. Para ello, detecta el sesgo y la desviación de los atributos en las solicitudes de predicción, lo que ayuda a mantener la calidad del modelo a lo largo del tiempo. Para obtener más información, consulta Introducción a Vertex AI Model Monitoring.
  • nombre del recurso de modelo
    • El nombre del recurso para un model es el siguiente: projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>. Puedes encontrar el ID del modelo en la consola de Cloud, en la página Model Registry.
  • Sistema de archivos de red (NFS)
  • almacén sin conexión
    • El almacenamiento sin conexión es una instalación de almacenamiento que almacena datos de atributos históricos y recientes, que por lo general se usan para entrenar modelos de AA. Un almacén sin conexión también contiene los valores de atributos más recientes, que puedes entregar para inferencias en línea.
  • Inferencia en línea
    • Obtener inferencias sobre instancias individuales de forma síncrona Para obtener más información, consulta Inferencias en línea.
  • Predicción en línea
    • Obtiene predicciones sobre instancias individuales de forma síncrona. Para obtener más información, consulta Predicción en línea.
  • almacén en línea
    • En la administración de atributos, un almacén en línea es un centro de almacenamiento de los valores de atributos más recientes que se entregarán para inferencias en línea.
  • parámetro
    • Los parámetros son valores de entrada con clave que configuran una ejecución, regulan su comportamiento y afectan sus resultados. Algunos ejemplos son la tasa de aprendizaje, la tasa de abandono y la cantidad de pasos de entrenamiento.
  • recurso persistente
    • Es un tipo de recurso de procesamiento de Vertex AI, como un clúster de Ray, que permanece asignado y disponible hasta que se borra de forma explícita, lo que resulta beneficioso para el desarrollo iterativo y reduce la sobrecarga de inicio entre los trabajos. Para obtener más información, consulta Cómo obtener información sobre un recurso persistente.
  • pipeline
    • Las canalizaciones del AA son flujos de trabajo del AA portátiles y escalables que se basan en contenedores. Para obtener más información, consulta Introducción a Vertex AI Pipelines.
  • componente de canalización
    • Un conjunto de código autónomo que realiza un paso en el flujo de trabajo de una canalización, como el procesamiento previo de los datos, la transformación de datos y el entrenamiento de un modelo.
  • trabajo de canalización
    • Un trabajo de canalización o una ejecución de canalización corresponden al recurso PipelineJob en la API de Vertex AI. Es una instancia de ejecución de la definición de tu canalización de AA, que se define como un conjunto de tareas de AA interconectadas por dependencias de entrada y salida.
  • ejecución de canalización
    • Uno o más PipelineJobs de Vertex se pueden asociar con un experimento en el que cada PipelineJob se represente como una sola ejecución. En este contexto, los parámetros de la ejecución se infieren mediante los parámetros del PipelineJob. Las métricas se infieren a partir de los artefactos system.Metric que produce ese PipelineJob. Los artefactos de la ejecución se infieren de los artefactos que produce ese PipelineJob.
  • plantilla de canalización
    • Una definición de flujo de trabajo del AA que un solo usuario o varios pueden volver a usar para crear varias ejecuciones de canalizaciones.
  • clase positiva
    • "Clase positiva" hace referencia al resultado o la categoría que se usa para entrenar un modelo con el objetivo de predecir. Por ejemplo, si un modelo predice si un cliente comprará una chaqueta, la clase positiva sería "el cliente compra una chaqueta". Del mismo modo, en un modelo que predice el registro de clientes para un depósito a plazo fijo, la clase positiva sería "el cliente se registró". Lo opuesto es la "clase negativa".
  • Contenedor compilado previamente
  • Acceso privado a Google (PGA)
    • El Acceso privado a Google permite que las instancias de VM que solo tienen direcciones IP internas (privadas) (no direcciones IP externas) alcancen las direcciones IP públicas de los servicios y las APIs de Google. Para obtener más información, consulta Configura el Acceso privado a Google.
  • acceso privado a servicios
    • El acceso privado a servicios es una conexión privada entre tu red de nube privada virtual (VPC) y las redes que pertenecen a Google o a proveedores de servicios externos. Permite que las instancias de máquina virtual (VM) en tu red de VPC se comuniquen con estos servicios a través de direcciones IP internas, lo que evita la exposición a la Internet pública. Para obtener más información, consulta Acceso privado a servicios.
  • Private Service Connect (PSC)
    • Private Service Connect es una tecnología que permite a los clientes de Compute Engine asignar IPs privadas en su red a otra red de VPC o a las APIs de Google. Para obtener más información, consulta Private Service Connect.
  • Interfaz de Private Service Connect (PSC-I)
    • La interfaz de Private Service Connect proporciona una forma para que los productores inicien conexiones a cualquier recurso de red en la VPC del consumidor de forma privada.
  • cuantización
    • La cuantización es una técnica de optimización de modelos que se usa para reducir la precisión de los números que se usan para representar los parámetros de un modelo. Esto puede generar modelos más pequeños, menor consumo de energía y menor latencia de inferencia.
  • Bosque aleatorio
    • Random Forest es un algoritmo de aprendizaje automático que se usa tanto para la clasificación como para la regresión. No es un modelo de IA generativa en sí, sino un componente que se puede usar dentro de un sistema de IA generativa más grande. Un bosque aleatorio consta de varios árboles de decisión, y su inferencia es una agregación de las inferencias de estos árboles individuales. Por ejemplo, en una tarea de clasificación, cada árbol "vota" por una clase, y la inferencia final es la clase con más votos. Para obtener más información, consulta Bosque de decisión.
  • API de cliente de Ray (Ray Client)
    • El cliente de Ray es una API que permite que una secuencia de comandos de Python local o una shell interactiva (como un notebook de Jupyter) se conecten con un clúster de Ray remoto y puedan interactuar con él. Básicamente, el cliente de Ray permite a los usuarios desarrollar y ejecutar código de Ray como si se ejecutara de forma local, mientras que, en realidad, aprovecha la potencia de procesamiento distribuida de un clúster remoto. Para obtener más información, consulta la descripción general de Ray en Vertex AI.
  • Clúster de Ray en Vertex AI
    • Un clúster de Ray en Vertex AI es un clúster administrado de nodos de procesamiento que se puede usar para ejecutar aplicaciones de aprendizaje automático (AA) y Python distribuidas. Proporciona la infraestructura para realizar procesamiento distribuido y procesamiento paralelo en tu flujo de trabajo de AA. Los clústeres de Ray están integrados en Vertex AI para garantizar la disponibilidad de capacidad para las cargas de trabajo de AA críticas o durante las temporadas de mayor demanda. A diferencia de los trabajos personalizados, en los que el servicio de entrenamiento libera el recurso después de que se completa el trabajo, los clústeres de Ray permanecen disponibles hasta que se borran. Para obtener más información, consulta la descripción general de Ray en Vertex AI.
  • Ray on Vertex AI (RoV)
    • Ray en Vertex AI está diseñado para que puedas usar el mismo código de Ray de código abierto para escribir programas y desarrollar aplicaciones en Vertex AI con cambios mínimos. Para obtener más información, consulta la descripción general de Ray en Vertex AI.
  • SDK de Ray en Vertex AI para Python
    • El SDK de Ray en Vertex AI para Python es una versión del SDK de Vertex AI para Python que incluye la funcionalidad del cliente de Ray, el conector Ray BigQuery, la administración de clústeres de Ray en Vertex AI y las inferencias en Vertex AI. Si deseas obtener más información, consulta Introducción al SDK de Vertex AI para Python.
  • recall
    • Es el porcentaje de vecinos más cercanos que muestra el índice. Por ejemplo, si una consulta de vecino más cercano para 20 vecinos más cercanos mostró 19 de los vecinos más cercanos de “verdad fundamental”, la recuperación será 19/20*100 = 95%.
  • Servidor de reducción
    • Reduction Server es una función o un componente disponible en Vertex AI, diseñado específicamente para optimizar el entrenamiento distribuido de GPU. Reduction Server funciona como un algoritmo de reducción total que ayuda a aumentar la capacidad de procesamiento y reducir la latencia del entrenamiento de modelos de aprendizaje automático a gran escala. Para obtener más información, consulta Reduce el tiempo de entrenamiento con el Reduction Server.
  • regularización
    • La regularización es una técnica que se usa para evitar el sobreajuste en los modelos de aprendizaje automático. El sobreajuste ocurre cuando un modelo aprende los datos de entrenamiento demasiado bien, lo que genera un rendimiento deficiente con datos no vistos. Un tipo específico de regularización que se menciona es la detención anticipada, en la que el entrenamiento se detiene antes de que la pérdida en un conjunto de datos de validación comience a aumentar, lo que indica una disminución en el rendimiento de la generalización. Para obtener más información, consulta Sobreajuste: Regularización L2.
  • restricciones
    • La funcionalidad para “restringir” búsquedas a un subconjunto del índice mediante reglas booleanas. La restricción también se conoce como “filtrado”. Con Vector Search, puedes usar el filtrado numérico y el filtrado de atributos de texto.
  • cuenta de servicio
    • Las cuentas de servicio son cuentas especiales de Google Cloud que usan las aplicaciones o las máquinas virtuales para realizar llamadas autorizadas a las APIs de los servicios de Google Cloud. A diferencia de las cuentas de usuario, no están vinculadas a una persona física, sino que actúan como una identidad para tu código, lo que permite el acceso seguro y programático a los recursos sin necesidad de credenciales humanas. Para obtener más información, consulta Descripción general de las cuentas de servicio.
  • agente de servicio
    • Un agente de servicio es una cuenta de servicio administrada por Google. Se utiliza cuando un servicio requiere acceso a recursos creados por otro servicio. Por ejemplo, cuando los servicios de Dataflow o Dataproc necesitan crear instancias durante el tiempo de ejecución o cuando una Cloud Function quiere usar Key Management Service (KMS) para protegerse. Google Cloud crea automáticamente los agentes de servicio cuando un servicio los requiere. Por lo general, se usan para administrar el acceso a los recursos y realizar diversas tareas en nombre del servicio. Para obtener más información, consulta Agentes de servicio.
  • métricas resumidas
    • Las métricas resumidas son un solo valor para cada clave de métrica en una ejecución de experimento. Por ejemplo, la precisión de la prueba de un experimento es la exactitud calculada en un conjunto de datos de prueba al final del entrenamiento, que puede capturarse como una métrica resumida de valor único.
  • TensorBoard
    • TensorBoard es un conjunto de aplicaciones web para visualizar y comprender las ejecuciones y modelos de TensorFlow. Para obtener más información, consulta TensorBoard.
  • Instancia de TensorBoard
    • Una instancia de TensorBoard es un recurso regionalizado que almacena los experimentos de Vertex AI TensorBoard asociados a un proyecto. Puedes crear varias instancias de Vertex TensorBoard en un proyecto si, por ejemplo, deseas usar varias instancias habilitadas con CMEK. Esto es lo mismo que el recurso TensorBoard en la API.
  • Nombre del recurso de TensorBoard
    • Un nombre de recurso de TensorBoard se usa para identificar por completo una instancia de Vertex AI TensorBoard. El formato es el siguiente: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
  • TensorFlow Extended (TFX)
    • TensorFlow Extended (TFX) es una plataforma de extremo a extremo para implementar canalizaciones de aprendizaje automático de producción basadas en la plataforma de TensorFlow.
  • Contenedor de TensorFlow Serving
    • Es una imagen de contenedor especializada diseñada para entregar de manera eficiente modelos de TensorFlow para inferencias, que se usa cuando se implementan modelos tabulares personalizados con Vertex AI Model Monitoring.
  • compensación de tiempo
    • La compensación horaria está relacionada con el comienzo de un video.
  • segmento de tiempo
    • Un segmento de tiempo se identifica mediante compensaciones horarias iniciales y finales.
  • métricas de series temporales
    • Las métricas de series temporales son valores de métricas longitudinales, en los que cada valor representa un paso en la parte de la rutina de entrenamiento de una ejecución. Las métricas de series temporales se almacenan en Vertex AI TensorBoard. Vertex AI Experiments almacena una referencia al recurso de Vertex TensorBoard.
  • token
    • Un token en un modelo de lenguaje es la unidad atómica con la que el modelo entrena para realizar inferencias, es decir, palabras, morfemas y caracteres. En dominios fuera de los modelos de lenguaje, los tokens pueden representar otros tipos de unidades atómicas. Por ejemplo, en la visión artificial, un token puede ser un subconjunto de una imagen. Para obtener más información, consulta Enumera y cuenta tokens.
  • clúster de entrenamiento
    • Un clúster de entrenamiento es un grupo de recursos de procesamiento interconectados (como máquinas virtuales, GPUs y almacenamiento asociado) que se configuran específicamente y se dedican a ejecutar cargas de trabajo de entrenamiento de modelos de aprendizaje automático de forma distribuida. Estos clústeres están diseñados para proporcionar la potencia de procesamiento y la escalabilidad necesarias para entrenar modelos complejos de manera eficiente, a menudo aprovechando el procesamiento paralelo en varios nodos. Para obtener más información, consulta Estructura del clúster de entrenamiento.
  • conjunto de entrenamiento
    • En Vertex AI, el conjunto de entrenamiento es la mayor parte de tus datos (por lo general, el 80%) que se usa para entrenar un modelo de aprendizaje automático. El modelo aprende los patrones y las relaciones dentro de estos datos para realizar inferencias. El conjunto de entrenamiento es distinto de los conjuntos de validación y de prueba, que se usan para evaluar el rendimiento del modelo durante y después del entrenamiento.
  • trayectoria
    • Una "trayectoria" se refiere a una secuencia de pasos o acciones que realiza un agente o un modelo. Se suele usar en la evaluación de modelos generativos, en la que se evalúa la capacidad del modelo para generar texto, código o algún otro tipo de contenido. Existen varios tipos de métricas de trayectoria que se pueden usar para evaluar los modelos generativos, como la concordancia exacta de la trayectoria, la concordancia en orden de la trayectoria, la concordancia en cualquier orden de la trayectoria y la precisión de la trayectoria. Estas métricas miden la similitud entre el resultado del modelo y un conjunto de resultados de referencia generados por personas.
  • Transformer
    • Un "Transformer" es una arquitectura de red neuronal que subyace en la mayoría de los modelos generativos de vanguardia. Se usa en varias aplicaciones de modelos de lenguaje, incluida la traducción. Los transformadores constan de un codificador y un decodificador. El codificador convierte el texto de entrada en una representación intermedia, y el decodificador convierte esta representación en una salida útil. Utilizan un mecanismo de autoatención para recopilar contexto de las palabras que rodean a la palabra que se está procesando. Si bien entrenar un Transformer requiere muchos recursos, ajustar un Transformer previamente entrenado para aplicaciones específicas es más eficiente.
  • verdadero positivo
    • Un "verdadero positivo" se refiere a una inferencia en la que el modelo identifica correctamente una clase positiva. Por ejemplo, si se entrena un modelo para identificar a los clientes que comprarán una chaqueta, un verdadero positivo sería predecir correctamente que un cliente realizará esa compra.
  • artefactos no administrados
    • Un artefacto que existe fuera del contexto de Vertex AI.
  • vector
    • Un vector hace referencia a una representación numérica de texto, imágenes o videos que captura las relaciones entre las entradas. Los modelos de aprendizaje automático son adecuados para crear embeddings mediante la identificación de patrones en grandes conjuntos de datos. Las aplicaciones pueden usar incorporaciones para procesar y producir lenguaje, y reconocer significados complejos y relaciones semánticas específicas en el contenido. Para obtener más información, consulta la descripción general de las APIs de Embeddings.
  • Tipo de datos de Vertex AI
    • Los tipos de datos de Vertex AI son “image”, “text”, “tabular” y “video”.
  • Vertex AI Experiments
    • Vertex AI Experiments permite a los usuarios hacer un seguimiento de lo siguiente: 1. Pasos de una ejecución de experimento (por ejemplo, procesamiento previo y entrenamiento) 2. Entradas (por ejemplo, algoritmo, parámetros y conjuntos de datos) 3. Resultados de esos pasos (por ejemplo, modelos, puntos de control y métricas)
  • Vertex AI Model Registry
    • Vertex AI Model Registry es un repositorio central en el que puedes administrar el ciclo de vida de tus modelos de AA. En Vertex AI Model Registry, tienes una descripción general de tus modelos para que puedas organizar mejor, hacer un seguimiento y entrenar versiones nuevas. Cuando tengas una versión del modelo que desees implementar, puedes asignarla a un extremo directamente desde el registro o, si usas alias, implementar modelos en un extremo. Para obtener más información, consulta Introducción a Vertex AI Model Registry.
  • SDK de Vertex AI para Python
    • El SDK de Vertex AI para Python proporciona una funcionalidad similar a la biblioteca cliente de Python de Vertex AI, excepto que el SDK es de mayor nivel y menos detallado.
  • Vertex AI TensorBoard
    • Vertex AI TensorBoard es un servicio administrado y escalable en Google Cloud que permite a los científicos de datos y a los ingenieros de AA visualizar sus experimentos de aprendizaje automático, depurar el entrenamiento de modelos y hacer un seguimiento de las métricas de rendimiento con la interfaz familiar de TensorBoard de código abierto. Se integra perfectamente con Vertex AI Training y otros servicios, proporciona almacenamiento persistente para los datos de experimentos y permite el análisis colaborativo del desarrollo de modelos. Para obtener más información, consulta Introducción a Vertex AI TensorBoard.
  • Experimento de Vertex AI TensorBoard
    • Los datos asociados con un experimento se pueden ver en la aplicación web de TensorBoard (escalares, histogramas, distribuciones, etc.). Los escalares de serie temporal se pueden ver en la consola de Google Cloud. Para obtener más información, consulta Compara y analiza ejecuciones.
  • Vertex AI Feature Store
    • Un servicio administrado para almacenar, entregar y administrar atributos de aprendizaje automático. Para obtener más información, consulta Acerca de Vertex AI Feature Store.
  • Vertex ML Metadata
    • Es un sistema para hacer un seguimiento de los metadatos de los flujos de trabajo de aprendizaje automático y analizarlos. Para obtener más información, consulta Introducción a Vertex ML Metadata.
  • Vertex AI Vizier
  • Vertex AI Workbench
    • Vertex AI Workbench es un entorno de desarrollo unificado basado en notebooks de Jupyter que admite todo el flujo de trabajo de la ciencia de datos, desde la exploración y el análisis de datos hasta el desarrollo, el entrenamiento y la implementación de modelos. Vertex AI Workbench proporciona una infraestructura administrada y escalable con integraciones integradas en otros servicios de Google Cloud, como BigQuery y Cloud Storage, lo que permite a los científicos de datos realizar sus tareas de aprendizaje automático de manera eficiente sin administrar la infraestructura subyacente. Para obtener más información, consulta Introducción a Vertex AI Workbench.
  • segmento de video
    • Un segmento de video se identifica mediante la compensación de tiempo inicial y final de un video.
  • Nube privada virtual (VPC)
    • La nube privada virtual es un grupo configurable de recursos de procesamiento compartidos según demanda que se asigna en un entorno de nube pública y proporciona un nivel de aislamiento entre las diferentes organizaciones que usan esos recursos.
  • Controles del servicio de VPC
    • Los Controles del servicio de VPC son una función de seguridad de Google Cloud que permite a las organizaciones crear perímetros seguros alrededor de sus datos y recursos sensibles para mitigar el riesgo de robo de datos. Los Controles del servicio de VPC logran esto restringiendo el acceso a los servicios y datos especificados de Google Cloud desde redes no autorizadas y evitando que los datos se muevan fuera de estos perímetros definidos, lo que proporciona una defensa sólida contra las amenazas internas y la filtración accidental de datos. Para obtener más información, consulta Controles del servicio de VPC.
  • nodo trabajador
    • Un nodo trabajador hace referencia a una máquina o instancia computacional individual dentro de un clúster que es responsable de ejecutar tareas o realizar trabajo. En sistemas como los clústeres de Kubernetes o Ray, los nodos son las unidades fundamentales de procesamiento.
  • grupo de trabajadores
    • Son los componentes de un clúster de Ray que ejecutan tareas distribuidas. Los grupos de trabajadores se pueden configurar con tipos de máquinas específicos y admiten el ajuste de escala automático y el manual. Para obtener más información, consulta Estructura del clúster de entrenamiento.