Glossário da Vertex AI para IA preditiva

  • conjunto de anotações
    • Um conjunto de anotações contém os rótulos associados aos arquivos de origem enviados em um conjunto de dados. Um conjunto de anotações é associado a um tipo de dados e um objetivo (por exemplo, vídeo/classificação).
  • Endpoint da API
    • Endpoints de API é um aspecto de configuração de serviço que especifica os endereços de rede, também conhecidos como endpoints de serviço (por exemplo, aiplatform.googleapis.com).
  • Application Default Credentials (ADC)
    • As Application Default Credentials (ADC) oferecem uma maneira simples de receber credenciais de autorização para uso na chamada de APIs do Google. Eles são ideais quando a chamada precisa ter o mesmo nível de identidade e autorização para o aplicativo, seja qual for o usuário. Essa é a abordagem recomendada para autorizar chamadas às APIs do Google Cloud, principalmente ao criar um aplicativo implantado em máquinas virtuais do Google App Engine (GAE) ou do Compute Engine. Para mais informações, consulte Como o Application Default Credentials funciona.
  • Vizinho mais próximo aproximado (ANN, na sigla em inglês)
    • O serviço do vizinho mais próximo aproximado (ANN, na sigla em inglês) é uma solução de alta escala e baixa latência para encontrar vetores semelhantes (ou, mais especificamente, "embeddings") para um corpus grande. Para mais informações, consulte Como usar a pesquisa de vetor para correspondência semântica.
  • artifact
    • Um artefato é uma entidade distinta ou parte dos dados produzidos e consumidos por um fluxo de trabalho de machine learning. Exemplos de artefatos incluem conjuntos de dados, modelos, arquivos de entrada e registros de treinamento.
  • Artifact Registry
    • O Artifact Registry é um serviço universal de gerenciamento de artefatos. É o serviço recomendado para gerenciar contêineres e outros artefatos no Google Cloud. Para saber mais, consulte Artifact Registry.
  • Inteligência artificial (IA)
    • A inteligência artificial (IA) é o estudo e o design de máquinas que parecem "inteligentes", ou seja, que imitam funções humanas ou intelectuais, como movimento mecânico, raciocínio ou resolução de problemas. Um dos subcampos mais conhecidos da IA é o aprendizado de máquina, que usa uma abordagem estatística e orientada por dados para criar IA. No entanto, algumas pessoas usam esses dois termos como sinônimos.
  • authentication
    • O processo de verificação da identidade de um cliente (que pode ser um usuário ou outro processo) para ter acesso a um sistema protegido. Um cliente que provou sua identidade é considerado autenticado. Para mais informações, consulte Métodos de autenticação no Google.
  • Avaliação lado a lado automática (AutoSxS)
    • O AutoSxS é uma ferramenta de avaliação assistida por modelo que compara dois modelos de linguagem grandes (LLMs) lado a lado. Ele pode ser usado para avaliar o desempenho de modelos de IA generativa no Vertex AI Model Registry ou inferências pré-geradas. O AutoSxS usa um avaliador automático para decidir qual modelo dá a melhor resposta a um comando. A AutoSxS está disponível sob demanda e avalia modelos de linguagem com desempenho comparável ao de avaliadores humanos.
  • AutoML
  • Geração automática de registros
    • O registro automático é um recurso em plataformas e bibliotecas de aprendizado de máquina que registra automaticamente métricas, parâmetros e artefatos importantes durante o processo treinamento de modelo sem exigir instrumentação explícita de código. Ele simplifica o rastreamento de experimentos capturando automaticamente informações como hiperparâmetros, métricas de avaliação (por exemplo, acurácia, perda) e checkpoints de modelos, permitindo que os desenvolvedores comparem e reproduzam experimentos com facilidade.
  • autorater
    • Um avaliador automático é um modelo de linguagem que avalia a qualidade das respostas do modelo com base em um comando de inferência original. Ele é usado no pipeline AutoSxS para comparar as inferências de dois modelos e determinar qual deles teve o melhor desempenho. Para mais informações, consulte O avaliador automático.
  • escalonamento automático
    • O escalonamento automático é a capacidade de um recurso de computação, como um pool de trabalhadores de um cluster do Ray, ajustar automaticamente o número de nós para cima ou para baixo com base nas demandas de carga de trabalho, otimizando a utilização de recursos e o custo. Para mais informações, consulte Escalonar clusters do Ray na Vertex AI: escalonamento automático.
  • valor de referência
    • Um modelo usado como ponto de referência para comparar a performance de outro modelo (normalmente, mais complexo). Por exemplo, um modelo de regressão logística pode servir como uma boa base para um modelo de aprendizado profundo. Para um problema específico, o valor de referência ajuda os desenvolvedores de modelos a quantificar o desempenho mínimo esperado que um novo modelo precisa alcançar para ser útil. Para mais informações, consulte Conjuntos de dados de base e de destino.
  • lote
    • O conjunto de exemplos usado em uma iteração de treinamento. O tamanho do lote determina o número de exemplos em um lote.
  • Tamanho do lote
    • O número de exemplos em um lote. Por exemplo, o tamanho do lote do SGD é 1, enquanto o tamanho do lote de um minilote geralmente fica entre 10 e 1.000. O tamanho do lote geralmente é fixo durante o treinamento e a inferência. No entanto, o TensorFlow permite tamanhos de lote dinâmicos.
  • inferência em lote
  • vício
    • 1. Estereótipos, preconceito ou favoritismo em relação a algumas coisas, pessoas ou grupos. Esses vieses podem afetar a coleta e a interpretação de dados, o design de um sistema e a forma como os usuários interagem com ele. 2. Erro sistemático introduzido por um procedimento de amostragem ou de relatório.
  • bidirecional
    • Um termo usado para descrever um sistema que avalia o texto que precede e segue uma seção de texto de destino. Em contraste, um sistema unidirecional avalia apenas o texto que precede uma seção de texto de destino.
  • Representações de codificadores bidirecionais de transformadores (BERT)
    • O BERT é um método de representação de linguagem pré-treinamento. Isso significa que treinamos um modelo de "compreensão de linguagem" de uso geral em um grande corpus de texto (como a Wikipédia) e usamos esse modelo para tarefas de PLN downstream que nos interessam (como responder a perguntas). O BERT supera os métodos anteriores porque é o primeiro sistema não supervisionado e profundamente bidirecional para pré-treinamento de PLN.
  • BigQuery
    • O BigQuery é um data warehouse empresarial altamente escalonável, sem servidor e totalmente gerenciado fornecido pelo Google Cloud. Ele foi projetado para analisar conjuntos de dados enormes usando consultas SQL em velocidades incrivelmente altas. O BigQuery permite Business Intelligence e análises eficientes sem exigir que os usuários gerenciem nenhuma infraestrutura. Para mais informações, consulte Do data warehouse à plataforma de IA e dados autônomos.
  • BigQuery ML
    • O BigQuery ML é um recurso do data warehouse BigQuery do Google Cloud que permite que analistas e cientistas de dados criem, treinem e implantem modelos de machine learning diretamente no BigQuery usando consultas SQL padrão. Isso elimina a necessidade de mover dados para plataformas de ML separadas, simplificando o fluxo de trabalho de machine learning e tornando o ML mais acessível aos usuários de SQL. Para mais informações, consulte Criar modelos de machine learning no BigQuery ML.
  • Bigtable
    • Um serviço de banco de dados NoSQL totalmente gerenciado, também recomendado como uma opção de armazenamento para dados de treinamento ao usar a Vertex AI. Para mais informações, consulte Visão geral do Bigtable.
  • Bilingual Evaluation Understudy (BLEU)
    • Uma medida popular para avaliar a qualidade de um algoritmo de tradução automática comparando a saída dele com uma ou mais traduções humanas.
  • caixa delimitadora
    • Uma caixa delimitadora para um objeto no frame de vídeo pode ser especificada de duas maneiras: (i) usando dois vértices que consistem em um conjunto de coordenadas x,y se eles forem pontos diagonalmente opostos do retângulo. Por exemplo: x_relative_min, y_relative_min,,,x_relative_max,y_relative_max,, (ii) usar todos os quatro vértices. Para mais informações, consulte Preparar dados do vídeo.
  • bucket
    • Pasta de nível superior do Cloud Storage. Os nomes de buckets precisam ser exclusivos para todos os usuários do Cloud Storage. Os buckets contêm arquivos. Para mais informações, consulte Visão geral do produto Cloud Storage.
  • chat
    • O conteúdo de um diálogo entre duas pessoas com um sistema de ML, geralmente um modelo de linguagem grande. A interação anterior em um chat (o que você digitou e como o modelo de linguagem grande respondeu) se torna o contexto para as partes subsequentes do chat. Um chatbot é um aplicativo de um modelo de linguagem grande.
  • checkpoint
    • Dados que capturam o estado dos parâmetros de um modelo durante ou após o treinamento. Por exemplo, durante o treinamento, você pode: 1. Interromper o treinamento, talvez intencionalmente ou como resultado de determinados erros. 2. Capture o checkpoint. 3. Depois, recarregue o ponto de verificação, possivelmente em um hardware diferente. 4. Reinicie o treinamento. No Gemini, um checkpoint se refere a uma versão específica de um modelo do Gemini treinado em um conjunto de dados específico.
  • modelo de classificação
    • Um modelo cuja inferência é uma classe. Por exemplo, os seguintes são todos modelos de classificação: um modelo que prevê o idioma de uma frase de entrada (francês? Espanhol? italiano?). Um modelo que prevê espécies de árvores (bordo? Carvalho? Baobá?). Um modelo que prevê a classe positiva ou negativa para uma condição médica específica.
  • métricas de classificação
    • As métricas de classificação suportadas no SDK da Vertex AI para Python são a matriz de confusão e a curva ROC.
  • Cloud Logging
    • O Cloud Logging é um serviço de geração de registros totalmente gerenciado e em tempo real fornecido pelo Google Cloud que permite coletar, armazenar, analisar e monitorar registros de todos os recursos do Google Cloud, aplicativos locais e até mesmo fontes personalizadas. O Cloud Logging centraliza o gerenciamento de registros, o que facilita a solução de problemas, a auditoria e a compreensão do comportamento e da integridade dos seus aplicativos e da infraestrutura. Para mais informações, consulte Visão geral do Cloud Logging.
  • Cloud Monitoring
    • O Cloud Monitoring é uma plataforma de observabilidade abrangente fornecida pelo Google Cloud que coleta e visualiza métricas, registros e eventos dos serviços do Google Cloud, da infraestrutura local e dos componentes de aplicativos. Ele permite que os usuários gerem insights sobre o desempenho, a disponibilidade e a integridade geral dos sistemas, possibilitando a detecção, a solução de problemas e o alerta proativos. Para mais informações, consulte Métricas do Cloud Monitoring para Vertex AI.
  • Cloud Profiler
    • O Cloud Profiler é um serviço de criação de perfil contínuo fornecido pelo Google Cloud que ajuda a identificar e analisar o consumo de CPU e memória, além de outros usos de recursos (como heap, tempo real, disputa) nos seus aplicativos. Ele coleta automaticamente dados de criação de perfil dos seus aplicativos de produção com sobrecarga mínima, permitindo que você visualize e entenda os gargalos de desempenho em vários serviços e otimize seu código para melhorar a eficiência e reduzir os custos. Para mais informações, consulte Visão geral do Cloud Profiler.
  • Cloud Storage
    • Serviço de armazenamento de objetos escalonável e seguro do Google Cloud, recomendado para armazenar grandes conjuntos de dados usados no treinamento e na verificação com a Vertex AI para um desempenho ideal. Para mais informações, consulte a documentação do Cloud Storage.
  • Cloud TPU
    • Um acelerador de hardware especializado projetado para agilizar cargas de trabalho de machine learning no Google Cloud.
  • Colab Enterprise
    • O Colab Enterprise é um ambiente de notebook Jupyter gerenciado e colaborativo que traz a experiência do usuário do Google Colab para o Google Cloud, oferecendo recursos de segurança e compliance de nível empresarial. O Colab Enterprise oferece uma experiência sem configuração e focada em notebooks, com recursos de computação gerenciados pela Vertex AI, e se integra a outros serviços do Google Cloud, como o BigQuery. Para mais informações, consulte Introdução ao Colab Enterprise.
  • imagem de contêiner
    • Uma imagem de contêiner é um pacote que inclui o código executável do componente e uma definição do ambiente em que ele é executado. Para mais informações, consulte a visão geral do treinamento personalizado.
  • context
    • Um contexto é usado para agrupar artefatos e execuções em uma única categoria, que pode ser consultada e digitada. Os contextos podem ser usados para representar conjuntos de metadados. Um exemplo de contexto seria uma execução de um pipeline de machine learning.
  • cache de contexto
    • Um cache de contexto na Vertex AI é uma grande quantidade de dados que pode ser usada em várias solicitações para um modelo do Gemini. O conteúdo em cache é armazenado na região em que a solicitação para criar o cache é feita. Ele pode ser qualquer tipo MIME compatível com os modelos multimodais do Gemini, como texto, áudio ou vídeo. Para mais informações, consulte Visão geral do armazenamento em cache de contexto.
  • janela de contexto
    • O número de tokens que um modelo pode processar em um determinado comando. Quanto maior a janela de contexto, mais informações o modelo pode usar para fornecer respostas coerentes e consistentes ao comando.
  • Chaves de criptografia gerenciadas pelo cliente (CMEK, na sigla em inglês)
    • Chaves de criptografia gerenciadas pelo cliente (CMEK, na sigla em inglês) são integrações que permitem aos clientes criptografar dados em serviços atuais do Google usando uma chave que eles gerenciam no Cloud KMS (também conhecido como Storky). No Cloud KMS, a chave de criptografia de dados protege os dados. Para mais informações, consulte Chaves de criptografia gerenciadas pelo cliente (CMEK).
  • CustomJob
    • Um CustomJob é um dos três recursos da Vertex AI que um usuário pode criar para treinar modelos personalizados na Vertex AI. Os jobs de treinamento personalizados são a maneira básica de executar um código de treinamento de machine learning (ML) personalizado na Vertex AI. Para mais informações, consulte Criar jobs de treinamento personalizados.
  • imagem de contêiner personalizada
    • Uma imagem de contêiner personalizada é um pacote executável independente que inclui o código do aplicativo do usuário, o tempo de execução, as bibliotecas, as dependências e a configuração do ambiente. No contexto do Google Cloud, principalmente da Vertex AI, ele permite que o usuário empacote o código de treinamento de machine learning ou o aplicativo de serviço com suas dependências exatas, garantindo a capacidade de reprodução e permitindo que o usuário execute uma carga de trabalho em serviços gerenciados usando versões específicas de software ou configurações exclusivas não fornecidas por ambientes padrão. Para mais informações, consulte Requisitos de contêineres personalizados para inferência.
  • treinamento personalizado
    • O treinamento personalizado da Vertex AI é um serviço flexível que permite aos usuários executar seus próprios aplicativos de treinamento personalizados (scripts ou contêineres) na infraestrutura do Google Cloud, oferecendo controle sobre tipos de máquinas e escalonamento. Para mais informações, consulte a visão geral do treinamento personalizado.
  • Dask
    • O Dask é uma plataforma de computação distribuída que costuma ser usada com o TensorFlow, o PyTorch e outros frameworks de ML para gerenciar jobs de treinamento distribuídos. Para mais informações, consulte a Wikipédia.
  • análise de dados
    • Entender os dados considerando amostras, medições e visualizações. A análise de dados pode ser especialmente útil quando um conjunto de dados é recebido pela primeira vez, antes da criação do primeiro modelo. Também é essencial para entender experimentos e depurar problemas com o sistema.
  • ampliação de dados
    • Aumentar artificialmente o intervalo e o número de exemplos de treinamento transformando os exemplos atuais para criar outros. Por exemplo, suponha que as imagens sejam um dos seus recursos, mas o conjunto de dados não tenha exemplos suficientes para que o modelo aprenda associações úteis. O ideal é adicionar imagens rotuladas suficientes ao conjunto de dados para permitir que o modelo seja treinado corretamente. Se isso não for possível, a ampliação de dados poderá girar, esticar e refletir cada imagem para produzir muitas variantes da foto original, gerando dados rotulados suficientes para permitir um treinamento excelente.
  • DataFrame
    • Um tipo de dados pandas conhecido para representar conjuntos de dados na memória. Um DataFrame é análogo a uma tabela ou planilha. Cada coluna de um DataFrame tem um nome (um cabeçalho), e cada linha é identificada por um número exclusivo. Cada coluna em um DataFrame é estruturada como uma matriz 2D, exceto que cada coluna pode receber um tipo de dados próprio.
  • conjunto de dados
    • Um conjunto de dados é amplamente definido como uma coleção de registros de dados estruturados ou não estruturados. Uma coleção de dados brutos, geralmente (mas não exclusivamente) organizada em um dos seguintes formatos: uma planilha ou um arquivo no formato CSV (valores separados por vírgula). Para mais informações, consulte Criar um conjunto de dados
  • decoder
    • Em geral, qualquer sistema de ML que converta de uma representação processada, densa ou interna para uma representação mais bruta, esparsa ou externa. Os decodificadores geralmente são um componente de um modelo maior, em que são frequentemente pareados com um codificador. Em tarefas de sequência para sequência, um decodificador começa com o estado interno gerado pelo codificador para prever a próxima sequência.
  • rede neural profunda (DNN)
    • Uma rede neural com várias camadas ocultas, geralmente programada com técnicas de aprendizado profundo.
  • depth
    • A soma do seguinte em uma rede neural: 1. o número de camadas ocultas; 2. o número de camadas de saída, que geralmente é um; 3. o número de camadas de embedding. Por exemplo, uma rede neural com cinco camadas ocultas e uma camada de saída tem uma profundidade de 6. A camada de entrada não influencia a profundidade.
  • DevOps
    • DevOps é um conjunto de produtos do Google Cloud Platform, por exemplo, Artifact Registry e Cloud Deploy.
  • parada antecipada
    • Um método de regularização que envolve encerrar o treinamento antes que a perda de treinamento termine de diminuir. Na parada antecipada, você interrompe intencionalmente o treinamento do modelo quando a perda em um conjunto de dados de validação começa a aumentar, ou seja, quando o desempenho de generalização piora.
  • embedding
    • Representações numéricas de palavras ou partes de texto. Esses números captam o significado semântico e o contexto do texto. Palavras ou textos semelhantes ou relacionados costumam ter embeddings semelhantes, o que significa que estão mais próximos no espaço vetorial de alta dimensão.
  • espaço de embedding (espaço latente)
    • Na IA generativa, o espaço de embedding se refere a uma representação numérica de texto, imagens ou vídeos que captura as relações entre as entradas. Os modelos de aprendizado de máquina, principalmente os de IA generativa, são adequados para criar esses embeddings identificando padrões em grandes conjuntos de dados. Os aplicativos podem usar embeddings para processar e gerar linguagem, reconhecendo significados complexos e relações semânticas específicas do conteúdo.
  • vetor de embedding
    • Uma representação vetorial densa, geralmente de baixa dimensão, de um item. Assim, se dois itens forem semanticamente parecidos, os respectivos embeddings estarão próximos um do outro no espaço vetorial de embedding.
  • codificador
    • Em geral, qualquer sistema de ML que converta de uma representação bruta, esparsa ou externa em uma representação mais processada, densa ou interna. Os codificadores geralmente são um componente de um modelo maior, em que são frequentemente pareados com um decodificador. Alguns transformadores combinam codificadores e decodificadores, enquanto outros usam apenas um deles. Alguns sistemas usam a saída do codificador como entrada para uma rede de classificação ou regressão. Em tarefas de sequência para sequência, um codificador recebe uma sequência de entrada e retorna um estado interno (um vetor). Em seguida, o decodificador usa esse estado interno para prever a próxima sequência.
  • endpoint
    • Recursos em que é possível implantar modelos treinados para veicular inferências. Para mais informações, consulte Escolher um tipo de endpoint.
  • ensemble
    • Uma coleção de modelos treinados de forma independente cujas inferências são calculadas ou agregadas. Em muitos casos, um conjunto produz inferências melhores do que um único modelo. Por exemplo, uma floresta aleatória é um conjunto criado com várias árvores de decisão. Nem todas as florestas de decisão são conjuntos.
  • ambiente
    • No aprendizado por reforço, o mundo que contém o agente e permite que ele observe o estado desse mundo. Por exemplo, o mundo representado pode ser um jogo como xadrez ou um mundo físico como um labirinto. Quando o agente aplica uma ação ao ambiente, ele faz a transição entre estados.
  • avaliação (eval)
    • Uma avaliação é um tipo de experimento em que consultas registradas ou sintéticas são enviadas por duas pilhas de pesquisa: uma experimental, que inclui sua mudança, e uma básica, sem ela. As avaliações geram diferenças e métricas que permitem avaliar o impacto, a qualidade e outros efeitos da mudança nos resultados da pesquisa e em outras partes da experiência do usuário do Google. As avaliações são usadas durante o ajuste ou as iterações na sua mudança. Elas também são usadas como parte do lançamento de uma mudança no tráfego de usuários ativos.
  • event
    • Um evento descreve a relação entre artefatos e execuções. Cada artefato pode ser produzido por uma execução e consumido por outras execuções. Os eventos ajudam você a determinar a procedência dos artefatos nos fluxos de trabalho de ML encadeando artefatos e execuções.
  • execução
    • Uma execução é um registro de uma etapa de fluxo de trabalho de machine learning individual, geralmente anotado com os parâmetros de ambiente de execução. Exemplos de execuções incluem ingestão, validação e treinamento de modelos, avaliação e implantação de modelos.
  • experimento
    • Um experimento é um contexto que pode conter um conjunto de n execuções de experimentos e de pipelines onde um usuário pode investigar, em grupo, diferentes configurações, como artefatos de entrada ou hiperparâmetros.
  • Execução de experimento
    • Uma execução específica e rastreável em um experimento da Vertex AI, que registra entradas (como algoritmo, parâmetros e conjuntos de dados) e saídas (como modelos, checkpoints e métricas) para monitorar e comparar iterações de desenvolvimento de ML. Para mais informações, consulte Criar e gerenciar execuções de experimentos.
  • Explainable AI
    • Um recurso da Vertex AI que oferece ferramentas e recursos para entender e interpretar as inferências feitas por modelos de ML, oferecendo insights sobre a importância dos recursos e o comportamento do modelo. Para mais informações, consulte Introdução à Vertex Explainable AI.
  • Análise exploratória de dados
    • Em estatística, a análise exploratória de dados (EDA, na sigla em inglês) é uma abordagem de análise de conjuntos de dados que resume as principais características, muitas vezes com métodos visuais. Um modelo estatístico pode ou não ser usado, mas a EDA serve principalmente para saber o que os dados podem informar além da modelagem formal ou da tarefa de teste de hipóteses.
  • Pontuação F1
    • A pontuação F1 é uma métrica usada para avaliar a acurácia da saída de um modelo. É especialmente útil para avaliar o desempenho de modelos em tarefas em que a precisão e o recall são importantes, como a extração de informações. Para modelos de IA generativa, a pontuação F1 pode ser usada para comparar as inferências do modelo com dados de informações empíricas e determinar a acurácia dele. No entanto, para tarefas generativas, como resumo e geração de texto, outras métricas, como a pontuação Rough-L, podem ser mais adequadas.
  • recurso
    • Em machine learning (ML), um atributo é uma característica ou atributo de uma instância ou entidade usada como entrada para treinar um modelo de ML ou fazer inferências.
  • Engenharia de atributos
    • A engenharia de atributos é o processo de transformar dados brutos de machine learning (ML) em atributos que podem ser usados para treinar modelos de ML ou fazer inferências.
  • grupo de recursos
    • Um grupo de recursos é um recurso de registro de atributos que corresponde a uma tabela ou visualização de origem do BigQuery que contém dados de recursos. Ela pode conter elementos e ser considerada um agrupamento lógico de colunas de atributos na fonte de dados.
  • registro de recursos
    • Um registro de elemento é uma agregação de todos os valores de elementos que descrevem os atributos de uma entidade única em um momento específico.
  • Registro do atributo
    • Um registro de atributos é uma interface central para gravar fontes de dados de atributos que você quer disponibilizar para inferências on-line. Para mais informações, consulte Configuração do Feature Registry.
  • disponibilização de recursos
    • A exibição de atributos é o processo de exportação ou busca de valores de atributos para treinamento ou inferência. Na Vertex AI, há dois tipos de exibição de atributos: exibição on-line e exibição off-line. A disponibilização on-line recupera os valores de atributos mais recentes de um subconjunto da fonte de dados de atributos para inferências on-line. A disponibilização off-line ou em lote exporta grandes volumes de dados de atributos, incluindo dados históricos, para processamento off-line, como treinamento de modelo de ML.
  • carimbo de data/hora do recurso
    • Um carimbo de data/hora do recurso indica quando foi gerado o conjunto de valores de atributo em um registro específico de uma entidade.
  • Valor do atributo
    • Um valor de recurso corresponde ao valor real e mensurável de um recurso (atributo) de uma instância ou entidade. Uma coleção de valores de elementos da entidade única representa o registro do elemento correspondente à entidade.
  • Visualização do recurso
    • Uma visualização de recursos é uma coleção lógica de recursos materializados de uma fonte de dados do BigQuery para uma instância de loja on-line. Uma visualização de recurso armazena e atualiza periodicamente os dados de recursos do cliente, que são atualizados periodicamente na origem do BigQuery. Ela é associada diretamente ao armazenamento de dados ou por associações com os recursos de registro do recurso.
  • modelo de fundação (FM)
    • Modelos treinados com dados abrangentes para que possam ser adaptados (por exemplo, ajustados) a uma ampla variedade de tarefas downstream.
  • Operações de modelos de fundação (FMOPs)
    • A FMOps amplia os recursos da MLOps e se concentra na produção eficiente de modelos fundamentais pré-treinados (treinados do zero) ou personalizados (ajustados).
  • SDK de componentes do pipeline do Google Cloud
    • O SDK de componentes do pipeline do Google Cloud (GCPC, na sigla em inglês) fornece um conjunto de componentes pré-criados do Kubeflow Pipelines com qualidade de produção, desempenho e facilidade de uso. É possível usar os componentes de pipeline do Google Cloud para definir e executar pipelines de ML no Vertex AI Pipelines e outros back-ends de execução de pipeline de ML em conformidade com o Kubeflow Pipelines. Para mais informações, consulte Introdução aos componentes de pipeline do Google Cloud.
  • Sistema de modem incorporado do Google (GEMS)
    • O GEMS é um framework de software incorporado destinado a modems e um conjunto de fluxos de trabalho e infraestrutura de desenvolvimento. A principal visão do GEMS é fornecer código de sistema de modem de alta qualidade com alta capacidade de reutilização em muitos dispositivos do Google que contêm modems. Para alcançar essa visão ampla, o GEMS oferece um ambiente abrangente para desenvolvedores, composto pelos principais blocos de construção mostrados abaixo.
  • gradiente
    • O vetor de derivadas parciais em relação a todas as variáveis independentes. Em machine learning, o gradiente é o vetor de derivadas parciais da função do modelo. O gradiente aponta na direção da inclinação mais acentuada.
  • gráfico
    • No contexto da Vertex AI, um gráfico se refere a uma estrutura de dados que representa as relações entre entidades e seus atributos. Ele é usado para modelar e analisar dados complexos, como mapas de informações, redes sociais e processos de negócios. Para mais informações, consulte Introdução ao Vertex ML Metadata.
  • informações empíricas (GT)
    • Informações empíricas são um termo usado em vários campos para se referir à verdade absoluta de algum problema de decisão ou medição, em vez da estimativa de algum sistema. Em machine learning, o termo "informações empíricas" se refere ao conjunto de treinamento para técnicas de aprendizado supervisionado.
  • heurística
    • Uma solução simples e rápida para um problema. Por exemplo, "Com uma heurística, alcançamos 86% de acurácia. Quando mudamos para uma rede neural profunda, a acurácia aumentou para 98%".
  • camada oculta
    • Uma camada em uma rede neural entre a camada de entrada (os atributos) e a camada de saída (a inferência). Cada camada oculta consiste em um ou mais neurônios. Uma rede neural profunda tem mais de uma camada oculta.
  • histogram
    • Uma exibição gráfica da variação em um conjunto de dados usando barras. Um histograma visualiza padrões que são difíceis de detectar em uma tabela simples de números.
  • hiperparâmetro
    • Um hiperparâmetro é uma variável que controla o processo de treinamento de um modelo de machine learning. Essas variáveis podem incluir taxas de aprendizado, valores de momentum no otimizador e o número de unidades na última camada oculta de um modelo. Para mais informações, consulte Visão geral do ajuste de hiperparâmetros.
  • ajuste de hiperparâmetros
    • O ajuste de hiperparâmetros na Vertex AI envolve a execução de vários testes de um aplicativo de treinamento com valores diferentes para os hiperparâmetros escolhidos, definidos dentro dos limites especificados. O objetivo é otimizar as configurações de hiperparâmetros para maximizar a acurácia preditiva do modelo. Para mais informações, consulte Visão geral do ajuste de hiperparâmetros.
  • Permissões do Identity and Access Management (IAM)
    • As permissões do Identity and Access Management (IAM) são recursos granulares específicos que definem quem pode fazer o quê em quais recursos do Google Cloud. Eles são atribuídos a principais (como usuários, grupos ou contas de serviço) por meio de papéis, permitindo o controle preciso do acesso a serviços e dados em um projeto ou organização do Google Cloud. Para mais informações, consulte Controle de acesso com o IAM.
  • reconhecimento de imagem
    • O reconhecimento de imagens é o processo de classificação de objetos, padrões ou conceitos em uma imagem. Também é conhecida como classificação de imagens. O reconhecimento de imagens é uma subárea do machine learning e da visão computacional.
  • index
    • Índice: um conjunto de vetores implantados juntos para a pesquisa por similaridade. Os vetores podem ser adicionados a um índice ou removidos dele. As consultas de pesquisa de similaridade são emitidas para um índice específico e pesquisam os vetores nesse índice.
  • inferência
    • No contexto da plataforma Vertex AI, a inferência se refere ao processo de execução de pontos de dados em um modelo de machine learning para calcular uma saída, como uma única pontuação numérica. Esse processo também é conhecido como "operar um modelo de machine learning" ou "colocar um modelo de machine learning em produção". A inferência é uma etapa importante no fluxo de trabalho de machine learning, porque permite que os modelos sejam usados para fazer inferências sobre novos dados. Na Vertex AI, a inferência pode ser realizada de várias maneiras, incluindo inferência em lote e on-line. A inferência em lote envolve a execução de um grupo de solicitações de inferência e a geração dos resultados em um arquivo, enquanto a inferência on-line permite inferências em tempo real em pontos de dados individuais.
  • recuperação de informações (IR)
    • A recuperação de informações (IR, na sigla em inglês) é um componente essencial da Vertex AI para Pesquisa. É o processo de encontrar e recuperar informações relevantes de uma grande coleção de dados. No contexto da Vertex AI, a RI é usada para recuperar documentos de um corpus com base na consulta de um usuário. A Vertex AI oferece um conjunto de APIs para ajudar você a criar seus próprios aplicativos de geração aumentada de recuperação (RAG) ou seu próprio mecanismo de pesquisa. Para mais informações, consulte Usar a Vertex AI para Pesquisa como um back-end de recuperação usando o mecanismo RAG.
  • Infraestrutura como código (IaC)
    • Infraestrutura como código. Uma abordagem para gerenciar a infraestrutura de TI em que as equipes podem gerenciar e provisionar serviços por código. Com a IaC, são criados arquivos de configuração que contêm as especificações da infraestrutura, o que facilita a criação e edição em grande escala.
  • Taxa de aprendizado (tamanho da etapa)
    • A taxa de aprendizado é um hiperparâmetro usado para ajustar o processo de otimização de um modelo de machine learning. Ela determina o tamanho da etapa em que o modelo atualiza os pesos durante o treinamento. Uma taxa de aprendizado mais alta pode levar a uma convergência mais rápida, mas pode resultar em instabilidade ou overfitting. Por outro lado, uma taxa de aprendizado mais baixa pode levar a uma convergência mais lenta, mas ajuda a evitar o overfitting. Para mais informações, consulte Visão geral do ajuste de hiperparâmetros.
  • perda (custo)
    • Durante o treinamento de um modelo supervisionado, uma medida da distância entre a inferência de um modelo e o rótulo. Uma função de perda calcula a perda.
  • Metadados de machine learning
    • O ML Metadata (MLMD, na sigla em inglês) é uma biblioteca para registrar e recuperar metadados associados a fluxos de trabalho de desenvolvedores de ML e cientistas de dados. O MLMD é uma parte integral do TensorFlow Extended (TFX), mas foi projetado para ser usado de maneira independente. Como parte da plataforma mais ampla do TFX, a maioria dos usuários só interage com o MLMD ao examinar os resultados dos componentes do pipeline, por exemplo, em notebooks ou no TensorBoard.
  • Conjunto de dados gerenciado
    • Um objeto de conjunto de dados criado e hospedado pela Vertex AI.
  • registro manual
    • O processo de adicionar código explicitamente (por exemplo, usando o SDK da Vertex AI para Python) a um script de treinamento para rastrear e registrar parâmetros, métricas e artefatos personalizados em uma execução do Vertex AI Experiments. Para mais informações, consulte Visão geral do monitoramento e do registro em registros.
  • escalonamento manual
    • O escalonamento manual se refere ao processo de ajustar de forma explícita e deliberada o número de recursos computacionais (como máquinas virtuais, contêineres ou servidores) alocados a um aplicativo ou serviço por um usuário ou administrador. Ao contrário do escalonamento automático, que ajusta os recursos automaticamente com base na demanda, o escalonamento manual exige intervenção direta para provisionar ou desprovisionar recursos, oferecendo controle preciso, mas sem a capacidade de resposta dinâmica das soluções automatizadas. Para mais informações, consulte Escalonar clusters do Ray na Vertex AI: escalonamento manual.
  • metadata resources
    • O Vertex ML Metadata expõe um modelo de dados semelhante a um gráfico para representar metadados produzidos e consumidos de fluxos de trabalho de ML. Os conceitos principais são Artefatos, Execuções, Eventos e Contextos.
  • MetadataSchema
    • Um MetadataSchema descreve o esquema para tipos específicos de artefatos, execuções ou contextos. MetadataSchemas são usados para validar os pares de chave-valor durante a criação dos recursos de metadados correspondentes. A validação de esquema é realizada apenas em campos correspondentes entre o recurso e o MetadataSchema. Os esquemas de tipo são representados com objetos de esquema da OpenAPI, que precisam ser descritos com o YAML.
  • MetadataStore
    • Um MetadataStore é o contêiner de nível superior para recursos de metadados. O MetadataStore é regionalizado e associado a um projeto específico do Google Cloud. Normalmente, uma organização usa um MetadataStore compartilhado para recursos de metadados em cada projeto.
  • Pipelines de ML
    • Os pipelines de ML são fluxos de trabalho de ML portáteis e escalonáveis baseados em contêineres.
  • model
    • Qualquer modelo pré-treinado ou não. Em geral, qualquer construção matemática que processe dados de entrada e retorne uma saída. Em outras palavras, um modelo é o conjunto de parâmetros e a estrutura necessários para que um sistema faça inferências.
  • destilação de modelo (destilação de conhecimento, modelos professor-aluno)
    • A destilação de modelos é uma técnica que permite que um modelo estudante menor aprenda com um modelo professor maior. O modelo estudante é treinado para imitar a saída do modelo professor e pode ser usado para gerar novos dados ou fazer inferências. A destilação de modelos é usada com frequência para tornar modelos grandes mais eficientes ou acessíveis a dispositivos com recursos limitados. Também pode ser usado para melhorar a generalização dos modelos, reduzindo o overfitting.
  • Avaliação do modelo
    • A avaliação de modelos da Vertex AI é um serviço gerenciado na plataforma Vertex AI do Google Cloud que ajuda o usuário a avaliar o desempenho e a qualidade dos modelos de machine learning. Ele oferece ferramentas para gerar várias métricas e visualizações de avaliação, permitindo que o usuário entenda o desempenho dos modelos, identifique possíveis vieses e tome decisões informadas sobre a implantação e o aprimoramento do modelo. Para mais informações, consulte Avaliação de modelos na Vertex AI.
  • Model Monitoring
    • O Vertex AI Model Monitoring é um serviço que avalia continuamente a performance dos modelos implantados detectando desvios de recursos e deslocamentos nas solicitações de previsão, ajudando a manter a qualidade do modelo ao longo do tempo. Para mais informações, consulte Introdução ao Vertex AI Model Monitoring.
  • nome do recurso do modelo
    • O nome do recurso de um model é o seguinte: projects/<PROJECT_ID>/locations/<LOCATION_ID>/models/<MODEL_ID>. O ID do modelo pode ser encontrado no console do Cloud, na página "Registro de modelos".
  • Network File System (NFS)
  • Armazenamento off-line
    • O armazenamento off-line é uma instalação de armazenamento que armazena dados de atributos recentes e históricos, o que normalmente é usado para treinar modelos de ML. Um armazenamento off-line também contém os valores de atributos mais recentes, que podem ser exibidos para inferências on-line.
  • Inferência on-line
    • Obter inferências em instâncias individuais de forma síncrona. Para mais informações, consulte Inferência on-line.
  • Previsão on-line
    • Obter previsões em instâncias individuais de forma síncrona. Para mais informações, consulte Previsão on-line.
  • Repositório on-line
    • No gerenciamento de atributos, um armazenamento on-line é uma instalação de armazenamento dos valores de atributos mais recentes a serem exibidos para inferências on-line.
  • parâmetro
    • Os parâmetros são valores de entrada com chave que configuram uma execução, regulam o comportamento dela e afetam os resultados. Exemplos incluem taxa de aprendizado, taxa de desistência e número de etapas de treinamento.
  • recurso permanente
    • Um tipo de recurso de computação da Vertex AI, como um cluster Ray, que permanece alocado e disponível até ser excluído explicitamente. Isso é útil para o desenvolvimento iterativo e reduz a sobrecarga de inicialização entre jobs. Para mais informações, consulte Receber informações sobre recursos permanentes.
  • pipeline
  • componente do pipeline
    • Um conjunto de código completo que executa uma etapa no fluxo de trabalho de um pipeline, como pré-processamento e transformação de dados e treinamento de um modelo.
  • pipeline job
    • Um job ou uma execução de pipeline corresponde ao recurso "PipelineJob" na API Vertex AI. É uma instância de execução da definição do pipeline de ML, que é definida como um conjunto de tarefas de ML interconectadas por dependências de entrada/saída.
  • execução de pipeline
    • Um ou mais PipelineJobs do Vertex podem ser associados a um experimento em que cada PipelineJob é representado como uma única execução. Nesse contexto, os parâmetros da execução são inferidos pelos parâmetros do PipelineJob. As métricas são inferidas dos artefatos do system.Metric produzidos por esse PipelineJob. Os artefatos da execução são inferidos dos artefatos produzidos pelo PipelineJob.
  • modelo de pipeline
    • Uma definição de fluxo de trabalho de ML que um ou vários usuários podem reutilizar para criar várias execuções de pipeline.
  • classe positiva
    • "Classe positiva" se refere ao resultado ou à categoria que um modelo é treinado para prever. Por exemplo, se um modelo estiver prevendo se um cliente vai comprar uma jaqueta, a classe positiva será "o cliente compra uma jaqueta". Da mesma forma, em um modelo que prevê a inscrição de um cliente para um depósito a prazo, a classe positiva seria "cliente inscrito". O oposto é a "classe negativa".
  • Contêiner pré-criado
  • Acesso privado do Google (PGA)
    • O Acesso privado do Google permite que instâncias de VM com endereços IP internos (privados) apenas, e não IP externo, acessem os endereços IP públicos das APIs e serviços do Google. Para mais informações, consulte Configurar o Acesso privado do Google.
  • acesso privado a serviços
    • O acesso privado a serviços é uma conexão privada entre sua rede de nuvem privada virtual (VPC) e redes de propriedade do Google ou de provedores de serviços terceirizados. Ele permite que instâncias de máquina virtual (VM) na sua rede VPC se comuniquem com esses serviços usando endereços IP internos, evitando a exposição à Internet pública. Para mais informações, consulte Acesso a serviços privados.
  • Private Service Connect (PSC)
    • O Private Service Connect é uma tecnologia que permite que os clientes do Compute Engine mapeiem IPs particulares na rede deles para outra rede VPC ou para APIs do Google. Para mais informações, consulte Private Service Connect.
  • Interface do Private Service Connect (PSC-I)
    • A interface do Private Service Connect oferece uma maneira para os produtores iniciarem conexões com recursos de rede em uma VPC do consumidor de maneira privada.
  • quantization
    • A quantização é uma técnica de otimização de modelos usada para reduzir a precisão dos números usados para representar os parâmetros de um modelo. Isso pode levar a modelos menores, menor consumo de energia e redução da latência de inferência.
  • Floresta aleatória
    • A floresta aleatória é um algoritmo de aprendizado de máquina usado para classificação e regressão. Não é um modelo de IA generativa em si, mas um componente que pode ser usado em um sistema maior de IA generativa. Uma floresta aleatória consiste em várias árvores de decisão, e a inferência dela é uma agregação das inferências dessas árvores individuais. Por exemplo, em uma tarefa de classificação, cada árvore "vota" em uma classe, e a inferência final é a classe com mais votos. Para mais informações, consulte Floresta de decisão.
  • API do cliente Ray (cliente Ray)
    • O cliente Ray é uma API que permite que um script Python local ou um shell interativo (como um notebook Jupyter) se conecte e interaja com um cluster Ray remoto. Basicamente, o cliente Ray permite que os usuários desenvolvam e executem o código Ray como se ele estivesse sendo executado localmente, mas aproveitando o poder de computação distribuída de um cluster remoto. Para mais informações, consulte Visão geral do Ray na Vertex AI.
  • Cluster do Ray na Vertex AI
    • Um cluster do Ray na Vertex AI é um cluster gerenciado de nós de computação que pode ser usado para executar aplicativos distribuídos de machine learning (ML) e Python. Ele fornece a infraestrutura para realizar computação distribuída e processamento paralelo para seu fluxo de trabalho de ML. Os clusters Ray são integrados à Vertex AI para garantir a disponibilidade de capacidade para cargas de trabalho essenciais de ML ou durante os períodos de pico. Ao contrário dos jobs personalizados, em que o serviço de treinamento libera o recurso após a conclusão do job, os clusters Ray permanecem disponíveis até serem excluídos. Para mais informações, consulte Visão geral do Ray na Vertex AI.
  • Ray na Vertex AI (RoV)
    • O Ray na Vertex AI foi projetado para que você possa usar o mesmo código aberto Ray para escrever programas e desenvolver aplicativos na Vertex AI com alterações mínimas. Para mais informações, consulte Visão geral do Ray na Vertex AI.
  • SDK do Ray na Vertex AI para Python
    • O SDK do Ray na Vertex AI para Python é uma versão do SDK da Vertex AI para Python que inclui a funcionalidade do Ray Client, do conector do Ray para BigQuery, do gerenciamento de clusters do Ray na Vertex AI e das inferências na Vertex AI. Para mais informações, consulte Introdução ao SDK da Vertex AI para Python.
  • recall
    • Recall: a porcentagem de verdadeiros vizinhos mais próximos retornados pelo índice. Por exemplo, se uma consulta de vizinho mais próxima de 20 vizinhos mais próximos retornou 19 dos vizinhos mais próximos, o recall será de 19/20x100 = 95%.
  • Servidor de redução
    • O Reduction Server é um recurso ou componente disponível na Vertex AI, projetado especificamente para otimizar o treinamento distribuído de GPU. O Reduction Server funciona como um algoritmo de redução total que ajuda a aumentar a capacidade e reduzir a latência do treinamento de modelo de machine learning em grande escala. Para mais informações, consulte Reduza o tempo de treinamento com o servidor de redução.
  • regularização
    • A regularização é uma técnica usada para evitar o overfitting em modelos de machine learning. O overfitting ocorre quando um modelo aprende muito bem os dados de treinamento, resultando em um desempenho ruim com dados não vistos. Um tipo específico de regularização mencionado é a parada antecipada, em que o treinamento é interrompido antes que a perda em um conjunto de dados de validação comece a aumentar, indicando um declínio no desempenho de generalização. Para mais informações, consulte Overfitting: regularização L2.
  • Restringe
    • A funcionalidade para "restringir" pesquisas a um subconjunto do índice usando regras booleanas. A restrição também é chamada de "filtro". Com a Pesquisa de vetor, você pode usar a filtragem numérica e a filtragem de atributos de texto.
  • conta de serviço
    • As contas de serviço são contas especiais do Google Cloud usadas por aplicativos ou máquinas virtuais para fazer chamadas de API autorizadas para os serviços do Google Cloud. Ao contrário das contas de usuário, elas não estão vinculadas a uma pessoa, mas atuam como uma identidade para seu código, permitindo acesso seguro e programático aos recursos sem exigir credenciais humanas. Para mais informações, consulte Visão geral das contas de serviço.
  • agente de serviço
    • Um agente de serviço se refere a uma conta serviço gerenciado pelo Google. Ele é usado quando um serviço precisa acessar recursos criados por outro serviço. Por exemplo, quando os serviços do Dataflow ou do Dataproc precisam criar instâncias durante a execução ou quando uma função do Cloud quer usar o Key Management Service (KMS) para se proteger. Os agentes de serviço são criados automaticamente pelo Google Cloud quando um serviço os exige. Eles são usados normalmente para gerenciar o acesso a recursos e realizar várias tarefas em nome do serviço. Para mais informações, consulte Agentes de serviço.
  • Métricas de resumo
    • As métricas de resumo são um valor único para cada chave de métrica de uma execução de experimento. Por exemplo, a precisão de um experimento é a precisão calculada com base em um conjunto de dados de teste no final do treinamento, que pode ser capturado como uma única métrica de resumo de valor.
  • TensorBoard
    • O TensorBoard é um pacote de aplicativos da Web para visualizar e entender modelos e execuções do TensorFlow. Para mais informações, consulte TensorBoard.
  • Instância do TensorBoard
    • Uma instância do TensorBoard é um recurso regionalizado que armazena Experimentos do TensorBoard da Vertex AI associados a um projeto. É possível criar várias instâncias do TensorBoard em um projeto, por exemplo, quando você quer várias instâncias ativadas para CMEK. Esse recurso é igual ao recurso TensorBoard na API.
  • Nome do recurso do TensorBoard
    • Um nome de recurso do TensorBoard é usado para identificar totalmente uma instância do TensorBoard da Vertex AI. O formato é o seguinte: projects/PROJECT_ID_OR_NUMBER/locations/REGION/tensorboards/TENSORBOARD_INSTANCE_ID.
  • TensorFlow Extended (TFX)
    • O TensorFlow Extended (TFX) é uma plataforma completa para a implantação de pipelines de produção de machine learning com base na plataforma TensorFlow.
  • Contêiner do TensorFlow Serving
    • Uma imagem de contêiner especializada projetada para disponibilizar modelos do TensorFlow de maneira eficiente para inferências, usada ao implantar modelos tabulares personalizados com o Model Monitoring da Vertex AI.
  • ajuste de tempo
    • O ajuste de horário é relativo ao início de um vídeo.
  • segmento de tempo
    • Um segmento de tempo é identificado por ajustes de horário de início e término.
  • métricas de série temporal
    • As métricas de série temporal são valores de métrica longitudinais em que cada valor representa uma etapa na parte da rotina de treinamento de uma execução. As métricas de séries temporais são armazenadas no TensorBoard da Vertex AI. O Vertex AI Experiments armazena uma referência ao recurso Vertex TensorBoard.
  • token
    • Um token em um modelo de linguagem é a unidade atômica que o modelo usa para treinar e fazer inferências, ou seja, palavras, morfemas e caracteres. Em domínios fora dos modelos de linguagem, os tokens podem representar outros tipos de unidades atômicas. Por exemplo, em visão computacional, um token pode ser um subconjunto de uma imagem. Para mais informações, consulte Listar e contar tokens.
  • cluster de treinamento
    • Um cluster de treinamento é um grupo de recursos de computação interconectados (como máquinas virtuais, GPUs e armazenamento associado) especificamente configurados e dedicados à execução de cargas de trabalho de treinamento de modelo de machine learning de maneira distribuída. Esses clusters são projetados para fornecer a capacidade computacional e a escalabilidade necessárias para treinar modelos complexos com eficiência, geralmente aproveitando o processamento paralelo em vários nós. Para mais informações, consulte Estrutura do cluster de treinamento.
  • conjunto de treinamento
    • Na Vertex AI, o conjunto de treinamento é a maior parte dos seus dados (normalmente 80%) usada para treinar um modelo de machine learning. O modelo aprende os padrões e as relações nesses dados para fazer inferências. O conjunto de treinamento é diferente dos conjuntos de validação e teste, que são usados para avaliar o desempenho do modelo durante e após o treinamento.
  • trajetória
    • Uma "trajetória" se refere a uma sequência de etapas ou ações realizadas por um agente ou modelo. Ela é usada com frequência na avaliação de modelos generativos, em que a capacidade do modelo de gerar texto, código ou outro conteúdo é avaliada. Há vários tipos de métricas de trajetória que podem ser usadas para avaliar modelos generativos, incluindo correspondência exata, em ordem, em qualquer ordem e precisão de trajetória. Essas métricas medem a similaridade entre a saída do modelo e um conjunto de saídas de referência geradas por humanos.
  • Transformer
    • Um "Transformer" é uma arquitetura de rede neural que embasa a maioria dos modelos generativos mais modernos. Ele é usado em vários aplicativos de modelo de linguagem, incluindo tradução. Os transformadores consistem em um codificador e um decodificador. O codificador converte o texto de entrada em uma representação intermediária, e o decodificador converte isso em uma saída útil. Eles usam um mecanismo de autoatenção para coletar o contexto das palavras ao redor da palavra que está sendo processada. Embora o treinamento de um Transformer exija muitos recursos, o ajuste fino de um Transformer pré-treinado para aplicações específicas é mais eficiente.
  • verdadeiro positivo
    • Um "verdadeiro positivo" se refere a uma inferência em que o modelo identifica corretamente uma classe positiva. Por exemplo, se um modelo for treinado para identificar clientes que vão comprar uma jaqueta, um verdadeiro positivo seria prever corretamente que um cliente fará essa compra.
  • artefatos não gerenciados
    • Um artefato que existe fora do contexto da Vertex AI.
  • vetor
    • Um vetor se refere a uma representação numérica de texto, imagens ou vídeos que captura as relações entre as entradas. Os modelos de machine learning são adequados para criar embeddings identificando padrões em grandes conjuntos de dados. Os aplicativos podem usar embeddings para processar e produzir linguagem, reconhecendo significados complexos e relações semânticas específicas do conteúdo. Para mais informações, consulte Visão geral das APIs de embeddings.
  • Tipo de dados da Vertex AI
    • Os tipos de dados da Vertex AI são "imagem", "texto", "tabular" e "vídeo".
  • Experimentos da Vertex AI
    • Com os experimentos da Vertex AI, os usuários podem acompanhar: 1. Etapas de uma execução do experimento (por exemplo, pré-processamento e treinamento). 2. Entradas (por exemplo, algoritmo, parâmetros e conjuntos de dados). 3. Resultados dessas etapas (por exemplo, modelos, pontos de controle e métricas).
  • Vertex AI Model Registry
    • O Vertex AI Model Registry é um repositório central em que é possível gerenciar o ciclo de vida dos seus modelos de ML. No Vertex AI Model Registry, você tem uma visão geral dos seus modelos para organizar, rastrear e treinar melhor as novas versões. Quando houver uma versão de modelo que você gostaria de implantar, será possível atribuí-la a um endpoint diretamente do registro ou, usando aliases, implantar modelos em um endpoint. Para mais informações, consulte Introdução ao Vertex AI Model Registry.
  • SDK da Vertex AI para Python
    • O SDK da Vertex AI para Python oferece uma funcionalidade semelhante à biblioteca de cliente da Vertex AI para Python, mas o SDK é de nível superior e menos granular.
  • TensorBoard da Vertex AI
    • O TensorBoard da Vertex AI é um serviço gerenciado e escalonável no Google Cloud que permite que cientistas de dados e engenheiros de ML visualizem experimentos de machine learning, depurem treinamento de modelo e acompanhem métricas de performance usando a interface familiar de código aberto do TensorBoard. Ele se integra perfeitamente ao treinamento da Vertex AI e a outros serviços, oferecendo armazenamento permanente para dados de experimentos e permitindo a análise colaborativa do desenvolvimento de modelos. Para mais informações, consulte Introdução ao TensorBoard da Vertex AI.
  • Experimento do TensorBoard da Vertex AI
    • Os dados associados a um Experimento podem ser visualizados no aplicativo da Web TensorBoard (escalares, histogramas, distribuições etc.). Os escalares de séries temporais podem ser visualizados no console do Google Cloud. Para mais detalhes, consulte Comparar e analisar execuções.
  • Vertex AI Feature Store
    • Um serviço gerenciado para armazenar, disponibilizar e gerenciar atributos de machine learning. Para mais informações, consulte Sobre o Vertex AI Feature Store.
  • Vertex ML Metadata
  • Vertex AI Vizier
    • Um serviço de otimização de caixa preta para ajustar hiperparâmetros e outros parâmetros. Para mais informações, consulte Visão geral da Vertex AI Vizier.
  • Vertex AI Workbench
    • O Vertex AI Workbench é um ambiente de desenvolvimento unificado baseado em notebook do Jupyter que oferece suporte a todo o fluxo de trabalho da ciência de dados, desde a análise e exploração de dados até o desenvolvimento, treinamento e implantação de modelos. O Vertex AI Workbench oferece uma infraestrutura gerenciada e escalonável com integrações integradas a outros serviços do Google Cloud, como BigQuery e Cloud Storage. Assim, os cientistas de dados podem realizar tarefas de machine learning com eficiência sem gerenciar a infraestrutura subjacente. Para mais informações, consulte Introdução ao Vertex AI Workbench.
  • trecho de vídeo
    • Um trecho de vídeo é identificado pelo deslocamento de início e término de um vídeo.
  • nuvem privada virtual (VPC)
    • A nuvem privada virtual é um pool configurável de recursos de computação compartilhados sob demanda, alocado em um ambiente de nuvem pública e que oferece um nível de isolamento entre diferentes organizações que usam esses recursos.
  • VPC Service Controls
    • O VPC Service Controls é um recurso de segurança do Google Cloud que permite às organizações criar perímetros seguros em torno dos dados e recursos sensíveis para reduzir o risco de exfiltração de dados. O VPC Service Controls faz isso restringindo o acesso a serviços e dados especificados do Google Cloud em redes não autorizadas e impedindo que os dados saiam desses perímetros definidos. Assim, ele oferece uma defesa forte contra ameaças internas e vazamento acidental de dados. Para mais informações, consulte VPC Service Controls.
  • nó de trabalho
    • Um nó de trabalho se refere a uma máquina ou instância computacional individual em um cluster responsável por executar tarefas ou realizar trabalhos. Em sistemas como clusters do Kubernetes ou do Ray, os nós são as unidades fundamentais de computação.
  • pool de workers
    • Componentes de um cluster do Ray que executam tarefas distribuídas. Os pools de workers podem ser configurados com tipos de máquinas específicos e oferecem suporte ao escalonamento automático e manual. Para mais informações, consulte Estrutura do cluster de treinamento.