Dados de imagem do Hello: como avaliar e analisar o desempenho do modelo
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Use o console Google Cloud para verificar o desempenho do modelo. Analise erros
de teste para melhorar a qualidade do modelo de forma iterativa corrigindo problemas de dados.
Cada página pressupõe que você já tenha realizado as instruções das páginas anteriores do tutorial.
1. Entenda os resultados da avaliação do modelo do AutoML
Após a conclusão do treinamento, o modelo é avaliado automaticamente em relação à
divisão de dados de teste. Os resultados da avaliação correspondentes são apresentados clicando no nome do modelo na página Model Registry ou na página Dataset.
A partir daí, é possível encontrar as métricas para medir o desempenho do modelo.
Se você quiser continuar melhorando o desempenho do modelo, a primeira etapa geralmente será examinar os casos de erro e investigar as potenciais causas. A página de avaliação de cada classe apresenta imagens de teste detalhadas da classe especificada, categorizadas como falsos negativos, falsos positivos e verdadeiros positivos. A definição de cada categoria pode ser encontrada na seção Avaliar, testar e implantar o modelo.
Para cada imagem em cada categoria, é possível verificar melhor os detalhes da previsão clicando na imagem e acessando os resultados detalhados da análise. Você verá o painel Revisar imagens semelhantes no lado direito da página, onde as amostras mais próximas do conjunto de treinamento são apresentadas com distâncias medidas no espaço do recurso.
Há dois tipos de problemas de dados que merecem atenção:
Inconsistência do rótulo. Se uma amostra visualmente semelhante do conjunto de treinamento tiver rótulos diferentes da amostra de teste, é possível que uma delas esteja incorreta ou que a diferença sutil exija mais dados para o modelo aprender.
ou que os rótulos de classe atuais não sejam precisos o suficiente para descrever
a amostra especificada.
A análise de imagens semelhantes pode ajudar você a corrigir as informações do rótulo.
Basta corrigir os casos de erro ou excluir a amostra problemática do
conjunto de teste. Você pode alterar convenientemente o rótulo da imagem de teste
ou de imagens de treinamento no painel Revisar imagens semelhantes na mesma página.
Outliers. Se uma amostra de teste estiver marcada como outlier, é possível que não haja amostras visualmente semelhantes no conjunto de treinamento para ajudar a treinar o modelo.
A análise de imagens semelhantes do conjunto de treinamento pode ajudar a identificar essas amostras e adicionar imagens semelhantes ao conjunto de treinamento para melhorar ainda mais o desempenho do modelo nesses casos.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-18 UTC."],[],[],null,["# Hello image data: Evaluating and analyzing model performance\n\nUse the Google Cloud console to check your model performance. Analyze test\nerrors to iteratively improve model quality by fixing data issues.\n\nThis tutorial has several pages:\n\n1. [Set up your project and environment.](/vertex-ai/docs/tutorials/image-classification-automl)\n\n2. [Create an image classification dataset, and\n import images.](/vertex-ai/docs/tutorials/image-classification-automl/dataset)\n\n3. [Train an AutoML image classification\n model.](/vertex-ai/docs/tutorials/image-classification-automl/training)\n\n4. Evaluate and analyze model performance.\n\n5. [Deploy a model to an endpoint, and send a\n prediction.](/vertex-ai/docs/tutorials/image-classification-automl/deploy-predict)\n\n6. [Clean up your project.](/vertex-ai/docs/tutorials/image-classification-automl/cleanup)\n\nEach page assumes that you have already performed the instructions from the\nprevious pages of the tutorial.\n\n1. Understand AutoML model evaluation results\n---------------------------------------------\n\nAfter training is completed, your model is automatically evaluated against the\ntest data split. The corresponding evaluation results are presented by clicking\nthe model's name from either the **Model Registry** page or the **Dataset**\npage.\n\nFrom there, you can find the metrics to measure the model's performance.\n\nYou can find a more detailed introduction to different evaluation metrics in the\n[Evaluate, test, and deploy your model](https://cloud.google.com/vertex-ai/docs/beginner/beginners-guide/#evaluate_model) section.\n\n2. Analyze test results\n-----------------------\n\nIf you want to continue improving the model performance, the first step is often\nto examine the error cases and investigate the potential causes. The\nevaluation page of each class presents detailed test images of the given\nclass categorized as false negatives, false positives, and true positives. The\ndefinition of each category can be found in the\n[Evaluate, test, and deploy your model](https://cloud.google.com/vertex-ai/docs/beginner/beginners-guide/#evaluate_model) section.\n\nFor each image under every category, you can further check the prediction\ndetails by clicking the image and access the detailed analysis results. You will\nsee the **Review similar images** panel on the right side of the page, where the\nclosest samples from the training set are presented with distances measured in\nthe feature space.\n\nThere are two types of data issues that you might want to pay attention:\n\n1. Label inconsistency. If a visually similar sample from the training set has\n different labels from the test sample, it's possible that one of them is\n incorrect, or that the subtle difference requires more data for the model to\n learn from,\n or that the current class labels are simply not accurate enough to describe\n the given sample.\n Reviewing similar images can help you get the label information accurate by\n either correcting the error cases or excluding the problematic sample from\n the test set. You can conveniently change the label of either the test image\n or training images on the **Review similar images** panel on the same page.\n\n2. Outliers. If a test sample is marked as an outlier, it's possible that there\n are no visually similar samples in the training set to help train the model.\n Reviewing similar images from the training set can help you identify these\n samples and add similar images into the training set to further improve the\n model performance on these cases.\n\nWhat's next\n-----------\n\nIf you're happy with the model performance, follow the\n[next page of this tutorial](/vertex-ai/docs/tutorials/image-classification-automl/deploy-predict) to deploy your trained\nAutoML model to an endpoint and send an image to the model for prediction.\nOtherwise, if you make any corrections on the data, train a new model using the\n[Training an AutoML image classification model](/vertex-ai/docs/tutorials/image-classification-automl/training)\ntutorial."]]