Vorhersageergebnisse von Videoklassifizierungsmodellen interpretieren
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Nach der Anforderung einer Vorhersage gibt Vertex AI Ergebnisse basierend auf dem Ziel Ihres Modells zurück. Vorhersagen eines Klassifizierungsmodells geben Aufnahmen und Segmente in Ihren Videos zurück, die entsprechend Ihren eigenen definierten Labels klassifiziert wurden. Jeder Vorhersage wird ein Konfidenzwert zugewiesen.
Der Konfidenzwert gibt an, wie stark Ihr Modell die einzelnen Klassen oder Labels mit einem Testelement verknüpft. Je höher die Zahl, desto höher die Konfidenz des Modells, dass das Label auf dieses Element angewendet werden sollte. Sie entscheiden, wie hoch der Konfidenzwert für die Annahme der Ergebnisse des Modells sein muss.
Schieberegler für Punktzahl-Schwellenwert
In der Google Cloud Console bietet Vertex AI einen Schieberegler, mit dem der Konfidenschwellenzwert für alle Klassen oder Labels oder für eine einzelne Klasse oder ein einzelnes Label angepasst wird. Der Schieberegler ist auf der Detailseite eines Modells im Tab Bewerten verfügbar. Der Konfidenzschwellenwert ist das Konfidenzniveau, das das Modell haben muss, um einem Testelement eine Klasse oder ein Label zuzuweisen. Wenn Sie den Schwellenwert anpassen, können Sie sehen, wie sich die Genauigkeit und die Trefferquote des Modells ändern. Höhere Schwellenwerte erhöhen normalerweise die einzelne und verringern den Recall.
Beispielausgabe für eine Batchvorhersage
Das folgende Beispiel ist das vorhergesagte Ergebnis für ein Modell, das Katzen und Hunde in einem Video identifiziert. Das Ergebnis enthält Segment-, Aufnahme- und einsekündige Intervallklassifizierungen.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-28 (UTC)."],[],[],null,["# Interpret prediction results from video classification models\n\nAfter requesting a prediction, Vertex AI returns results based on your\nmodel's objective. Predictions from a classification model return shots and\nsegments in your videos that have been classified according to your own defined\nlabels. Each prediction is assigned a confidence score.\n\n\nThe confidence score communicates how strongly your model associates each\nclass or label with a test item. The higher the number, the higher the model's\nconfidence that the label should be applied to that item. You decide how high\nthe confidence score must be for you to accept the model's results.\n\n\u003cbr /\u003e\n\n#### Score threshold slider\n\n\nIn the Google Cloud console, Vertex AI provides a slider that's\nused to adjust the confidence threshold for all classes or labels, or an\nindividual class or label. The slider is available on a model's detail page in\nthe **Evaluate** tab. The confidence threshold is the confidence level that\nthe model must have for it to assign a class or label to a test item. As you\nadjust the threshold, you can see how your model's precision and recall\nchanges. Higher thresholds typically increase precision and lower recall.\n\n\u003cbr /\u003e\n\n#### Example batch prediction output\n\nThe following sample is the predicted result for a model that identifies\ncats and dogs in a video. The result includes segment, shot, and one-second\ninterval classifications.\n\n\n| **Note**: The following JSON Lines example includes line breaks for\n| readability. In your JSON Lines files, line breaks are included only after each\n| each JSON object.\n\n\u003cbr /\u003e\n\n\n```\n{\n \"instance\": {\n \"content\": \"gs://bucket/video.mp4\",\n \"mimeType\": \"video/mp4\",\n \"timeSegmentStart\": \"1s\",\n \"timeSegmentEnd\": \"5s\"\n }\n \"prediction\": [{\n \"id\": \"1\",\n \"displayName\": \"cat\",\n \"type\": \"segment-classification\",\n \"timeSegmentStart\": \"1s\",\n \"timeSegmentEnd\": \"5s\",\n \"confidence\": 0.7\n }, {\n \"id\": \"1\",\n \"displayName\": \"cat\",\n \"type\": \"shot-classification\",\n \"timeSegmentStart\": \"1s\",\n \"timeSegmentEnd\": \"4s\",\n \"confidence\": 0.9\n }, {\n \"id\": \"2\",\n \"displayName\": \"dog\",\n \"type\": \"shot-classification\",\n \"timeSegmentStart\": \"4s\",\n \"timeSegmentEnd\": \"5s\",\n \"confidence\": 0.6\n }, {\n \"id\": \"1\",\n \"displayName\": \"cat\",\n \"type\": \"one-sec-interval-classification\",\n \"timeSegmentStart\": \"1s\",\n \"timeSegmentEnd\": \"1s\",\n \"confidence\": 0.95\n }, {\n \"id\": \"1\",\n \"displayName\": \"cat\",\n \"type\": \"one-sec-interval-classification\",\n \"timeSegmentStart\": \"2s\",\n \"timeSegmentEnd\": \"2s\",\n \"confidence\": 0.9\n }, {\n \"id\": \"1\",\n \"displayName\": \"cat\",\n \"type\": \"one-sec-interval-classification\",\n \"timeSegmentStart\": \"3s\",\n \"timeSegmentEnd\": \"3s\",\n \"confidence\": 0.85\n }, {\n \"id\": \"2\",\n \"displayName\": \"dog\",\n \"type\": \"one-sec-interval-classification\",\n \"timeSegmentStart\": \"4s\",\n \"timeSegmentEnd\": \"4s\",\n \"confidence\": 0.6\n }]\n}\n```\n\n\u003cbr /\u003e"]]