Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Die Video Intelligence API kann mithilfe der Funktion LABEL_DETECT Entitäten in Videomaterial identifizieren und diese Entitäten mit Labels (Tags) versehen. Diese Funktion identifiziert Objekte, Orte, Aktivitäten, Tierarten, Produkte und mehr.
Die Labelerkennung unterscheidet sich vom Objekt-Tracking.
Im Gegensatz zum Objekt-Tracking liefert die Labelerkennung Labels für den gesamten Frame (ohne Begrenzungsrahmen).
Beispiel: Die Video Intelligence API kann für ein Video von einem Zug an einem Bahnübergang Labels wie "Zug", "Verkehr", "Bahnübergang" usw. erzeugen. Jedes Label enthält ein Zeitsegment mit dem Zeitversatz (Zeitstempel) für das Erscheinungsbild der Entität ab Beginn des Videos.
Die Anmerkung enthält außerdem zusätzliche Informationen wie eine Entitäts-ID, mit der Sie weitere Informationen zu dieser Entität in der Google Knowledge Graph Search API finden können.
Jede zurückgegebene Entität kann auch zugehörige Kategorieentitäten im Feld categoryEntities zurückgeben. Das Entitätslabel "Terrier" hat beispielsweise die Kategorie "Hund". Kategorieentitäten haben eine Hierarchie. Beispielsweise ist die Kategorie "Hund" der Kategorie "Säugetier" in der Hierarchie untergeordnet. Eine Liste der allgemeinen Kategorieentitäten, die vom Video Intelligence verwendet werden, finden Sie unter entry-level-categories.json.
Die Analyse kann so unterteilt werden:
Segmentebene: Vom Nutzer ausgewählte Segmente eines Videos können zur Analyse angegeben werden, indem Start- und Endzeitstempel für Annotationen festgelegt werden (siehe VideoSegment).
Entitäten werden dann in jedem Segment identifiziert und mit Labels versehen. Wenn keine Segmente angegeben sind, wird das gesamte Video als ein Segment behandelt.
Aufnahmeebene: Aufnahmen (auch als Szene bezeichnet) werden automatisch in jedem Segment (oder Video) erkannt. Entitäten werden dann innerhalb jeder Szene identifiziert und mit Labels versehen. Ausführliche Informationen finden Sie unter Erkennung von Aufnahmeänderungen
Frame-Ebene: Entitäten werden in jedem Frame identifiziert und mit einem Label versehen (ein Frame pro Sekunde wird als Stichprobe verwendet).
Um Labels in einem Video zu erkennen, rufen Sie die Methode annotate auf und geben Sie LABEL_DETECTION in das Feld features ein.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-03 (UTC)."],[],[],null,["# Analyze videos for labels\n\nThe Video Intelligence API can identify entities shown in video footage\nusing the [LABEL_DETECTION](/video-intelligence/docs/reference/rest/v1/videos/annotate#feature)\nfeature and annotate these entities with labels (tags). This feature identifies\nobjects, locations, activities, animal species, products, and more.\n\nLabel detection differs from [Object tracking](/video-intelligence/docs/object-tracking).\nUnlike object tracking, label detection provides labels for the entire frame\n(without bounding boxes).\n\nFor example, for a video of a train at a crossing, the Video Intelligence API\nreturns labels such as \"train\", \"transportation\", \"railroad crossing\",\nand so on. Each label includes a time segment with the time offset (timestamp)\nfor the entity's appearance from the beginning of the video.\nEach annotation also contains additional information including an entity\nid that you can use to find more information about the\nentity in the [Google Knowledge Graph Search API](https://developers.google.com/knowledge-graph/).\n\nEach entity returned can also include associated\ncategory entities in the `categoryEntities` field. For example the\n\"Terrier\" entity label has a category of \"Dog\". Category entities have a\nhierarchy. For example, the \"Dog\" category is a child of the \"Mammal\"\ncategory in the hierarchy. For a list of the common category entities that the\nVideo Intelligence uses, see\n[entry-level-categories.json](/static/video-intelligence/docs/entry-level-categories.json).\n\nThe analysis can be compartmentalized as follows:\n\n- Segment level: \n User-selected segments of a video can be specified for analysis by stipulating beginning and ending timestamps for the purposes of annotation (see [VideoSegment](/video-intelligence/docs/reference/rest/v1/videos/annotate#videosegment)). Entities are then identified and labeled within each segment. If no segments are specified, the whole video is treated as one segment.\n\n \u003cbr /\u003e\n\n \u003cbr /\u003e\n\n- Shot level: \n Shots (also known as a *scene* ) are automatically detected within every segment (or video). Entities are then identified and labeled within each scene. For details, see [Shot change detection](#shot-change)\n- Frame level: \n Entities are identified and labeled within each frame (with one frame per second sampling).\n\n\u003cbr /\u003e\n\nTo detect labels in a video, call the\n[`annotate`](/video-intelligence/docs/reference/rest/v1/videos/annotate)\nmethod and specify\n[`LABEL_DETECTION`](/video-intelligence/docs/reference/rest/v1/videos#Feature)\nin the `features` field.\n\nSee\n[Analyzing Videos for Labels](/video-intelligence/docs/analyze-labels) and\n[Label Detection Tutorial](/video-intelligence/docs/label-tutorial).\n\nVideo Intelligence API Visualizer\n=================================\n\nCheck out the [Video Intelligence API visualizer](https://zackakil.github.io/video-intelligence-api-visualiser/#Label%20Detection) to see this feature in action."]]