Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Mit Objekt-Tracking können in einem Eingabevideo oder Videosegmenten mehrere Objekte erkannt werden. Hierbei werden Labels (Tags) sowie die Position der Entitäten im Objekt Frame zurückgegeben.
Objekt-Tracking unterscheidet sich von der Labelerkennung. Während die Labelerkennung Labels für das gesamte Einzelbild ohne Markierungsrahmen bereitstellt, erkennt Objekt-Tracking einzelne Objekte und stellt ein Label zusammen mit einem Begrenzungsrahmen bereit, der die Position des Frames für jedes Objekt beschreibt. Beispielsweise können in einem Video, in dem Fahrzeuge eine Kreuzung überqueren, Labels wie "Auto", "Lkw", "Fahrrad", "Autoreifen", "Lichter", "Fenster" usw. erstellt werden. Jedes Label enthält eine Reihe von Markierungsrahmen, die die Stelle des Objekts im Einzelbild angeben.
Jeder Markierungsrahmen enthält außerdem ein Zeitsegment mit einem Zeitversatz (Zeitstempel) für jedes Label, das den Zeitpunkt ab Beginn des Videos angibt. Die Annotation enthält außerdem zusätzliche Elementinformationen wie eine Element-ID, mit der Sie weitere Informationen zu diesem Element in der Google Knowledge Graph Search API finden können.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-03 (UTC)."],[],[],null,["# Object tracking\n\n*Object tracking* can track multiple objects detected in an input video or video\nsegments and return\nlabels (tags) associated with the detected entities along with the location of the entity in\nthe frame.\n| **Note:** There is a limit on the size of the detected objects. Very small objects in the video might not get detected.\n\nObject tracking differs from\n[label detection](/video-intelligence/docs/analyze-labels). While label\ndetection provides labels for the entire frame (without bounding boxes),\nobject tracking detects individual objects and provides a label along with\na bounding box that describes the location in the frame for each object. For example, a video\nof vehicles crossing an intersection may produce labels such as \"car\" , \"truck\",\n\"bike\", \"tires\", \"lights\", \"window\" and so on. Each label includes a series\nof bounding boxes showing the location of the object in the frame.\nEach bounding box also has an associated time segment\nwith a time offset (timestamp) that indicates the duration offset from\nthe beginning of the video. The annotation also contains additional entity\ninformation including an entity id that you can use to find more information\nabout that entity in the\n[Google Knowledge Graph Search API](https://developers.google.com/knowledge-graph/).\n\nTo make an object tracking request, call the\n[`annotate`](/video-intelligence/docs/reference/rest/v1p2beta1/videos/annotate)\nmethod and specify\n[`OBJECT_TRACKING`](/video-intelligence/docs/reference/rest/v1p2beta1/videos#Feature)\nin the `features` field.\n\nCheck out the [Video Intelligence API visualizer](https://zackakil.github.io/video-intelligence-api-visualiser/#Object%20Tracking) to see this feature in action.\n\nFor an example, see [Object Tracking](/video-intelligence/docs/object-tracking)\nand [Shot Change Detection](/video-intelligence/docs/shot-detection) tutorial."]]