Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
A API Video Intelligence pode identificar entidades mostradas em filmagens usando o recurso LABEL_DETECTION e anotar essas entidades com rótulos (tags). Esse recurso identifica objetos gerais, locais, atividades, espécies de animais, produtos e muito mais.
A detecção de rótulos é diferente do rastreamento de objetos.
Ao contrário do rastreamento de objetos, a detecção de rótulos fornece rótulos para todo o frame (sem caixas delimitadoras).
Por exemplo, no vídeo de um trem em um cruzamento, a API Video Intelligence retorna rótulos como "trem", "transporte", "passagem de nível" e assim por diante. Cada rótulo inclui um segmento de tempo com o ajuste de horário (carimbo de data/hora) referente à aparição da entidade desde o início do vídeo.
As anotações também contêm outras informações da entidade, incluindo um código que pode ser usado para saber mais sobre a entidade na API Knowledge Graph Search do Google.
Cada entidade retornada também pode incluir entidades de categoria associadas no campo categoryEntities. Por exemplo, o rótulo de entidade "Terrier" tem uma categoria para "cachorro". As entidades de categoria têm uma hierarquia. Por exemplo, a categoria "Cachorro" é filha da categoria "Mamífero" na hierarquia. Para ver uma lista das entidades de categoria comuns usadas pela Video Intelligence, consulte entry-level-categories.json.
A análise pode ser dividida da seguinte maneira:
Nível do segmento: os segmentos selecionados por usuários de um vídeo podem ser especificados para análise estipulando carimbos de data/hora inicias e finais para fins de anotação (consulte VideoSegment).
As entidades são identificadas e rotuladas dentro de cada segmento. Se nenhum segmento for especificado, o vídeo inteiro será tratado como um segmento.
Nível da imagem: as imagens (também conhecidas como cenas) são detectadas automaticamente em cada segmento (ou vídeo). As entidades são identificadas e rotuladas dentro de cada cena. Para ver mais detalhes, consulte Detecção de alteração na imagem
Nível do frame: entidades são identificadas e rotuladas dentro de cada frame (com amostragem de um frame por segundo).
Para detectar rótulos em um vídeo, chame o método annotate e especifique LABEL_DETECTION no campo features.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-17 UTC."],[],[],null,["# Analyze videos for labels\n\nThe Video Intelligence API can identify entities shown in video footage\nusing the [LABEL_DETECTION](/video-intelligence/docs/reference/rest/v1/videos/annotate#feature)\nfeature and annotate these entities with labels (tags). This feature identifies\nobjects, locations, activities, animal species, products, and more.\n\nLabel detection differs from [Object tracking](/video-intelligence/docs/object-tracking).\nUnlike object tracking, label detection provides labels for the entire frame\n(without bounding boxes).\n\nFor example, for a video of a train at a crossing, the Video Intelligence API\nreturns labels such as \"train\", \"transportation\", \"railroad crossing\",\nand so on. Each label includes a time segment with the time offset (timestamp)\nfor the entity's appearance from the beginning of the video.\nEach annotation also contains additional information including an entity\nid that you can use to find more information about the\nentity in the [Google Knowledge Graph Search API](https://developers.google.com/knowledge-graph/).\n\nEach entity returned can also include associated\ncategory entities in the `categoryEntities` field. For example the\n\"Terrier\" entity label has a category of \"Dog\". Category entities have a\nhierarchy. For example, the \"Dog\" category is a child of the \"Mammal\"\ncategory in the hierarchy. For a list of the common category entities that the\nVideo Intelligence uses, see\n[entry-level-categories.json](/static/video-intelligence/docs/entry-level-categories.json).\n\nThe analysis can be compartmentalized as follows:\n\n- Segment level: \n User-selected segments of a video can be specified for analysis by stipulating beginning and ending timestamps for the purposes of annotation (see [VideoSegment](/video-intelligence/docs/reference/rest/v1/videos/annotate#videosegment)). Entities are then identified and labeled within each segment. If no segments are specified, the whole video is treated as one segment.\n\n \u003cbr /\u003e\n\n \u003cbr /\u003e\n\n- Shot level: \n Shots (also known as a *scene* ) are automatically detected within every segment (or video). Entities are then identified and labeled within each scene. For details, see [Shot change detection](#shot-change)\n- Frame level: \n Entities are identified and labeled within each frame (with one frame per second sampling).\n\n\u003cbr /\u003e\n\nTo detect labels in a video, call the\n[`annotate`](/video-intelligence/docs/reference/rest/v1/videos/annotate)\nmethod and specify\n[`LABEL_DETECTION`](/video-intelligence/docs/reference/rest/v1/videos#Feature)\nin the `features` field.\n\nSee\n[Analyzing Videos for Labels](/video-intelligence/docs/analyze-labels) and\n[Label Detection Tutorial](/video-intelligence/docs/label-tutorial).\n\nVideo Intelligence API Visualizer\n=================================\n\nCheck out the [Video Intelligence API visualizer](https://zackakil.github.io/video-intelligence-api-visualiser/#Label%20Detection) to see this feature in action."]]