
El modelo Analíticas de ocupación te permite contar personas o vehículos a partir de las entradas específicas que añadas en los fotogramas de vídeo. En comparación con el modelo Person Vehicle Detector, el modelo Occupancy Analytics ofrece funciones avanzadas. Estas funciones son el recuento de zonas activas, el recuento de cruces de línea y la detección de permanencia.
- Las zonas activas permiten a los usuarios contar personas o vehículos en zonas específicas definidas por el usuario.
- La detección de cruce de línea permite contar la dirección en la que un objeto cruza una línea concreta.
- La detección del tiempo de permanencia se basa en las zonas activas y permite detectar si los objetos han permanecido en una zona durante un tiempo mínimo.
El modelo acepta una transmisión de vídeo como entrada y genera un protocol buffer con el número de personas y vehículos detectados en cada fotograma. El modelo se ejecuta a seis FPS.
Caso práctico: analíticas de tráfico de ciudades inteligentes
En el siguiente vídeo se muestra cómo puedes usar Vertex AI Vision para crear, desarrollar y desplegar una aplicación de analíticas de ocupación.
Esta aplicación usa un modelo que cuenta los coches que cruzan las líneas de las intersecciones que el usuario especifica en la consolaGoogle Cloud . Además, la aplicación usa un modelo de desenfoque de personas para proteger la identidad de cualquier persona que aparezca en las fuentes de vídeo.
La aplicación envía los datos analizados a Media Warehouse de Vertex AI Vision para almacenar contenido multimedia y también a BigQuery para almacenar datos estructurados en una tabla. El almacén te permite buscar datos almacenados en función de criterios de los modelos, como el número de vehículos o personas. Los datos de la tabla de BigQuery te permiten consultar los datos para obtener información analítica.
Salida del modelo
Detección de personas y vehículos muestra el número de personas y vehículos detectados en el fotograma procesado actual. El tipo de recuento se basa en la entrada de anotación proporcionada por el usuario. Los resultados de detección y seguimiento sin procesar también se incluyen en la salida. A continuación, se muestra la definición del protocol buffer de la salida del procesador. La frecuencia del flujo de salida es constante: tres fotogramas por segundo.
// The prediction result proto for Person/Vehicle Detection. message OccupancyCountingPredictionResult { // Current timestamp. google.protobuf.Timestamp current_time = 1; // The entity info for annotations from the processor. message Entity { // Label id. int64 label_id = 1; // Human readable string of the label. string label_string = 2; } // Identified box contains location and the entity of the object. message IdentifiedBox { // An unique id for this box. int64 box_id = 1; // Bounding Box in the normalized coordinates. message NormalizedBoundingBox { // Min in x coordinate. float xmin = 1; // Min in y coordinate. float ymin = 2; // Width of the bounding box. float width = 3; // Height of the bounding box. float height = 4; } // Bounding Box in the normalized coordinates. NormalizedBoundingBox normalized_bounding_box = 2; // Confidence score associated with this box. float score = 3; // Entity of this box. Entity entity = 4; // A unique id to identify a track. It must be consistent across frames. // It only exists if tracking is enabled. int64 track_id = 5; } // A list of identified boxes. repeated IdentifiedBox identified_boxes = 2; // The statistics info for annotations from the processor. message Stats { // The object info and count for annotations from the processor. message ObjectCount { // Entity of this object. Entity entity = 1; // Count of the object. int32 count = 2; } // Counts of the full frame. repeated ObjectCount full_frame_count = 1; // Message for Crossing line count. message CrossingLineCount { // Line annotation from the user. StreamAnnotation annotation = 1; // The direction that follows the right hand rule. repeated ObjectCount positive_direction_counts = 2; // The direction that is opposite to the right hand rule. repeated ObjectCount negative_direction_counts = 3; } // Crossing line counts. repeated CrossingLineCount crossing_line_counts = 2; // Message for the active zone count. message ActiveZoneCount { // Active zone annotation from the user. StreamAnnotation annotation = 1; // Counts in the zone. repeated ObjectCount counts = 2; } // Active zone counts. repeated ActiveZoneCount active_zone_counts = 3; } // Detection statistics. Stats stats = 3; // The track info for annotations from the processor. message TrackInfo { // A unique id to identify a track. It must be consistent across frames. string track_id = 1; // Start timestamp of this track. google.protobuf.Timestamp start_time = 2; } // The dwell time info for annotations from the processor. message DwellTimeInfo { // A unique id to identify a track. It must be consistent across frames. string track_id = 1; // The unique id for the zone in which the object is dwelling/waiting. string zone_id = 2; // The beginning time when a dwelling object has been identified in a zone. google.protobuf.Timestamp dwell_start_time = 3; // The end time when a dwelling object has exited in a zone. google.protobuf.Timestamp dwell_end_time = 4; } // Track related information. All the tracks that are live at this timestamp. // It only exists if tracking is enabled. repeated TrackInfo track_info = 4; // Dwell time related information. All the tracks that are live in a given // zone with a start and end dwell time timestamp repeated DwellTimeInfo dwell_time_info = 5; }
Prácticas recomendadas y limitaciones
- Evita los puntos de vista de la cámara poco habituales (por ejemplo, una vista desde arriba) en los que las personas y los vehículos aparezcan de forma diferente a como se verían en una vista estándar o habitual. La calidad de la detección puede verse afectada en gran medida por las vistas inusuales.
- Asegúrate de que las personas y los vehículos se vean por completo o casi por completo. La calidad de la detección puede verse afectada si otros objetos ocultan parcialmente el objeto.
- El detector de personas y vehículos tiene un tamaño mínimo de objeto detectable. Este tamaño es aproximadamente el 2% del tamaño de la vista de la cámara. Asegúrate de que las personas y los vehículos a los que quieres orientar la cámara no estén demasiado lejos. Los tamaños visibles de estos objetos clave deben ser lo suficientemente grandes.
- Las zonas de interés deben tener una iluminación adecuada.
- Asegúrate de que la lente de la cámara de la fuente de vídeo esté limpia.
- Asegúrate de que las entidades (que no sean personas ni coches) no obstruyan ninguna parte del campo de visión de la cámara.
- Los siguientes factores pueden reducir el rendimiento del modelo. Cuando elijas las fuentes de datos, ten en cuenta los siguientes factores:
- Condiciones de iluminación deficientes.
- Densidad y oclusiones de objetos.
- Puntos de vista poco comunes o menos habituales.
- Tamaños de objeto pequeños.