Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Mit dem Modell Personen unkenntlich machen können Sie die Privatsphäre von Personen schützen, die in Eingabevideos zu sehen sind. Dazu werden sie in Ausgabevideos beispielsweise durch Maskieren oder Unkenntlichmachen unkenntlich gemacht. Das Modell nimmt Videostreams als Eingabe entgegen und gibt veränderte Videos aus, in denen Gesichter oder ganze Körper von Personen unkenntlich gemacht wurden. Das Modell läuft mit 5 FPS.
Sie können Parameter in der Konsole einrichten, um die Verzerrung in den Ausgabevideos zu steuern:
Wählen Sie Vollständige Okklusion oder Unkenntlich machen aus, um den Art der Verzerrung festzulegen:
Vollständige Okklusion: Die erkannte Region wird mit einem undurchsichtigen schwarzen Begrenzungsrahmen ausgeblendet.
Unkenntlichmachungsfilter: Die erkannte Region wird auf Pixelebene unkenntlich gemacht.
Kunden können auch Nur Gesichter unkenntlich machen auswählen oder deaktivieren, um festzulegen, welcher Bereich des Erscheinungsbildes der Person verzerrt werden soll:
check_box Wählen Sie Nur Gesichter unkenntlich machen aus: Nur der Bereich mit dem Gesicht wird verzerrt.
check_box_outline_blank Löschen
Nur Gesichter unkenntlich machen : Die gesamte Person wird verzerrt.
Mit diesen Kombinationen kannst du die folgenden vier Ausgabevideotypen erstellen:
Art der Verzerrung
Nur Gesichter unkenntlich machen (ausgewählt/nicht ausgewählt)
Ausgabe eines unscharfen Bereichs über allen erkannten Objekten.
Best Practices und Einschränkungen
Vermeiden Sie ungewöhnliche Kameraperspektiven (z. B. eine Vogelperspektive), bei denen Personen und Fahrzeuge anders aussehen als in Standard- oder gängigen Ansichten.
Die Erkennungs- und Unkenntlichmachungsqualität kann durch diese ungewöhnlichen Ansichten stark beeinträchtigt werden.
Achten Sie darauf, dass Personen oder Gesichter vollständig oder größtenteils sichtbar sind. Die Erkennungs- und Unkenntlichmachungsqualität kann durch teilweises Verdecken durch andere Objekte beeinträchtigt werden.
Achten Sie darauf, dass die Szene gut beleuchtet ist. Dunkle Szenen können sich auf die Erkennung und Unkenntlichmachung auswirken.
Der Personen- und Gesichtsdetektor hat eine Mindestobjektgröße. Das entspricht etwa 2% der Größe der Kameraansicht. Personen und Gesichter, die sich weit von der Kamera entfernt befinden, werden nicht unscharf dargestellt. Vermeiden Sie überfüllte Szenen und gehen Sie davon aus, dass alle Personen oder Gesichter unkenntlich gemacht werden. Das Modell funktioniert optimal, wenn sich Personen in der Mitte der Szenen befinden und ausreichend groß sind.
Das Modell zum Unkenntlichmachen von Personen ist für den Datenschutz optimiert. Das Modell kann dann für das Video einen übermäßig großen („konservativen“) Unkenntlichmachungsbereich festlegen.
Um zu vermeiden, dass zu viele Bereiche ausgeblendet werden, ändern Sie die Unkenntlichmachungsmethode von Vollständige Ausblendung zu Unkenntlichmachungsfilter.
Das Modell zum Unkenntlichmachen von Personen ist ein rechenintensiver Vorgang. Daher sollten Sie bei der Verwendung dieses Modells Folgendes beachten:
Auflösung: Es gibt keine Einschränkungen für die Videoauflösung. Videos mit einer Auflösung von mehr als 1.280 × 720 Pixeln werden jedoch auf 1.280 × 720 Pixel verkleinert, wenn Sie das Modell zum Unkenntlichmachen von Personen verwenden. Kleinere Gesichter, die sich weit von den Kameras entfernt befinden, werden nicht unscharf.
Framerate des Ausgabevideos: Die aktuelle Ausgabeframerate des Modells zum Unkenntlichmachen von Personen beträgt unabhängig von der Framerate des Eingabevideos fünf Frames pro Sekunde. Diese Ausgabeframerate ist durch die Rechenressourcen begrenzt und kann bei zukünftigen Produktupdates geändert werden.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-01 (UTC)."],[],[],null,["# Person blur guide\n\nThe **Person blur** model lets you protect the privacy of people who appear in\ninput\nvideos through distortion such as masking or blurring people's appearance in\noutput videos. The model accepts video streams as input and outputs modified\nvideos with people's face or whole body blurred. The model runs at five FPS.\n\nYou can set up parameters in the console to control the distortion in output\nvideos:\n\n1. Choose **Full occlusion** or **Blur filter** to control the distortion type:\n\n - **Full occlusion**: Hide the detected region with an opaque black bounding box.\n - **Blur filter**: Apply pixel-level blurring on the detected region.\n2. Customers can also select or clear **Blur faces only** to control the\n region of the person's appearance to distort:\n\n - check_box Select **Blur faces only**: Distort the face region only.\n - check_box_outline_blank Clear **Blur faces only** : Distort the whole person.\n\nYou can use these combinations to make the following four output video types:\n\nBest practices and limitations\n------------------------------\n\n- Avoid unusual camera viewpoints (for example, a top-down view) where the people and vehicles look different from their standard or common views. The detection and blurring quality can be largely affected by these unusual views.\n- Make sure that people or faces are fully or mostly visible. The detection and blurring quality can be affected by partial occlusion by other objects.\n- Make sure that the scene has proper lighting. Dark scenes might impact detection and blurring quality.\n- The person and face detector has a minimal-detectable object size. This size is approximately 2% with respect to the size of the camera view. People and faces that are far away from the camera aren't blurred. Avoid crowded scenes and expect every person or face to be blurred. The model operates optimally when people are in the center of the scenes and are sufficiently large.\n- The Person blur model optimizes for protecting user privacy. Consequently, the model might provide an excessively large (\"conservative\") blur region for the video. To avoid excessive blacked-out regions, switch your blur method from **Full Occlusion** to **Blur Filter**.\n- The Person blur model is a computationally-expensive operation. Consequently, you should consider the following considerations when using this model:\n - Resolution: There are no constraints on the input video resolution. However, videos with resolution *higher* than 1280x720 pixels are down-sized to 1280x720 pixels when you use the Person blur model. Smaller faces far from cameras aren't blurred.\n - Output video frame rate: The current output frame rate of the Person blur model is a fixed **five frames per second** regardless of the input video frame rate. This output frame rate is limited by computing resources and is subject to change in future product updates."]]