Video Search - Cloud basierte KI Suche - FAQ (DE)

Was ist die Cloud-basierte KI-Videosuche?

Die Videosuche ist eine bahnbrechende KI-basierte Lösung, mit der Benutzer nach Personen, Fahrzeugen oder Objekten suchen und sofort das exakte Video über alle Kameras an allen Standorten hinweg finden können, was Zeit und Geld spart.

Wonach kann ich mit der Videosuche suchen?

Sie können mit der auf natürlicher Sprache basierenden Suche nach Personen, Fahrzeugen oder Objekten suchen.

Menschen

  • Farbe der Oberkörperbekleidung, Farbe der Unterkörperbekleidung

  • Klassifizierung nach Geschlecht

Fahrzeuge

  • Fahrzeugklassifizierung (Pkw, Lkw, Bus, Motorrad)
  • Fahrzeugmarke (Ford, Chevrolet, Fiat, Tesla…)
  • Farbe des Fahrzeugs

Gegenstände

  • Rucksack, Handtasche, Reisekoffer, Fahrrad

Was sind einige gängige Beispiele für Suchtextabfragen?

Beispiele für Suchanfragen, die Sie eingeben können:

  • Person
  • Person im roten Hemd
  • Person im schwarzen Kleid
  • Mann mit Rucksack
  • Frau mit Handtasche
  • Fahrzeug
  • rotes Honda-Auto
  • blauer Lkw
  • toyota
  • weißes Fahrzeug
  • Person mit Auto
  • Person mit Fahrrad Mann in weißem Hemd und blauer Jeans mit braunem Auto

Anmerkung:

  • Sie können auf die Schaltflächen “Person +” oder “Fahrzeug +” klicken, anstatt den Suchtext einzugeben

  • Klicken Sie auf das Dropdown-Menü für die Suchantwort, um die verfügbaren Abfrageoptionen für Fahrzeugmarke, Farbe usw. anzuzeigen.

Welche Suchfunktionen gibt es heute noch nicht?

Zusätzliche Suchfunktionen werden im Laufe der Zeit in das Produkt integriert. Es ist jedoch wichtig zu wissen, dass Sie heute nicht nach Objektfarbe oder Fahrzeugmodell suchen können (z. B. Sienna, Mustang, SUV usw.). Denken Sie auch daran, dass die genaue Erkennung von Objekten umso schwieriger ist, je weiter die Person, das Objekt oder das Fahrzeug von der Kamera entfernt ist.

Wenn Sie einen speziellen Anwendungsfall haben (z. B. Schutzhelm, Alter der Person oder Gesichtsmaske), teilen Sie dies bitte dem Vertrieb oder Support mit, damit wir uns die Roadmap ansehen und den Bedarf zusammen mit anderen Prioritäten bewerten können.

Ist die Nutzung von Smart Video Search kostenpflichtig?

Nein, Smart Video Search ist in Ihrem MOBOTIX CLOUD-Abonnement enthalten, ohne dass zusätzliche Kosten anfallen und ohne dass Sie neue Kameras oder Geräte kaufen müssen. Beachten Sie jedoch, dass in Zukunft in den Pro- und Enterprise-Editionen zusätzliche Funktionen verfügbar sind.

Wann wird die Videosuche in meiner Region verfügbar sein?

Die Video-Suche wird derzeit in den globalen Rechenzentren eingeführt. In Nordamerika begann dies Anfang Juli. MOBOTIX CLOUD-Kunden werden die Videosuche ab Ende August als neue Registerkarte in ihrem VMS-Dashboard sehen, da wir mit dem Rollout in unseren globalen Rechenzentren beginnen. Die Einführung in EMEA sollte bis Ende August abgeschlossen sein. Die Einführung der Videosuche für Kunden im asiatisch-pazifischen Raum wird bis Ende September abgeschlossen sein.
Die Bezeichnung Beta in der Videosuche wird bis dahin erhalten bleiben und sobald die Aufrüstung der Rechenzentren abgeschlossen ist ,entfernt werden.

Wie lange werden die Metadaten der Videosuche gespeichert?

Die Metadaten der Videosuche (nicht das Video) werden standardmäßig maximal 7 Tage lang gespeichert.

Wie funktioniert die Videosuche?

Bei der Suche nach einer Person, einem Fahrzeug oder einem Objekt werden standardmäßig Kameras mit Metadaten (Key Frames) aus den letzten 24 Stunden angezeigt. Benutzer können bestimmte Zeiträume auswählen, um die Ergebnisse einzugrenzen. Die Optionen sind 1-Stunden-, 4-Stunden- und 12-Stunden-Blöcke. Verwenden Sie die gleitende Skala, um einen bestimmten Tag oder ein bestimmtes Zeitfenster auszuwählen, falls gewünscht. Außerdem helfen die blauen Kacheln am unteren Rand dabei, die Aufmerksamkeit auf den Zeitpunkt zu lenken, an dem die Key Frames (Event Bilder) aufgenommen wurden, und dienen dazu, einen bestimmten Zeitraum aufzuschlüsseln.

Welche zusätzlichen Informationen sind heute mit der Videosuche verfügbar?

Jede Kameraansicht verfügt über eine Zahl (in einem schwarzen Kasten) direkt unter der rechten unteren Ecke der Kameraansicht. Diese Zahl gibt die Gesamtzahl der erkannten Key Frames an: Person, Fahrzeug, Objekt. Wenn Sie auf eine blaue Kachel klicken, können Sie einen genaueren Zeitraum abrufen. Innerhalb des Videobildes sehen Sie nun die Anzahl der erkannten Ereignisse innerhalb dieses Zeitraums. Wir nennen dies eine Dichteübersicht (Density Map) um die Häufung von Events farblich darzustellen.

Standardmäßig (vor der Angabe von Suchkriterien) werden alle Ereignisse mit interessanten Metadaten (ein Personen-, Fahrzeug- oder Objektereignis) gefunden und angezeigt. Ereignisse können nach “Tags” gruppiert werden, um eine Zusammenfassung von Ereignissen von mehreren Kameras anzuzeigen. Wenn ein Suchbegriff wie “Person” eingegeben wird, wird die Anzahl der Key Frames, auf denen eine “Person” identifiziert wurde, pro Kamera angezeigt. Aus dem obigen Bild können Sie ersehen, dass es 226 Key Frames von der ausgewählten Dichteübersicht (Density Map) oder dem ausgewählten blauen Quadrat gibt.

Was ist ein Key Frame?

Key Frames werden aus der Videoaufzeichnung anhand des Umfangs der Bewegungen und Aktivitäten extrahiert. Diese Key Frames können als Navigationshilfe verwendet werden und werden auch als “Miniaturansichten” bezeichnet.

Werde ich nur Ergebnisse sehen, die meinen Suchkriterien entsprechen?

Nein, Sie sollten mehr Key Frames sehen als nur perfekte Übereinstimmungen auf der Grundlage der eingegebenen Suchkriterien. Diese breite Suche ist gewollt. Es ist besser, mehr Bilder als gewünscht zu finden, als etwas zu übersehen, das wichtig sein könnte. Es kann daher vorkommen, dass Sie Key Frames sehen, die den Kriterien nicht entsprechen, und das ist normal.

Welche Auflösung wird für die Videovorschau empfohlen?

Die empfohlene Auflösung des Preview Streams ist 640x480 (diese Größe hängt vom Seitenverhältnis ab, 640x360 ist eine weitere Option, die gewählt werden kann). Das Ziel bei der Auswahl der Auflösung ist es, gerade genug Pixel auf dem Ziel zu haben, um eine Person oder ein Fahrzeug genau zu erkennen.

Wenn eine Bewegung erkannt wird, verwendet das an die Cloud gesendete Key Frame die in den Kameraeinstellungen definierte Auflösung des Vorschaubildes. Die Registerkarte Bewegung enthält Einstellungen für Bewegungsereignisse wie Empfindlichkeit und Größe des Bewegungsobjekts. Die Einstellungen für Regionen/Alarme können verwendet werden, um Suchergebnisse für eine bestimmte Region zu filtern. Wenn beispielsweise alle Kameras rund um das Grundstück in den Einstellungen für die Bewegungsregion den Namen “Zaun” verwendet haben, liefert der Suchfilter für “Zaun” alle Aktivitäten rund um den Zaun. Durch die Verwendung von MOBOTIX Motion oder MOBOTIX Messages können die Genauigkeit und die Anzahl der Key Frames optimiert werden, um zusätzlich die benötigte Bandbreite zu reduzieren. Deaktivieren Sie in diesem Fall die Bewegung im Tab Bewegung, um nur MOBOTIX-Kameraereignisse als gültige Key Frames zu übertragen!

Wie kann ich die Videosuche für Echtzeitanalysen oder während der Reaktion auf einen aktiven Vorfall nutzen?

Die Videosuche priorisiert immer die jüngsten Ereignisse. Wenn Sie den Bildschirm aktualisieren, wird das letzte Ereignis von jeder Kamera angezeigt. Das jüngste Ereignis wird ganz oben angezeigt. So können sich die Benutzer auf die Kameras mit Aktivität konzentrieren und auf die “Live-Ansicht” einer bestimmten Kamera zugreifen, auf der sich eine Person/ein Fahrzeug/ein Objekt von Interesse befindet.

Was ist der MOBOTIX CLOUD-Ansatz für KI und Videosuche?

MOBOTIX CLOUD als Pionier in der Videoüberwachungstechnologie unterstützt den CLOUD-Ansatz und verfolgt die Branchentrends genau. Videoüberwachung und künstliche Intelligenz konvergieren und werden dies auch in Zukunft tun. In der Vergangenheit herrschte die Meinung vor, dass künstliche Intelligenz teuer ist und spezielle Geräte und teure Server zur Implementierung und Verwaltung benötigt. Mit der Videosuche über die MOBOTIX CLOUD sind keine zusätzlichen Server erforderlich, und Sie können die vorhandenen Kameras verwenden. Es werden laufend neue Funktionen eingeführt, wobei die Benutzerfreundlichkeit und ein intuitives Benutzererlebnis immer im Vordergrund stehen.

What is the “Video Search’’ Architecture?

Das obige Diagramm gibt einen Überblick über die Architektur der Videosuche. Diese Architektur ermöglicht das Hinzufügen von Intelligenz zu jeder ONVIF-Kamera. Wenn eine Bewegung erkannt wird, sendet die Bridge Key Frames und Videos an das MOBOTIX CLOUD-Datenzentrum. MOBOTIX CLOUD hat seine Datenzentren mit KI-Funktionen ausgestattet, um diese Key Frames in Echtzeit zu verarbeiten. Mehrere KI-Modelle, die auf Cloud-Servern laufen, extrahieren Informationen aus den Key Frames und kennzeichnen Videos in Echtzeit. Bei Eingabe eines Suchkriteriums werden die Metadaten durchsucht und die passenden Key Frames angezeigt.

Was ist das Besondere an der Architektur der Videosuche?

Die MOBOTIX CLOUD-Video-Search-Architektur erweitert jede Kamera um Intelligenz und ist skalierbar. Die KI ist nativ in der Cloud enthalten, so dass MOBOTIX CLOUD-Kunden keine neue KI-Kamera oder eine KI-Appliance kaufen müssen, um ihre Sicherheitsinfrastruktur zu modernisieren.

Im Gegensatz zu Edge-basierter Hardware, die in ein paar Jahren veraltet ist, ist sie auch zukunftssicher. Darüber hinaus werden aufgrund unseres kontinuierlichen Liefermodells auch weiterhin neue KI-Funktionen und -Erweiterungen zum Produkt hinzugefügt, ohne dass ein Besuch vor Ort oder ein Upgrade erforderlich ist.

Was ist ein KI-Modell und wie funktioniert es?

KI-Modelle helfen dabei, logische Schlussfolgerungen und Entscheidungen zu automatisieren. Nachdem die Daten gesammelt und aufbereitet wurden, geht es im nächsten Schritt um die Erstellung intelligenter Modelle für maschinelles Lernen zur Unterstützung fortgeschrittener Analysen. Diese Modelle verwenden verschiedene Arten von Algorithmen, um Muster zu erkennen und können ähnlich wie beim menschlichen Verhalten Schlussfolgerungen ziehen.

Die empfangenen Key Frames werden durch mehrere KI-Modelle geleitet, um Schlussfolgerungen zu ziehen. Wird beispielsweise eine Person erkannt, wird ein Bildausschnitt der Person an ein weiteres KI-Modell weitergeleitet, um die Farbe der Kleidung zu ermitteln, und an ein weiteres KI-Modell, um die Re-ID zu ermitteln. In ähnlicher Weise wird nach der Erkennung eines Fahrzeugs der Ausschnitt des Fahrzeugs an ein anderes KI-Modell weitergeleitet, um die Fahrzeugklassifizierung oder die Fahrzeugmarke zu ermitteln.

Aufgrund der Flexibilität der MOBOTIX CLOUD-Cloud-Architektur ist es einfach, weitere KI-Modelle hinzuzufügen, um die Suchfunktionen weiter zu verbessern oder neue Anwendungsfälle abzudecken. Das folgende Diagramm zeigt, wie die KI-Verarbeitung in den MOBOTIX CLOUD-Rechenzentren funktioniert.

Wurden die KI-Modelle von einem Drittanbieter bereitgestellt?

Nein, alle KI-Modelle werden von MOBOTIX CLOUD entwickelt und eingesetzt.

Kann die Videosuche zur Zählung einzelner Personen und/oder Fahrzeuge verwendet werden?

Heute nicht. Die Videosuche ermöglicht die Suche nach den verschiedenen Objektklassifizierungen, aber sie erlaubt es nicht, die Anzahl der einzelnen Personen und/oder Fahrzeuge zu bestimmen.

Kann die Verweildauer mit Smart Video Search gemessen werden?

Nein, nicht mit der Videosuche, aber vergessen Sie nicht, dass dies mit der MOBOTIX CLOUD und durch den Einsatz von Analytics und insbesondere der Loitering Analytic möglich ist.

Kann die Zählung von Menschenmengen mit der Videosuche durchgeführt werden?

Ja, die Warteschlangenlänge und das Zählen von Menschenmengen basieren auf einer ähnlichen Technologie zur genauen Erkennung einer Person in einem Bild. Abhängig von der Region, die von Interesse ist, können wir sie auf einen bestimmten Bereich eingrenzen, z. B. eine Region von Interesse oder einen viel größeren Raum. Bei der Anwendung von Crowd Counting im Freien ist auf folgende Punkte zu achten: Verdeckung, Größe des Key Frames und die für die genaue Erkennung einer Person erforderlichen Pixel.

Kann die Videosuche dazu verwendet werden, Fahrzeuge zu zählen, die eine Kreuzung überqueren?

Nein, es findet keine Verfolgung von Fahrzeugen statt. Für dieses Beispiel wird eine P7-Kamera mit Vaxtor LPR APP empfohlen. Und die Verwendung des MOBOTIX Nachrichten-Registers, um nur dann eine Aufzeichnung zu erhalten, wenn ein Nummernschild erkannt wird. Mit MOBOTIX HELIX können Sie zusätzlich ein Dashboard für Statistiken erhalten.

Wie viel Bandbreite wird benötigt, um eine Person oder ein Fahrzeug in Echtzeit zu erkennen?

Die Bandbreite, die für die Übertragung von Key Frames in die Cloud benötigt wird, ist relativ gering (siehe Grafik unten) und kann durch MOBOTIX IoT Kamera Events optimiert werden, um die Anzahl der falschen Key frames zusätzlich zu reduzieren!

Beispiel für die Bandbreite der Videosuche (nur Traffic für Key Frames)

Key Frame (angenommene Auflösung)
640 x 360
Dateigröße des obigen Schlüsselbildes 30 Kilo Bytes
FPS

(Durchschnitt im Outdoor-Verkehrsszenario) 0,1 FPS
Upload-Geschwindigkeit erforderlich 240 Kbps
Datenverbrauch pro Monat 7,776 GB

Welche Latenzzeit ist bei der Echtzeit-Extraktion von Metadaten zu erwarten?

Metadaten sind in der Regel in weniger als 5 Sekunden verfügbar, obwohl dies leicht variieren kann.

Verwendet die Videosuche eine Gesichtserkennung?

Nein. Die intelligente Videosuche verwendet keine Gesichtserkennung.

Was ist Re-ID und wie funktioniert es?

Die Re-Identifizierung ist eine nicht-invasive Methode zur Suche nach ähnlich aussehenden Personen. Sie können eine einzelne Kamera über mehrere Zeiträume hinweg durchsuchen. Der Re-ID-Algorithmus liefert einen Signaturvektor für eine Person. Diese Daten werden in der Cloud gespeichert, enthalten aber keine persönlich identifizierbaren Informationen (PII). Bei der Suche nach einer Person suchen wir nach ähnlichen Signaturvektoren, um die betreffende Person über die Zeit hinweg zu identifizieren.

Mx_PP_Cloud_VideoSearch_DE_220830.pdf (2.2 MB)