Mit Hilfe der Homebridge-Plattform und dem Plugin Homebridge Camera FFmpeg ist es möglich Mobotix-Kameras mit einen live stream inkl. audio in Apple HomeKit zu integrieren. Auch lassen sich events über die FFmpeg http-API auslösen
Beispielkonfiguration für die Kamera und http-API (json):
{
"name": "FFmpeg",
"porthttp": 8580,
"localhttp": false,
"cameras": [
{
"name": "Kamera 1",
"manufacturer": "Mobotix",
"model": "?",
"serialNumber": "10.x.x.x",
"firmwareRevision": "?",
"motion": true,
"motionTimeout": 300,
"doorbell": true,
"videoConfig": {
"source": "-f mxg -i http://<user>:<password>@<ip-adress>/control/faststream.jpg?stream=MxPEG",
"stillImageSource": "-i http://<user>:<password>@<ip-adress>/cgi-bin/image.jpg&size=1280x720",
"maxStreams": 2,
"maxWidth": 1920,
"maxHeight": 1080,
"maxFPS": 30,
"audio": true,
"recording": false,
"prebuffer": false
}
}
],
}
Ist es möglich, während des live streams zusätzlich über http/rtps audio an die Kamera zurück zu übertragen und über den Lautsprecher auszugeben? Welche Einstellungen wären dafür an der Kamera vorzunehmen?
In FFmpeg wäre hierfür eine Zieladresse im optionalen Parameter
returnAudioTarget
anzugeben.