Werte Gemeinde,
ich möchte eure Meinung gerne hören: Welche Funktionen oder Einblendungen in das Videobild sind für euch als Piloten am wichtigsten?
Ich habe mir gerade die OSD-Vergleichsliste angesehen und die Menge der vorhandenen oder punktuell fehlenden Features ist beeindruckend lang. Ich selbst habe noch nie ein OSD benutzt oder besessen, daher die Frage - was davon ist wirklich essenziell?
Warum ich mich dafür interessiere? Ich spiele mit offenen Karten: es geht um zukünftige Updates für die 3D-FPV Kamera, welche ich gerade versuche zu industrialisieren. Bei 3D-FPV passen die gängigen OSD prinzipiell nicht mehr ran, aber die Kamera hat einen digitalen Erweiterungsport. Dort könnte eine kleine, sagen wir Sensor-Platine ran, welche die notwendigen Daten bereitstellt. Diese können dann von der 3D-Kamera eingelesen werden und gleich auf der digitalen Ebene im FPGA in das 3D-Videobild eingeblendet werden.
Ich stelle mir das ungefähr so vor, wie die 3D-Menues auf einem 3D-TV, wenn man z.B. sich gerade ein YouTube 3D-Video ansieht: die Darstellung der Tiefe des Raumes kommt rüber, die Menues oder Einblendungen vom OSD können dann auch in unterschiedlicher Tiefe dargestellt werden.
Also bitte, raus mit der Sprache: Was wollt ihr im Flug in eurem OSD sehen?
Danke für eure Hinweise,
KritzelKratzel
ich möchte eure Meinung gerne hören: Welche Funktionen oder Einblendungen in das Videobild sind für euch als Piloten am wichtigsten?
Ich habe mir gerade die OSD-Vergleichsliste angesehen und die Menge der vorhandenen oder punktuell fehlenden Features ist beeindruckend lang. Ich selbst habe noch nie ein OSD benutzt oder besessen, daher die Frage - was davon ist wirklich essenziell?
Warum ich mich dafür interessiere? Ich spiele mit offenen Karten: es geht um zukünftige Updates für die 3D-FPV Kamera, welche ich gerade versuche zu industrialisieren. Bei 3D-FPV passen die gängigen OSD prinzipiell nicht mehr ran, aber die Kamera hat einen digitalen Erweiterungsport. Dort könnte eine kleine, sagen wir Sensor-Platine ran, welche die notwendigen Daten bereitstellt. Diese können dann von der 3D-Kamera eingelesen werden und gleich auf der digitalen Ebene im FPGA in das 3D-Videobild eingeblendet werden.
Ich stelle mir das ungefähr so vor, wie die 3D-Menues auf einem 3D-TV, wenn man z.B. sich gerade ein YouTube 3D-Video ansieht: die Darstellung der Tiefe des Raumes kommt rüber, die Menues oder Einblendungen vom OSD können dann auch in unterschiedlicher Tiefe dargestellt werden.
Also bitte, raus mit der Sprache: Was wollt ihr im Flug in eurem OSD sehen?
Danke für eure Hinweise,
KritzelKratzel