Cliparts_Diashow_4d Cliparts_Diashow_4c Cliparts_Diashow_4b Cliparts_Diashow_4a
 
 

Reset Position

reset
vimeo twitter fb
Testbild

Der in deutschen TV-Studios zur Zeit am häufigsten anzutreffende Video-Standard ist HD-SDI [High Definition Serial Digital Interface] mit einer Auflösung von 1080i. Das bedeutet 1920 x 1080 Bildpunkten mit 50 Halbbildern [= interlaced] pro Sekunde. Die Halbbildertechnologie hat ihre Wurzeln in den Anfängen der Fernsehtechnik. Um schnelle Bewegungen möchtlichst fließend zu übertragen und ein für das Auge möglichst flackerfreies Bild zu erhalten, werden erst die ungeraden (odd) Zeilen eines Bildes übertragen, sodann die geraden (even). Dafür wird jeweils 1/50 Sekunde benötigt.

Früher wurden die Einzelbilder mittels eines von links nacht rechts wandernden Elektronenstrahls auf einem flureszierenden [nachleuchtenden] Röhrenbildschirm aufgebaut. In Ländern mit 60 Hz Wechselstromfrequenz, also beispielsweise den USA, wurden auf diese Weise 60 Halbbilder pro Sekunde übertragen. In der filebasierenden Computertechnik legte man sich auf die Erzeugung und Übertragung von Vollbildern fest, da Flachbildschirme kein Zeilensprungverfahren benutzen und benötigen, die Bezeichnung ist bei 25 Vollbildern 25p [bzw. 30p bei 30 Vollbildern]. In der Filmbranche wiederum sind 24 Bilder pro Sekunde üblich. Es lässt sich leicht ableiten, dass eine große Anzahl an unterschiedlichen Standards existiert, die nicht identisch und kompatibel sind, und eine Konvertierung oft unumgänglich werden lassen, andernfalls spielen Systeme nicht zusammen bzw. erhält man ruckelnde Sequenzen oder kammartige horizontale Muster im Bild. Um die ebens genannten Datenmengen zu übertragen, benötigt man ein HD-SDI-Signal mit 1.5 G [1,485 Gbit/s]

Für 1080 50p [bzw. 60p], d.h. 50 bzw. 60 Vollbilder pro Sekunde benötigt man eine Datenrate von 3G. Doch damit noch lange nicht genug: Mit der 4K Technologie etablieren sich weitere Standards, wenngleich ihre Verbreitung in TV-Studios zurzeit noch eine kleine Rolle spielt. Beim UHD-Standard, auch QHD genannt, verdoppelt sich die Auflösung in X und Y Richtung des Bildes, d.h. 3840 x 2160 Bildpunkte. Daneben gibt es noch den “echten” 4K Standard, der sich aus dem vierfachen von 2 hoch 10, also 4*1024 = 4096 [= 4 k] Bildpunkten in der Horizontalen ableitet. Auch hier gibt es 25p, 30p und 50p sowie 60p und noch viele weitere Standards, dem Formatdschungel ist somit Tür und Tor geöffnet – übertrgen wird mit zwei Leitung und 6G oder eine Leitung mit 12G – alternativ mit vier Leitungen mit jeweils 3G. Die letzten beiden Standards werden sich durchsetzen. Viermal 3G lässt die Nutzung vorhandener Leitungen zu, 12G benötigt nur eine Leitung zur Übertragung, an die jedoch hohe Ansprüche gestellt wird und deren maximale Länge technisch bedingt deutlich kürzer ist, als bei bereits verbauten 3G Leitungen.

Konvertieren kann man die verschiedenen Normen entweder per Software z.B. in Schnittsystemen oder durch entsprechende Hardware [Scaler, Scankonverter], die in Echtzeit Signale wandeln.

Rückblick: Der Vorläufer der heuitgen digitalen Videosignale war SD [Standard Definition] mit einer Auflösung von 720 * 576 Bildpunkten im 4:3 Format, bzw. 405 horizontal nutzbare Bildpunkte bei 16:9, bei der in Europa verbreiteten PAL-Norm. Auch hier wichen Länder wie die USA mit dem NTSC-Standard ab. Vor der digitalen Signalübertragung wurden die Videosignale analog übertragen, auch hier gab es mehrere verschiedene Technologien. Das älteste und am weitesten verbreitete [inzwischen im TV-Studio aber kaum noch anzutreffen] war das Composite oder auch FBAS genannte Signal, das nur ein Kabel zur Übertragung benötigte, qualitativ aber das schlechteste war. Daneben gab es vorwiegend im Consumer-Bereich die Y/C-Norm, die zwei Leitungen zur Übertragung benötigte, sowie das Component-Signal mit drei Signalleitungen (eins für Helligkeit, zwei für Farbe).

Das Testbild wurde vorwiegend zur Einstellung von Fernsehgeräten in Haushalten und zum Abgleich von Fernsehtechnik benutzt. Heute findet man es kaum noch.

Lexikon