Bandlose digitale
                          Signalaufzeichnung

                                                                  Jens Luetkens
                                                                        4/98

     Inhalt:
     

     • Die Festplatte                Aufbau und Funktionsweise

     • SCSI                             Schnittstelle und Protokoll

     • RAID                             Systeme und Leistungen

     • Harddisk-Recorder
       und Videoserver

     
     

     Die Festplatte
     

    • Aufbau einer Festplatte

    Eine Festplatte hat in der Regel mehrere Oberflächen. Auf den Oberflächen befinden sich die Spuren, die als konzentrische Ringe angeordnet sind. Übereinanderliegende Spuren werden zu Zylindern zusammengefaßt. Die Spuren werden weiter in Sektoren unterteilt. Ein Sektor ist die kleinste Einheit, die auf einer Festplatte (Magnetplatte) gelesen oder geschrieben werden kann.
     
     

    Ein Zugriff auf einen Sektor erfolgt, indem der Schreib-/Lesekopf über die entsprechende Spur positioniert und die Platte solange gedreht wird, bis sich der  Sektor unter dem Kopf vorbeidreht. Jeder Oberfläche hat einen eigenen Schreib-/Lesekopf, sie werden jedoch alle gemeinsam über den Spuren plaziert, also über einen Zylinder. Jeder Sektor wird also über seine Zylindernummer, Kopfnummer und Sektornummer eindeutig adressiert. Diese Daten (+ CRC Prüfsumme) sind im Header jedes Sektors abgelegt. Auf den Header folgen die Nutzdaten mit einer ECC-Prüfsumme. Die formatierte Sektorlänge ergibt sich aus der Anzahl der Nutzdaten in Bytes. Typische Sektorlängen sind 512, 1024 und 4096 Bytes. Der Header, die Prüfsummen und verschiedene Lücken und Synchronisationsfelder nehmen je nach Sektorformat zwischen 40 und 100 Byte ein.
    Der Festplatte sind noch einige Baugruppen vorgeschaltet:
    - Ein Formatter serialisiert die Daten und fügt Steuerinformationen zu.
    - Ein Datenseparator kodiert die Daten in das Format, in dem sie auf dem Medium aufgezeichnet werden sollen.
    - Ein Schreib-/Leseverstärker wandelt die Daten in analoge Werte für die Schreib-/Leseköpfe um.

     Zwischen Schreib-/Leseverstärker, Antrieb, Steuerelektronik (HDA: Head Disk Assembly)  und Datenseparator kann die 1980 eingeführte Schnittstelle ST506 angesiedelt werden. Da diese aber auf nur 5 MHz begrenzt war, wurde sie ab 1983 von der ESDI-Schnittstelle verdrängt, die 20 MHz Transferrate erlaubt und zusätzlich Kommandos, etwa zum Positionieren des Schreib-/Lesekopfes, kennt.
    Mit Einführung der SCSI-Schnittstelle ab 1984 wird auch noch der Festplatten-Kontroller (Anbindung des Gerätes an den SCSI-Bus) auf das Laufwerk verlegt. Dabei wird ein Common Command Set CCS definiert, das unbekannte Laufwerke zu erkennen ermöglicht und außerdem ein Defektmanagement enthält. Zeitgleich wird bei der Entwicklung der IDE-Schnittstelle noch der Hostadapter (Anbindung des Computers an den SCSI-Bus) auf die Festplatte verlegt, was gegenüber geringfügig höheren Kosten auf der Laufwerksseite deutliche Einsparungen beim Festplattenkontroller bedeutete, allerdings auch das Hostsystem, nämlich IBM-AT-kompatible Computer festlegt.
     

    Die Leistung einer Festplatte wird an ihrer Kapazität, Transferrate und Zugriffszeit festgemacht.
    Die formatierte Bruttokapazität ergibt sich aus dem Produkt der Sektorlänge, Zahl der Sektoren pro Spur, Zahl der Spuren und Zahl der Köpfe. Dabei sind 1 Gigabyte 10E6x1024 Byte.
    Die Transferrate (Nettotransferrate) ist das Produkt aus Bits pro Umdrehung und Umdrehungen pro Sekunde.
    Die mittlere Zugriffszeit (Average Access Time) setzt sich aus der mittleren Suchzeit (Average Seek Time) und der Umdrehungsverzögerung (Rotational Latency) zusammen. Die mittlere Umdrehungsverzögerung bezeichnet die Zeit einer halben Umdrehung (bis der gewünschte Sektor unter dem Kopf erscheint), beträgt also z.B. bei Platten mit 5400 RPM 5,5 ms.

    Vom Kontroller werden noch einige besondere Datenbehandlungen durchgeführt, die Einfluß auf die Schreib-/Lesegeschwindigkeit haben:
     • Datenpuffer
     Da ein Sektor immer am Stück geschrieben oder gelesen werden muß (die Forderung nach Echtzeitverhalten bedeutet hier, daß die Reaktion auf ein äußeres Ereignis genau vorhergesagt werden kann) werden die Daten vor dem Schreiben komplett in einen Puffer geladen und dann der Transfer bestätigt.
    • Vorauslesen und Stückweises Lesen
     Wird der Puffer soweit vergrößert, daß eine ganze Spur hineinpaßt, kann der Kontroller besondere Optimierungen verwirklichen. Beim Vorauslesen wird immer der dem angeforderten folgende Sektor (bzw. die ganze Spur) mit in den Puffer gelesen und kann dann bei Bedarf besonders schnell ausgelesen werden. Beim Stückweise Lesen werden die Daten ausgelesen, sobald sich der Kopf über der richtigen Spur befindet, so daß immer nach einer Umdrehung die gesamte Spur im Puffer liegt.
    • Write-Status
     Da der SCSI-Bus üblicherweise vier bis fünf mal schneller Daten in den Puffer schreiben, als diese vom Laufwerk auf die Platte geschrieben werden können, kann der Kontroller Zeit sparen, indem er den Write-Status mit GOOD abschließen, sobald die Daten im Puffer liegen.
    • Caching
     Der Cache ist eine schnelle Speichereinheit mit Kopien von Dateien, auf die besonders häufig zugegriffen wird, z.B. Inhaltsverzeichnisse. Dadurch wird die Zugriffszeit auf unter eine Millisekunde bei einer Trefferquote von bis zu 50% reduziert.
    • Defektlisten
     Bei der Prüfung der Festplatte festgestellte und während des Betriebs neu entstandene defekte Sektoren werden in Defektlisten abgelegt und durch andere logische Blocks ersetzt, so daß dem Benutzer immer ein fehlerfreies Medium zur Verfügung gestellt wird.
    • logische Blocks und Mapping
     Die Nutzinformationen auf der Festplatte präsentieren sich dem SCSI-Initiator als logische Blocks. Diese werden durch die logische Blocknummer LBN adressiert. Die Zuordnung der logischen auf die physikalischen Blocks, das Mapping, erfolgt in der Regel linear. Die Größe er logischen Blocks kann sich von den Sektorgrößen unterscheiden, ist aber meistens auch 512 Byte.


     
     

     SCSI

    Der SCSI-Standard beschreibt elektrische Eigenschaften und ein Protokoll, das speziell auf die Bedürfnisse von Peripheriegeräten angepaßt ist. Ziel des Standards ist es, ein geräteunabhängiges I/O-System zu erhalten.
     

    • Die Entwicklung

    Auf Antrag der Magnetplattenhersteller NCR, Optimen und Shuart, der 1979 die Vorgängerschnittstelle SASI entwickelte, wurde 1982 eine ANSI-Arbeitsgruppe zur Entwicklung der SCSI-Schnittstelle gegründet, die 1984 den ersten Entwurf zur Genehmigung vorlegte. Dieser Entwurf, SCSI-1, wurde 1986 abgesegnet. Zu diesem Zeitpunkt hatte sich SCSI schon lange in der Industrie etabliert. Die Definition der Kommandos ließ den Geräteherstellern jedoch so viel Raum, daß die SCSI-Treiber praktisch für jedes der rasant neu erscheinenden Geräte angepaßt werden mußten. Deshalb erarbeitete die SCSI-Arbeitsgruppe 1984 das Common Command Set CCS, in dem die Kommandoform über Mode-Parameter-Seiten festgelegt wird. Die Weiterentwicklung zum SCSI-2-Standards, der besonders einen erweiterten Kommandosatz beinhaltet und schnellere Datenübertragung und mehr Peripheriegeräte ermöglicht, begann 1986, wurde 1989 vorgelegt und 1994 verabschiedet. Wiederum war SCSI-2 schon lange vor Verabschiedung gängiger Industriestandard. Die meisten SCSI-Geräte arbeiten heute mit diesem Standard. Die Arbeitsgruppe arbeitet noch immer an SCSI-3, wobei besonders der Kommandosatz für RAID-Kontroller SCC eine Neuerung darstellt. Auf physikalischer Ebene bringt der Standard vor allem die Schnittstellen Fibre-Channel, SSA und Fire-Wire (IEEE P1394).
    Alle SCSI-Versionen sind abwärtskompatibel.
     

    • elektrische Eigenschaften der SCSI-Schnittstelle

    Grundsätzlich erfolgt die Übertragung von Kommandos und Daten auf dem parallelen SCSI-Bus asynchron. Dadurch werden Transferraten auf bis 3MHz begrenzt. Ab SCSI-1 ist die synchrone Datenübertragung optional und wird unter den Geräten verhandelt. Damit werden Datenraten bis zu 10 MByte/s erreicht. Die Betriebsart Fast-20 (Ultra) ermöglicht Datenraten bis zu 20 MByte/s. Obwohl alle Versionen zueinander kompatibel sind, bestimmt das schlechteste Gerät am Bus die Datenübertragungsart und -geschwindigkeit.
     

     Busbreite, maximale SCSI-Transferraten, Peripheriegeräte und Buslänge

     asynchroner SCSI-1         8 Bit          3 MByte/s         8             6 m
     synchroner SCSI-1          8 Bit           5 MByte/s         8             6 m
     Fast SCSI-2                     8 Bit         10 MByte/s         8             3 m
     Fast-20 (Ultra)                 8 Bit         20 MByte/s         4/8          3 m/1,5 m
     Wide SCSI-2                 16 Bit         20 MByte/s         16/32      1,5 m
     Wide Fast-20                 16 Bit         40 MByte/s         16           1,5 m
     Wide Fast-20                 32 Bit         80 MByte/s         32           1,5 m
     

     Die Schnittstelle ist in der Regel single-ended (asymmetrisch), was eine Buslänge von 6 m erlaubt. Fast-SCSI (SCSI-2) mit Transferraten über 5 MByte/s erlauben nur eine Buslänge von höchstens 3 m. Die Version differentiell (symmetrisch) ermöglicht eine Buslänge bis zu 25 m.

    Der ursprünglich 8 Bit breite SCSI-1-Bus wird in SCSI um die Version Wide ergänzt, bei der der Bus 16 oder 32 Bit breit ist.
    Dies erfordert allerdings zusätzliche Kabel und Verbindungen.

    Das SCSI-1 Kabel (A-Kabel) ist das typischerweise intern verlegte 50-polige Flachbandkabel. Davon sind 8 Daten- und 10 Steuersignalleitungen mit zugehörigen Massen und eine +5V-Leitung, die verwendet wird, um jede Signalleitung einzeln zu terminieren.
    Für die Wide-Variante von SCSI-2 ist ein zusätzliches 68-poliges B-Kabel definiert worden. Dies hat sich allerdings nie durchgesetzt, statt dessen verwendeten schon die ersten Wide-Implementationen nur das in SCSI-3 definierte 68-polige P-Kabel. Darauf werden die Steuerleitungen, die Datenleitungen 0 bis 15 mit zugehörigen Paritäten geführt. Die 32-Bit Variante erfordert allerdings ein weiteres Kabel, das 68-polige Q-Kabel, auf dem die Datenleitungen 16 bis 31, sowie zwei weitere Paritäten geführt werden.

    Jede SCSI-Datenleitung erfordert am Busabschluß einen Terminator. Die Termination erfolgt gegenüber der Leitung mit 220 Ohm gegen +5V und mit 330 Ohm gegen Masse.
     

    Nach SCSI-2 ist auch eine aktive Terminierung möglich. Die Vorschriften von
    SCSI-3 erzwingen  diese praktisch.

    Der Terminator für differentielles SCSI wird mit 330 Ohm gegen +5V und mit 150 Ohm Zwischen den Leitungen terminiert.
     

    Das Spannungen des Signals liegen zwischen 0 und 5 Volt. Dabei liegt das Signal zwischen 0,0 und 0,5 Volt an und ist zwischen 2,5 und 5,25 Volt negiert. Der Eingangsstrom bei angelegtem Signal darf zwischen 0,0 und -0,4 mA bei 0,5 Volt betragen, für das negierte Signal bei 5,25 Volt 0,0 bis 0,1 mA.
     
     

    Der Eingangstreiber muß 0,0 bis 0,8 Volt als negiertes, 2,5 bis 5,25 Volt als angelegtes Signal erkennen. Die Terminierung soll eine Leitungsimpedanz zwischen 100 und 132 Ohm sicherstellen. Der single-ended SCSI-Bus darf maximal 10 cm , der differentielle 20cm lange Abzweigungen (stubs) haben. Dies betrifft den Weg vom Stecker bis zum SCSI-Chip.
    Auf dem SCSI-Bus wird pro 8 Bit ein Paritätsbit mitgeführt.


     
     

     • Kommandoebene und Architekturmodell

    Auf einem SCSI-Bus sendet ein Initiator Kommandos an einen Target. Das Target führt den Befehl aus und meldet sich mit einem Status zurück. Die Ausführung des Befehls bleibt dem Initiator verborgen, z.B. beim READ Kommando die Übersetzung der logischen Blocknummer auf den entsprechenden Sektor möglicherweise mit Defektlistenkorrektur. Dadurch können unterschiedliche Aufzeichnungsformate der verschiedenen Geräte behandelt werden.
     

    Initiator ist in der Regel der Hostadapter, Target die SCSI-Kontroller, die über ihre SCSI-ID erkannt werden. Die Ausführung der Befehle wird vom Target an die logical units LUN (maximal 7 LUNs ansprechbar) weitergeleitet. Unter diesem Begriff werden die Peripheriegeräte und die zur Ausführung der Tasks benötigte Logik zusammengefaßt. Ein Task wird in der LUN angelegt, sobald ein Kommando auszuführen ist, und erlischt, wenn das Kommando abgearbeitet ist.
    Viele Geräte sind in der Lage sowohl als Initiator, als auch Target zu funktionieren, z.B. im Rahmen des COPY- oder des FORMAT-Kommandos. Ein Initiator kann mehrere Targets bedienen (Multitasking-Betriebssysteme), eine SCSI-Konfiguration ist auch mit mehreren Initiatoren möglich.
    Die SCSI-Architekturmodell SAM läßt sich auch gut als Client-Server-Modell darstellen. Ein Client schickt eine Anforderung an einen Server, der diese bearbeitet und beantwortet.

    Ein SCSI besteht in der Hauptsache aus einem Kommandoblock und einem Statusbyte. Seit SCSI-3 ist auch noch ein Taskbezeichner vorgesehen, der Initiator, Target und LUN bezeichnet. Der Kommandoblock enthält Kommandos unterschiedlicher Länge.
    Die SCSI-Kommandos sind in 8 Kommandogruppen unterteilt. Die Gruppe und die Kommandonummer werden im ersten Byte eines Kommandos (Op-Code) übertragen. Über das INQUIRY-Kommando identifiziert sich das Gerät zu einer der 8 Geräteklassen, die SCSI bekannt sind: Plattenlaufwerke, Magnetbänder, Drucker, Prozessor-Geräte, WORM-Platten, CD-ROMs, Scanner, Optische Speicher, Medienwechsler, Kommunikationsgeräte, Druckvorstufengeräte*, Arraykontroller*, (reserviert) oder unbekannt (*: ab SCSI-3). Für jede Geräteklasse kennt SCSI ein Modell, einen Kommandosatz und spezifische Parameterseiten.
     Mit SCSI-3 wird ein eigener Kommandosatz für Storage Array Kontroller SCC eingeführt. Ein Storage Array Kontroller enthält einen Baustein, der den Adressraum des Arrays auf die physikalischen Blockadressen der Laufwerke abbildet, den Storage Array Conversion Layer SACL. Dem SACL bleibt es überlassen, die Tasks der maximal 7 ansprechbaren LUNs auf die Laufwerke des Arrays zu verteilen (LUN-Mapping, Teil der für SCSI-3 definierten Mode-Parameterseite für Storage Array Kontroller).
    Ein SACL ist als Software- oder als Hardware-SACL ausführbar. Der Vorteil eines Software-SACL kann ein günstiger Preis sein. Andererseits ist eine solche Lösung meist an ein bestimmtes Betriebssystem gebunden und wirkt sich negativ auf die Systemressourcen aus.
    Als Hardware kann der SACL in einem besonderen Hostadapter oder als Kontroller (Bridgekontroller) untergebracht werden. Der Bridgekontroller präsentiert sich dem SCSI-Bus als normale Festplatte.
    Die Konfiguration eines Arrays geschieht über Objekte, die zusammengefaßt (assoziiert), angeschlossen (attached) oder abgesichert (covered) werden können. So können Volume-Sets, Redundanzgruppen und Spares gebildet werden, die Bausteine eines RAID-Arrays.


     

      RAID

    Bei der Entwicklung immer schnellerer SCSI-Busse und immer leistungsfähigerer Rechner kann die Leistungssteigerung von Festplatten nicht ohne weiters mithalten. Die heute schnellsten Festplatten mit 10000 Umdrehungen pro Minute und einer Datenrate von 15 - 20 MByte pro Sekunde sind sehr teuer und laut. Übliche Festplatten nutzen nur etwa ein fünftel der SCSI-Bandbreite. Aus den Bedürfnissen an einem preiswerten und effizienten Datentransfer- und -speichersystem wurde 1987 an der Universität von Berkley das Prinzip des Redundant Array of Independant (Inexpensive) Disks RAID entwickelt. Dabei werden mehrere Festplatten so zu einem Array zusammengefaßt, daß die Daten auf mehrere Festplatten verteilt werden. Der Array erscheint dem Anwender wie eine einzige große Festplatte, bei der sich die Datenübertragungsgeschwindigkeiten durch den parallelen read/write (r/w) Zugriff summieren. Unglücklicherweise summieren sich auch die Fehlerwahrscheinlichkeiten der einzelnen Festplatten, so daß ein Fehlerschutz vorgesehen werden mußte.
    Es wurden 5 RAID-Level festgelegt (RAID-1 bis RAID-5), bei denen Geschwindig-keit und Datensicherheit unterschiedlich stark berücksichtigt werden. Ein weiterer Level, RAID-0, ist für maximale Geschwindigkeit ohne Datensicherung vorgesehen.

    Ein RAID-Kontroller teilt die logischen Blocks in Chunks, die kleinste Dateneinheit einer RAID-Konfiguration. Es gibt zwei Ansätze:

    • Die Chunks sind klein (etwa ein Bit bis 16 Byte)
     Eine Datei wird über viele Chunks verteilt, ein Zugriff erfolgt immer auf mehrere Chunks.
     Das bewirkt eine optimale Ausnutzung der Festplattengeschwindigkeit beim Lesen, da (durch Caching können ganze Sektoren geschrieben werden) quasi von allen Platte gelesen werden kann. Dieser Vorteil wird beim Schreiben von Paritäten etwas relativiert. Die Datentransfergeschwindigkeiten der Festplatten summieren sich. Diese Konfiguration wird für RAID-2 und -3 benutzt.
    • Die Chunks sind groß (eventuell mehrere Kilobyte)
     Bei vielen kleinen Dateien paßt eine Datei in einen Chunk, ein Zugriff kann auch nur auf einen Chunk erfolgen.
     Diese Konfiguration unterstützt die gleichzeitige Bearbeitung von mehreren Tasks. Der Vorteil liegt bei guter Geschwindigkeit durch wenig Daten-Overhead für sequentielles Schreiben. Ein gutes Caching ist erforderlich, da z.B. beim Sichern einer Datei gleichzeitig mehrere Andere gelesen werden müssen, um die Parität neu zu berechnen. Große Chunks werden bei RAID-4 und -5 eingesetzt.

    Für die RAID-Level 2, 3, 4 und 5 wird eine XOR-Parität auf die Platte(n) geschrieben.
    Bei RAID-2 wird zusätzlich pro Byte ein Bit Parität über den Hamming-Code errechnet. Da diese Fehlerkorrektur mittlerweile über die Error Correction ECC des SCSI-Kontrollers und pro Sektor auf der Festplatte realisiert ist, wird dieser RAID-Level praktisch nicht mehr verwendet.
    Der später von der Industrie eingeführte RAID-Level 6 verwendet den Reed-Solomon-Code. Dieser benötigt zwei Paritätsplatten, um darauf die voneinander unabhängigen Checksummen P und Q zu schreiben. Die Originaldaten lassen sich aus einer der Checksummen und einem Teil der Daten rekonstruieren.
     

      RAID-Level im Überblick
     
     
     

    Raid 0 (striped) verteilt den Datenstrom einfach auf die Platten des Arrays;
    sehr guter Preis, sehr gute Geschwindigkeit, sehr schlechte Datensicherheit.
     
     

    Raid 1 (mirrored) schreibt alle Daten auf alle Platten (read balancing möglich);
    schlechter Preis, schlechte Geschwindigkeit, sehr gute Datensicherheit.
     
     

    Raid-0+1 (10) kombiniert striping und mirroring, keine Parität;
    schlechter Preis, gute Geschwindigkeit, gute Datensicherung
     
     

    Raid-2 schreibt XOR- und Hamming-Parität auf extra Platten, kleine Chunks, wird nicht mehr eingesetzt; guter Preis, gute Geschwindigkeit, gute Datensicherheit.
     
     
     

    Raid-3 schreibt XOR-Parität auf extra Platte, kleine Chunks;
    guter Preis, gute Geschwindigkeit, gute Datensicherheit.
     
     
     

    Raid-4 schreibt XOR-Parität auf extra Platte, goße Chunks, wird selten eingesetzt;
    guter Preis, mäßig gute Geschwindigkeit (Schreiben), gute Datensicherheit.
     
     
     

    Raid-5 verteilt XOR-Parität auf die Platten, goße Chunks;
    guter Preis, gute Geschwindigkeit, gute Datensicherheit.
     
     
     

    Raid-6 verteilt Reed-Solomon Checksummen auf mehrere Platten, goße Chunks;
    guter Preis, gute Geschwindigkeit, sehr gute Datensicherheit.
     

     Das Preis-Leistungs-Verhältnis der unterschiedlichen RAID-Systeme kann in einem Preis/Geschwindigkeit/Datensicherheits-Dreieck dargestellt werden:
     

    Gelegentlich werden noch andere RAID-Level aufgeführt. Mit RAID-7 wird ein mit einem besonders leistungsfähigen Cache ausgestattetes System bezeichnet.
    Mit Layered RAID Sets werden Konfigurationen bezeichnet, bei denen anstelle der Festplatten weitere RAID-Systeme angesprochen werden (RAID-0+1 kann man sich in diesem Sinne als RAID-0 vorstellen, daß anstelle von Festplatten RAID-1s benutzt).

    Arrays, bei denen eine defekte Festplatte im laufenden Betrieb ausgewechselt werden kann, nennen sich hot swappable. Das beinhaltet auch eine automatische Datenwiederherstellung bei Festplattenwechsel.
    RAID-Systeme mit mehreren Kontrollern können auch mehrere Hosts bedienen. Ebenso kann etwa ein Server mit mehreren Adaptern auf mehrere Arrays zugreifen. Lösungen bei denen zwei Server auf ein Array zugreifen werden in extrem sicherheitsrelevanten Anwendungen eingesetzt.

      Harddisk-Recorder

    Harddisk-Recorder (HDR) benutzen die RAID-Technologie, um mit Festplatten als Speichermedium Videoströme aufzeichnen und wiedergeben zu können. Das ist nötig, um einerseits die 27 MByte/s Datenrate für ITU-R BT 601 (bzw. 40 MByte/s für unkomprimiertes RGB), andererseits um true random access zu ermöglichen. Mit true random access wird die Möglichkeit bezeichnet, die Videodaten non linear und in Echtzeit abrufen zu können. Das bedeutet, daß die Zugriffszeit auf ein Bild nicht größer als die Dauer der horizontalen Austastlücke sein darf, nämlich 1,6 ms. Eine schnelle Festplatte kann zwar komprimiertes Video aufzeichnen und wiedergeben, allerdings bei einer average access time von 10 ms nur linear und nicht fragmentiert.
    HDR können für unterschiedliche Ein-/Ausgangsformate von FBAS bis D5 ausgeführt werden. Für Formatwandlungen können den Ein-/Ausgängen Konverter vorgeschaltet werden, z.B. „Serial Box“ von Ensemble Designs, „Vivo“ von Miranda, „Ucom“, „VideoConvert“ oder „U2“ von DVC.
    Mit einer Festplattenkapazität von 32 GB können 25 Minuten 4:2:2 8 Bit oder 20 Minuten 4:2:2 10 Bit D1 gespeichert werden.
    HDR ermöglichen das Kopieren des Videomaterials ohne Verluste durch Abrieb oder A/D D/A-Wandlung. Ein weiterer Vorteil ist die Möglichkeit, Standbilder ohne Abnutzung beliebig lange Ausspielen zu können.
    Obwohl HDR sowohl für unkomprimierte, als auch für komprimierte Videobearbeitung erhältlich sind, werden in der (Post-) Produktion aufgrund der erforderlichen Qualität des Bildmaterials unkomprimierte RGB-Daten verwendet. Komprimierende HDR (z.B. mit M-JPEG) werden besonders für Anwendungen eingesetzt, bei denen mehrere Datenströme gleichzeitig erforderlich sind, bzw. Bandbreite kostbar ist, z.B. Videoserver.

    HDR werden so ausgelegt, daß sie etwa im MAZ-Betrieb wie ein normaler Zuspieler funktionieren. Dafür werden ein Monitor-FBAS Ausgang, eine RS-422 Schnittstelle und LTC I/O vorgesehen. Die Steuerung kann also von einem Mischpult oder über das von dem Hersteller für eine bestimmte Computerplattform mitgelieferte Graphical User Interface GUI erfolgen. Die Steuerung des HDR von der GUI geschieht über die Schnittstelle SCSI oder Ethernet.
     

      Video- oder Media- Server

    Wie schon erwähnt soll ein Videoserver die Funktionalität eines Harddisk Recorders dahingehend erweitern, daß mehrere Videoströme gleichzeitig Aufgenommen und Wiedergegeben werden können. Als Speichermedium kommen in der Regel höhere Raid Level zum Einsatz. Die Audio- und Videoströme werden bandbreitensparend MPEG-1, -2, H.263 (ITU-T) o.ä. komprimiert oder je nach Qualitätsanforderung in geeigneten Videoformaten ausgespielt (z.B. als digitale serielle Komponenten nach ITU-R BT.656).
    Die Funktionalität des Video-/Mediaservers wird von der eingesetzten Software bestimmt, die Leistungsfähigkeit von der Server-Hardware. Zu den Leistungs-merkmalen zählen neben den möglichen Datenströmen (simultaneous true random access) ein ausgereiftes Datenmanagement und  Bandbreitenanpassung.
    Videoserver können mit Videoanschlüssen, sowie LTC und RS-422 für Aufnahme und Wiedergabe ausgestattet sein, z.B. für den Einsatz in Studionetzwerken. Möglich ist aber auch, daß der Videoserver schon digitalisierte Videodaten über seine Netzwerkschnittstellen erhält und weiterverarbeitet. Als Netzwerk-schnittstelle werden 100BaseT, IEEE 1394, ATM und SDDI (FDDI) eingesetzt. Geräte mit Fibre-Channel-Unterstützung sind heute noch nicht weit verbreitet.


     

    Quellen:
    Friedhelm Schmidt: „SCSI-Bus und IDE-Schnittstelle“ (Addison Wesley)
    Ulrich Schmidt: „Digitale Videotechnik“ (Franzis’)
    Klaus Dembowski: „Computerschnittstellen und Bussysteme“ ()
    FKT 6/97

    Produktinformationen von:
     Apple, Avid, Clarion, CMD, Drastic Technologies, Digital, DVC, EMC, IBM,
     Oracle, Quantel, Seagate, SGI, Storage, Stortek, SUN, Trim Technologies