Jens Luetkens
4/98
Inhalt:
• Die Festplatte Aufbau und Funktionsweise
• SCSI Schnittstelle und Protokoll
• RAID Systeme und Leistungen
• Harddisk-Recorder
und Videoserver
Die Festplatte
• Aufbau einer Festplatte
Eine Festplatte hat in der Regel mehrere Oberflächen. Auf
den Oberflächen befinden sich die Spuren, die als konzentrische
Ringe angeordnet sind. Übereinanderliegende Spuren werden zu Zylindern
zusammengefaßt. Die Spuren werden weiter in Sektoren unterteilt.
Ein Sektor ist die kleinste Einheit, die auf einer Festplatte (Magnetplatte)
gelesen oder geschrieben werden kann.
Ein Zugriff auf einen Sektor erfolgt, indem der Schreib-/Lesekopf
über die entsprechende Spur positioniert und die Platte solange gedreht
wird, bis sich der Sektor unter dem Kopf vorbeidreht. Jeder Oberfläche
hat einen eigenen Schreib-/Lesekopf, sie werden jedoch alle gemeinsam über
den Spuren plaziert, also über einen Zylinder. Jeder Sektor wird also
über seine Zylindernummer, Kopfnummer und Sektornummer
eindeutig adressiert. Diese Daten (+ CRC Prüfsumme) sind im Header
jedes Sektors abgelegt. Auf den Header folgen die Nutzdaten mit
einer ECC-Prüfsumme. Die formatierte Sektorlänge ergibt
sich aus der Anzahl der Nutzdaten in Bytes. Typische Sektorlängen
sind 512, 1024 und 4096 Bytes. Der Header, die Prüfsummen und verschiedene
Lücken und Synchronisationsfelder nehmen je nach Sektorformat zwischen
40 und 100 Byte ein.
Der Festplatte sind noch einige Baugruppen vorgeschaltet:
- Ein Formatter serialisiert die Daten und fügt Steuerinformationen
zu.
- Ein Datenseparator kodiert die Daten in das Format, in dem
sie auf dem Medium aufgezeichnet werden sollen.
- Ein Schreib-/Leseverstärker wandelt die Daten in analoge
Werte für die Schreib-/Leseköpfe um.
Zwischen Schreib-/Leseverstärker, Antrieb, Steuerelektronik
(HDA: Head Disk Assembly) und Datenseparator kann die 1980 eingeführte
Schnittstelle ST506 angesiedelt werden. Da diese aber auf nur 5
MHz begrenzt war, wurde sie ab 1983 von der ESDI-Schnittstelle verdrängt,
die 20 MHz Transferrate erlaubt und zusätzlich Kommandos, etwa zum
Positionieren des Schreib-/Lesekopfes, kennt.
Mit Einführung der SCSI-Schnittstelle ab 1984 wird auch
noch der Festplatten-Kontroller (Anbindung des Gerätes an den
SCSI-Bus) auf das Laufwerk verlegt. Dabei wird ein Common Command Set
CCS definiert, das unbekannte Laufwerke zu erkennen ermöglicht
und außerdem ein Defektmanagement enthält. Zeitgleich wird bei
der Entwicklung der IDE-Schnittstelle noch der Hostadapter
(Anbindung des Computers an den SCSI-Bus) auf die Festplatte verlegt, was
gegenüber geringfügig höheren Kosten auf der Laufwerksseite
deutliche Einsparungen beim Festplattenkontroller bedeutete, allerdings
auch das Hostsystem, nämlich IBM-AT-kompatible Computer festlegt.
Die Leistung einer Festplatte wird an ihrer Kapazität, Transferrate
und Zugriffszeit festgemacht.
Die formatierte Bruttokapazität ergibt sich aus dem Produkt der
Sektorlänge, Zahl der Sektoren pro Spur, Zahl der Spuren und Zahl
der Köpfe. Dabei sind 1 Gigabyte 10E6x1024 Byte.
Die Transferrate (Nettotransferrate) ist das Produkt aus Bits
pro Umdrehung und Umdrehungen pro Sekunde.
Die mittlere Zugriffszeit (Average Access Time) setzt sich aus
der mittleren Suchzeit (Average Seek Time) und der Umdrehungsverzögerung
(Rotational Latency) zusammen. Die mittlere Umdrehungsverzögerung
bezeichnet die Zeit einer halben Umdrehung (bis der gewünschte Sektor
unter dem Kopf erscheint), beträgt also z.B. bei Platten mit 5400
RPM 5,5 ms.
Vom Kontroller werden noch einige besondere Datenbehandlungen durchgeführt,
die Einfluß auf die Schreib-/Lesegeschwindigkeit haben:
• Datenpuffer
Da ein Sektor immer am Stück geschrieben oder gelesen werden
muß (die Forderung nach Echtzeitverhalten bedeutet hier, daß
die Reaktion auf ein äußeres Ereignis genau vorhergesagt werden
kann) werden die Daten vor dem Schreiben komplett in einen Puffer geladen
und dann der Transfer bestätigt.
• Vorauslesen und Stückweises Lesen
Wird der Puffer soweit vergrößert, daß eine
ganze Spur hineinpaßt, kann der Kontroller besondere Optimierungen
verwirklichen. Beim Vorauslesen wird immer der dem angeforderten folgende
Sektor (bzw. die ganze Spur) mit in den Puffer gelesen und kann dann bei
Bedarf besonders schnell ausgelesen werden. Beim Stückweise Lesen
werden die Daten ausgelesen, sobald sich der Kopf über der richtigen
Spur befindet, so daß immer nach einer Umdrehung die gesamte Spur
im Puffer liegt.
• Write-Status
Da der SCSI-Bus üblicherweise vier bis fünf mal schneller
Daten in den Puffer schreiben, als diese vom Laufwerk auf die Platte geschrieben
werden können, kann der Kontroller Zeit sparen, indem er den Write-Status
mit GOOD abschließen, sobald die Daten im Puffer liegen.
• Caching
Der Cache ist eine schnelle Speichereinheit mit Kopien von Dateien,
auf die besonders häufig zugegriffen wird, z.B. Inhaltsverzeichnisse.
Dadurch wird die Zugriffszeit auf unter eine Millisekunde bei einer Trefferquote
von bis zu 50% reduziert.
• Defektlisten
Bei der Prüfung der Festplatte festgestellte und während
des Betriebs neu entstandene defekte Sektoren werden in Defektlisten abgelegt
und durch andere logische Blocks ersetzt, so daß dem Benutzer immer
ein fehlerfreies Medium zur Verfügung gestellt wird.
• logische Blocks und Mapping
Die Nutzinformationen auf der Festplatte präsentieren sich
dem SCSI-Initiator als logische Blocks. Diese werden durch die logische
Blocknummer LBN adressiert. Die Zuordnung der logischen auf die physikalischen
Blocks, das Mapping, erfolgt in der Regel linear. Die Größe
er logischen Blocks kann sich von den Sektorgrößen unterscheiden,
ist aber meistens auch 512 Byte.
SCSI
Der SCSI-Standard beschreibt elektrische Eigenschaften und ein Protokoll,
das speziell auf die Bedürfnisse von Peripheriegeräten angepaßt
ist. Ziel des Standards ist es, ein geräteunabhängiges I/O-System
zu erhalten.
• Die Entwicklung
Auf Antrag der Magnetplattenhersteller NCR, Optimen und Shuart, der
1979 die Vorgängerschnittstelle SASI entwickelte, wurde 1982 eine
ANSI-Arbeitsgruppe zur Entwicklung der SCSI-Schnittstelle gegründet,
die 1984 den ersten Entwurf zur Genehmigung vorlegte. Dieser Entwurf, SCSI-1,
wurde 1986 abgesegnet. Zu diesem Zeitpunkt hatte sich SCSI schon lange
in der Industrie etabliert. Die Definition der Kommandos ließ den
Geräteherstellern jedoch so viel Raum, daß die SCSI-Treiber
praktisch für jedes der rasant neu erscheinenden Geräte angepaßt
werden mußten. Deshalb erarbeitete die SCSI-Arbeitsgruppe 1984 das
Common Command Set CCS, in dem die Kommandoform über Mode-Parameter-Seiten
festgelegt wird. Die Weiterentwicklung zum SCSI-2-Standards, der
besonders einen erweiterten Kommandosatz beinhaltet und schnellere Datenübertragung
und mehr Peripheriegeräte ermöglicht, begann 1986, wurde 1989
vorgelegt und 1994 verabschiedet. Wiederum war SCSI-2 schon lange vor Verabschiedung
gängiger Industriestandard. Die meisten SCSI-Geräte arbeiten
heute mit diesem Standard. Die Arbeitsgruppe arbeitet noch immer an SCSI-3,
wobei besonders der Kommandosatz für RAID-Kontroller SCC eine Neuerung
darstellt. Auf physikalischer Ebene bringt der Standard vor allem die Schnittstellen
Fibre-Channel, SSA und Fire-Wire (IEEE P1394).
Alle SCSI-Versionen sind abwärtskompatibel.
• elektrische Eigenschaften der SCSI-Schnittstelle
Grundsätzlich erfolgt die Übertragung von Kommandos und Daten
auf dem parallelen SCSI-Bus asynchron. Dadurch werden Transferraten
auf bis 3MHz begrenzt. Ab SCSI-1 ist die synchrone Datenübertragung
optional und wird unter den Geräten verhandelt. Damit werden Datenraten
bis zu 10 MByte/s erreicht. Die Betriebsart Fast-20 (Ultra) ermöglicht
Datenraten bis zu 20 MByte/s. Obwohl alle Versionen zueinander kompatibel
sind, bestimmt das schlechteste Gerät am Bus die Datenübertragungsart
und -geschwindigkeit.
Busbreite, maximale SCSI-Transferraten, Peripheriegeräte und Buslänge
asynchroner SCSI-1
8 Bit 3 MByte/s
8
6 m
synchroner SCSI-1
8 Bit 5 MByte/s
8
6 m
Fast SCSI-2
8 Bit 10 MByte/s
8
3 m
Fast-20 (Ultra)
8 Bit 20 MByte/s
4/8 3 m/1,5 m
Wide SCSI-2
16 Bit 20 MByte/s
16/32 1,5 m
Wide Fast-20
16 Bit 40 MByte/s
16 1,5 m
Wide Fast-20
32 Bit 80 MByte/s
32 1,5 m
Die Schnittstelle ist in der Regel single-ended (asymmetrisch), was eine Buslänge von 6 m erlaubt. Fast-SCSI (SCSI-2) mit Transferraten über 5 MByte/s erlauben nur eine Buslänge von höchstens 3 m. Die Version differentiell (symmetrisch) ermöglicht eine Buslänge bis zu 25 m.
Der ursprünglich 8 Bit breite SCSI-1-Bus wird in SCSI um die Version
Wide ergänzt, bei der der Bus 16 oder 32 Bit breit ist.
Dies erfordert allerdings zusätzliche Kabel und Verbindungen.
Das SCSI-1 Kabel (A-Kabel) ist das typischerweise intern verlegte
50-polige Flachbandkabel. Davon sind 8 Daten- und 10 Steuersignalleitungen
mit zugehörigen Massen und eine +5V-Leitung, die verwendet wird, um
jede Signalleitung einzeln zu terminieren.
Für die Wide-Variante von SCSI-2 ist ein zusätzliches 68-poliges
B-Kabel definiert worden. Dies hat sich allerdings nie durchgesetzt, statt
dessen verwendeten schon die ersten Wide-Implementationen nur das in SCSI-3
definierte 68-polige P-Kabel. Darauf werden die Steuerleitungen,
die Datenleitungen 0 bis 15 mit zugehörigen Paritäten geführt.
Die 32-Bit Variante erfordert allerdings ein weiteres Kabel, das 68-polige
Q-Kabel, auf dem die Datenleitungen 16 bis 31, sowie zwei weitere
Paritäten geführt werden.
Jede SCSI-Datenleitung erfordert am Busabschluß einen Terminator.
Die Termination erfolgt gegenüber der Leitung mit 220 Ohm gegen +5V
und mit 330 Ohm gegen Masse.
Nach SCSI-2 ist auch eine aktive Terminierung möglich. Die Vorschriften
von
SCSI-3 erzwingen diese praktisch.
Der Terminator für differentielles SCSI wird mit 330 Ohm gegen
+5V und mit 150 Ohm Zwischen den Leitungen terminiert.
Das Spannungen des Signals liegen zwischen 0 und 5 Volt. Dabei
liegt das Signal zwischen 0,0 und 0,5 Volt an und ist zwischen 2,5 und
5,25 Volt negiert. Der Eingangsstrom bei angelegtem Signal darf zwischen
0,0 und -0,4 mA bei 0,5 Volt betragen, für das negierte Signal bei
5,25 Volt 0,0 bis 0,1 mA.
Der Eingangstreiber muß 0,0 bis 0,8 Volt als negiertes, 2,5 bis
5,25 Volt als angelegtes Signal erkennen. Die Terminierung soll eine Leitungsimpedanz
zwischen 100 und 132 Ohm sicherstellen. Der single-ended SCSI-Bus darf
maximal 10 cm , der differentielle 20cm lange Abzweigungen (stubs) haben.
Dies betrifft den Weg vom Stecker bis zum SCSI-Chip.
Auf dem SCSI-Bus wird pro 8 Bit ein Paritätsbit mitgeführt.
• Kommandoebene und Architekturmodell
Auf einem SCSI-Bus sendet ein Initiator Kommandos an einen Target.
Das Target führt den Befehl aus und meldet sich mit einem Status zurück.
Die Ausführung des Befehls bleibt dem Initiator verborgen, z.B. beim
READ Kommando die Übersetzung der logischen Blocknummer auf den entsprechenden
Sektor möglicherweise mit Defektlistenkorrektur. Dadurch können
unterschiedliche Aufzeichnungsformate der verschiedenen Geräte behandelt
werden.
Initiator ist in der Regel der Hostadapter, Target die SCSI-Kontroller,
die über ihre SCSI-ID erkannt werden. Die Ausführung der
Befehle wird vom Target an die logical units LUN (maximal 7 LUNs
ansprechbar) weitergeleitet. Unter diesem Begriff werden die Peripheriegeräte
und die zur Ausführung der Tasks benötigte Logik zusammengefaßt.
Ein Task wird in der LUN angelegt, sobald ein Kommando auszuführen
ist, und erlischt, wenn das Kommando abgearbeitet ist.
Viele Geräte sind in der Lage sowohl als Initiator, als auch Target
zu funktionieren, z.B. im Rahmen des COPY- oder des FORMAT-Kommandos. Ein
Initiator kann mehrere Targets bedienen (Multitasking-Betriebssysteme),
eine SCSI-Konfiguration ist auch mit mehreren Initiatoren möglich.
Die SCSI-Architekturmodell SAM läßt sich auch gut als Client-Server-Modell
darstellen. Ein Client schickt eine Anforderung an einen Server,
der diese bearbeitet und beantwortet.
Ein SCSI besteht in der Hauptsache aus einem Kommandoblock und einem
Statusbyte. Seit SCSI-3 ist auch noch ein Taskbezeichner vorgesehen, der
Initiator, Target und LUN bezeichnet. Der Kommandoblock enthält Kommandos
unterschiedlicher Länge.
Die SCSI-Kommandos sind in 8 Kommandogruppen unterteilt. Die Gruppe
und die Kommandonummer werden im ersten Byte eines Kommandos (Op-Code)
übertragen. Über das INQUIRY-Kommando identifiziert sich das
Gerät zu einer der 8 Geräteklassen, die SCSI bekannt sind:
Plattenlaufwerke, Magnetbänder, Drucker, Prozessor-Geräte, WORM-Platten,
CD-ROMs, Scanner, Optische Speicher, Medienwechsler, Kommunikationsgeräte,
Druckvorstufengeräte*, Arraykontroller*, (reserviert) oder unbekannt
(*: ab SCSI-3). Für jede Geräteklasse kennt SCSI ein Modell,
einen Kommandosatz und spezifische Parameterseiten.
Mit SCSI-3 wird ein eigener Kommandosatz für Storage Array
Kontroller SCC eingeführt. Ein Storage Array Kontroller enthält
einen Baustein, der den Adressraum des Arrays auf die physikalischen Blockadressen
der Laufwerke abbildet, den Storage Array Conversion Layer SACL.
Dem SACL bleibt es überlassen, die Tasks der maximal 7 ansprechbaren
LUNs auf die Laufwerke des Arrays zu verteilen (LUN-Mapping, Teil der für
SCSI-3 definierten Mode-Parameterseite für Storage Array Kontroller).
Ein SACL ist als Software- oder als Hardware-SACL ausführbar.
Der Vorteil eines Software-SACL kann ein günstiger Preis sein. Andererseits
ist eine solche Lösung meist an ein bestimmtes Betriebssystem gebunden
und wirkt sich negativ auf die Systemressourcen aus.
Als Hardware kann der SACL in einem besonderen Hostadapter oder als
Kontroller (Bridgekontroller) untergebracht werden. Der Bridgekontroller
präsentiert sich dem SCSI-Bus als normale Festplatte.
Die Konfiguration eines Arrays geschieht über Objekte, die zusammengefaßt
(assoziiert), angeschlossen (attached) oder abgesichert (covered) werden
können. So können Volume-Sets, Redundanzgruppen und Spares gebildet
werden, die Bausteine eines RAID-Arrays.
RAID
Bei der Entwicklung immer schnellerer SCSI-Busse und immer leistungsfähigerer
Rechner kann die Leistungssteigerung von Festplatten nicht ohne weiters
mithalten. Die heute schnellsten Festplatten mit 10000 Umdrehungen pro
Minute und einer Datenrate von 15 - 20 MByte pro Sekunde sind sehr teuer
und laut. Übliche Festplatten nutzen nur etwa ein fünftel der
SCSI-Bandbreite. Aus den Bedürfnissen an einem preiswerten und effizienten
Datentransfer- und -speichersystem wurde 1987 an der Universität von
Berkley das Prinzip des Redundant Array of Independant (Inexpensive) Disks
RAID entwickelt. Dabei werden mehrere Festplatten so zu einem Array zusammengefaßt,
daß die Daten auf mehrere Festplatten verteilt werden. Der Array
erscheint dem Anwender wie eine einzige große Festplatte, bei der
sich die Datenübertragungsgeschwindigkeiten durch den parallelen read/write
(r/w) Zugriff summieren. Unglücklicherweise summieren sich auch die
Fehlerwahrscheinlichkeiten der einzelnen Festplatten, so daß ein
Fehlerschutz vorgesehen werden mußte.
Es wurden 5 RAID-Level festgelegt (RAID-1 bis RAID-5), bei denen
Geschwindig-keit und Datensicherheit unterschiedlich stark berücksichtigt
werden. Ein weiterer Level, RAID-0, ist für maximale Geschwindigkeit
ohne Datensicherung vorgesehen.
Ein RAID-Kontroller teilt die logischen Blocks in Chunks, die kleinste Dateneinheit einer RAID-Konfiguration. Es gibt zwei Ansätze:
• Die Chunks sind klein (etwa ein Bit bis 16 Byte)
Eine Datei wird über viele Chunks verteilt, ein Zugriff
erfolgt immer auf mehrere Chunks.
Das bewirkt eine optimale Ausnutzung der Festplattengeschwindigkeit
beim Lesen, da (durch Caching können ganze Sektoren geschrieben werden)
quasi von allen Platte gelesen werden kann. Dieser Vorteil wird beim Schreiben
von Paritäten etwas relativiert. Die Datentransfergeschwindigkeiten
der Festplatten summieren sich. Diese Konfiguration wird für RAID-2
und -3 benutzt.
• Die Chunks sind groß (eventuell mehrere Kilobyte)
Bei vielen kleinen Dateien paßt eine Datei in einen Chunk,
ein Zugriff kann auch nur auf einen Chunk erfolgen.
Diese Konfiguration unterstützt die gleichzeitige Bearbeitung
von mehreren Tasks. Der Vorteil liegt bei guter Geschwindigkeit durch wenig
Daten-Overhead für sequentielles Schreiben. Ein gutes Caching ist
erforderlich, da z.B. beim Sichern einer Datei gleichzeitig mehrere Andere
gelesen werden müssen, um die Parität neu zu berechnen. Große
Chunks werden bei RAID-4 und -5 eingesetzt.
Für die RAID-Level 2, 3, 4 und 5 wird eine XOR-Parität auf
die Platte(n) geschrieben.
Bei RAID-2 wird zusätzlich pro Byte ein Bit Parität über
den Hamming-Code errechnet. Da diese Fehlerkorrektur mittlerweile über
die Error Correction ECC des SCSI-Kontrollers und pro Sektor auf der Festplatte
realisiert ist, wird dieser RAID-Level praktisch nicht mehr verwendet.
Der später von der Industrie eingeführte RAID-Level 6 verwendet
den Reed-Solomon-Code. Dieser benötigt zwei Paritätsplatten,
um darauf die voneinander unabhängigen Checksummen P und Q zu schreiben.
Die Originaldaten lassen sich aus einer der Checksummen und einem Teil
der Daten rekonstruieren.
RAID-Level im Überblick
Raid 0 (striped) verteilt den Datenstrom einfach auf die Platten des
Arrays;
sehr guter Preis, sehr gute Geschwindigkeit, sehr schlechte Datensicherheit.
Raid 1 (mirrored) schreibt alle Daten auf alle Platten (read balancing
möglich);
schlechter Preis, schlechte Geschwindigkeit, sehr gute Datensicherheit.
Raid-0+1 (10) kombiniert striping und mirroring, keine Parität;
schlechter Preis, gute Geschwindigkeit, gute Datensicherung
Raid-2 schreibt XOR- und Hamming-Parität auf extra Platten, kleine
Chunks, wird nicht mehr eingesetzt; guter Preis, gute Geschwindigkeit,
gute Datensicherheit.
Raid-3 schreibt XOR-Parität auf extra Platte, kleine Chunks;
guter Preis, gute Geschwindigkeit, gute Datensicherheit.
Raid-4 schreibt XOR-Parität auf extra Platte, goße Chunks,
wird selten eingesetzt;
guter Preis, mäßig gute Geschwindigkeit (Schreiben), gute
Datensicherheit.
Raid-5 verteilt XOR-Parität auf die Platten, goße Chunks;
guter Preis, gute Geschwindigkeit, gute Datensicherheit.
Raid-6 verteilt Reed-Solomon Checksummen auf mehrere Platten, goße
Chunks;
guter Preis, gute Geschwindigkeit, sehr gute Datensicherheit.
Das Preis-Leistungs-Verhältnis der unterschiedlichen RAID-Systeme
kann in einem Preis/Geschwindigkeit/Datensicherheits-Dreieck dargestellt
werden:
Gelegentlich werden noch andere RAID-Level aufgeführt. Mit RAID-7
wird ein mit einem besonders leistungsfähigen Cache ausgestattetes
System bezeichnet.
Mit Layered RAID Sets werden Konfigurationen bezeichnet, bei denen
anstelle der Festplatten weitere RAID-Systeme angesprochen werden (RAID-0+1
kann man sich in diesem Sinne als RAID-0 vorstellen, daß anstelle
von Festplatten RAID-1s benutzt).
Arrays, bei denen eine defekte Festplatte im laufenden Betrieb ausgewechselt
werden kann, nennen sich hot swappable. Das beinhaltet auch eine
automatische Datenwiederherstellung bei Festplattenwechsel.
RAID-Systeme mit mehreren Kontrollern können auch mehrere Hosts
bedienen. Ebenso kann etwa ein Server mit mehreren Adaptern auf mehrere
Arrays zugreifen. Lösungen bei denen zwei Server auf ein Array zugreifen
werden in extrem sicherheitsrelevanten Anwendungen eingesetzt.
Harddisk-Recorder
Harddisk-Recorder (HDR) benutzen die RAID-Technologie, um mit Festplatten
als Speichermedium Videoströme aufzeichnen und wiedergeben zu können.
Das ist nötig, um einerseits die 27 MByte/s Datenrate für ITU-R
BT 601 (bzw. 40 MByte/s für unkomprimiertes RGB), andererseits um
true random access zu ermöglichen. Mit true random access wird
die Möglichkeit bezeichnet, die Videodaten non linear und in Echtzeit
abrufen zu können. Das bedeutet, daß die Zugriffszeit auf ein
Bild nicht größer als die Dauer der horizontalen Austastlücke
sein darf, nämlich 1,6 ms. Eine schnelle Festplatte kann zwar komprimiertes
Video aufzeichnen und wiedergeben, allerdings bei einer average access
time von 10 ms nur linear und nicht fragmentiert.
HDR können für unterschiedliche Ein-/Ausgangsformate von
FBAS bis D5 ausgeführt werden. Für Formatwandlungen können
den Ein-/Ausgängen Konverter vorgeschaltet werden, z.B. „Serial Box“
von Ensemble Designs, „Vivo“ von Miranda, „Ucom“, „VideoConvert“ oder „U2“
von DVC.
Mit einer Festplattenkapazität von 32 GB können 25 Minuten
4:2:2 8 Bit oder 20 Minuten 4:2:2 10 Bit D1 gespeichert werden.
HDR ermöglichen das Kopieren des Videomaterials ohne Verluste
durch Abrieb oder A/D D/A-Wandlung. Ein weiterer Vorteil ist die Möglichkeit,
Standbilder ohne Abnutzung beliebig lange Ausspielen zu können.
Obwohl HDR sowohl für unkomprimierte, als auch für komprimierte
Videobearbeitung erhältlich sind, werden in der (Post-) Produktion
aufgrund der erforderlichen Qualität des Bildmaterials unkomprimierte
RGB-Daten verwendet. Komprimierende HDR (z.B. mit M-JPEG) werden besonders
für Anwendungen eingesetzt, bei denen mehrere Datenströme gleichzeitig
erforderlich sind, bzw. Bandbreite kostbar ist, z.B. Videoserver.
HDR werden so ausgelegt, daß sie etwa im MAZ-Betrieb wie ein normaler
Zuspieler funktionieren. Dafür werden ein Monitor-FBAS Ausgang, eine
RS-422 Schnittstelle und LTC I/O vorgesehen. Die Steuerung kann also von
einem Mischpult oder über das von dem Hersteller für eine bestimmte
Computerplattform mitgelieferte Graphical User Interface GUI erfolgen.
Die Steuerung des HDR von der GUI geschieht über die Schnittstelle
SCSI oder Ethernet.
Video- oder Media- Server
Wie schon erwähnt soll ein Videoserver die Funktionalität
eines Harddisk Recorders dahingehend erweitern, daß mehrere Videoströme
gleichzeitig Aufgenommen und Wiedergegeben werden können. Als Speichermedium
kommen in der Regel höhere Raid Level zum Einsatz. Die Audio- und
Videoströme werden bandbreitensparend MPEG-1, -2, H.263 (ITU-T) o.ä.
komprimiert oder je nach Qualitätsanforderung in geeigneten Videoformaten
ausgespielt (z.B. als digitale serielle Komponenten nach ITU-R BT.656).
Die Funktionalität des Video-/Mediaservers wird von der eingesetzten
Software bestimmt, die Leistungsfähigkeit von der Server-Hardware.
Zu den Leistungs-merkmalen zählen neben den möglichen Datenströmen
(simultaneous true random access) ein ausgereiftes Datenmanagement
und Bandbreitenanpassung.
Videoserver können mit Videoanschlüssen, sowie LTC und RS-422
für Aufnahme und Wiedergabe ausgestattet sein, z.B. für den Einsatz
in Studionetzwerken. Möglich ist aber auch, daß der Videoserver
schon digitalisierte Videodaten über seine Netzwerkschnittstellen
erhält und weiterverarbeitet. Als Netzwerk-schnittstelle werden 100BaseT,
IEEE 1394, ATM und SDDI (FDDI) eingesetzt. Geräte mit Fibre-Channel-Unterstützung
sind heute noch nicht weit verbreitet.
Quellen:
Friedhelm Schmidt: „SCSI-Bus und IDE-Schnittstelle“ (Addison
Wesley)
Ulrich Schmidt: „Digitale Videotechnik“ (Franzis’)
Klaus Dembowski: „Computerschnittstellen und Bussysteme“
()
FKT 6/97
Produktinformationen von:
Apple, Avid, Clarion, CMD, Drastic Technologies,
Digital, DVC, EMC, IBM,
Oracle, Quantel, Seagate, SGI, Storage, Stortek,
SUN, Trim Technologies