MFM setzte sich als neues Verfahren zur Übertragung von Daten über den Schreib-/Lesekopf auf die Oberfläche der Festplatte durch. MFM–Festplatten waren bis Mitte der 80iger Jahre der Standart bei den PC-Festplatten. Sehr verbreitet waren zuerst Festplatten mit einer Kapazität von 20, später von 40 MByte. Man bedenke: zur gleichen Zeit paßte ein komplett lauffähiges MS-Word 2.0 auch noch auf eine 360K–Diskette. Aktuelle Motherboards haben keine Anschlüsse mehr für diese Art von Festplatten, entsprechende 8- und 16-Bit ISA-Controller können aber noch auf Flohmärkten erworben werden.
RLL (Run Length Limited)
Prinzipiell ist der Aufbau mit dem der MFM–Festplatte identisch, nur die Speicher kapazitäten waren größer. Das ergab sich aus der verbesserten Oberfläche der Platten. Auch die Steuerung der Laufwerke verbesserte sich sehr stark. Dadurch wurden pro Spur 26 Sektoren möglich, was eine erhebliche Erhöhung der Speicherdichte bedeutete. Von RLL–Platten ist allerdings heute nur noch die Art und Weise des Aufzeichnungsverfahrens übriggeblieben. Wie die MFM–Festplatten ist auch dieser frühe Standard veraltet.
Festplatten in den ersten IBM PC’s
Der erste Schnittstellen-Standard für Festplatten wurde von 1980 Seagate entwickelt: ST-506. Dieser wurde in einer 5 MB Festplatte mit eben dieser Modellbezeichnung verwendet. Bereits ein Jahr später entstand – ebenfalls von Seagate – der ST-412 Standard. Diese 10 MB große Festplatte wurde u.a. im populären IBM XT (5160) verbaut. Diese beiden frühen Standards unterschieden sich in einem wesentlichen Aspekt von ihren Nachfolgern IDE/ATA und SCSI: sie hatten keine eigene Intellegenz. Die komplette Steuerung wurde vom einem komplex aufgebautem Controller erledigt, an dem sie mit zwei Kabeln angeschlossen waren. Für die Steuerung der Plattenmechanik wurde der Controller über ein 34-adriges Kabel mit der Platte verbunden, für den Datentransport mit einem 20-adrigen Kabel. Die ganze Sache war noch sehr fehlerträchtig und langsam, denn die von den Schreib-/Leseköpfen vearbeiteten Daten mußten erst auf den Controller transportiert werden, bevor ein Fehler festgestellt werden konnte. Zudem waren diese frühen Festplattenstandards aufwändig in der Installation. Viele komplizierte Parameter (z.B. der “Interleafefaktor”) und die gesamte Geometrie der Festplatte (Cylinder, Heads, Sectors per Track, Write Precompensation Cylinder) mußten von Hand eingestellt werden, den es gab noch kein BIOS, in dem diese Werte voreingestellt gewesen wären. Erst mit dem IBM AT 5170 waren im BIOS verschiedene Parameter der 23 gängigsten Festplatten vordefiniert und durch Auswahl einstellbar. Aber dazu mußten die Geometriedaten der Festplatte natürlich bekannt sein. Plug&Play (also die automatische Erkennung der Festplattengeometrie), so wie wir es heute kennen, kam erst Mitte der 90iger Jahre.
Die einfachste Möglichkeit, einen IBM PC oder Clone mit einer Festplatte nachzurüsten war die sogenannte Filecard oder Hardcard. Auf einer Steckkarte mit voller Baulänge war eine 3,5″ MfM-Festplatte verbaut. Der passende Controller befindet ebenfalls auf der Steckkarte und ist über Anschlußkabel bereits mit der Festplatte verbunden. Die Stromversorgung der Festplatte erfolgte entweder über den ISA-Bus oder extern über einen Molex-Anschluß. Diese Filecards gab es auch als RLL-, SCSI und IDE-Variante.
Der Nachfolger der MFM/RLL Festplatten war 1983 ESDI (Enhanced Small-Device Interface), ein direkter Vorläufer von SCSI. Hauptsächlicher Grund waren die langsamen Übertragungsraten von MFM/RLL (max 7,5 Megabit/Sekunde). Eigentlich erzielte man auch nur in diesem Bereich eine echte Verbesserung. ESDI erreichte Datenraten von 10 bis max. 20 Megabit/Sekunde. Die Datenraten wurden normalerweise automatisch von der Festplatte und dem Controller ausgehandelt. Ansonsten blieb bei ESDI alles beim Alten, Stecker, Kabel, Jumper…
ATA/IDE
Ab 1986 etablierte sich die IDE Festplatte (Integrated Drive Electronics), die auf Basis des ATA Standards entstand. Diesen hatte Western Digtal entwickelt. Im Gegensatz zu MFM und RLL befindet sich bei der ATA/IDE-Festplatte die gesamte Intelligenz auf der Festplatte selbst und nicht mehr auf dm Controller. Lediglich die Datenübertragung wird durch den ATA-Controller geregelt. Man ergänzte später den Standard mit der ATAPI-Norm, wodurch SCSI-basierte Peripheriegeräte (z.B. CD-ROM) an den Bus angeschlossen werden konnten. In 286/386 basierten Computern und auch noch Rechner der 486-Klasse wurden oft noch IDE-Controller in Form von Steckkarten verbaut. Ab Mitte der 1990iger Jahre und dem Erscheinen der Pentium-Generation integrierten praktisch alle Mainboards zwei ATA/ATAPI-Controller und somit zwei Anschlußmöglichkeiten. An jedem konnten zwei IDE-Geräte betrieben werden, die aber – ähnlich wie bei MFM/RLL – konfiguriert werden mußten. Zwar mußte man sich nicht mehr mit der Festplattengeometrie herumschlagen, das übernahm das BIOS des Computers. Aber wo am Kabel ein Gerät hing war geregelt und mußte per Jumper eingestellt werden. Ein Gerät eines IDE-Kanals wurde der “Master” (z.B. die Boot-Festplatte), das zweite der “Slave”. Bootfähig war – abhängig vom BIOS – nur ein “Master”-Gerät. Aber dieser Standard hatte keine lange Lebensdauer, denn die Nachfrage nach großen Festplatte nahm zu Beginn der 1990iger Jahre rapide zu. Die maximale Kapazität bei IDE-Festplatten war aufgrund der sogenannten CHS-Adressierung (max. 1024 Cylinder) aber auf netto 504MiB begrenzt. 1994 erfolgte daher mit EIDE (Enhanced Integrated Drive Electronics) eine Verbesserung. Das 504MiB Limit wurde auf die theoretische Grenze 137GiB angehoben, abhängig von eventuellen Begrenzungungen des BIOS. Statt 2 können nun 4 Laufwerke pro Controller angeschlossen werden.
Workstation Hersteller (Sun, SGI, Apollo bzw. HP), Apple, High-End PC’s und meist auch PC-Server-Systeme setzten ab 1985 auf den SCSI-Standard. SCSI stand ursprünglich für Small Computer System Interface (Schnittstelle für kleine Computersysteme), ist jedoch der Bezeichnung “Small” deutlich entwachsen. Am SCSI-Bus können viele Geräte gleichzeitig an einen Computer angeschlossen werden können, u.a. Festplatten, Scanner, CD-ROM / RW-Laufwerke, Drucker und Bandlaufwerke. Apple entwickelte die parallele SCSI-Schnittstelle, die in den Macintosh-Computern Verwendung fand.
SCSI-1 (1986): Dieser erste Standard besaß eine Busbreite von 8 Bit und eine Taktrate von max. 5 MHz. Maximal 8 Geräte können angeschlossen werden, SCSI-2 (1989): 16- und 32-Bit-Bus mit der Bezeichnung „Wide SCSI“ wird eingeführt. Die Übertragungsrate, normalerweise 10 MBit/s, kann in Kombination mit Fast und Wide SCSI bis zu 40 MBit / s betragen. SCSI-3 (1993): Diese Spezifikation umfasste eine Reihe kleinerer Änderungen, z.B. die 64-Bit-Adressierung
Weitere Standards folgten: Ultra-2 SCSI (1997), Ultra-160 (1999) und Ultra-320 (2002)
Jedes SCSI-Gerät muss eine eindeutige Kennung (ID) haben, damit es ordnungsgemäß funktioniert.Wenn der Bus beispielsweise 16 Geräte unterstützt (die älteren Controller meist nur 8), dann gibt es ID’s von 0 bis 15. Der SCSI-Controller selbst muss eine der IDs verwenden, normalerweise die höchste, die anderen am Bus angeschlossenen Geräte benutzen den Rest. Die verschiedene SCSI-Varianten verwenden unterschiedliche Anschlüsse, die häufig nicht miteinander kompatibel sind.Es gibt Anschlüsse mit 50, 68 oder 80 Pins.
SATA (Serial Advanced Technology Attachment)
Derzeit noch aktuell ist SATA, eine erst im Jahre 2001 definierte Weiterentwicklung von ATA (Advanced Technology Attachment). Im Gegensatz zu ATA/IDE mit paralleler Datenübertragung basiert SATA auf serieller Datenübertragung. Trotzdem werden Übertragungsraten von bis zu 600 MB je Sekunde erreicht. ATA wurde mit Erscheinen von SATA als PATA bezeichnet, um der Unterschiede der beiden Standards in der Datenübertragung deutlich zu machen (P für Parallel, S für Seriell). SATA ist kompatibel zum ATAPI-Standard und den verschiedenen ATA Vorgängern. Ein weiterer großer Vorteil gegenüber PATA: eine Konfiguration entfällt fast vollständig, auch eine Master- und Slave-Konfiguration gibt es nicht mehr. Geräte können bei eingeschaltetem Rechner ein- und ausgesteckt werden (Hot-Plugging). Die Verbindungskabel sind dünner, flexibler und weniger massiv als die IDE-Flachbandkabel.Sie können zudem länger sein, denn die Gefahr von elektromagnetischen Störungen ist geringer.
Diese Hybrid-Festplatten markieren den Übergang von HDD zu SSD und beinhalten einen mechanischen Teil (HDD) sowie eine (i.d.R. wesentlich kleinere) SSD in einem Gehäuse. Die Idee dahinter ist, den SSD-Teil wie einen Cache-Speicher zu verwenden. Häufig benötigte Programme oder Daten werden durch eine im Controller integrierte Logik in den SSD-Teil abgelegt, wodurch die Zugriffszeit erheblich sinkt. Im optimalen Fall konnte mit der SSHD die Festplattenleistung um ca. 20% gesteigert werden. Mit der Massenproduktion der SSD’s werden die reinen SSD’s immer billiger und dadurch die SSHD bis zum Ende der 2010er Jahre vollständig verschwunden sein.
Eine ähnliche Technik verwendet Apple bei seinem als Fusion-Drive bezeichnetem Festplattensystem. Allerdings werden hier ein getrenntes HDD und ein SSD zu einem logischen Laufwerk verbunden. Seit 2017 verbaut Apple diese Technik nicht mehr und setzt auf reine SSD.
Wechsel-Festplatten
1983 brachte Iomega brachte mit der Bernoulli Box die erste Wechsel-Festplatte für PC’s. Wechsel-Festplatten haben alle den prinzipiellen Vorteil, das die Medien – ähnlich einer Floppy-Disk – einfach entnommen und durch ein anderes Medium ersetzt werden können. Außerdem ist der Transport einer großen Datenmenge einfach, vorausgesetzt, daß ein passendes Laufwerk auch anderen Orts vorhanden ist. Das erste Modell hatte immerhin eine Kapazität von 10MiB je 8″ Medium, mehr als das 25fache einer damals üblichen Diskette. Bald folgten Laufwerke und Medien mit 20 MiB, ebenfalls 8″. 1987 debütierte SyQuest mit seinem 44.5Mib-Wechsellaufwerk. Das Laufwerk und natürlich auch die Medien hatten den Formfaktor 5.25″ und waren damit wesentlich kompakter als die Bernoulli-Box. Großen Zuspruch fand das SyQuest-Laufwerk vor Allem bei den Macintosh-Usern und zwar bei den Anwendern, die mit Desktop-Publishing zu tun hatten. Im Desktop-Publishing wird mit viel Grafik gearbeitet, was zur Folge hatte, das die Dateigrößen von Dokumenten stark anstiegen. Man muß wissen, das zur damaligen Zeit interne Festplatten kaum größer als 40-60MiB waren. Die Laufwerke von SyQuest wurden schnell zur ersten Wahl in der Branche. Die SyQuest-Wechsellaufwerke erreichten bis zum Ende der Modellreihe Speicherkapazitäten bis zu 270 MiB. Iomega brachte 1995 mit dem Jaz ein 3.5″ Wechsellaufwerk mit 1GiB Speicherplatz auf den Markt. 1996 reagierte SyQuest mit dem SyJet, das mit 1.5GiB noch mehr Platz zur Verfügung stellte. Doch Iomega stockte das Jaz auf einfach auf 2 GiB auf. 2004 erschien noch das Iomega Rev mit Kapazitäten von 35, 70 und 120 GiB. Deren Produktion wurde 2010 eingestellt, denn die Konkurrenz mit den immer billiger werdenden USB-Sticks wurde zu stark.
Eine Kuriosität im Bereich Festplatten ist das IBM Microdrive im 1″ Formfaktor. Das Microdrive wurde von IBM 1999 auf den Markt gebracht, wohl in erster Linie als Speichermedium für digitale Kameras. Optisch sieht das Gerät aus wie eine etwas dickere CompactFlash-Karte, es handelt sich dabei aber tatsächlich um eine Festplatte mit mechanisch bewegten Teilen. Diese Mini-Festplatten mit Kapazitäten zwischen 340MiB und 8GiB konnte man um die Jahrtausendwende tatsächlich billiger produzieren als Flash-Speicher mit vergleichbarem Speichervolumen. Die Nachteile dieser Technik im Vergleich zum Flash-Speicher liegen auf der Hand – es sind die gleichen wie bei allen mechanisch aufgebauten Festplatten: hoher Stromverbrauch, Gewicht, Stoßempfindlichkeit und geringere Datenübertragungsrate. Als ab ca. 2005 die Flash-Speicher immer billiger wurden war das auch das Ende der Microdrives.
Webseitenbetreiber müssen, um Ihre Webseiten DSGVO konform zu publizieren, ihre Besucher auf die Verwendung von Cookies hinweisen und darüber informieren, dass bei weiterem Besuch der Webseite von der Einwilligung des Nutzers
in die Verwendung von Cookies ausgegangen wird.
Der eingeblendete Hinweis Banner dient dieser Informationspflicht.
Sie können das Setzen von Cookies in Ihren Browser Einstellungen allgemein oder für bestimmte Webseiten verhindern.
Eine Anleitung zum Blockieren von Cookies finden Sie
hier.