Die Grafikkarte ist ein unverzichtbares Bauteil in einem Computer. Sie ist – zusammen mit einem Monitor und neben den Eingabegeräten (Tastatur, Maus etc.) – eines der wichtigsten Bindeglieder für die Interaktion zwischen Computer und Mensch. Ihre Aufgabe ist die Umsetzung der Ausgaben des Computers in für den menschlichen Anwender sichtbare und verständliche Zeichen am Monitor. Das war nicht immer so. In den Anfangstagen der IT übernahmen häufig Drucker bzw. Fernschreiber die Funktionen der Kombination Grafikkarte/Monitor. Alles mußte auf langsamen und lauten Druckern ausgegeben werden, also z.B. die Auswahlfunktionen von Programmen, die Eingabeaufforderungen des Betriebssystems oder das Ergebnis von Berechnungen.

In den 1970iger Jahren gab es zwar bereits grafikfähige Spielkonsolen, die ersten Microcomputer in dieser Zeit beschränkten sich jedoch auf reine Textdarstellung. Ende der 1970iger kamen bereits Homecomputer wie der Tandy TRS-80 oder der Acorn Atom auf den Markt, die bereits “grafikfähig” waren. Doch hier kamen noch keine Grafikkarten als eigenständige Subsysteme zum Einsatz. Die für die Grafikdarstellung notwendigen Chips waren direkt auf den Hauptplatinen integriert. Grafikkarten sind – wie der Name schon sagt – separate, austauschbare Leiterplatten, bestückt mit den entsprechenden Bauelementen, die über einen Erweiterungssteckplatz dem Gesamtsystem hinzugefügt werden. Über diesen Erweiterungssteckplatz ist sie auch mit dem Bussystem des Computers (ISA, EISA, VLB, PCI, AGP …) verbunden und kann die bereitgestellten Informationen empfangen, welche sie dann als vertikales und horizontales Synchronisationssignal an einen angeschlossenen Monitor übermittelt. Der erste PC, bei dem eine austauschbare, separate Grafikkarte Verwendung fand, war der Apple II.

Grafikprozessor und Grafikspeicher sind die wesentlichen Bauelemente auf einer Grafikkarte. Diese beiden Bauteile bestimmen die Bildauflösung, Farbenvielfalt und Geschwindigkeit und definieren dadurch die Leistungsfähigkeit einer Grafikkarte. Der Grafikprozessor (GPU) ist ein spezialisierter Chip, der die CPU auf der Hauptplatine im Bereich der Bilddarstellung so weit wie möglich entlasten soll. Dazu muss er die die ankommenden Daten selbständig in Bildelemente umsetzen. Im Grafikspeicher (Video-RAM) wird das Bild in einzelne Bildpunkte zerlegt und als Bildpunktmatrix gespeichert. Der Unterschied zwischen Text- und Grafikdarstellung liegt dabei allein in der Form der Abbildung. Text wird im sogenannten Bildschirmspeicher als Folge von ASCII-Zeichen abgelegt. Jedem Zeichen folgt zusätzlich ein sogenanntes Attribut-Byte, das die Farbe oder andere Darstellungsformen festlegt. Bei der Grafikausgabe werden im Bildschirmspeicher einzelne Punkte abgelegt. Wie bei der Textdarstellung wird durch die Bildschirmspeicheradresse des Punktes auch die Position am Bildschirm festgelegt. Die Größe des benötigten Bildschirmspeichers richtet sich nach Bildschirmauflösung und Anzahl der gleichzeitig darstellbaren Farben. Bei einem IBM XT mit einer CGA Grafikkarte mit 320 x 200 Bildpunkten und 4 Farben werden z.B. 16KB benötigt.

Mit der sogenannten Bildwiederholfrequenz wird definiert, wie das menschliche Auge das Monitorbild sieht. Bei Fequenzen unter 70 Hz wird das zeilenweise Entstehen des Bildes noch wahrgenommen, es wirkt daher unscharf und flimmert. Bereits bei 72 Hz verliert sich dieser Eindruck vollständig. Im Besonderen bei grafischen Benutzeroberflächen müssen die Grafikkartenhersteller speziell dafür angepaßte Treiber liefern oder lassen diese (bei stark verbreiteten Kartentypen) in das jeweilige Betriebssystem als Standardtreiber integrieren.

MDA (Monochrome Display Adapter)

Den ersten Grafikkartenstandard definierte IBM mit Erscheinen des IBM PC’s 1981. Obwohl dieser Begriff hier eigentlich falsch angewendet ist, denn der sogenannte Monochrom Display Adapater (MDA) leistete nur einfarbige Textdarstellung (80 Spalten, 25 Zeilen). Einzelne Zeichen waren 9 Pixel breit und 14 Pixel hoch (7 × 11 für das eigentliche Zeichen, der Rest für den Abstand). Der Begriff Bildschirmkarte wäre daher angebrachter. Der Zeichensatz (256 ASCII-Zeichen) befand sich in einem ROM Baustein, die individuelle Anpassung via Software war bei MDA noch nicht möglich.

Technische Daten: 80 Zeichen, 4KiB RAM, 8KB Zeichensatz ROM, Speicheradressen: B0000-B0FFF, I/O Ports 3B0-3BF, Connector: DE-9

HGC (Hercules Graphics Card)

Das Manko der MDA-Karte, keine Grafiken darstellen zu können, griff die Firma Hercules auf und entwickelte 1982 die Hercules Graphics Card. Neben der Kompatibilität zu MDA besaß diese Karte einen Modus zur Darstellung monochromer Grafiken bis zu einer Auflösung von 720 x 348 Bildpunkten. Die Schriftarbe bzw. positive Farbe war abhängig vom verwendeten Monitor und konnte grün, bernstein oder sogar papierweiß sein. Die HGC Karten lösten die MDA-Karten ab ca. 1984 komplett ab, denn sie leisteten nicht nur mehr, sie waren auch noch billiger. Viele XT- und AT-Clone-Hersteller statteten ihre Geräte standardmäßig mit einem (zumindest kompatiblen) HGC-Adapter aus. Die Karte sollte bei allen Low-End Computermodellen bis Ende der 1980iger Jahre starke Verbreitung haben.

Technische Daten: 80 Zeichen Textmodus, 720 x 348 Grafik mono, 64 KiB RAM, 8KB Zeichensatz ROM, Speicheradressen: B0000-BFFFF, I/O Ports 3B0-3BF, Connector: DE-9

CGA (Color Graphics Adapter)

Nur wer unbedingt Farbe brauchte oder sich keinen speziellen Monitor kaufen konnte/wollte, griff ab 1983 zum von IBM entwickelten Color Graphics Adapter. Mit einem zusätzlichen HF-Modulator war es möglich, diese Karte an einen Fernseher anzuschließen. CGA konnte neben der 16farbigen Textdarstellung (bei Verwendung aller vier Paletten) auch Grafiken bis zu einer Auflösung von 320 x 200 darstellen. Das reichte allerdings nur für primitive Spiele. Ein 80-Zeichen-Textmodus (160 x 200 Punkte, 16 gleichzeitig darstellbare Farben) war zwar möglich, doch die Darstellungsqualität war für Büroanwendungen einfach zu schlecht. Ein weiteres Problem: Programme, die aus Performancegründen direkt in den Bildschirmspeicher schrieben lösten bei der CGA-Karte das sogenannte “Snowing” aus – eine Art Schneegestöber bei jedem Refresh des Bildschirms. Spätere CGA-Karten konnten auch im HGC-Modus betrieben werden und hatten dafür zusätzlich die dementsprechenden Monitoranschlüsse. Eine Besonderheit war, das MDA- und CGA-Adapter sich gleichzeitig in einem System befinden konnten, ohne das Adress-Konflikte entstanden.

Technische Daten: 40/80 Zeichen Textmodus, 160 × 200 – 16 Farben, 320 × 200 Punkte – 4 Farben, 640 × 200 – 2 Farben, 16 KiB RAM, 8KB Zeichensatz ROM, Speicheradressen: B8000-BBFFF, I/O Ports 3D0-3DF, Monitor: 15,75 kHz Zeilenfrequenz, Connector: DE-9

Relativ schnell gab es Clones dieser Karte von verschiedenen Herstellern. Eine besondere CGA-Karte in unserem Fundus stammt von Quadram. Deswegen besonders, weil man bei ihr das erste mal etwas von der Firma Video 7 hört. Die Karte ist eine Co-Produktion von Quadram und Video 7. Letztere war zu diesem Zeitpunkt eine kleine Firma in Privatbesitz. Sie sollte in den kommenden Jahren zu einem Technologie-Vorreiter auf diesem Sektor werden. Ein weiterer besonderer CGA-Adapter stammt von der Firma ATI. Wahrscheinlich eine der ersten Grafikkarten des heutigen Grafikkarten-Giganten.

PGA (Professional Graphics Adapter)

Der IBM Professional Graphics Adapter kam 1984 auf den Markt. Sie war eine komplexe, teure und daher nur für Grafikprofis interressante Option für den PC-XT und den PC-AT. Es handelte sich kurz gesagt um einen “PC im PC” mit einem eigenen Intel 8088-Prozessor, der so aufgebaut war, dass er ein Grafiksubsystem bildete. Die Karte war von der System-CPU fast völlig unabhängig. Die Verkaufszahlen waren aufgrund des Preises (ca. 3000US$ nur die Karte) sehr gering. (Bildquelle: https://blog.krusher.net)

Technische Daten: 80 Zeichen Textmodus, 640 × 400, 256 Farben aus einer Palette von 4096, Connector: DE-9

EGA (Enhanced Graphics Adapter)

1985 brachte IBM mit dem Enhanced Graphics Adapter endlich einen leistungsfähigeren Farbstandard. EGA unterstützte generell 16 gleichzeitig darstellbare Farben, egal ob im Textmodus oder bei der maximalen Grafikauflösung mit 640 x 350 Pixeln. Die Farben konnten aus 4 umschaltbaren Farbpaletten ausgewählt werden, wodurch dem Programmierer insgesamt 64 Farben zur Verfügung standen. Auf EGA-Karten befand sich erstmals ein eigenes Grafikkarten-BIOS. Die Vorgänger wurden noch über das BIOS des Computers angesteuert.

Technische Daten: 40/80 Zeichen, 640 x 350 Grafik (16 Farben aus einer Palette von 64 Farben), 64 KiB RAM, 16 KiB Zeichensatz ROM, Speicheradressen: A0000-AFFFF und C0000-C3FFF, I/O Ports 3B0-3BF, Connector: DE-9

Wie auch die bisher genannten Standards benötigte EGA ebenfalls einen speziellen (Farb-)Monitor mit einer Zeilenfrequenz von 21,85 kHz, ein CGA Farbmonitor konnte nicht verwendet werden. Trotzdem war die Zeit reif für Farbdarstellung und durch die gute Darstellungsqualität setzte sich EGA – anfangs nur im High-End Bereich – sehr schnell durch. In den folgenden Jahren kopierten Hersteller wie ATI, Diamond, Genoa Systems, Oak Technologies, Paradis Systems und Tseng Labratories – um nur einige zu nennen – den EGA-Standard von IBM und brachten eigenentwickelte und teilweise leistungsfähigere Clones auf den Markt.

Allerdings war die Lebensdauer dieses Standarts nur kurz. Mit Erscheinen des VGA-Standards zwei Jahre später verschwand EGA ruckartig. Besonders die speziellen EGA-Monitore sind heutzutage fast schon Raritäten.

VGA (Video Graphics Array)

Der heute noch angewendete Standard VGA – wiederum von IBM definiert – lieferte aus technischen Gründen erstmals ein analoges statt einem digitalen Signal um die Beschränkungen der Farbtiefe abzustellen. Die Auflösung beträgt 640 x 480 Bildpunkte, wobei wie bei EGA maximal nur 16 Farben gleichzeitig darstellbar sind. 256 Farben gleichzeitig schafft VGA bei einer auf 320 x 200 Punkte reduzierten Auflösung. Im VGA-Standard verankert war ebenfalls die Möglichkeit, sogenannte Accelerator-Grafikkarten zu verwenden. Accelerator-Karten (s.a. 8514/A) spezialisierten sich auf hochauflösende Modi und/oder hohe Farbtiefe, während die VGA-Karte für die Text-Darstellung und Standard-Grafik zuständig war. IBM selbst produzierte nur eine eigene 8-Bit ISA VGA Karte, um PS/2 Modelle ohne VGA auf dem Mainboard aufrüsten zu können.

Technische Daten: 40/80 Zeichen, 640 x 480 Grafik (16 Farben aus einer Palette von 64 Farben), 256 KiB RAM, 32 KiB Zeichensatz ROM, Speicheradressen: A0000-AFFFF und C0000-C5FFF, I/O Ports 3C0-3CF, Connector: HD-15 (später DVI/Mini-DVI/Micro-DVI)

Erwähnt werden soll, das es – neben der von IBM – nur wenige VGA-Karten für den 8-Bit ISA Bus gab. Die weitaus meisten Karten von anderen Herstellern wurden für den 16-Bit ISA Bus des IBM AT produziert, da mit zunehmenden Auflösungen sowie mehr Farben für grafisch anspruchsvolle Anwendungen und Spiele auch mehr Informationen über den Datenbus geschoben werden mußten.

8514 Display Standard

Neben VGA führte IBM 1987 zusammen mit der Personal System/2 – Modellreihe auch den 8514 Display Standard ein. 8514 gilt allgemein als der erste Grafikkartenbeschleuniger für den Massenmarkt. Diese gab es bereits vorher, aber nur in Graphic-Workstations von SGI und Sun. In diesen waren die Grafikkartenbeschleuniger bereits programmierbar. Dier 8514/A Karte war ein Beschleuniger mit fester Funktion und konnte daher für den Massenmarkt zu einem viel niedrigeren Preis angeboten werden. Auf der Karte waren normalerweise 2D-Zeichenfunktionen wie Strichzeichnen, Füllen mit Farben und BITBLT ausgelagert. Die CPU wurde bei Grafikausgaben dadurch stark entlastet.

Die 8514/A-Karte war nur für den Grafikmodus 1024 × 768 verantwortlich. Alle anderen Modi wurden mit der VGA-Hardware auf der Hauptplatine des Computers erzeugt. Anschließend wurde das Signal über die Adapterkarte an den Monitor übertragen. Dadurch das zwei Monitoranschlüsse in einem System mit der 8514 / A vorhanden waren, konnten natürlich auch zwei Monitore gleichzeitig betrieben werden. Eine übliche Konfiguration bestand aus dem 8514-Monitor an der 8514/A und einem Standardmonitor an VGA.

Technische Daten: 1024 × 768 Pixel bei 256 Farben und 43,5 Hz Interlaced, 640 × 480 Pixel bei 256 Farben und 60 Hz, 512-1024 KiB VRAM, Connector: HD-15

8514 wurde später durch den XGA-Standard von IBM ersetzt.

8514-Clones:

TIGA (Texas Instruments Graphics Architecture)

Ebenfalls zur Kategorie der Accelerator-Grafikkarten gehört der fast schon vergessene TIGA. Texas Instruments hatte den Chipsatz Mitte der 1980iger Jahre entwickelt, der auf dem TMS34010 Chip basierte. Dieser gilt als erster frei programmierbarer Grafikprozessor. TIGA war nicht in erster Linie als 3D-Beschleuniger gedacht. Es war eine High-End-2D-Lösung, die Auflösungen bis zu 1280×1024 Pixel bei 24Bit Farbtiefe realisieren konnte. Aufgrund des hohen Preises fand sie hauptsächlich im professionellen CAD-Bereich seine Anwender. Die kommerzielle Verbreitung außerhalb dieses Profisektors hielt sich in Grenzen, da es für die ab 1990 erschienenen TIGA-Grafikkarten für den IBM PC in Windows 3.x nur eine unzureichende Treiber-Unterstützung gab. Der Beschleunigungseffekt dieser Karten gemessen am Preis war daher im Vergleich mit konventionellen Accelerator-Karten (z.B. 8514) gering. Die Programmierung einer TIGA-Karte erfolgt über eine API, über die abstrakte Grafikbefehle in sogenannten “Display Lists” abgelegt und dann nacheinander von der GPU (Graphics Processing Unit) der Karte abgearbeitet werden.

VGA für den EISA-Bus

Grafikkarten für diese Bussysteme übertrafen alle den VGA-Standard. Sie besitzen meist mindestens 1MB VRAM und erreichen Auflösungen von XGA (1024 x 768) und höher.

Ein Konsortium um Compaq und Hewlett Packard entwickelte und veröffentlichte 1988 den 32-Bit breiten EISA-Bus, um den Anforderungen der CPU’s ab 80386 gerecht zu werden und auch, weil IBM für den im Rahmen der PS/2-Reihe ebenfalls neuentwickelten Microchannel-Bus (MCA) Lizenzgebühren forderte. Der Vorteil von EISA gegenüber der MCA war die Abwärtskompatibilität zu ISA, ältere Erweiterungskarten (8-Bit und 16-Bit) konnten damit weiter verwendet werden.

VGA für Vesa-Local-Bus (VLB)

Der VLB wurde 1992 fertigestellt und speziell für den 486er-Prozessor von Intel optimiert. Es basiert auf dem 16-Bit-ISA-Bus, arbeitet aber durch eine zusätzliche Steckleiste mit 32-Bit Busbreite. Durch diese speziellen Anschlüsse sind Adress- und Datenleitungen der Erweiterungskarte – in diesem Fall der Grafikkarte – direkt mit der CPU verbunden.

VGA Nachfolger

Die Entwicklung blieb natürlich auch weiterthin nicht stehen. Schon kurz nach der Einführung von VGA entstanden neue Standards wie der SVGA (800 x 600) und SXGA (1024 x 768). Die zweite Generation dieser Karten (ab ca. 1996) waren 3D-fähig (3Dfx). Nur wenige der oben genannten Grafikkarten-Hersteller konnten dem Entwicklungsdruck standhalten und existieren heute noch. Nvidea (Intel) und ATI (AMD) diktieren heute in diesem Bereich die Standards. Mit den höheren Auflösungen der Grafikkarten wurden auch die passenden Monitore produziert, um deren Signale auch mit möglichst hoher Qualität und Geschwindigkeit darstellen zu können.

 

Quelle: http://stweb.peelschools.org/pcsweb/pc_tut

Weiterführende Links:

vgamuseum (Grafikkarten Online-Museum)