Seit der Erfindung des Computers wurden fortlaufend neue Anzeigemedien gesucht, um Eingaben des Benutzers und die Ausgaben des Computers visuell darzustellen. Egal ob mathematische Berechnungen, Bilder oder Texte, der Computer wäre heute nicht das, was er ist, wenn sich seine Möglichkeiten der Anzeige nicht ständig gewandelt und weiterentwickelt hätten. Im Übrigen würden Sie diesen Text nicht lesen und die Bilder nicht ansehen können, wenn es keinen Computermonitor gäbe.
Der im Jahr 1973 im Palo Alto Research Center (Xerox PARC) entwickelte Alto-Computer aus dem Jahr 1973 wird als der erste Computer angesehen, der standardmäßig über ein (monochromes) Display in der CRT-Technologie verfügte. Zusätzlich lief er mit der ersten grafischen Benutzeroberfläche (GUI), die mit einer Maus bedient wurde.
Der Computermonitor ist nicht gleichzeitig mit dem Computer entstanden, auch wenn ein 1970 geborener Mensch das annehmen könnte. In den Anfangsjahren der zivilen Computernutzung – also ab ca. 1950 – erfolgte die Interaktion des Computers mit seinem Benutzer über sogenannte Terminals. Als Medium für die Ein- und Ausgabe wurden bis in die 1970iger Jahre Lochkarten bzw. Lochstreifen verwendet. Später ersetzten Fernschreiber (wie z.B. die weit verbreiteten Teletype ASR-33) die Lochkarten, da sie die gesamte Interaktion zwischen Computer und Anwender über einen Drucker abbilden konnten.
Der Begriff Computerterminal bezeichnet ein elektronisches oder elektromechanisches Hardwaregerät, mit dem Daten in einen Computer oder ein Computersystem eingegeben und von diesem angezeigt oder gedruckt werden können. Als sich die CRT-Technologie verbesserte und Videoanzeigen eingeführt wurden, verdrängten die CRT-Terminals die älteren Formen (Lochkarte, Druckerterminal). Die Funktion eines Terminals beschränkt sich auf die Anzeige und Eingabe von Daten. Ein Terminal, dessen Verarbeitungsleistung vom Host-Computer abhängt, wird als “dummes Terminal” bezeichnet. Auf einem Personal Computer kann eine Terminalemulator-Software ausgeführt werden, die die Funktion eines Terminals emuliert und normalerweise zusätzlich die gleichzeitige Verwendung lokaler Programme und den Zugriff auf ein entferntes Terminal-Host-System ermöglicht.
Auch Oszilloskope wurden zur Darstellung von bestimmten Zuständen eines Computers eingesetzt.
Erst in fühen 1970iger Jahren kamen die Computeringenieure darauf, das CRT-Displays – quasi als “virtuelles Papier” – besser für die Datenanzeige geeignet waren. Radar- und Oszilloskop-CRTs wurden modifiziert, um sie als primitive grafische Anzeigen zu verwenden, beispielsweise beim SAGE-System und der PDP-1. Diese ersten Displays (Terminals) arbeiteten im Unterschied zu heutigen CRT-Monitoren nicht zeilenbasiert, sondern über das aufwändige und daher teure Vektor-Verfahren, wobei jeder Bildschirmpunkt einzeln angesteuert wird. CRT-basierte Terminals wurden auch als “Glass-Teletype” bezeichnet, weil sie im Prinzip die gleiche Funktion erfüllten wie ein Teletype.
Eine CRT (cathode-ray tube) ist eine Vakuumröhre, deren Ende mit Leuchtstoffen beschichtet ist. Erfunden wurde diese 1897 von Ferdinand Braun (Braun’sche Röhre). Wenn Elektronen auf diese Leuchtstoffschicht treffen, emittieren sie Licht. Auf dem Weg vom Strahlerzeugungssystem (Kathode) zur Leuchtschicht wird der Elektronenstrahl durch Magnetfelder vertikal und horizontal abgelenkt, um bestimmte Punkte anzusteuern. Dabei bewegt sich der Strahl rasend schnell von links oben zeilenweise nach rechts unten, so das ein sichtbares, scheinbar stehendes Bild entsteht. Bei farbfähigen CRT’s werden drei Strahlen für rot, grün und blau benötigt.
Quelle: Fachlexika.de
Diese ersten CRT-Terminals standen dann Anfang der 1970iger Jahre zur Verfügung (IBM 3270, ein paar Jahre später DEC VT100). Sie waren nur in der Lage einfarbigen (ASCII-) Text darzustellen und kommunzierten mit dem Computer über eine serielle oder eine koaxiale Verbindung. Trotzdem waren sie unverschämt teuer und daher für den einzelnen Computeranwender unerschwinglich. Die Firma Tektronix brachte ab 1971 auch grafikfähige Terminals auf den Markt – zum Preis eines Mittelklasse-Auto’s ! Aber alle diese Terminals waren ausschließlich für die Benutzung von Mainframe- und Mini-Computern vorgesehen. Die Zeit der Home- bzw. Personal Computer sollte erst ab 1975 in Schwung kommen.
Mitte der 1970iger Jahre hatten u.a. Steve Woszniak und Lee Felsenstein die Idee, einen Video-Ausgang bereits auf dem Mainboard des Apple I bzw. des SOL-20 standardmäßig zu integrieren, um kleine (ca. 6″ bis 9″ Bildschirmdiagonale) aber preiswerte CRT-Displays daran anschließen zu können.
Dieser Trend setzte sich 1977 in den Computermodellen Apple II, Tandy TRS-80 und Commodore PET-2001 fort. Zu dieser Zeit allerdings ausschließlich mit monochromen Monitoren, Farbmonitore waren zu teuer. Da Computerspiele allerdings mehr Spaß mit farbiger Darstellung machen und Homecomputer von Commodore (VC-20, C64), Apple und Atari ja grundsätzlich farbfähig waren, kamen ab ca. 1983 auch erschwingliche Farbmonitore wie z.B. der Commodore 1701 auf den Markt. Monitore für Homecomputer waren technisch gesehen eigentlich Fernsehgeräte, nur ohne Empfangsteil.
1983 brachte Commodore mit dem SX-64 das erste Portable mit integriertem 5″ Farbmonitor auf den Markt. Mit dem Commodore Amiga 1000 erscheint 1985 ein Homecomputer, der – als Multimedia-Maschine konzipiert – grundsätzlich auf den Betrieb mit einem Farbmonitor ausgelegt war.
Im Business-Bereich überwogen noch die monochromen CRT-Monitore. Bei den ersten Workstations von Apollo, Sun, Intergraph und DEC Mitte der 1980iger Jahre waren riesige und dementsprechend schwere Monitore mit bis zu 28″ Bildschirmdiagonale Standart. Grafikfähig, hochauflösend und sündhaft teuer für den CAD/CAM-Bereich konzipiert, aber eben meist noch nicht farbfähig, sondern mit einer Graustufen-Darstellung
Mit den Anfängen des IBM-PCs (ab 1980) entwickelten sich mehrere Grafikstandards. Monochrome wie MDA und Hercules, farbige wie CGA und EGA. Deren Spezifikationen erforderten jeweils spezielle Monitore. Dies bedeutete für den Anwender im Falle des Wechsels der Grafikkarte oder des gesamten Systems meist auch einen neuen Monitor beschaffen zu müssen. Um diese Problematik zu beheben, erfand der japanische Hersteller NEC den ersten Multisync-Monitor (JC-1401), der eine Reihe von Auflösungen, Scanfrequenzen und Bildwiederholraten dynamisch unterstützte und 1986 auf den Markt kam.Diese Fähigkeiten des NEC Multisync wurde bald zum Standard, anfangs jedoch nur bei teuren HighEnd-Monitoren.
1987 führte IBM mit der PS/2-Reihe den analogen VGA-Videostandard und die ersten VGA-Monitore ein.Fast jeder weiterentwickelte Nachfolger dieses Standards ist seitdem mindestens VGA-abwärtskompatibel und besitzt daher meist auch den bekannten 15-poligen Anschluß. Die anderen weiter oben-genannten Standarts und die dazu passenden Monitore verschwanden nach der VGA-Einführung relativ schnell vom Markt.
Eine zur CRT-Technik alternative Anzeigetechnologie – die Flüssigkristallanzeige – kam bereits in den 1960er Jahren auf den Markt. Anfangs setzte sie sich allerdings nur bei Taschenrechnern und Armbanduhren durch. Frühe tragbare Computer der 1980er Jahre (z.B. das Grid-Portable) verwendeten dann LCD-Displays, weil sie energieeffizient, leicht und dünn waren. Die ersten LCD-Monitore waren monochrom und kontrastarm. Zur Verbesserung der Darstellungsqualität wurde oft eine separate Hintergrundbeleuchtung oder eine direkte Beleuchtung in das Display eingebaut. Ab den 1990er Jahren jedoch verbesserte sich die LCD-Technologie rasant weiter, was auf den inzwischen einsetzenden Marktboom für portable Computer wie Laptops bzw. Notebooks zurückzuführen war.Die Displays erhielten mehr Kontrast und die Betrachtungswinkel wurden verbessert. Zudem kamen Farb-LCD’s auf den Markt.
Ab 1997 ereichten die LCD-Monitore qualitativ und vom Preis her das Niveau, um auch als Monitore für Desktop-PC’s eingesetzt zu werden. Erste Anbietern wie ViewSonic, Miro, Eizo, IBM und Apple brachten zu einem vernünftigen Preis Farb-LCD-Monitore mit Eigenschaften, die mit CRT-Monitoren konkurrieren konnten. Sie verbrauchten weniger Platz auf dem Schreibtisch, waren sparsamer im Stromverbrauch und erzeugten keine Strahlung, wie sie die Kathodenröhre eines CRT-Monitors nunmal abgibt.
Ab ca. 2007 wurden erstmals mehr LCD-Computermonitore verkauft als CRT’s. Heute gibt es praktisch nur noch Farb-LCD-Monitore, lediglich eine andere Art der Ansteuerung (TFT) hat sich seit ca. 2010 durchgesetzt. Computermonitore werden in allen Größen und Seitenverhältnissen (4:3, 16:9, 16:10) hergestellt und sind preislich auf einem Niveau angelangt, wo sich praktisch jeder einen 27″ großen Monitor leisten kann.
Die Zukunft gehört vermutlich nicht der Flüssigkristall-Technologie, sondern den LED bzw. OLED Displays.
Webseitenbetreiber müssen, um Ihre Webseiten DSGVO konform zu publizieren, ihre Besucher auf die Verwendung von Cookies hinweisen und darüber informieren, dass bei weiterem Besuch der Webseite von der Einwilligung des Nutzers
in die Verwendung von Cookies ausgegangen wird.
Der eingeblendete Hinweis Banner dient dieser Informationspflicht.
Sie können das Setzen von Cookies in Ihren Browser Einstellungen allgemein oder für bestimmte Webseiten verhindern.
Eine Anleitung zum Blockieren von Cookies finden Sie
hier.