Laut Heise-Online hat MSI jetzt ein Core-2-Duo Mainboard für 4 (in Worten: vier) Grafikkarten vorgestellt. Und ich bin grad am Überlegen, die nun schon etwas betagte ATI Radeon 9600 (lautlos, weil ohne Lüfter) durch ein zeitgemäßeres Modell zu ersetzen. Mir schwebt da sowas wie eine „X1950 Pro“ vor, und da sie auch noch leise sein soll, am besten mit so einem Arctic-Kühler-Dingens. Aber wenn das so weitergeht, ist die in einem Jahr auch schon wieder hoffnungslos lahm und kaum noch zu gebrauchen.
Dabei fing mit den Grafikkarten alles ganz harmlos an. In meinem ersten Rechner steckte eine Trident 8900 Karte mit 512kB drin, das was halt damals von Vobis so standardmäßig verbaut wurde. Später kam ich durch Zufall für ’nen Appel und ’n Ei (konkret:100 DM plus einer Flasche Sekt) an eine „ATI Graphics Ultra Plus“ (mach32) die damals normal im Laden noch gut 600 bis 700 Mark gekostet hat. Zu der Zeit etwa begann der Krieg auf dem Grafikkartenmarkt, wo Firmen wie S3, Tseng Labs (ET4000), Cirrus Logic und später dann NVidia mit immer schnelleren, größeren und bunteren Grafikkarten einander übertrumpften.
Ich habe bis heute alle wichtigen Generationen von ATI mitgemacht, von mach32, mach64 über Rage, Rage II und Radeon war alles dabei.
Konfigurationen mit mehreren Grafikkarten sind auch keine Erfindung des modernen 3D-Heightech-Grafikzeitalters. Schon vor 15 Jahren hatte ich auch zwei Grafikkarten im Rechner, allerdings weniger, um einen Geschwindigkeitszuwachs zu erzielen, als vielmehr für den Zweischirm-Betrieb. So konnte man mit einer VGA/EGA-Karte zusammen noch eine MDA/Hercules-Karte betreiben, da diese unterschiedliche Speicherbereiche belegten. Zwar konnte man an der zweiten Karte nur einen Monochrom-Monitor anschließen (am besten stilecht bernsteinfarben), das reichte aber aus, um auf diesem z.B. die Entwicklungsumgebung und den Debugger laufen zu lassen. So konnte man problemlos die Anwendung auf dem Hauptbildschirm schrittweise abarbeiten. Gerade bei Grafikprogrammen ein wahrer Segen.
Aber jetzt vier Grafikkarten in einem Rechner, sowas braucht doch nun wirklich kein Mensch.