Cerberus
Chefredakteur
Dabei seit: 23.07.2002
Beiträge: 12.049
Herkunft: Lübeck
|
|
Die Grafikkarte der Zukunft |
|
Blick in die Zukunft
Die Grafikkarten-Entwicklung schreitet mit immer größeren Schritten voran. So wird voraussichtlich im Herbst 2005 eine theoretische Grafikkarte für den semiprofessionellen Markt erwartet, die zum ersten mal die 1GByte Speicherschwelle überschreitet. Sie wird einen ungefähren Grafikchiptakt von 700MHz besitzen und eine Speicherbandbreite von 50GByte/s bis 100GByte/s vorweisen. Ihr effektives Leistungsvolumen wird in der Rohleistung eine heute aktuelle Radeon9700pro um den Faktor 10 übersteigen.
Realitätsfremd
Wenn man sich diese Erwartungen so anhört, dann wirken sie absolut Realitätsfremd. Denn wer braucht schon eine solche Grafikkarte? Viel unglaubwürdiger wird diese Prognose, wenn man sich vor Augen führt, dass 2 bis 3 Jahre später so eine Grafikkarte in Low-Cost Komplettrechnern verbaut wird und noch zwei Jahr später (2008-2009) vom Markt verschwindet, weil sie nicht einmal mehr den Leistungsansprüchen eines Büroanwenders gerecht wird.
Aber es ist wahr und es wird so sein.
Zumindest wenn man der permanenten Kontinuität glauben darf, die bisher nicht nur einige Jahre überdauern musste, sondern ganze Jahrzehnte und uns dabei immer dieses Bild vor Augen führte. Immer leistungshungrigere Anwendungen, welche den bisherigen Rechner überforderten, zwingen den Anwender förmlich zu schnelleren Maschinen zu greifen und damit auch die Industrie weiter zu entwickeln.
Ein lukratives Geschäft
Von dem auch gerne jeder profitiert oder es zumindest versucht. Beispielsweise die Bitboys, die Jahr um Jahr ihre Zeit darin investieren, eine Sensation zu erschaffen, die aber leider in ihrem Falle nie umgesetzt wurde. Beneidenswert ist dabei die immerwährende Hoffnung, dass es irgendwann doch klappen könnte und sich jemand findet, der diesen Chip in Silikon gießt. Wer diesen Leidensweg mitverfolgen möchte, wird in diesem Spezial ausführlich bedient.
Wohin führt dies und wann kommt das Ende?
Allein die Anwendungen und vor allem auch die Spiele weisen hier den Weg. Da 3D Grafikkarten mittlerweile in jedem Standardrechner vermutet werden, ist auch anzunehmen das hier bald ein 3D Betriebssystem das Licht der Welt erblickt. Zwar will sich Microsoft hierfür Zeit lassen, aber auf Linux Ebene wäre dies schon sofort realisierbar. Schließlich basiert deren grafische 2D Oberfläche schon auf OpenGL und stellt damit die Grundlage für die Realisierung.
Echtes 3D?
Was echte 3D Monitore betrifft, wird es aber viel länger dauern, da hierfür wesentlich mehr Grafikpower notwendig sein wird, um tiefgehende Auflösungen überhaupt darzustellen. Bis dann alles schnell und flüssig von statten geht, vergeht dann noch mehr Zeit. Schließlich darf man nicht vergessen, dass dies eben nicht das selbe ist, wie eine 3D Darstellung am normalen Monitor, den diese 3D Darstellung soll ja nicht auf 2D runtergerechnet werden, sondern muss tatsächlich in 3D erscheinen. Damit ergeben sich hierfür schon enorme Datenmengen im 3stelligen Gigabyte Bereich (mindestens), die pro Sekunde zum 3D Monitor übertragen werden müssen. Bzw. davor auch noch errechnet sein wollen.
Alles in allem kann man getrost davon ausgehen, dass die Notwendigkeit nach mehr Leistung, noch mindestens bis Mitte des aktuellen Jahrhunderts weiterbestehen wird. Frühestens dann dürfte der Traum eines hochauflösenden breitvolumigen und vor allem echten 3D Monitors Realität werden.
Viel relevanter wäre die Frage, ob die Entwickler in den kommenden Jahrzehnten mit mindestens genauso guten Ideen aufwarten können, wie sie schon in den vergangenen Jahrzehnten Anwendung fanden. Wenn man sich hier die immer öfter auftretenden Fertigungsprobleme der Grafikkartenhersteller ansieht, könnte man dies fast schon bezweifeln.
Quelle: K-Hardware
Cerberus
|
|