High Dynamic Range Rendering ist in der Tat der nächste Meilenstein in der 3D-Spielegrafik nach dem Auftritt von Pixelshadern. Mit dieser Technik wird auch noch eine der letzten Hürden zur fotorealistischen Grafik genommen: der realistischen Berechnung von Licht.
Das Problem war bislang, dass Lichtintensität im Computer nicht der Realität entsprechend berechnet werden konnte. Licht in der Realität hat zwar eine untere Grenze (nicht vorhanden => stockfinster) aber keine obere Grenze, sprich die Intensität einer Lichtquelle kann beliebig gesteigert werden bis zu einem Grad, an dem das menschliche Auge so sehr davon geblendet wird, dass es nur noch "Weiß" sieht, auch wenn die Lichtquelle gerade mal ein Punkt mit einem Milimeter Durchmesser in einer Kilometer Entfernung ist.
Der Computer hingegen rechnete bislang Licht immer unter der Annahme einer obersten Grenze. Die Intensität für jedes Farbspektrum reicht lediglich von 0 bis 255 und die 255 heißt im Grunde für den Computer "so hell, wie der Monitor einen Bildpunkt erscheinen lassen kann". Damit wäre die superhelle Lichtquelle im obigen Beispiel aber eben nur ein einfacher weißer Pixel auf dem Bildschirm. Der Eindruck von dieser hellen Lichtquelle geblendet zu werden, entsteht beim Betrachter nicht.
Was HDR nun im Grunde macht ist intern Lichtstärke mit weitaus höheren Werten als 255 zu rechnen. Ist das Endresultat für einen Bildpunkt dann höher als 255, ist der Punkt selbst zwar nach wie vor weiß, aber der Computer lässt die Helligkeit dieses Punktes in die benachbarten Bildpunkte mit einfließen. Es entsteht ein Lichthof oder Halo um diesen Punkt herum, den wir subjektiv wie blendendes Licht wahrnehmen - obwohl der Monitor selbst deswegen nicht wirklich heller leuchtet. Es ist also nach wie vor ein optischer Trick, denn die Leuchtkraft eines Bildpunktes ist natürlich auf die maximale Leuchtkraft des Monitors beschränkt (der Hintergrundbeleuchtung eines TFTs z.B.). Und das ist ja auch gut so, denn wer will sich schon beim Spielen der Gefahr der Erblindung aussetzen?
HDR setzt aber neue Herausforderungen an die GPUs: Weil die einzelnen Farbkanäle nicht mehr nur durch einzelne Bytes repräsentiert werden können sondern man z.B. nun 16 Bit pro Farbkanal benötigt, rechnet man nun intern mit 64 Bit pro Pixel statt bislang 32 Bit (56 Bit, wenn man die Auflösung des Alpha Kanals beibehalten wollte, aber das wäre ineffizient). Also muss eigentlich fast alles an Silizium und Leiterbahnen auf der Karte verdoppelt werden um die gleiche Leistung bei gleichem Takt beizubehalten wie ohne HDR. Zweites Problem ist, dass der Bloom-Effekt, also das Einfließen der Helligkeit eines sehr hellen Bildpunktes in seine Nachbarbildpunkte, noch mehr Lese- und Schreibzugriffe pro Bildpunkt im Framebuffer erforderlich machen, und somit stellt das ganze noch höhere Anforderungen an den Speicherdurchsatz als es die 64 Bit bereits tun.
Bis wir also HDR ohne Einschränkungen bei gewohnten Frameraten genießen können, wird sich hauptsächlich in der Speicherentwicklung noch einiges tun müssen. Bis dato werden die Entwickler noch zwangsläufig mit vielen Kompromissen arbeiten müssen.