Am vergangenen Freitag löste NVIDIA mit seiner neuen G-Sync-Technologie ein Jahrzehnte lang existierendes Problem, das immer wieder zu Tearing, Rucklern und langsamen Reaktionszeiten bei der Bildausgabe auf dem Bildschirm führte.

Auch wenn Grafik, Performance und damit das Spielerlebnis in den vergangenen Jahren ordenlich nach oben geschraubt wurden, so waren die Probleme nach wie vor vorhanden. Um zu verstehen, wie NVIDIA die Probleme von Tearing und Rucklern lösen konnte, muss man erst einmal deren Ursachen erkunden.

Aus alten Relikten ist heute die Bildwiederholungsrate von Monitoren, also die Anzahl der Einzelbilder, die pro Sekunde auf einen Monitor gezeichnet werden kann, meist fest auf 60, 120 oder 144 Hz gestellt. Grafikkarten rendern die Bilder allerdings mit ständig wechselnden Bildfrequenzen, die dann mit dem Monitor immer wieder abgeglichen werden müssen. Wird die Bildwiederholrate auf 60 Hz gestellt, dann sollte die Grafikkarte im Optimalfall eine Bildrate von 60 FPS an den Monitor liefern, damit Bildausgabe und Bildzeichnung synchron verlaufen können. In der Praxis ist das aber selten der Fall, da jede Spielszene unterschiedliche Anforderungen bei der Berechnung an die Grafikkarte stellt und deren Performance damit unterschiedlich ausfällt.

Liefert die Grafikkarte mehr Bilder an den Monitor als dieser verarbeiten kann, kommt es zum störenden Tearing-Effekt. Ein neues Frame wird an den Monitor geschickt, obwohl das aktuell zu zeichnende Bild noch nicht fertig angezeigt wurde. Die Folge ist eine Bildausgabe mit einer horizontalen Teilung. Das obere Bild ist das ältere, das untere hingegen schon das neue bzw. nächste. Das Bild wirkt „zerrissen“.

Tearing ohne Ruckler gehört dank G-Sync bei NVIDIA zur Vergangenheit an

Tearing lässt sich durch den Einsatz von V-Sync verhindern. Ist die vertikale Synchronisation aktiviert, wird die Aktualisierung der Bilddaten verhindert, während der Bildschirm das Frame noch aufbaut. Erst wenn die Übertragung eines kompletten Bildes beendet ist, wird zum nächsten gewechselt. Bei eingeschalteter V-Sync werden damit nur komplette Bilder übertragen. Fällt jedoch die Performance unterhalb der Bildwiederholfrequenz des Monitors, werden Bilder doppelt dargestellt - das Spiel ruckelt.

Spieler standen also bislang vor der Wahl, V-Sync zu deaktivieren, dafür schnelle Input-Response-Zeiten, aber zerrissene Bilder zu haben, oder aber V-Sync zu aktiveren mit möglichen Rucklern. Tearing, Lags und Stutter lassen sich softwareseitig nicht beheben, vielmehr muss die Hardware angepasst werden.

Monitor richtet sich nach der Grafikkarte

Das hat NVIDIA mit G-Sync nun getan. Die Lösung des Problems ist eigentlich ganz simpel: eine variable Refresh-Rate. Die Bildwiederholraten des Monitors werden mit den Bildfrequenzen der Grafikkarte synchronisiert. Die Grafikkarte soll sich nicht mehr nach dem Monitor richten, sondern umgekehrt. Sinkt die Framerate der Grafikkarte, wird automatisch die Widerholrate des Monitors auf das gleiche Level abgesenkt, so dass immer nur komplette Bilder ausgegeben werden und so Tearing und Ruckler verhindert und die Reaktionszeit verbessert werden.

In Montreal zeigten die Kalifornier G-Sync in Aktion. Auch gamona war vor Ort und wird dazu in Kürze einen Artikel veröffentlichen. Haltet also die Augen für weitere Informationen offen.

Unterdessen sagten bereits mehrere Hersteller ihre Unterstützung zu, die erste Monitore im ersten Quartal 2014 veröffentlichen, darunter ASUS, BenQ, Philips und Viewsonic. Andere Monitore sollen sich mit einem separat erhältlichen Upgrade-Kit nachrüsten lassen.

Einen kleinen Nachteil hat das Ganze aber: ihr benötigt mindestens eine NVIDIA-Grafikkarte der „Kepler“-Generation ab der GeForce GTX 650 Ti Boost.