Ny teknik löser gamla problem med hackande och fördröjd skärmbild.

#Nvidia presenterar en ny teknik som eliminerar problem med fördröjd bildvisning och grafiska slaggprodukter på datorskärmar. Tekniken heter G-Sync och den synkroniserar monitorns refresh rate med grafikkortets signaler, vilket till stor del löser de bekymmer som annars kan uppstå.

Med dagens teknik används monitorns uppdateringsfrekvens för att bestämma vad som visas på skärmen innan dessa data skickas till grafikkortet. Det innebär dessvärre en fördröjning (input lag). Sätter du på vsync i grafikinställningarna kan bilden hacka och stänger du av det får du så kallad "tearing" som bieffekt. Med en G-sync-kompatibel monitor synkas grafikkortet direkt med det, och det förpassar alla nämnda problem till historieböckerna.

G-sync-tekniken blir tillgänglig senare i år, dels inbyggd i vissa skärmar och dels som fristående modul som du själv (eller en teknikkunnig vän) kan sätta fast på din befintliga skärm. Det behövs förstås också ett Nvidia-grafikkort, närmare bestämt ett Geforce GTX 650 Ti Boost eller bättre (kostar från en dryg tusenlapp). Nästa år ska G-sync finnas i en mängd skärmar, ända upp till nästa generations högupplösta teknik 4K (upplösningar kring 3840 x 2160 pixlar).

Tekniken prisas i pr-doftande ordalag av en handfull kända spelutvecklare, till exempel Johan Andersson från #Dice, #John Carmack från #Id Software och #Epics Tim Sweeney och Mark Rein. Sweeney slår på stora trumman och kallar G-sync "det största steget framåt för spelskärmar sedan vi gick från standard- till högupplösning.".

Vad tror du – är G-sync den nödvändiga revolution som Nvidias marknadsförare vill göra gällande, eller bara ett sätt att banta våra bankkonton?

Skicka en rättelse