Nvidia G-sync ger silkeslent skärmflyt
Ny teknik löser gamla problem med hackande och fördröjd skärmbild.
#nvidia, #dice, #john-carmack, #id-software, #epic-games
Perfekt för de som ej har råd med TITANS och 780 eller liknande (dyrare high-end kort), om nu skärmarna inte blir allt för dyra.
Det spelare ju ingen roll vilket grafikkort du har, du får ju alltid minst samma input lag vad jag förstår. Det är den minsta gränsen dom lyckas dra ned med hjälp av g-sync om jag förstår det rätt.
Perfekt för de som ej har råd med TITANS och 780 eller liknande (dyrare high-end kort), om nu skärmarna inte blir allt för dyra.
Det spelare ju ingen roll vilket grafikkort du har, du får ju alltid minst samma input lag vad jag förstår. Det är den minsta gränsen dom lyckas dra ned med hjälp av g-sync om jag förstår det rätt.
En high-end dator har ju bättre förutsättning att hålla sin FPS konstant på 60/120, vilket HZ antal man nu än kör (klart det blir ju kämpigare på 144 hz skärmar).
Medans en mellanklass dator har mer variabel/ostadig FPS-kurva och kan dra mer nytta av G-sync för att slippa tearing/stuttering.
Å andra sidan, kör man utan vertikal sync så drar ju high-end datorer nytta av detta med.
Adaptive-Sync funkar ju strålande.
Adaptive VSync är väl en mjukvarulösning? Om det är nåt jag har lärt mig genom åren så är det att hårdvarulösningar alltid är bättre än mjukvarulösningar. Dock må jag hålla med om att Adaptive VSync har fungerat förvånansvärt bra, men det finns alltid utrymme för förbättringar
Undrar vad AMD kontrar med? "Samma" sak med annat namn?
Var väl ändå Nvidia som kontrade AMD´s "Mantle API" med
G-sync?
Full eller? Det är ju 2 helt olika saker!
ASUS Z87 Deluxe - 4770K 4,4GHz@1,25v - Noctua NH-D14 - GTX780 DCII@1241 - XMS3 8Gb 1600MHz - Asus Xonar Phoebus - OCZ Vertex Max IOPS 240Gb
Tearing, input lag? Fixa micro stuttering så kanske jag skulle bry mig. Eller är det det dom gör? Tearing och så är väl mer hitta-på-problem.
G-sync fixar stuttering som orsakas av att monitorns uppdateringar inte synkas med grafikkortet. Microstuttering som orsakas av ojämna renderingstider är nVidia redan mycket bra på (dvs mycket bättre än AMD).
Tearing tycker iaf jag är mycket irriterande i vissa scener, men det är väl subjektivt hur mycket man stör sig på det.
Här finns en video med jämförelse och förklaringar av nVidia: http://www.engadget.com/2013/10/18/nvidia-g-sync/
Adaptive-Sync funkar ju strålande.
Adaptive VSync är väl en mjukvarulösning? Om det är nåt jag har lärt mig genom åren så är det att hårdvarulösningar alltid är bättre än mjukvarulösningar. Dock må jag hålla med om att Adaptive VSync har fungerat förvånansvärt bra, men det finns alltid utrymme för förbättringar
Q: How is G-SYNC different than Adaptive V-SYNC?
A: Adaptive V-Sync is a solution to V-Sync’s issue of stuttering, but input lag issues still persist. NVIDIA G-SYNC solves both the stutter and input lag issue.
?Alltså.. skillnaden mot vanlig vsync är att en delay i grafikkortet försvinner som kunde va mellan 0 till en refresh lång? (ändå många andra längre delays.. men alltid nåt)
Men att g-sync skulle ta bort "hacket" mao låg fps/långsam dator går ju inte. Felskrivet eller så fatta jag fel. X)
Sökes Utrotad: Ljust media-tbord (svarta bokstäver obelyst)
Org.105 swe ej platt | 7 dedikerade mediaknappar | USB-sladd.
?Alltså.. skillnaden mot vanlig vsync är att en delay i grafikkortet försvinner som kunde va mellan 0 till en refresh lång? (ändå många andra längre delays.. men alltid nåt)
Men att g-sync skulle ta bort "hacket" mao låg fps/långsam dator går ju inte. Felskrivet eller så fatta jag fel. X)
Du missuppfattade nog. G-sync eliminerar hack som orsakas av att skärmens refresh inte syncas mot grafikkortets rendering. MEN, det gör även att t.ex. 40 FPS ser lika (nästan) bra ut som 60 FPS.
Lite korrigeringar:
Med dagens teknik används monitorns uppdateringsfrekvens för att bestämma vad som visas på skärmen innan dessa data skickas till grafikkortet när data från grafikkortet ritas ut på skärmen. Det innebär dessvärre en fördröjning (input lag) flera oönskade effekter såsom långsammare respons, hack i videon och s.k. tearing. Sätter du på vsync i grafikinställningarna kan bilden hacka om FPS:en faller under 60 FPS och stänger du av det får du så kallad "tearing" som bieffekt. Med en G-sync-kompatibel monitor synkas grafikkortet skärmen direkt med det mot grafikkortet, och det förpassar alla nämnda problem till historieböckerna.
JayC
Ah. ja jag hade typ rätt men missade de du sa.. att:
Monitorn kommer utan tearing och delay ändra och följa den Hz som datorn klarar av att producera, (upp till monitorns max Hz).
(hela frames och inte BARA 60 med hopp ner till 30.. utan vad helst 60 59 58 40 30 120. )
Här finns att läsa mer:
http://www.geforce.com/hardware/technology/g-sync/faq
Sökes Utrotad: Ljust media-tbord (svarta bokstäver obelyst)
Org.105 swe ej platt | 7 dedikerade mediaknappar | USB-sladd.
Undrar vad AMD kontrar med? "Samma" sak med annat namn?
Var väl ändå Nvidia som kontrade AMD´s "Mantle API" med
G-sync?
Full eller? Det är ju 2 helt olika saker!
Förvisso. Men båda lär använda det som säljargument hursom. Köper du ett AMD-kort så får du alla förmåner som kommer med Mantle API . Köper du ett Nvidia kort så får du tillgång till G-sync skärmar. För mig blir det i alla fall en dealbreaker.
Grejen är att det inte ens är nytt...
Eizo har haft samma teknik med separat chip i sina skärmar för att reducera input lag sedan 2010 med skärmen foris fs-2331.
Ser det bara som ett sätt att mjölka från nvidias sida...
Källa på det?
Eizo skärmen är ju bara 60hz så den är ju oanvändbar i vilket fall..