Detta får du betala för Geforce GTX 980 och 970
Vill se prestandatester först och främst. Minnesbussen skrämmer mig lite.
Jag vill minnas att de hade 512-bit i high-end-korten för några generationer sedan.
Kan någon förklara för mig varför man skulle vilja minska dem?
Beror det på pris eller värmeutveckling?
Vill se prestandatester först och främst. Minnesbussen skrämmer mig lite.
Jag vill minnas att de hade 512-bit i high-end-korten för några generationer sedan.
Kan någon förklara för mig varför man skulle vilja minska dem?
Beror det på pris eller värmeutveckling?
Nvidia har kört med 384 bit i sina topp-kort.
AMD kör 512 bit på sina toppkort just nu. Kommer inte ihåg om dom gjort det tidigare men sånt går att googla för den som orkar.
GTX 980 kommer ha 256 bit och specs verkar ligga under GTX 780 men vi måste få se tester för att veta hur bra den är i jämförelse.
Man får inte heller glömma att det har hand i hand med klockan så det viktigaste är nog bandbredden och inte minnesbussen.
PC - PS4 - PS3- PS Vita - Wii U
Kan bero på att dom inte hade 512-bits buss, på dubbelmackor skriver dom det, men dom skriver också 4gb minne tex, när en kärna bara har 2.
i7 920 2.66ghz @3.8ghz, Gigabyte GTX 680 2GB OC SLI, 12GB DDR3 1600mhzmem, Samsung 830 256GB,GA-EX58-UD4P motherboard, 3x24 Asus Vw246"
780 TI har nästan droppat en tusing nu, man kanske skulle slå till. Eller vänta, 7970 (280x) funkar fortfarande för de få spel man spelar.
AP201 | B650M | 7800X3D | 32GB | RTX 3090
G613 | G502 X | PRO X | G3223Q | PG279Q
OLED55C9 | PS5 | Switch
Haha ja jag sitter fortfarande på mina delar från 2012 tror jag.
2700K och GeForce GTX 570 flyter fortfarande på fint i alla spel jag vill spela.
Kostade spottstyver av detta
Nåja det kostar att ligga på topp, synd bara det finns få spel som motiverar prislappar på dessa nivåer.
Orsaken till att man inte vill ha så bred minnesbuss är att det kostar mycket pengar och tid att designa och bygga sådana kort.
På ett kort med 512bit, vs 256bit, minnesbuss måste GPU'n ha MINST 256 fler paddar och då har jag inte räknat med jordpaddarna som tillkommer. Den bredare bussen även att GPU-kislet blir större, dyrare att tillverka, drar mer ström och blir varmare.
Dessutom måste man ha fler avstörningskomponenter och man måste även dra MINST 256 st fler ledare i kretskortet vilket troligtvis gör att man måste använda fler lager i kortet.
Dessa extra ledare gör även att man får mer störningar och crosstalk vilket gör att man måste göra mer simuleringar och avstörningar för att råda bot på det.
I slutändan blir det mycket dyrare både att designa och tillverka ett kort med hög minnesbandbredd. Det är därför man har börjat arbeta mer med kompression för att spara bandbredd som i tex Radeon R9 285.
Det är en balansgång mellan pris och prestanda. Visst skulle de kunna bygga ett kort med massiv jättebandbredd men det skulle kosta så mycket i R&D så jag tror inte de någonsin skulle få tillbaka utvecklingskostnaden.
Vill se prestandatester först och främst. Minnesbussen skrämmer mig lite.
Jag vill minnas att de hade 512-bit i high-end-korten för några generationer sedan.
Kan någon förklara för mig varför man skulle vilja minska dem?
Beror det på pris eller värmeutveckling?
Nvidia har kört med 384 bit i sina topp-kort.
AMD kör 512 bit på sina toppkort just nu. Kommer inte ihåg om dom gjort det tidigare men sånt går att googla för den som orkar.
GTX 980 kommer ha 256 bit och specs verkar ligga under GTX 780 men vi måste få se tester för att veta hur bra den är i jämförelse.
Man får inte heller glömma att det har hand i hand med klockan så det viktigaste är nog bandbredden och inte minnesbussen.
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-285/...
Denna hade alltså inte 512?
| PC | Xbox One | PS5 | Oculus Quest 1 & 2 |
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-285/...
Denna hade alltså inte 512?
Jo absolut, men man satsade på det äldre GDDR3 när motsvarande kort från ATI hade GDDR5 och dubbelt så mycket minne så det var inte direkt gratis för dem att välja 512bit. Nvidia har aldrig valt 512bit igen efter det så det svider nog fortfarande.
Vill se prestandatester först och främst. Minnesbussen skrämmer mig lite.
Jag vill minnas att de hade 512-bit i high-end-korten för några generationer sedan.
Kan någon förklara för mig varför man skulle vilja minska dem?
Beror det på pris eller värmeutveckling?
Nvidia har kört med 384 bit i sina topp-kort.
AMD kör 512 bit på sina toppkort just nu. Kommer inte ihåg om dom gjort det tidigare men sånt går att googla för den som orkar.
GTX 980 kommer ha 256 bit och specs verkar ligga under GTX 780 men vi måste få se tester för att veta hur bra den är i jämförelse.
Man får inte heller glömma att det har hand i hand med klockan så det viktigaste är nog bandbredden och inte minnesbussen.
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-285/...
Denna hade alltså inte 512?
Du har helt rätt.
PC - PS4 - PS3- PS Vita - Wii U
Vill se prestandatester först och främst. Minnesbussen skrämmer mig lite.
Hehe, har ju jääävligt svårt att se att de skulle klämma in en för liten minnesbuss. Typ som att de vore idioter och missar en sån grej?
Har de "missat" det så är det ju garanterat ett försäljningsknep där de kan släppa en "512Mb edition" senare
ASUS Z87 Deluxe - 4770K 4,4GHz@1,25v - Noctua NH-D14 - GTX780 DCII@1241 - XMS3 8Gb 1600MHz - Asus Xonar Phoebus - OCZ Vertex Max IOPS 240Gb
Orsaken till att man inte vill ha så bred minnesbuss är att det kostar mycket pengar och tid att designa och bygga sådana kort.
På ett kort med 512bit, vs 256bit, minnesbuss måste GPU'n ha MINST 256 fler paddar och då har jag inte räknat med jordpaddarna som tillkommer. Den bredare bussen även att GPU-kislet blir större, dyrare att tillverka, drar mer ström och blir varmare.
Dessutom måste man ha fler avstörningskomponenter och man måste även dra MINST 256 st fler ledare i kretskortet vilket troligtvis gör att man måste använda fler lager i kortet.
Dessa extra ledare gör även att man får mer störningar och crosstalk vilket gör att man måste göra mer simuleringar och avstörningar för att råda bot på det.
I slutändan blir det mycket dyrare både att designa och tillverka ett kort med hög minnesbandbredd. Det är därför man har börjat arbeta mer med kompression för att spara bandbredd som i tex Radeon R9 285.
Det är en balansgång mellan pris och prestanda. Visst skulle de kunna bygga ett kort med massiv jättebandbredd men det skulle kosta så mycket i R&D så jag tror inte de någonsin skulle få tillbaka utvecklingskostnaden.
Såååå....
GTX 980 blir dyrare än 780Ti, som dessutom högst troligt presterar sämre (om bäst, marginellt bättre), fastän det är "billigare" gjort?
Logic!
Orsaken till att man inte vill ha så bred minnesbuss är att det kostar mycket pengar och tid att designa och bygga sådana kort.
På ett kort med 512bit, vs 256bit, minnesbuss måste GPU'n ha MINST 256 fler paddar och då har jag inte räknat med jordpaddarna som tillkommer. Den bredare bussen även att GPU-kislet blir större, dyrare att tillverka, drar mer ström och blir varmare.
Dessutom måste man ha fler avstörningskomponenter och man måste även dra MINST 256 st fler ledare i kretskortet vilket troligtvis gör att man måste använda fler lager i kortet.
Dessa extra ledare gör även att man får mer störningar och crosstalk vilket gör att man måste göra mer simuleringar och avstörningar för att råda bot på det.
I slutändan blir det mycket dyrare både att designa och tillverka ett kort med hög minnesbandbredd. Det är därför man har börjat arbeta mer med kompression för att spara bandbredd som i tex Radeon R9 285.
Det är en balansgång mellan pris och prestanda. Visst skulle de kunna bygga ett kort med massiv jättebandbredd men det skulle kosta så mycket i R&D så jag tror inte de någonsin skulle få tillbaka utvecklingskostnaden.
Såååå....
GTX 980 blir dyrare än 780Ti, som dessutom högst troligt presterar sämre (om bäst, marginellt bättre), fastän det är "billigare" gjort?
Logic!
Inte om man ska tro läckta tester men dem kanske man ska ta men en nypa salt.
Inga större skillnader men vore ändå rätt bra värden med tanke på kortens TDP värden. För mig blir 900-serie korten betydligt billigare då jag slipper att köpa nytt nätagg.
Orsaken till att man inte vill ha så bred minnesbuss är att det kostar mycket pengar och tid att designa och bygga sådana kort.
På ett kort med 512bit, vs 256bit, minnesbuss måste GPU'n ha MINST 256 fler paddar och då har jag inte räknat med jordpaddarna som tillkommer. Den bredare bussen även att GPU-kislet blir större, dyrare att tillverka, drar mer ström och blir varmare.
Dessutom måste man ha fler avstörningskomponenter och man måste även dra MINST 256 st fler ledare i kretskortet vilket troligtvis gör att man måste använda fler lager i kortet.
Dessa extra ledare gör även att man får mer störningar och crosstalk vilket gör att man måste göra mer simuleringar och avstörningar för att råda bot på det.
I slutändan blir det mycket dyrare både att designa och tillverka ett kort med hög minnesbandbredd. Det är därför man har börjat arbeta mer med kompression för att spara bandbredd som i tex Radeon R9 285.
Det är en balansgång mellan pris och prestanda. Visst skulle de kunna bygga ett kort med massiv jättebandbredd men det skulle kosta så mycket i R&D så jag tror inte de någonsin skulle få tillbaka utvecklingskostnaden.
Såååå....
GTX 980 blir dyrare än 780Ti, som dessutom högst troligt presterar sämre (om bäst, marginellt bättre), fastän det är "billigare" gjort?
Logic!
Inte om man ska tro läckta tester men dem kanske man ska ta men en nypa salt.
http://cdn3.wccftech.com/wp-content/uploads/2014/09/NVIDIA-Ge...
Inga större skillnader men vore ändå rätt bra värden med tanke på kortens TDP värden. För mig blir 900-serie korten betydligt billigare då jag slipper att köpa nytt nätagg.
Märkligt test egentligen...jag väntar på Sweclockers prestandatest, då känner jag mig nöjd. Vad gäller detta testet så ser 980 inte det minsta prisvärt ut.
Orsaken till att man inte vill ha så bred minnesbuss är att det kostar mycket pengar och tid att designa och bygga sådana kort.
På ett kort med 512bit, vs 256bit, minnesbuss måste GPU'n ha MINST 256 fler paddar och då har jag inte räknat med jordpaddarna som tillkommer. Den bredare bussen även att GPU-kislet blir större, dyrare att tillverka, drar mer ström och blir varmare.
Dessutom måste man ha fler avstörningskomponenter och man måste även dra MINST 256 st fler ledare i kretskortet vilket troligtvis gör att man måste använda fler lager i kortet.
Dessa extra ledare gör även att man får mer störningar och crosstalk vilket gör att man måste göra mer simuleringar och avstörningar för att råda bot på det.
I slutändan blir det mycket dyrare både att designa och tillverka ett kort med hög minnesbandbredd. Det är därför man har börjat arbeta mer med kompression för att spara bandbredd som i tex Radeon R9 285.
Det är en balansgång mellan pris och prestanda. Visst skulle de kunna bygga ett kort med massiv jättebandbredd men det skulle kosta så mycket i R&D så jag tror inte de någonsin skulle få tillbaka utvecklingskostnaden.
Såååå....
GTX 980 blir dyrare än 780Ti, som dessutom högst troligt presterar sämre (om bäst, marginellt bättre), fastän det är "billigare" gjort?
Logic!
Inte om man ska tro läckta tester men dem kanske man ska ta men en nypa salt.
http://cdn3.wccftech.com/wp-content/uploads/2014/09/NVIDIA-Ge...
Inga större skillnader men vore ändå rätt bra värden med tanke på kortens TDP värden. För mig blir 900-serie korten betydligt billigare då jag slipper att köpa nytt nätagg.
Även om man inte tar den med en nypa salt finns det ingen orsak att betala 13k för dubbla GTX 980 i SLI när man kan köpa dubbla R9 290 stock för 5500kr i crossfire eller dubbla R9 290 OC (snabbare än 290x) för 6400kr.
I stort sett halva priset för samma prestanda. Fördelen med GTX 980 blir nog att den inte blir lika varm.
PC - PS4 - PS3- PS Vita - Wii U