Geforce RTX 5000-serien avtäckt – toppkortet kostar 28 000 kr

Redaktör
Skrivet av PeTTs0n:

Men det är ju lite därför de har andra namn och annan segmentering för de riktigt snordyra produkterna - det görs ju på andra marknader också. Hur många hade varit sugen på att köpa en Volvo för ett par miljoner? Men en Polestar kanske går an?

Jo, det är lite konstigt, särskilt när de hade ett sånt namn förr. Kanske finns nån tanke att alla Geforce ska kännas lyx? För min del känns hursomhelst prestanda och pris viktigast, inte namnet.


signatur
Medlem
Skrivet av fooobar:

Inget grafikkort för hemanvändare ska kosta 28000 kr.
Det här är helt bisarrt.

Finns billigare alternativ.
28000kr kortet är inte enda alternativet.
i Steam hardware survey i december tex var det 1.18% av deltagarna som körde ett RTX4090 tex så nej det värsta är def inte för alla.

Medlem
Skrivet av vbgbasse:

Bara 16 gb vram på RTX5080. Mitt RX7900XT tar redan idag strax under 16 gb vram i endast 1440p vid spelande av star citizen. Änna glad att jag valde ett kort som har 20 gb så man "har råd" för eventuella patcher som ökar ram-användandet änmer. Spelar man star citizen och inte vill bli begränsad av vramet inom en kortare framtid så finns bara en enda variant av nvidias släpp som faktiskt har mer än 16 gb, och det för en hel jäkla månadslön 😅

yep, hatar hur dom alltid snålar med vram. Jag gillar mitt 3060ti för jag kan köra image sharpening i nvidias control panel på vissa spel som är blurry (så som gears 4). men dom vill alltid hålla nere vram för att försöka locka en till nästa nivå. suck


signatur

Konsoler: Xbox One, Xbox One S (hos kompis), Xbox One X, Xbox Series X, PS4, PS4 Pro
CPU: AMD Ryzen 5 7600X
GPU: Gigabyte Geforce RTX 3060 Ti 8GB Eagle OC 2.0
MEM: Corsair 32GB (2x16GB) DDR5 6000MHz CL36 Vengeance

Medlem

Om detta håller i sig, så blir det AMD för min del när nästa gen kommer ut. mycket mer prisvärt per GB.

Redaktör
Skrivet av tuxsmasher:

Om detta håller i sig, så blir det AMD för min del när nästa gen kommer ut. mycket mer prisvärt per GB.

AMD:s nästa ska väl komma detta kvartal. Lät som att den var på gång att avtäckas på CES-mässan, men blev inget av med det.


signatur
Medlem

Ibland önskar man att var riktigt casual när det kommer till grafik. Att 1080p 60fps dög för en, och att man inte ens såg nån skillnad när AA var på eller av. Tänk om man till och med kunde tycka att motion blur var trevligt.. Men tyvärr så satt man ju och dundertweakade Counter-strike för hundra år sedan, överklockade grafikkort och försökte hitta sweetspot när det kom till hur högt man kunde dra upp MSAA utan att tanka FPSen totalt. Man satt i timtal och njöt av kablar och div hängande ledningar i HL2 som renderades helt utan aliasing.
Man satt och dregglade när tech-videos för CryEngine visades.. grafiken var på uppgång, de var stolta när de kunde producera bildkvalitet. Man började lugna sig med att använda bloom för att översminka grisen osv.

Men nu sitter vi här och tittar på "falska frames" med grafiska artifakter. Saker skalas upp, detaljer försvinner. Den AA de försöker trycka på oss idag gör att allt ser ut som en smet när du rör dig. Ännu mer grafiska artifakter. Och grötar man runt i nån config-fil och lyckas slå av det till slut så.. ser spelet ut som skit. Man råkar se hur det ser ut under sminket. Spelutvecklarna kan ta genvägar, behöver inte lägga så mycket energi på att faktiskt få spelet att se bra ut, för de vet att UE5 eller Nvidia eller någon annan gör sin svarta magi i något senare steg.

Känner mig som en surgubbe kring det här. Jag tror jag blivit en surgubbe.

Istället för att ge oss en ny modern bil, snabbare än den förra, så har de gett oss en gammal bil som de målat stripes eller flammor på samt fulkalibrerat hastighetsmätaren så den börjar vid 100. Se så snabb den är!

Medlem
Skrivet av Katana:

Ibland önskar man att var riktigt casual när det kommer till grafik. Att 1080p 60fps dög för en, och att man inte ens såg nån skillnad när AA var på eller av. Tänk om man till och med kunde tycka att motion blur var trevligt.. Men tyvärr så satt man ju och dundertweakade Counter-strike för hundra år sedan, överklockade grafikkort och försökte hitta sweetspot när det kom till hur högt man kunde dra upp MSAA utan att tanka FPSen totalt. Man satt i timtal och njöt av kablar och div hängande ledningar i HL2 som renderades helt utan aliasing.
Man satt och dregglade när tech-videos för CryEngine visades.. grafiken var på uppgång, de var stolta när de kunde producera bildkvalitet. Man började lugna sig med att använda bloom för att översminka grisen osv.

Men nu sitter vi här och tittar på "falska frames" med grafiska artifakter. Saker skalas upp, detaljer försvinner. Den AA de försöker trycka på oss idag gör att allt ser ut som en smet när du rör dig. Ännu mer grafiska artifakter. Och grötar man runt i nån config-fil och lyckas slå av det till slut så.. ser spelet ut som skit. Man råkar se hur det ser ut under sminket. Spelutvecklarna kan ta genvägar, behöver inte lägga så mycket energi på att faktiskt få spelet att se bra ut, för de vet att UE5 eller Nvidia eller någon annan gör sin svarta magi i något senare steg.

Känner mig som en surgubbe kring det här. Jag tror jag blivit en surgubbe.

Istället för att ge oss en ny modern bil, snabbare än den förra, så har de gett oss en gammal bil som de målat stripes eller flammor på samt fulkalibrerat hastighetsmätaren så den börjar vid 100. Se så snabb den är!

Ironin är ju att hade vi stannat kvar med CRT skärmar, så hade utvecklingen av grafikkort troligen sett helt annorlunda ut.

DLSS(minus framegen), ser jag som en teknologi som utvecklats, eftersom plattskärmar är så jävla dåliga på att skala non-native upplösningar, och FPS hetsen existerar enbart på grund av plattskärmars latens och dålig rörelseskärpa.

Medlem
Skrivet av PeTTs0n:

Läser lite kommentarer på SweC och facepalmar hårt åt sådana som tycker det här är en rimlig prisnivå.

xx80-kort för över 14-papp ska inte vara normalt. När 3080 släpptes låg det på under 8000kr, något som motsvarar 10 000kr idag med inflation. Och lägg där till att nVidia i vanlig ordning snålar med VRAM och gömmer sig bakom hur otroligt fantastiskt DLSS minsann är, snart kommer vi inte behöva något VRAM alls!

Nej, nVidia måste tryckas tillbaka framöver, hoppas innerligt Intel och/eller AMD kan slå tillbaka ordentligt på GPU-sidan även om det inte känns sannolikt just nu. Alternativt att de börjar göra sina lineups rimligare vad gäller specifikationer och/eller pris, men det känns ännu mindre sannolikt när de kan mjölka sina "trogna konsumenter" som de gör, och hur de behandlar partners är ju inte alltid särskilt fräscht heller, EVGA sitter fortfarande färskt i minnet.

Tänk så här:

A bully sparkar och slår på en ute på lekplatsen. Spottar på en och fortsätter att sparka även om man ligger ner. Om och om igen. I många år. En dag, out of the blue, så får du bara 1-2 örfilar. Helt plötsligt blir du jätteglad och berömmer bullyn för att hen inte längre slår med knuten näve och sparkar på en.

Där har du förhållandet mellan SweClockers medlemmar och Nvidia/Jensen. 🙂

Medlem
Skrivet av Belgaar:

Man måste givetvis se till användning. Ett 5090 kostar och är till för 5% av entusiasterna. 5070 ska prestera som ett 4090 för referens.

Framegen och DLSS4 osv är missvisande att visa på prestanda tabellerna i mitt tycke. Skulle dom visa ren rastrerings prestanda hade det inte alls varit så stor skillnad.
Ja, det är häftigt att kunna få 100 fps mer med AI men hur funkar det egentligen? Vad är nackdelarna?
Jag tror det när jag ser det när fps genererade med AI flyter på lika bra som med ren rastrering.


signatur

These are dark times there's no denying. The world has perhaps faced no greater threat than it does today. But I say this to our citizenry. We ever your servants, will continue to defend your liberty and repel the forces that seek to take it from you. Your ministry, remains, strong.

Medlem
Skrivet av RoxonMicke:

Framegen och DLSS4 osv är missvisande att visa på prestanda tabellerna i mitt tycke. Skulle dom visa ren rastrerings prestanda hade det inte alls varit så stor skillnad.
Ja, det är häftigt att kunna få 100 fps mer med AI men hur funkar det egentligen? Vad är nackdelarna?
Jag tror det när jag ser det när fps genererade med AI flyter på lika bra som med ren rastrering.

Flyter på gör det ju men du förlorar i bildkvalitet och riskerar mer inputlag pga all extra behandling. Finner der fascinerande hur de lyckas komma undan med dlss som magi pill i marknadsföringen

Medlem
Skrivet av Shodan:

Flyter på gör det ju men du förlorar i bildkvalitet och riskerar mer inputlag pga all extra behandling. Finner der fascinerande hur de lyckas komma undan med dlss som magi pill i marknadsföringen

Men har inte grafikutvecklingen alltid handlat om att hitta tekniska genvägar för att uppnå något som upplevs som bättre än vad det "egentligen" är?

Klart det finns nackdelar med DLSS, men det finns det ju med nästan alla tekniker. Mitt intryck är att fördelarna nu överlag överväger nackdelarna med tanke på att bildkvaliteten är så otroligt mycket bättre än i början när DLSS kom. Sen finns ju såklart inputlag kvar som en faktor att väga in, men jag undrar hur viktigt det är för den stora massan spelare?

Medlem
Skrivet av bluebird:

Men har inte grafikutvecklingen alltid handlat om att hitta tekniska genvägar för att uppnå något som upplevs som bättre än vad det "egentligen" är?

Klart det finns nackdelar med DLSS, men det finns det ju med nästan alla tekniker. Mitt intryck är att fördelarna nu överlag överväger nackdelarna med tanke på att bildkvaliteten är så otroligt mycket bättre än i början när DLSS kom. Sen finns ju såklart inputlag kvar som en faktor att väga in, men jag undrar hur viktigt det är för den stora massan spelare?

Då bildkvalitén är sämre än utan så varför jämföra äpplen med päron. Förr i tiden gjordes jämförelser gällande bildkvalitet. Nu är enbart fps viktigt spelar ingen roll hur det ser ut?

Medlem

5070 är sämre på att rendera riktiga pixlar än en 4090. Och personligen bryr jag mig bara om riktiga pixlar.

Medlem

Säkert inget fel på 5070, nog bra kort men just att Jensen sa 5070 = 4090 var en himla blunder i mina ögon. Där tappade Nvidia i respekt helt klart. Dom har ledande position i sitt område, varför ska dom behöva hålla på med billiga tricks. Låt prestandan tala för sig själv och visa riktiga siffror istället. Ett diagram utan AI och ett med (där det ingår flertal titlar med och utan RT.).

Medlem
Skrivet av Nelfie:

Prestandaökningen från mitt 4090 till 5090 var dystert lite när man jämför med framegen, DLSS är fräckt och så, men har jag möjligheten att stänga av det så gör jag hellre det. Sitter hellre på ~120fps ultra graphics, än ~180fps "ultra graphics" med suddiga miljöer, textures som tar nån sekund att ladda in Usch, nejtack. DLSS är väl kul för dem med budget kort som vill låtsas som att de kan köra på ultra.

Väntar på 6090 och hoppas på åtminstone en 40% ökning i rå prestanda. Priset är det inget fel på, kostar inte ens en halv månadslön, vet inte vad alla gnäller över. Dags att gå vidare från Mcdonalds kassan kanske? Skaffe ett nytt jobb om 28k är dyrt för er.

Halleda.

Kanske är dags att du flyttar ut från källaren i mammas hus så du får känna på hur det är att behöva lägga pengar på annat i livet också 😂😂😂😂😂

Skriv svar