Användare rapporterar att New Worlds-betan brickar vissa 3090-grafikkort

Medlem
Skrivet av Taskman:

Som ovan skrev, Spoltjutet hörs bra när man når dessa 1000 FPS och grafikkortet bara skriker och ber om hjälp att på mindre FPS.

Jepp kommer ihåg när jag spelade The Secret World/Secret World Legends (inte 100% på vilken version) på laddsekvenserna/menyerna, 999fps.

Märktes direkt på grafikkortet att fps'en sprang iväg...


| R7 3800x | be quiet! Dark Rock 4 Pro | Gigabyte X570 Aorus Elite | Aorus RGB 2x8GB 3200mhz cl16 |
| Nvidia RTX 2060 Super | Kingston A2000 250GB + A2000 1TB | Corsair RM750 | Fractal Design Meshify C |

Medlem
Skrivet av Shamanfox:

Amazon har ansvar i det här.

Nej. Inget. Noll.

Medlem
Skrivet av Edd1e:

Nej. Inget. Noll.

De vet att deras spel brickar GPUer. De skiter i att göra något åt saken. Så jo, de delar på ansvaret. Jag skrev vad deras ansvar är, så kanske ta och citera hela kontexten och inte bara en liten del.

Medlem
Skrivet av Shamanfox:

De vet att deras spel brickar GPUer. De skiter i att göra något åt saken. Så jo, de delar på ansvaret. Jag skrev vad deras ansvar är, så kanske ta och citera hela kontexten och inte bara en liten del.

Korten dör p.g.a hårdvarufel. Finns inget du sagt som påverkar vart ursprungsfelet ligger. Hårdvaran.

Medlem
Skrivet av Edd1e:

Korten dör p.g.a hårdvarufel. Finns inget du sagt som påverkar vart ursprungsfelet ligger. Hårdvaran.

Ändrar inte faktumet att Amazon fick rapporter om att deras icke optimerad spel orsakade att korten brickar. Ändrar inte faktumet att Amazon har inte gjort NÅGOT åt saken och samma problem som orsakar problemet är kvar i spelet.
Som jag har skrivit flertal gånger nu; Amazon har ansvaret att fixa till deras spel, vilket de har beslutat att inte göra. Amazon har möjligheten att upplysa nVidia och AMD om dessa problem (som skrivits tidigare så har det rapporterats om diverse olika nVidia och AMD kort, inte bara 3090).

Amazon har aktivt valt att inte göra något alls åt saken.

Medlem
Skrivet av Edd1e:

Korten dör p.g.a hårdvarufel. Finns inget du sagt som påverkar vart ursprungsfelet ligger. Hårdvaran.

Må så väl vara, men det sker på grund av något call i mjukvaran orsakar höga voltage spikes. Då krävs ett samspel mellan utvecklare för spelet och hårdvarutillverkarna för att hitta och rätta felet. Vägrar man inse att detta är ett problem vilket amazon hittils gjort så ligger lika mycket av ansvaret på mjukvarutillverkaren.

Moderator | Testpilot
Skrivet av Horniak:

Må så väl vara, men det sker på grund av något call i mjukvaran som orsakar höga voltage spikes. Då krävs ett samspel mellan utvecklare för spelet och hårdvarutillverkarna för att hitta och rätta felet. Vägrar man inse att detta är ett problem vilket amazon hittils gjort så ligger lika mycket av ansvaret på mjukvarutillverkaren.

Problemet ligger fortfarande i hårdvaran. Även om spelet skulle göra misstag med att orsaka höga voltage spikes så ska inte det hända från början då hårdvaran ska ha kunna tåla det. Mjukvaran, så länge inte hårdvaran är faulty, kan inte skapa sådana här problem av sig själv.

Jag är inte expert på alla termer, så egentligen borde jag kanske inte ens skriva det här inlägget, men GPU:n ska ju anpassa sig efter vad den klarar av och inte fortsätta köra tills den brinner upp. Det hände mig och mitt 980Ti när jag hostade en ARK Survival Evolved-server på min dator samtidigt som jag spelade (högsta grafik). Den stängde tillslut av sig för att trycket blev för högt.

Amazon har absolut en del att göra när det kommer till optimering så att hårdvaran kan få ut bra prestanda i spelet med tanke på hur mycket korten jobbar, men det kräver ju också att hårdvaruutvecklarna som skapar kort som fungerar som det ska, då hade det här aldrig hänt.

Problemet som de stöter på nu hade mest troligen hänt för eller senare än då då korten har problem till att börja med.


Testpilot & Twitter
Personbeskrivning: "Han är stygg över alla gränser" - Gustav Höglund
Personbeskrivning 2: "Man kan lita på uber" - Joakim Bennet
Det råder lite tvivel ovan, men jag luktar gott i alla fall.

eld
Medlem
Skrivet av Shamanfox:

"Jag jobbar med spel"; okej, men du sa tidigare att drivrutin inte kan fixa problemet fastän det kan (oavsett om det är bästa lösningen eller inte). Du säger att optimering är att få ut så mycket FPS som möjligt, vilket inte ens är ens hälften sanning av vad optimering betyder.

https://www.dictionary.com/browse/optimize
Computers. to write or rewrite (the instructions in a program) so as to maximize efficiency and speed in retrieval, storage, or execution.

maximize efficiency and speed

Men vi pratar om optimering i spel nu, inget annat.

dvs, vid 100% användning av gpu så kanske ett spel bara får ut 25 fps, så du optimerar spelet, både genom kod och assets tills att du kommer upp över 30fps.

Men nej, drivrutiner kan inte fixa problemet med hårdvaran, drivrutiner kan begränsa kortet så det inte kommer i närheten av scenariot då spärrar ska kicka in, vilket de inte gjorde.

Skrivet av Shamanfox:

För mig är det inte effektivt att GPU blir överbelastad av att sitta i en meny. Det är inte effektivt att GPUn blir så belastad att den stänger ner datorn (och detta händer många olika GPUs som jag nämnt tidigare) när en sån belastning inte är rättfärdigad av det spelet försöker rendera.
Effektivitet handlar inte bara om att få högre prestanda. Det handlar även om att få bättre stabilitet. Det borde du veta om du jobbar inom spel.
Ett spel som krashar för att det blir ett minnesproblem t.ex. kan bli optimerad hur den ska läsa/skriva i minnet och därmed göra spelet mer stabil. Det är fortfarande optimering som inte behöver påverka FPSen.

Det är som sagt onödigt att få 5000 fps i menyn, men det är fortfarande någonting som en gpu ska klara av utan problem.

Skrivet av Shamanfox:

Jag jobbar själv inom både mjukvara och hårdvara, så vet inte exakt vad det där med "jag jobbar med spel" kortet ska betyda egentligen. Grattis att du kan läsa rader av kod eller något? Har sett flera programmerare som kan koda, men besitter ingen kunskap när det kommer till hårdvara eller annan mjukvara som inte är inom deras område t.ex. Så att du jobbar med spel säger mig ingenting, och ser inte att det tillför diskussionen något. Ska det vara "Jag jobbar med spel så därmed anser jag att jag vet mer än dig!!1!" argument?

För att jag försöker förklara grunden till det hela, att 100% anvädning av gpu inte är något konstigt, och att optimering inom spel handlar om hur mycket man kan få ut av dessa 100%, nya grafikkort byggs ju helatiden för att folk konstant blir gpu-begränsade, de vill ha mer prestanda.

Men nej, jag skulle ju inte vilja komma med argument om områden jag inte jobbar med, men nu råkar det ju hända att jag jobbar med spelgrafik och spelgrafiksoptimering. Att använda grafikkorten fullt ut är inget konstigt, på spelkonsoler är detta normen, och på pc så kommer spelare att köra upp sina settings tills de når den framerate de vill ha med maximalt utnyttjat grafikkort.

Speldatorer är gjorda för att köras fullt ut, och de flesta här som spelar på pc sitter med gpu-cappade spel.

Det absolut tråkigaste som kan hända med o-optimerade spel är att folk inte kan få så hög framerate, det gör inte så att grafikkort dör.

Skrivet av Shamanfox:

Du säger att spel har ingen kontroll över hur mycket grafikkort ska dra ström, hur kommer det sig att vissa spel drar mer än andra, även om den som drar mer är ett mindre krävande spel än den som drar mindre, men samma FPS.
Kan det kanske ha något och göra med att vissa spel är optimerad men andra inte? Eller anser du att eftersom de kör samma FPS så kan det absolut inte ha något med optimering att göra?
Hur kommer det sig att folk kan göra 3DMark och andra benchmarks på deras GPU utan problem, men just det här spelet orsakar att GPUn drar så pass mycket ström att den stänger ner sig själv? Du påstår ju att spel har ingen kontroll över detta?

För att det åter igen inte kontrollerar sånt, det är grafikkortet som bestämmer hur mycket ström det ska dra.

Om ett spel är cpu-begränsat så kommer gpun att vänta på den, och därmed dra mindre ström, om gpun inte behöver göra mycket per frame så kan den rendera tusentals frames men ändå köra med sparlåga, tills att cpun'n cappar den igen.

Om ett litet indiespel bara behöver en bråkdel av grafikkortet för att nå 60 fps så är det nice också, om detta spel sen kan köra i 8000 fps så är det ju rätt onödigt, men inget som grafikkortet kan dö av.

30 fps i cyberpunk och 8000 fps i ett indiespel gör ju inte så mycket skillnad för en gpu som måste köra 100% i båda fallen.

Skrivet av Shamanfox:

Amazon har ansvar i det här. Om du som nu jobbar med spel inte tycker det så hoppas jag att du inte ansvarar för någon viktig roll i det spel du jobbar med. Hatar när utvecklare inte kan ta sin del av ansvaret och skyller på annat. Amazon delar på ansvaret, likaså gör nVidia och AMD om det är produktionsfel på deras produkter. Som jag har nämnt flertal gånger; Amazon har fått rapporter om att just deras spel orsakar att hårdvara går sönder, och flertal användare har visat data på hur diverse komponenter beter sig under deras spel jämfört med andra, lika krävande om inte mer, spel.
Amazons ansvar här är att inte ha släppt Beta förens de har hittat rotproblemet och löst det, oavsett om lösningen kommer från Amazons sida eller från nVidia/AMD.

Amazon skulle ha ansvar om det visar sig att spelet ändrar i grafikkortets inställningar, ändrar voltage på kortet, skriver över massa viktiga filer i filsystemet eller liknande. Men som det ser ut nu så har de använt grafikkortet normalt.

Medlem
Skrivet av uberpwnage2.0:

Problemet ligger fortfarande i hårdvaran. Även om spelet skulle göra misstag med att orsaka höga voltage spikes så ska inte det hända från början då hårdvaran ska ha kunna tåla det. Mjukvaran, så länge inte hårdvaran är faulty, kan inte skapa sådana här problem av sig själv.

Jag är inte expert på alla termer, så egentligen borde jag kanske inte ens skriva det här inlägget, men GPU:n ska ju anpassa sig efter vad den klarar av och inte fortsätta köra tills den brinner upp. Det hände mig och mitt 980Ti när jag hostade en ARK Survival Evolved-server på min dator samtidigt som jag spelade (högsta grafik). Den stängde tillslut av sig för att trycket blev för högt.

Amazon har absolut en del att göra när det kommer till optimering så att hårdvaran kan få ut bra prestanda i spelet med tanke på hur mycket korten jobbar, men det kräver ju också att hårdvaruutvecklarna som skapar kort som fungerar som det ska, då hade det här aldrig hänt.

Problemet som de stöter på nu hade mest troligen hänt för eller senare än då då korten har problem till att börja med.

Tror inte någon påstår att Amazon står för allt ansvar. Men att säga att de har 0 ansvar är trångsynt. Ja, problemet hade säkert kommit med ett annat spel i framtiden (spekulation, vi kommer aldrig veta). Men problemet här är att Amazon fick rapporter om det redan under Alphan. Med det så borde Amazon ha gjort något åt saken innan de släpper Betan. Åtgärder kan ha varit i form av att informera nVidia/AMD och invänta drivrutiner som interim fix. Det kan ha varit att optimera spelet till att aldrig ha behovet av att dra så mycket kraft från korten. Det kan ha varit att informera användare att de måste ha FPS-cap eller V-Sync på innan de startar spelet.
De har även nu patchat in att det är en statisk FPS-cap i menyn (vilket de borde ha haft i pre-alpha redan...), vilket visar att de vet om problemet men att de inte har en bra lösning på det.

Med tanke på att Amazon inte gjorde något åt saken (upplyst nVidia/AMD. Optimerat spelet. Informerat testare osv), så har Amazon medvetet orsakat att fler användare åker ut för samma problem, istället för att användarna blir upplysta om det och kan få återkallelse där de kan skicka in korten för utbyte när det passar dem.

eld
Medlem
Skrivet av uberpwnage2.0:

Problemet ligger fortfarande i hårdvaran. Även om spelet skulle göra misstag med att orsaka höga voltage spikes så ska inte det hända från början då hårdvaran ska ha kunna tåla det. Mjukvaran, så länge inte hårdvaran är faulty, kan inte skapa sådana här problem av sig själv.

Jag är inte expert på alla termer, så egentligen borde jag kanske inte ens skriva det här inlägget, men GPU:n ska ju anpassa sig efter vad den klarar av och inte fortsätta köra tills den brinner upp. Det hände mig och mitt 980Ti när jag hostade en ARK Survival Evolved-server på min dator samtidigt som jag spelade (högsta grafik). Den stängde tillslut av sig för att trycket blev för högt.

Spelet ber grafikkortet att rendera en frame, och om den inte är så tung så kommer den kunna göra det snabbt och sedan vänta tills det är dags för nästa frame.

Om scenen är tung så kommer den klocka upp, mata sig med mer kraft och göra det snabbare, till slut når den en gräns då den inte kan göra det snabbare, den har nått 100%

Men allt detta bestämmer grafikkortet över, och grafikkorten är designade för att jobba i detta läge i timtal, spelet styr inte över hur grafikkortet ska göra detta som spelet bett den om.

Skrivet av uberpwnage2.0:

Amazon har absolut en del att göra när det kommer till optimering så att hårdvaran kan få ut bra prestanda i spelet med tanke på hur mycket korten jobbar, men det kräver ju också att hårdvaruutvecklarna som skapar kort som fungerar som det ska, då hade det här aldrig hänt.

Problemet som de stöter på nu hade mest troligen hänt för eller senare än då då korten har problem till att börja med.

Jo men optimeras spelet så kommer folk köra upp sin framerate ännu högre och spelet kommer fortfarande maxxa hårdvaran, om de tidigare satt med 1080p men helt plötsligt kan köra 4k med spelbar framerate så kommer de ju göra det, de kommer även dra upp settings.

Medlem
Skrivet av uberpwnage2.0:

Problemet ligger fortfarande i hårdvaran. Även om spelet skulle göra misstag med att orsaka höga voltage spikes så ska inte det hända från början då hårdvaran ska ha kunna tåla det. Mjukvaran, så länge inte hårdvaran är faulty, kan inte skapa sådana här problem av sig själv.

Jag är inte expert på alla termer, så egentligen borde jag kanske inte ens skriva det här inlägget, men GPU:n ska ju anpassa sig efter vad den klarar av och inte fortsätta köra tills den brinner upp. Det hände mig och mitt 980Ti när jag hostade en ARK Survival Evolved-server på min dator samtidigt som jag spelade (högsta grafik). Den stängde tillslut av sig för att trycket blev för högt.

Amazon har absolut en del att göra när det kommer till optimering så att hårdvaran kan få ut bra prestanda i spelet med tanke på hur mycket korten jobbar, men det kräver ju också att hårdvaruutvecklarna som skapar kort som fungerar som det ska, då hade det här aldrig hänt.

Problemet som de stöter på nu hade mest troligen hänt för eller senare än då då korten har problem till att börja med.

Har jag skrivit någonstans att hårdvaran INTE är problemet? Svar: Nej...

Däremot så har Amazon vetat om detta problemet från Alphan, UTAN att göra något åt det, detta med vetskapen om att fler människors kort skulle gå sönder. Där har man som utvecklare att ansvar, det är något i deras engine som orsakar korten att löpa amok, även om det är helt inom guidelines. Då har man ett ansvar att tillsammans med hårdvarutillverkarna att ta reda på varför och lösa detta även om grundfelet inte ligger i deras engine.

Tycker Jaystwocents video som är länkad tidigare förklarar det rätt väl.

Medlem
Skrivet av eld:

maximize efficiency and speed

Men vi pratar om optimering i spel nu, inget annat.

Ja, och optimering handlar inte bara om FPS. Det handlar även om stabilitet. Jag skrev det, läs hela inlägget så slipper man upprepa.

Citat:

dvs, vid 100% användning av gpu så kanske ett spel bara får ut 25 fps, så du optimerar spelet, både genom kod och assets tills att du kommer upp över 30fps.

Återigen sitter du fast i FPS-snacket. Är det enda du bryr dig om? Jag sitter själv på RTX 3080, men det betyder inte att jag stirrar mig blint på FPS och tror det är allt. Hög FPS betyder inte att spelet är optimerad. Låg FPS betyder inte att spelet inte är optimerad.

Du säger att du jobbar inom ämnet, men din argumentation är väldig trångsynt och har tunnelseende på bara FPS. Jag har redan skrivit att optimering handlar även om stabilitet. Men du bortser det totalt, vilket en utvecklare inte skulle göra då ett av målen på slutprodukten är att spelet ska vara stabil.

Citat:

Men nej, drivrutiner kan inte fixa problemet med hårdvaran, drivrutiner kan begränsa kortet så det inte kommer i närheten av scenariot då spärrar ska kicka in, vilket de inte gjorde.

Drivrutin kan göra så att problemet inte dyker upp, även om det betyder att de stryper kortet och ändrar på kurvorna. Som jag skrev tidigare, nVidia har redan släppt ett sånt drivrutin för 3000-serien. Google is your friend. Använd den.

Citat:

Det är som sagt onödigt att få 5000 fps i menyn, men det är fortfarande någonting som en gpu ska klara av utan problem.

Klara av ja, men inget som GPUer mår bra utav under en längre period. Alla komponenter har en livcykel, och genom att överarbeta komponenten i onödan så kortar du ner livslängden i onödan. Varför tror du att en gamers GPU har längre livcykel (i antalet timmar) jämfört med en GPU som används enbart för mining?

Faktumet att du skriver "Grafikkort kan inte bli stressat" eller "Hur tror du alla bitcoin eller render farms fungerar i världen, hur tror du spelare kan sitta och spela sina spel i flera dagar i streck utan att grafikkorten dör?" eller "Hårdvaran drar ström inom sina specs, de når en temperatur de klarar av, de kan vara igång i evigheter." bevisar att du inte vet riktigt vad du pratar om när det kommer till hårdvara.

Grafikkort dör snabbare för en cryptminer jämfört med en gamer, och det är ju logiskt. Korten mår inte bra att sitta över 80-90 grader 24/7 i flera år, de måste kylas ner emellanåt. Men jag gissar på att du inte är insatt i det då du frågar mig hur bitcoin eller render farms fungerar. Det fungerar genom att de byter ut slitna komponenter med jämna mellanrum då stressen sliter korten.
En gamer kan spela på samma GPU 10-20 år utan problem (antar att en gamer dammar av inuti burken med jämna mellanrum för att ha optimerad kylning) då GPUn får vila när de inte spelar. En Miner eller farm är igång 24/7.

Citat:

För att jag försöker förklara grunden till det hela, att 100% anvädning av gpu inte är något konstigt, och att optimering inom spel handlar om hur mycket man kan få ut av dessa 100%, nya grafikkort byggs ju helatiden för att folk konstant blir gpu-begränsade, de vill ha mer prestanda.

Jag har inte påstått att 100% användning av GPU är konstigt. Det jag sa är att 100% GPU användning betyder inte att man maxar kortet på samma sätt som ett stresstest gör. Stresstest belastar korten mer än ett spel gör, då de med flit ber kortet att maxa allt. Alltså maxa/throttla ström, volt, kurvor, prestanda osv till gränsen. Spel gör sällan det, även om det står att GPU arbetar 99% eller 100%.
Och det är där problemet är med New World. Den får vissa kort bete sig som om det vore ett stresstest, där den belastar korten mer än vad som behövs. Och det i sig gör spelet icke-optimerad, och bör fixas ASAP. Korten ska inte sitta över 80 grader, oavsett om det är inom kortens gränser, om det inte behövs. Korten ska inte behöva rendera 5000 FPS, om det inte behövs. Det är där utvecklarens ansvar ligger. Det borde du som jobbar med spel veta.

Citat:

Men nej, jag skulle ju inte vilja komma med argument om områden jag inte jobbar med, men nu råkar det ju hända att jag jobbar med spelgrafik och spelgrafiksoptimering. Att använda grafikkorten fullt ut är inget konstigt, på spelkonsoler är detta normen, och på pc så kommer spelare att köra upp sina settings tills de når den framerate de vill ha med maximalt utnyttjat grafikkort.

Återigen så handlar optimering inte bara om att få så hög FPS som möjligt. Optimering handlar även om stabilitet, och det har inte New World. Jag har inte sagt att spel inte ska utnyttja komponenter fullt ut. Jag pratar om att spelet belastar komponenter av ingen anledning alls.

Citat:

Speldatorer är gjorda för att köras fullt ut, och de flesta här som spelar på pc sitter med gpu-cappade spel.

Det absolut tråkigaste som kan hända med o-optimerade spel är att folk inte kan få så hög framerate, det gör inte så att grafikkort dör.

Läs tidigare svar. Jag har inte påstått att man inte får eller ska köras fullt ut. Det är viktigt att läsa för att bibehålla en diskussion, så man slipper upprepa vartannat inlägg.
Jag vill inte belasta min 3080 i onödan om behovet inte finns. Det spelar ingen roll om kortet klarar av belastningen. Det är fortfarande slitage i onödan.

Nej, det absolut tråkigaste som kan hända med o-optimerade spel är att de krashar. Inte att de har låg FPS. FPS är inte allt!.
Tror du seriöst att New World är det mest krävande spelet på marknaden? Det kvittar om du jobbar med spelutveckling om du inte är dugg insatt i det här specifika problemet. Ska vi titta hur många grafikkort har blivit brickade av spel som är mer krävande, som t.ex. Control? Eller CP2077? Eller t.o.m RDR2 med allt maxat?

Ska vi börja jämföra med spel där man har moddat extremt mycket för att verkligen belasta GPUerna? Hur många brickade GPUer hittar vi då?

Konstigt... Inga rapporter om att något annat spel orsakar en våg av brickade GPUer. Inte heller spel som är extremt moddade. Utan istället så det man ser är att spelen i sig krashar, inte datorn. Men om det är 100% nVidia/AMD problem och 0% Amazon så borde vi ha sett massvis med rapporter om brickade GPUer från alla belastande spel, eller hur?

Citat:

För att det åter igen inte kontrollerar sånt, det är grafikkortet som bestämmer hur mycket ström det ska dra.

Om ett spel är cpu-begränsat så kommer gpun att vänta på den, och därmed dra mindre ström, om gpun inte behöver göra mycket per frame så kan den rendera tusentals frames men ändå köra med sparlåga, tills att cpun'n cappar den igen.

Om ett litet indiespel bara behöver en bråkdel av grafikkortet för att nå 60 fps så är det nice också, om detta spel sen kan köra i 8000 fps så är det ju rätt onödigt, men inget som grafikkortet kan dö av.

30 fps i cyberpunk och 8000 fps i ett indiespel gör ju inte så mycket skillnad för en gpu som måste köra 100% i båda fallen.

Spelet säger inte åt GPUern att "Dra 1.06V med ström!". Men som jag skrev tidigare, det finns redan de som jämför New World med andra krävande spel där GPUn arbetar 100%, men har olika resultat på ström-parametrarna. Det till mig säger mig att New World vill att GPUn ska jobba mer än 100%, och kortet, för att göra det, försöker dra så mycket ström som den är tillåten att göra.
Och då kommer vi till problemet; New World har inget behov om att be GPUn jobba till en sån grad, när det spelet inte är den mest krävande spelet på marknaden.
Det betyder då att New World inte är korrekt optimerad (dåligt kodad), där den lägger onödig belastning.
Ja, kort som är felfria skulle inte bli brickade. Men det betyder inte att spelet i sig är felfri eller optimerad.

Citat:

Amazon skulle ha ansvar om det visar sig att spelet ändrar i grafikkortets inställningar, ändrar voltage på kortet, skriver över massa viktiga filer i filsystemet eller liknande. Men som det ser ut nu så har de använt grafikkortet normalt.

Jag vet inte om du försöker medvetet inte förstå min poäng längre eller om du är en som argumenterar bara för argumentationens skull...
Amazons ansvar är att optimera deras spel. Deras ansvar är att om deras spel är common denominator i problemet, så bör de utforska det vidare och även se ifall de kan ta bort problemet från deras sida.

Jag tycker det är bra att Amazon har mer vett än vad du har visat under denna diskussion, då de har nu släppt en patch för att cappa frames i menyn, och förhoppningsvis minskar antalet brickade kort markant. På så sätt kan nVidia/AMD försöka hitta en lösning, kanske tillsammans med Amazon, för att se vad är grundorsaken, och hur de kan lösa det.

Om ditt spel som du utvecklar skulle vara orsaken till att 1% eller 5% av dina betatestare får trasiga kort, anser du då att du inte har något ansvar över huvud taget? Du behöver alltså inte optimera spelet att inte lägga onödig belastning när det inte behövs? Du har inget ansvar om att rapportera det vidare till nVidia/AMD? Du har inget ansvar om att sätta gränser som t.ex. FPS-caps under meny/loading? Du har inget ansvar om att arbeta med nVidia/AMD för att få ut en drivrutin som kan ytterligare justera kurvorna för att undvika att fler kort blir brickade?
Du anser att du inte har något ansvar alls att just ditt spel, och bara ditt spel, orsakar att folks komponenter dör?

eld
Medlem
Skrivet av Shamanfox:

Ja, och optimering handlar inte bara om FPS. Det handlar även om stabilitet. Jag skrev det, läs hela inlägget så slipper man upprepa.

Återigen sitter du fast i FPS-snacket. Är det enda du bryr dig om? Jag sitter själv på RTX 3080, men det betyder inte att jag stirrar mig blint på FPS och tror det är allt. Hög FPS betyder inte att spelet är optimerad. Låg FPS betyder inte att spelet inte är optimerad.

Du säger att du jobbar inom ämnet, men din argumentation är väldig trångsynt och har tunnelseende på bara FPS. Jag har redan skrivit att optimering handlar även om stabilitet. Men du bortser det totalt, vilket en utvecklare inte skulle göra då ett av målen på slutprodukten är att spelet ska vara stabil.

Drivrutin kan göra så att problemet inte dyker upp, även om det betyder att de stryper kortet och ändrar på kurvorna. Som jag skrev tidigare, nVidia har redan släppt ett sånt drivrutin för 3000-serien. Google is your friend. Använd den.

Klara av ja, men inget som GPUer mår bra utav under en längre period. Alla komponenter har en livcykel, och genom att överarbeta komponenten i onödan så kortar du ner livslängden i onödan. Varför tror du att en gamers GPU har längre livcykel (i antalet timmar) jämfört med en GPU som används enbart för mining?

Faktumet att du skriver "Grafikkort kan inte bli stressat" eller "Hur tror du alla bitcoin eller render farms fungerar i världen, hur tror du spelare kan sitta och spela sina spel i flera dagar i streck utan att grafikkorten dör?" eller "Hårdvaran drar ström inom sina specs, de når en temperatur de klarar av, de kan vara igång i evigheter." bevisar att du inte vet riktigt vad du pratar om när det kommer till hårdvara.

Grafikkort dör snabbare för en cryptminer jämfört med en gamer, och det är ju logiskt. Korten mår inte bra att sitta över 80-90 grader 24/7 i flera år, de måste kylas ner emellanåt. Men jag gissar på att du inte är insatt i det då du frågar mig hur bitcoin eller render farms fungerar. Det fungerar genom att de byter ut slitna komponenter med jämna mellanrum då stressen sliter korten.
En gamer kan spela på samma GPU 10-20 år utan problem (antar att en gamer dammar av inuti burken med jämna mellanrum för att ha optimerad kylning) då GPUn får vila när de inte spelar. En Miner eller farm är igång 24/7.

Jag har inte påstått att 100% användning av GPU är konstigt. Det jag sa är att 100% GPU användning betyder inte att man maxar kortet på samma sätt som ett stresstest gör. Stresstest belastar korten mer än ett spel gör, då de med flit ber kortet att maxa allt. Alltså maxa/throttla ström, volt, kurvor, prestanda osv till gränsen. Spel gör sällan det, även om det står att GPU arbetar 99% eller 100%.
Och det är där problemet är med New World. Den får vissa kort bete sig som om det vore ett stresstest, där den belastar korten mer än vad som behövs. Och det i sig gör spelet icke-optimerad, och bör fixas ASAP. Korten ska inte sitta över 80 grader, oavsett om det är inom kortens gränser, om det inte behövs. Korten ska inte behöva rendera 5000 FPS, om det inte behövs. Det är där utvecklarens ansvar ligger. Det borde du som jobbar med spel veta.

Återigen så handlar optimering inte bara om att få så hög FPS som möjligt. Optimering handlar även om stabilitet, och det har inte New World. Jag har inte sagt att spel inte ska utnyttja komponenter fullt ut. Jag pratar om att spelet belastar komponenter av ingen anledning alls.

Läs tidigare svar. Jag har inte påstått att man inte får eller ska köras fullt ut. Det är viktigt att läsa för att bibehålla en diskussion, så man slipper upprepa vartannat inlägg.
Jag vill inte belasta min 3080 i onödan om behovet inte finns. Det spelar ingen roll om kortet klarar av belastningen. Det är fortfarande slitage i onödan.

Nej, det absolut tråkigaste som kan hända med o-optimerade spel är att de krashar. Inte att de har låg FPS. FPS är inte allt!.
Tror du seriöst att New World är det mest krävande spelet på marknaden? Det kvittar om du jobbar med spelutveckling om du inte är dugg insatt i det här specifika problemet. Ska vi titta hur många grafikkort har blivit brickade av spel som är mer krävande, som t.ex. Control? Eller CP2077? Eller t.o.m RDR2 med allt maxat?

Ska vi börja jämföra med spel där man har moddat extremt mycket för att verkligen belasta GPUerna? Hur många brickade GPUer hittar vi då?

Konstigt... Inga rapporter om att något annat spel orsakar en våg av brickade GPUer. Inte heller spel som är extremt moddade. Utan istället så det man ser är att spelen i sig krashar, inte datorn. Men om det är 100% nVidia/AMD problem och 0% Amazon så borde vi ha sett massvis med rapporter om brickade GPUer från alla belastande spel, eller hur?

Spelet säger inte åt GPUern att "Dra 1.06V med ström!". Men som jag skrev tidigare, det finns redan de som jämför New World med andra krävande spel där GPUn arbetar 100%, men har olika resultat på ström-parametrarna. Det till mig säger mig att New World vill att GPUn ska jobba mer än 100%, och kortet, för att göra det, försöker dra så mycket ström som den är tillåten att göra.
Och då kommer vi till problemet; New World har inget behov om att be GPUn jobba till en sån grad, när det spelet inte är den mest krävande spelet på marknaden.
Det betyder då att New World inte är korrekt optimerad (dåligt kodad), där den lägger onödig belastning.
Ja, kort som är felfria skulle inte bli brickade. Men det betyder inte att spelet i sig är felfri eller optimerad.

Jag vet inte om du försöker medvetet inte förstå min poäng längre eller om du är en som argumenterar bara för argumentationens skull...
Amazons ansvar är att optimera deras spel. Deras ansvar är att om deras spel är common denominator i problemet, så bör de utforska det vidare och även se ifall de kan ta bort problemet från deras sida.

Jag tycker det är bra att Amazon har mer vett än vad du har visat under denna diskussion, då de har nu släppt en patch för att cappa frames i menyn, och förhoppningsvis minskar antalet brickade kort markant. På så sätt kan nVidia/AMD försöka hitta en lösning, kanske tillsammans med Amazon, för att se vad är grundorsaken, och hur de kan lösa det.

Om ditt spel som du utvecklar skulle vara orsaken till att 1% eller 5% av dina betatestare får trasiga kort, anser du då att du inte har något ansvar över huvud taget? Du behöver alltså inte optimera spelet att inte lägga onödig belastning när det inte behövs? Du har inget ansvar om att rapportera det vidare till nVidia/AMD? Du har inget ansvar om att sätta gränser som t.ex. FPS-caps under meny/loading? Du har inget ansvar om att arbeta med nVidia/AMD för att få ut en drivrutin som kan ytterligare justera kurvorna för att undvika att fler kort blir brickade?
Du anser att du inte har något ansvar alls att just ditt spel, och bara ditt spel, orsakar att folks komponenter dör?

Som sagt, optimering i spel är när du kollar på en frame, tittar hur lång tid varje liten del tar och försöker få ner tiden på din frametime så mycket som möjligt, resultatet blir att en frame kostar mindre och du kan få ut fler frames: högre fps!, eller som du säkert vill säga: kan köra i samma framerate med mindre resurser, men det resulterar bara i att folk drar upp settings eller ökar upplösningen.

Spelarna vill hamna smack på sin önskade framerate men få ut så mycket bildkvalite som de bara kan.

Sen kan man såklart optimera nätkod, minnesanvändning, diskutrymme osv, men de har mindre att göra med detta problem.

Stabilitet får du genom buggfixning, så du kan ha en optimerad rendering men ostabilt spel, och samtidigt kan du ha ett stabilt spel med o-optimerad rendering.

Optimering sker ju helatiden under utvecklingen, så det är ju inte som att de undviker att optimera.

Angående att New World skulle dra mer än 100% stämmer ju inte. De kan inte göra så, grafikkortet sätter reglerna här, de kan bara be om en så snabb renderad frame som möjligt, och om fps'en är cappad på 60 så behöver de såklart bara ligga runt 16ms, vilket absolut resulterar i att grafikkortet inte behöver jobba hundra. Men nu är ju spelet så krävande att det kommer jobba i hundra oavsett, och drar du upp settings så kommer du förr eller senare nå 100%, och om settings är på max så kan du dra upp upplösningen till 4k.

Men nya spel finns det nog ingen som brukar kunna maxa, och när nyare spel kommer ut så kommer de få ännu lägre framerate, så New World vart nog bara början på detta problem.

Även om du är pc-spelare som alltid sitter och 100%'ar ditt grafikkort och spelar spel väldigt ofta (det gör jag själv, har ju ändå 165hz skärm och försöker få ut så snabba frames som möjligt) så kommer ditt grafikkort dö av gammal ålder snarare än att det bränner ut sig en dag.

Men jag vill ändå hålla med dig om en sak: även om det inte är deras fel att grafikkorten pajjar ur så skulle de kunnat vara lite mer proaktiva i vad som visade sig vara ett väldigt stort problem, säga till folk att deras 3090's antagligen har ett stort problem och varna om detta, att rekommendera vsync och allt detta.

Jag gissar på att de inte ville spela in i idén att deras spel dödar grafikkort, då det säkert nu kommer sitta i ett bra tag och folk kommer vara rädda för att spela spelet.

Medlem

Ge er för fan.( skoja bara )

eld
Medlem
Skrivet av John7612:

Ge er för fan.( skoja bara )

Saknar spärrar och kör på lite för hårt ibland..

Precis som en 3090!

Medlem

Har spelat new world på mitt vattenkylda inno3d rtx 3090. Innan jag läste om det här problemet.

Kikade noggrant igår på gpuz och hwmonitor efter skumheter. Det skummaste som spelet lyckats bringa till min rigg är som följande.

50% cpu usage på mitt 5900x(aldrig sett i spel förut)

3090 kortet drog 355 watt, både i menyn och ingame, dock klarade den bara av runt 160fps i menyn och något mer ingame, högsta jag sett kortet dra är 335 watt i cyberpunk allt ultra.

Utöver de 2 sakerna som knappast känns extrema, men skumma då jag aldrig sett det förut, så verkar inte varken temperatur eller voltage spika/vara abnormalt höga. Minnes hotspotten toppade på 81 grader under mitt 10 minuter icke vetenskapliga test och nådde den tempen och stannade där inom cirka 2 minuters spelande. Gpu temp på cirka 61c. Den tempen har jag dock sett högre.

Både 5900x och 3090 kortet delar samma loop på 1x 480mm monsta rad, och en tjock 120mm rad. Inget verkar vara abnormalt till den grad att hårdvaran skadas, men ska se till att monitora lite mer och monitora min flickväns dator med ett 2080ti och 5600x. Vore otrevligt med grafikkortshaveri i sådana här tider.

Medlem

Tror inte det är bra oavsett vad utvecklare eller grafikkortstillveckare säger att köra 100% med sina delar.

Dels pga livslängden, dels pga värmeutveckling i resten av burken som kan leda till sämre prestanda i längden, och sedan att den totala latensen kan bli sämre än vid 90-95% belastning. Fps blir högre vid 100% men den totala reaponstiden kan bli sämre.

(Ca 6:45-13:20)

Tror även de flesta lite mer seriösa miners inte maxar GPU:er. Eftersom man vill maxa performance per power, vilket sällan blir optimalt vid 100% eftersom dagens grafikkort oftast är rätt högt klockade i referensdesignen, där sista % prestanda kräver betydligt mer watt att uppnå.

Gällande uncapped fps i menyer så borde det inte spela någon roll tycker man. Men om vissa pushar sina kort till gränsen och inte testar för sådana här bruteforce från inget till allt belastning, kan jag tänka mig vissa får problem när hundratals watt pushas in huxflux.

Kan man tycka är tillverkarnas fel men verkar också generellt onödigt att ha något som drar massa systemresurser i menyn. Vet inte om detta stämmer (kanske någon insatt kan svara på) men tror även vissa känsliga system, typ moderkort, GPU mm, kan få problem när tusentals cykler uppnås. Dvs kanske inte enbart belasningen i sig som ställer till det, utan att det blir frekvenser som kan skada delar i systemet.

Medlem

Kollade nyss på en video från JayzTwoCents. Där han testade ett ftw 3090 kort och ger sin syn på problemet. Värt en titt. https://www.youtube.com/watch?v=rpvsaedeeqg

12
Skriv svar