Crysis - skillnad mellan DirectX 9/10
Ja och dessutom så har vi ju sett på de förra video jämförelserna att DX9 versionen inte kommer att ha några handgranater *ironi*...
Frågan är vilket man ska välja, har både XP och Vista. I XP lär det flyta på, medans jag är nästan helt säker på att i Vista kommer jag få sämre fps och sämre ljud (detta dels pga att idioterna på Creative maskar eller inte lär släppa några nya drivare till mitt Audigity 2, som ju fungerar perfekt annars...).
Dagens I-landsproblem :P.
How can we win when fools can be kings?
LÅL? Hur många rack servrar tror dom att har plats för en 8800GTX eller 2900XT? För att inte snacka om wattkonsumptionsgränsen som många co-location ställen har...
Nu skiter det sig, Crytek!
en server renderar ju inte bilder från spelmotorn så ett grafikkort kan tyckas onödigt.. kanske vista som krävs lr nåt. lr bara sjukt feta cpu's
Kul att alla drar slutsatsen att Microsoft drar i trådarna (Microsoft kontrollerar ju som vi vet allt och alla), inte att Crytek, som antagligen vill skapa ett så snyggt spel som möjligt, blivit illa tvungna att göra det här valet...
Vad är det ni inte förstår? Crytek vill ha förstörbara träd och mojs samt dynamisk dag-och-natt-effekt I Crysis multiplayer. Dx10 låter dom göra det. Dx9 gör inte det.
Det låter ju lite konstigt det här till en början, DX10-krav på servern.
Förmodligen är det så att det krävs en fysikprocessor eller en GPGPU som kan användas för fysikberäkningar.
Om det i multiplayer ska fungera smidigt så är det ju självklart att allting som händer måste beräknas på servern. Klienterna tar ju bara emot och skickar information men ingen större beräkning kan ju ske då det är för stor risk att det utnyttjas på fel sätt av fuskare.
Vad är bäst då för er som klagar?
Att vi som har DX10 kort inte får utnyttja dem eller att en utvecklare faktiskt utnyttjar tekniken som finns tillgänglig?
Svenska avundsjukan som vanligt...
Vad exakt är det i DX9 som förhindrar detta då?
"Som orsak anges att serverkraven är så höga att de ofta äldre, och därmed hårdvaruklenare DX9-servrarna inte klarar av att hantera belastningen"
Borde väl inte spela nån roll vad servern kör, den borde väl inte behöva stödja DirectX överhuvudtaget (rätta mig om jag har fel) med tanke på att den inte ska behöva rita upp mer än lite UI. Om nu servern MÅSTE köra DirectX 9/10 så omöjliggör detta även släpp av Linux server vilket är rent ut sagt är jävligt idiotiskt.
Hur är det med andra spel servrar, behöver dom stödja samma renderings API (så heter det väl?) som klienten?... Skeptisk
Eftersom det inte borde spela nån roll vad servern kör så borde en tillräckligt kraftfull server borde kunna köra både DX9 och DX10. Jag tror definitivt att klienterna skulle kunnna hantera det.
Jag är övertygad om dom använder det här som en 'sell point' för DX10, Om inte, så är dom jävligt dumma
Beta gameplay
http://www.gametrailers.com/player/usermovies/105608.html
ser ruskigt kul ut.
jag kan tänka mig att det ligger till så här, dom som kör server för DX10 versionen varken behöver vista eller dx10 kort.. utan en kraftigare server för att klara av att "hålla reda på" vilka träd som är av, vilka hus som e pangade osv.. det blir ju en hel del data me den måst räkna ut snabbt o felfritt frö 12, 24, 32 pers hur många nu det kan va i crysis... kanske man kan lägga en tanke på det åh.. som sagt så renderar inte en server grafik men den ska hantera allting lika snabbt åt alla..
sku int va så kul om man klättrar upp i ett träd (vilket man nu inte kan men tex ) o så ha nån skjutit bort det för en stund sen så woops så försvinner trädet pga av lagg för att servern inte hunnit skicka vidare den informationen till mig..
haha ja flumm teroier e alltid kul
Wtf? Dom kan väl inte mena att servern måste köra DX? Och om inte, vad förhindrar isåfall folk från att lägga upp en kraftfull server och sedan bara köra dx9 där? Varför inte bara ha de här grejjerna som valbara alternativ och de med tillräckligt kraftiga server (oavsett dx9/10) kan helt enkelt slå på dom? Låter som en massa skitsnack detta.