Inlägg av maltafalas

Inlägg som maltafalas har skrivit i forumet

1

Reklam från Duston? Där ser man.
Angående reklam och adblock, Youtubes reklarmer som inte går att skippa är djävulens påfund, vilket är också en anledning varför jag kör adblock.
Får jag lov att hoppa över reklam efter ett par sekunder så kan jag leva med det.

http://www.phonearena.com/news/Final-Fantasy-IV-Coming-to-iOS...

Varför måste de ta sån tid för android versionen....

Skrivet av Andreaz:
Skrivet av palmtree:

Om all grafik i spelet är optimerat för 1024x720 så är det betydligt mer jobb att fixa det än vad du sitter och spekulerar om.

kan lika gärna länka det här igen. bluh.org/?p=263

Knappast, nog att mycket av sakerna på den länken stämmer, men det är bara bortförklaringar. Se bara vad han pratar om UI, och sen kolla länken jag skickade, som förklarar hur man slipper det problemet, och det är inte många rader kod det handlar om.

Dom största sakerna är, precis som dom skrev shader relaterat där har dom rätt (och det måste dom göra bara för att få det att starta på en PC). Men det dom skriver om texture mapping och normal maps är bara bs, titta på gamla spel (Battlezone tex), dom ser ordentligt mycket bättre ut på morden hårdvara med trippla upplösningen mot vad dom var gjorda för.

Allt dom snackar om med fillrate är väldigt missvisande också, dom har rätt i att textur fill-raten vara begränsande, men den har väldigt lite med hur många modeller osv det finns på skärmen, (Finns något som heter Z-Buffering, fanns tom på 3Dfx tiden som gör att beräkningarna dom visar på inte stämmer, detta teknik filtrerar bort pixlar innan man behöver köra pixel shadern på dom beroende på deras djup i scenen). Visst att det blir värre med ju fler pixlar man har (Mer zbuffer lookups och pixlar att köra), men dagens grafikkort är så mycket snabbare än vad som sitter i XBOX/PS3 så det är försumbart.

Från 1024x720 till 1920x1080 är bara 2,8125 fler pixlar, och t.ex. ett GT480 är minst 3 gånger snabbare än Xenos GPUn i xboxen: (Källa: http://en.wikipedia.org/wiki/Xenos_%28graphics_chip%29 och http://www.behardware.com/articles/857-10/review-nvidia-gefor..., antal trianglar per sekund, 500M mot 1600M, notera att 500Mtrianglar är teoretiskt dessutom ) och detta kortet är rätt gammalt idag (Vad jag har själv)

Jag började FYI med 3D programmering för en bra bit över 10 år sedan. Dock bara på fritiden, men ändå. (Var handledare inom datorgrafik på högskolan dessutom)

Punkt 8 och 9 håller jag dock med om, vilket jag även skrev tidigare.

Först och främst, hur kan det bara vara 28,125 fler pixlar mellan 1024x720 och1920x1080?
1024*720 = 737280
1920*1080 = 2073600
2073600 - 737280 = 1336320 skillnad i pixlar.

Du har nog också fått Z-Buffering(depthbuffer) om foten, den plockar bort pixlar som inte ska skrivas ja, men man kör fortfarande pixelshadern på den pixeln som inte kommer synas. Z-Buffering ligger i Output-Merger stage, vilken är det sista steget innan man skriver till backbuffern(dvs efter pixel shadern). Detta gör att om du till exempel har tung ljussättning och beräknar pixeln för att sedan få pixeln borttagen på grund av Z-Buffering är tappad prestanda.

Därför finns det olika tekniker för att begränsa detta, så som Early-Z och deferred rendering. Sista krävs att man skriver om renderingsmotorn ifall den inte har det implementerat.
Early-Z krävs att man ritar hela scenen 2 gånger, så hur man än vrider och vänder om man inte har någon bra erfarenhet av shaderkodning så tappar man prestanda oavsett. Och nu var det 1336320 fler pixlar mellan dem två upplösningarna, det kan göra stor skillnad på om spelet är spelbart eller inte.

Nu kanske du förstår varför fillraten är viktig. Även om grafikkortet är kraftfullt så kan du få den på knäna genom ineffektiv kod.

Hade ett projekt jag gjorde, renderingsmotorn i sig var effektiv, men ljussättningsshaders fick spelet att bli ospelbart. Och då pratar vi om 70ish lampor. När vi gjorde om shaders för ljussättning så fick vi över 100 fps istället. (Tack vare att renderingsmotorn var deferred renderad)

(http://www.youtube.com/watch?v=7wlS9FXmJZ0 ifall du inte tror på mina 3D-programmerings kunskaper)

Skrivet av elPresidente:

Jag säger bara sanningen Sebastian!

Bara för att man drar ner på upplösningen och låser till 30 fps så betyder inte det att man inte behöver lika mycket arbete.

Både utveckling till konsoller och pc är inte trivialt.
Största skillnaden är att på konsoll så ändrar man inte på dem grafiska inställningarna, det är nog därför det har blivit som det har (speciellt eftersom motorn var designat till konsoller och inte pc)

Skrivet av StraxDax:

öppenhet är väl inte så bra, med så många hackers, virus och skit så måste det ju finnas säkerhet.

Se det som så här, finns ett säkerhetshål i windows, då måste microsoft fixa det och lägga upp uppdateringen..detta kan ta en stund.

Däremot ifall du har ett öppen plattform så kan vem som helst som är duktig fixa hålet och lägga upp uppdateringen till vem som.

Allt handlar om vem som kunskap och pengar. Öppna plattform är väldigt bra för utveckling osv. Firefox är sjukt mycket bättre än internet explorer, och firefox är den öppen plattform. Tänk på det

Hackar det konstant? För de problemet hade jag när xbox 360n var inställd på 50hz istället för 60hz. Då var det vissa cutscenes som hackade.

Ja, de gör den. Jag har också GTX 560Ti.

Här kan du ladda ner directx uppdatering:
http://www.microsoft.com/en-us/download/details.aspx?id=35

Skrivet av B-B-B-Banänäbrääken:

Är det de enda som är skillnaden? äär det inte typ programmerat på ett nyare smartare sätt eller nåt sånt?

Därav min kommentar "Det finns många olika skillnader på 32- och 64-bitar, men den största är..."
De finns ett antal saker som skiljer det åt. Men programmeringsmässigt så kodar man på precis samma sätt på båda. Det är just själva minneshanteringen som skiljer åt ifall du inte går in på djupet och kodar i "SSE" teknologi, där skiljer 32- och 64-bit sig också en hel del(Men detta är mest för prestandatunga program så som spel osv).

Men med större minnesbredd, 32 istället för 64 gör att det kostar lite mer att använda minnet (eftersom du måste koda om dubbelt så stor minnesadress). Det är detta som gör att små program oftast får en prestandaförlust istället för det omvända.

Som programmerare så kan jag ge lite inblick på det hela. Det finns många olika skillnader på 32- och 64-bitar, men den största är minnesanvändningen. 64bit program kan hantera mer minne(Använda osv) än vad 32bitar kan. Detta är varför stora program så som maya, photoshop osv har 64bit stöd samt vissa nya spel så klart.

Program som skype, vlc osv behöver inte extra minne eftersom dem inte använder så mycket av det ändå så det räcker med 32bit.

I en perfekt värld så hade allt varit i 64bit, men det finns många som inte vill spendera resurser på att byta till 64bit när det egentligen inte behövs.

Här är min

EXKCBK-D8YR-NR9TM8-H26W-TCP88D

"1. Go to www.diablo3.com/guest
2. Create a battle.net account or log in if you already have one.
3. Enter your guest pass key into the field provided.
4. Download the free client or borrow your friend's game dvd to install the game."

Hans Zimmer komponerar Crysis 2-musiken

Crysis 3? De va något nytt

1