Nvidia köper Ageia

Medlem
Skrivet av Hymer:
Skrivet av liath:
Skrivet av Xphome:
Skrivet av liath:
Skrivet av Xphome:

Yes! Nvidia blir bättre än ATI :D... får man hoppas

Och det är bra för att...?

Gillar Nvidia och Intel men inte ATI/AMD, ingen anledning egentligen.

Jag gillar egentligen ingen bättre än den andra men så länge det inte är en ensam aktör på en marknad är jag nöjd. Just nu är det ATI som behöver rycka upp sig och inte Nvidia... Jag tänker givetvis på priset.

Vad menar du med priset?? ATI har mest bang/buck läs på männsika

Nej jag tänkte att om Nvidia totalt skulle dominerat marknaden och på så sätt kunnat höjja priserna eftersom det inte finns någon konkurrent.

Medlem

Man kan ju undra vad priset hamnar på då.

Inaktiv

Fysik på ett grafikkort är ingen höjdare. Däremot kan jag tänka mig att det finns utrymme för det med SLI, eftersom få spel kan utnyttja SLI till max och därför finns det prestanda kvar på korten som kan användas till annat.

Med ett grafikkort så är det oftast väldigt hårt belastat, vilket sannolikt betyder att avancerad fysik på grafikkortet kommer att sänka din prestanda. Visst kan det finnas en viss dynamik ändå, men fysikberäkningar är krävande. Multi-core CPU (fler än 2) eller SLI tror jag isåfall är det bästa alternativen.

Dock hoppas jag att utvecklingen av fysik verkligen tar fart i spel, för bra gjord sådan ger hög inlevelse. Idag är grafiken i de flesta spel väldigt långt utvecklad, så jag ser gärna att mer jobb läggs på sånt som AI, fysik och animationer.

Medlem

liath isf ber jag om ursäkt


signatur

Смерть решает все проблемы. Нет человека, нет проблем

Medlem
Skrivet av Hymer:

liath isf ber jag om ursäkt

Hehe verkligen ingen fara :). Det var kanske jag som uttryckte mig otydligt.

Medlem

Intressant, undrar hur de ska integrera fysikkortet med grafikkortet eller om det fortfarande blir separat

Skrivet av Buio:

Dock hoppas jag att utvecklingen av fysik verkligen tar fart i spel, för bra gjord sådan ger hög inlevelse. Idag är grafiken i de flesta spel väldigt långt utvecklad, så jag ser gärna att mer jobb läggs på sånt som AI, fysik och animationer.

Men när du hävdar det så måste du ju hålla med om att nästa stora steg mot ökad realism är inte fler polygoner och snyggare shaders, utan det är en spelvärld som beter sig mer trovärdigt. Om grafiken redan är välutvecklad, så låter det trots allt som en väldigt bra idé att lägga den extra beräkningskapacitet som man får med nya grafikkort på fysik instället för grafik.
Poängen med att köra fysik på GPU'n är inte att avlasta CPU'n, utan snarare att GPU'n är mycket snabbare på den typen av beräkningar( http://en.wikipedia.org/wiki/Gpgpu ).

Så sett från ett annat perspektiv så är det rent slöseri med CPU-cykler att beräkna effektfysik på processorn, när dessa skulle vara bättre lämpade för kaotisk gameplay-kod.

Inaktiv

Jag menade att utvecklarnas resurser skulle läggas mer på att utveckla kod för AI, fysik etc.

Däremot anser jag att ett enstaka grafikkort som är stressat av grafik (vilka nya grafiska spel idag är inte gpu-begränsade?) inte bör användas för fysik eftersom det då inte finns någon marginal för detta. Då får man antingen sätta ner grafiken, eller få sämre fps i ett spel där fysiken beräknas på grafikkortet. Att använda dynamiskt ledig kapacitet på kortet skulle suga eftersom man då antagligen måste sätta marginalen väldigt lågt.

En multi-core CPU har idag betydligt mer ledig kapacitet i de flesta spel även om den inte är lämpad för beräkningarna på samma sätt.

Skrivet av Buio:

En multi-core CPU har idag betydligt mer ledig kapacitet i de flesta spel även om den inte är lämpad för beräkningarna på samma sätt.

Nu brukar jag ju inte vara så pigg på att falla för företagens techdemo-propaganda, men om häften av vad GPU-tillverkarna lovar angående fysik är sant så finns det poänger med att använda en liten del av beräkningskapaciteten i grafikprocessorn till fysik, trots att man har en ledig processorcore.
http://www.youtube.com/watch?v=xMjgssWkRE0
http://enthusiast.hardocp.com/article.html?art=MTA3OSwxLCxoZW...

Detta låter lite väl galet för att vara rimligt, men ändå:
"ATI says they are going to be simply faster than an Ageia PhysX card even with using a X1600 XT and that a X1900 XT should deliver 9 X the performance of an Ageia PhysX card."

Detta var ett och ett halv år sedan. Om man av detta kan dra slutsatsen, (det är mycket möjligt att jag är ute och cyklar nu) att om man genom att använda en tiondel av beräkningskapaciteten i ett modernt grafikkort kan uppnå samma mängd effektfysik som med ett fysikkort, då kan de extra x86-kärnorna slänga sig i väggen.

Inaktiv

I en intervjuv på Firingsquad säger de "In parallel we are going to enable GPU Physics as soon as possible." Så låter som att vi kanske kan testa inte allt får långt fram i tiden.

http://www.firingsquad.com/features/ageia_physx_acquisition_i...

Skrivet av Buio:

I en intervjuv på Firingsquad säger de "In parallel we are going to enable GPU Physics as soon as possible." Så låter som att vi kanske kan testa inte allt får långt fram i tiden.

http://www.firingsquad.com/features/ageia_physx_acquisition_i...

Inressant, gav lite mer kött på benen angående deras framtidsplaner (utöver de rena spekulationer som man själv kan göra)

En annan intressant framtidsteknologi är Intel's larrabee: en processor som är designad för att vara lika paralelliserad och kraftfull som Geeforce och Radeon, men samtidigt vara byggd runt x86 så att den är betydligt öppnare för annat än grafik. http://en.wikipedia.org/wiki/Larrabee_%28GPU%29

Skulle vara intressant att se vad man kunde göra om man beräknar neurala nätverk och AI som inte har för-scriptat beteende på en sådan processor...

Skrivet av Cortex:

Så j-vla 90-tal med PC....

Glöm inte att den utveckling du ser på PC-fronten i dagsläget även kommer avspeglas i nästa generations konsoler.

(komer de ens ha samma gamla cpu+gpu - kombo, eller kommer de enbart ha en enda kraftfull "stream processor"?)

12
Skriv svar