Die ATI hat nen GDDR 5, deswegen ist sie schneller.
Gruß
Die ATI hat nen GDDR 5, deswegen ist sie schneller.
Gruß
Core i7 950 // 16 GB Ram // GTX 980 G1// Win7 64-Bit
Gearbox Software setzt auf PhysX!
http://www.pcgameshardware.de/aid,65...tzt_auf_Physx/
Ich finde diese Entwicklung gut und besser als der Einsatz von Havok. Die Entwickler fangen so langsam an, zu begreifen, dass man mit Physik on GPU mehr machen kann als on CPU.
"Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
(Laplace, frz. Astronom u. Mathematiker, 1749-1827)
Havok verwendet in Zukunft ja auch die GPU. Angeblich soll der Ansatz von Havok intelligenter sein und die GPU & CPU verwenden, anstatt ausschließlich die GPU zu belasten.
Wenn man auch mal die Zukunft betrachtet und die neuen Befehlssatzerweiterungen (SSE5 und AVX) der CPUs sieht, dann sieht man auch, dass die CPU immer geeigneter zur Grafik und Physikberechnung wird.
CPU und GPU gleichen sich in Zukunft immer weiter an. Die GPUs können weit mehr als nur Grafik berechnen und die CPUs enthalten Befehlssätze, die ähnlich spezialisiert und effzient sind, wie die einer GPU.
Von daher macht es schon Sinn Physikberechnungen auch auf der CPU durchzuführen und genau das will Havok machen.
Leider wird das Ganze noch etwas dauern und bis dahin hat nVidia jetzt die Chance die PhysX Engine etwas durchzusetzen und in Zukunft vielleicht auch eine GPU/CPU Kombinationsnutzung zu implementieren. Sobald die neuen Nehalems draußen sind, wird das garantiert passieren und PhysX wird auch die Vorteile von AVX nutzen.
Steht eigentlich fest, dass die einen neuen Namen bekommt? Ich glaube nämlich, dass die weiterhin nur GTX 260 heißen wird.
Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.
Du hast es ja gerade gesagt. Bis dahin wird das noch ne Weile dauern und genau diese Zeit wird NV nutzen, um PhysX bei den Entwicklern beliebter zu machen. Ob zukünftige CPUs nur wegen irgendwelchen Befehlssätzen komplexe Grafikberechnungen wie in Crysis durchführen können, wage ich mal zu bezweifeln, zumal die Architektur einer CPU sich einer GPU nicht nur optisch unterscheidet und man aus einer GPU keinen MultiCore Core Chip wie bei den CPUs basteln kann. Eine GPU ist schon lange ein MultiCore Chip gewesen. Deswegen finde ich auch die Ideen von 2 GPUs on DIE ein bisschen überflüssig, weil es nix bringen würde, da man auch genauso gut, die zusätzlichen Transistoren mit in den DIE packen kann..
Über Havok FX ist fast nix bekannt und für den "angeblich" besseren Ansatz gibt es auch keine Beweise. Zumindest sind mir keine bekannt.
"Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
(Laplace, frz. Astronom u. Mathematiker, 1749-1827)
Natürlich machen Multicore GPUs Sinn. Besonders in zukunft wenn es mehr in Richtung Raytracing geht anstatt der bisher üblichen Rasterung. Guckst du hier
Beim Raytracing lässt sich die Leistung praktisch 1:1 mit der Anzahl der Kerne skalieren und mit Kerne meine ich jetzt komplette und GPU Kerne. Keine Shadereinheiten. Natürlich arbeitet eine GPU heute schon massiv parallel aber es ist nicht mit einer Multicore GPU zu vergleichen. Das ist schon was anderes.
Das auch bei den GPUs die Zukunft in der Multicore Technologie steckt kannst du ja daran sehen, das ATi und nVidia behauptetn sich in Zukunft darauf zu konzentrieren.
Der R700 soll zum Beispiel schon die erste richtige Multicore GPU sein und soweit ich weiß hat nVidia auch so etwas geplant.
Das mit den CPUs dauert auch nicht mehr lange. Der Nehalem ist bald da und nVidia wird die PhysX Engine sicherlich darauf hin spezialisieren, die neuen Operationen auch zu nutzen.
Das lohnt sich nämlich schon, denn die neuen Befehle sind jetzt es richtige Risc Operationen, die sehr sehr effizient sind und genau die Art von Berechnung durchführen können, die man zur Physik und Grafikberechnung benötigt.
Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.
Nichts anderes habe ich auch gemeint. Ich sprach davon, dass native MultiGPU on DIE mit der heutigen, parrallel arbeitenden, Architektur keinen Sinn machen. Ich habe nicht von MultiGPU on PCB gesprochen.
Soll oder sollte? Es hat sich herausgestellt, dass R700 die Bezeichnung von zwei RV770 on PCB ist. Du hattest damals vor erscheinen der HD4870X2 noch gedacht, der R700 sei eine native DualGPU.Das auch bei den GPUs die Zukunft in der Multicore Technologie steckt kannst du ja daran sehen, das ATi und nVidia behauptetn sich in Zukunft darauf zu konzentrieren.
Der R700 soll zum Beispiel schon die erste richtige Multicore GPU sein und soweit ich weiß hat nVidia auch so etwas geplant.
Das wird sich dann zeigen, wenn der Nehalem sämtlichen Tests durchgezogen wurde.Das mit den CPUs dauert auch nicht mehr lange. Der Nehalem ist bald da und nVidia wird die PhysX Engine sicherlich darauf hin spezialisieren, die neuen Operationen auch zu nutzen.
Das lohnt sich nämlich schon, denn die neuen Befehle sind jetzt es richtige Risc Operationen, die sehr sehr effizient sind und genau die Art von Berechnung durchführen können, die man zur Physik und Grafikberechnung benötigt.
"Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
(Laplace, frz. Astronom u. Mathematiker, 1749-1827)
Was sagt ihr, ist das gut oder teuer für die Karte: ZOTAC GeForce GTX 280, 1024MB DDR3-RAM 399,90 € und die GTX 260 für ca. 255 €![]()
Intel Core i7 950 @ 3,06 GHz||beQuiet StraightPower @ 650 W||3 * 2 GB 1333er Kingston DDR3-RAM||
ASUS P6T SE||NVidia GTX 750 @ 1024 MB||Creative SoundBlaster X-Fi Xtreme Audio
Viel zu teuer!
Wenns denn unbedingt ne Zotac sein muss, dann bekommste hier eine für ca. 350€ -> http://www.hpm-computer.de/product_i...80-1024MB.html
Ansonsten würde ich dir eine von Leadtek empfehlen für ca. 330€ und ist genauso schnell -> http://www.mindfactory.de/product_in...6?pid=geizhals
Eine GTX 260 von Zotac bekommste schon für ca. 230€ -> http://www.mindfactory.de/product_in...9?pid=geizhals
"Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
(Laplace, frz. Astronom u. Mathematiker, 1749-1827)