Seite 110 von 155 ErsteErste ... 1060100108109110111112120 ... LetzteLetzte
Ergebnis 1.091 bis 1.100 von 1550

Thema: nVidia GT200 Infos/Spekulationen

  1. #1091
    Erfahrener User Avatar von CryHead
    Registriert seit
    26.08.2008
    Ort
    Baden-Württemberg
    Beiträge
    374

    Standard

    Die ATI hat nen GDDR 5, deswegen ist sie schneller.


    Gruß
    Core i7 950 // 16 GB Ram // GTX 980 G1// Win7 64-Bit



  2. #1092
    Professional Avatar von HunT
    Registriert seit
    19.12.2007
    Beiträge
    2.857

    Standard

    Gearbox Software setzt auf PhysX!

    http://www.pcgameshardware.de/aid,65...tzt_auf_Physx/

    Ich finde diese Entwicklung gut und besser als der Einsatz von Havok. Die Entwickler fangen so langsam an, zu begreifen, dass man mit Physik on GPU mehr machen kann als on CPU.
    "Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
    (Laplace, frz. Astronom u. Mathematiker, 1749-1827)

  3. #1093
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Zitat Zitat von Siberian Tiger Beitrag anzeigen
    Ich finde diese Entwicklung gut und besser als der Einsatz von Havok. Die Entwickler fangen so langsam an, zu begreifen, dass man mit Physik on GPU mehr machen kann als on CPU.
    Havok verwendet in Zukunft ja auch die GPU. Angeblich soll der Ansatz von Havok intelligenter sein und die GPU & CPU verwenden, anstatt ausschließlich die GPU zu belasten.

    Wenn man auch mal die Zukunft betrachtet und die neuen Befehlssatzerweiterungen (SSE5 und AVX) der CPUs sieht, dann sieht man auch, dass die CPU immer geeigneter zur Grafik und Physikberechnung wird.
    CPU und GPU gleichen sich in Zukunft immer weiter an. Die GPUs können weit mehr als nur Grafik berechnen und die CPUs enthalten Befehlssätze, die ähnlich spezialisiert und effzient sind, wie die einer GPU.
    Von daher macht es schon Sinn Physikberechnungen auch auf der CPU durchzuführen und genau das will Havok machen.

    Leider wird das Ganze noch etwas dauern und bis dahin hat nVidia jetzt die Chance die PhysX Engine etwas durchzusetzen und in Zukunft vielleicht auch eine GPU/CPU Kombinationsnutzung zu implementieren. Sobald die neuen Nehalems draußen sind, wird das garantiert passieren und PhysX wird auch die Vorteile von AVX nutzen.

    Zitat Zitat von Baggibox Beitrag anzeigen
    Die Meisten Kunden sind aber 0815 Käufer. Hauptsache neuer name, neuer Release und schon ist das Ding gekauft !
    Steht eigentlich fest, dass die einen neuen Namen bekommt? Ich glaube nämlich, dass die weiterhin nur GTX 260 heißen wird.

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

  4. #1094
    Professional Avatar von HunT
    Registriert seit
    19.12.2007
    Beiträge
    2.857

    Standard

    Zitat Zitat von noxon Beitrag anzeigen
    Havok verwendet in Zukunft ja auch die GPU. Angeblich soll der Ansatz von Havok intelligenter sein und die GPU & CPU verwenden, anstatt ausschließlich die GPU zu belasten.

    Wenn man auch mal die Zukunft betrachtet und die neuen Befehlssatzerweiterungen (SSE5 und AVX) der CPUs sieht, dann sieht man auch, dass die CPU immer geeigneter zur Grafik und Physikberechnung wird.
    CPU und GPU gleichen sich in Zukunft immer weiter an. Die GPUs können weit mehr als nur Grafik berechnen und die CPUs enthalten Befehlssätze, die ähnlich spezialisiert und effzient sind, wie die einer GPU.
    Von daher macht es schon Sinn Physikberechnungen auch auf der CPU durchzuführen und genau das will Havok machen.

    Leider wird das Ganze noch etwas dauern und bis dahin hat nVidia jetzt die Chance die PhysX Engine etwas durchzusetzen und in Zukunft vielleicht auch eine GPU/CPU Kombinationsnutzung zu implementieren. Sobald die neuen Nehalems draußen sind, wird das garantiert passieren und PhysX wird auch die Vorteile von AVX nutzen
    Du hast es ja gerade gesagt. Bis dahin wird das noch ne Weile dauern und genau diese Zeit wird NV nutzen, um PhysX bei den Entwicklern beliebter zu machen. Ob zukünftige CPUs nur wegen irgendwelchen Befehlssätzen komplexe Grafikberechnungen wie in Crysis durchführen können, wage ich mal zu bezweifeln, zumal die Architektur einer CPU sich einer GPU nicht nur optisch unterscheidet und man aus einer GPU keinen MultiCore Core Chip wie bei den CPUs basteln kann. Eine GPU ist schon lange ein MultiCore Chip gewesen. Deswegen finde ich auch die Ideen von 2 GPUs on DIE ein bisschen überflüssig, weil es nix bringen würde, da man auch genauso gut, die zusätzlichen Transistoren mit in den DIE packen kann..

    Über Havok FX ist fast nix bekannt und für den "angeblich" besseren Ansatz gibt es auch keine Beweise. Zumindest sind mir keine bekannt.
    "Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
    (Laplace, frz. Astronom u. Mathematiker, 1749-1827)

  5. #1095
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Natürlich machen Multicore GPUs Sinn. Besonders in zukunft wenn es mehr in Richtung Raytracing geht anstatt der bisher üblichen Rasterung. Guckst du hier
    Beim Raytracing lässt sich die Leistung praktisch 1:1 mit der Anzahl der Kerne skalieren und mit Kerne meine ich jetzt komplette und GPU Kerne. Keine Shadereinheiten. Natürlich arbeitet eine GPU heute schon massiv parallel aber es ist nicht mit einer Multicore GPU zu vergleichen. Das ist schon was anderes.
    Das auch bei den GPUs die Zukunft in der Multicore Technologie steckt kannst du ja daran sehen, das ATi und nVidia behauptetn sich in Zukunft darauf zu konzentrieren.
    Der R700 soll zum Beispiel schon die erste richtige Multicore GPU sein und soweit ich weiß hat nVidia auch so etwas geplant.


    Das mit den CPUs dauert auch nicht mehr lange. Der Nehalem ist bald da und nVidia wird die PhysX Engine sicherlich darauf hin spezialisieren, die neuen Operationen auch zu nutzen.
    Das lohnt sich nämlich schon, denn die neuen Befehle sind jetzt es richtige Risc Operationen, die sehr sehr effizient sind und genau die Art von Berechnung durchführen können, die man zur Physik und Grafikberechnung benötigt.

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

  6. #1096
    Professional Avatar von HunT
    Registriert seit
    19.12.2007
    Beiträge
    2.857

    Standard

    Zitat Zitat von noxon Beitrag anzeigen
    Natürlich machen Multicore GPUs Sinn. Besonders in zukunft wenn es mehr in Richtung Raytracing geht anstatt der bisher üblichen Rasterung. Guckst du hier
    Beim Raytracing lässt sich die Leistung praktisch 1:1 mit der Anzahl der Kerne skalieren und mit Kerne meine ich jetzt komplette und GPU Kerne. Keine Shadereinheiten. Natürlich arbeitet eine GPU heute schon massiv parallel aber es ist nicht mit einer Multicore GPU zu vergleichen. Das ist schon was anderes.
    Nichts anderes habe ich auch gemeint. Ich sprach davon, dass native MultiGPU on DIE mit der heutigen, parrallel arbeitenden, Architektur keinen Sinn machen. Ich habe nicht von MultiGPU on PCB gesprochen.

    Das auch bei den GPUs die Zukunft in der Multicore Technologie steckt kannst du ja daran sehen, das ATi und nVidia behauptetn sich in Zukunft darauf zu konzentrieren.
    Der R700 soll zum Beispiel schon die erste richtige Multicore GPU sein und soweit ich weiß hat nVidia auch so etwas geplant.
    Soll oder sollte? Es hat sich herausgestellt, dass R700 die Bezeichnung von zwei RV770 on PCB ist. Du hattest damals vor erscheinen der HD4870X2 noch gedacht, der R700 sei eine native DualGPU.

    Das mit den CPUs dauert auch nicht mehr lange. Der Nehalem ist bald da und nVidia wird die PhysX Engine sicherlich darauf hin spezialisieren, die neuen Operationen auch zu nutzen.
    Das lohnt sich nämlich schon, denn die neuen Befehle sind jetzt es richtige Risc Operationen, die sehr sehr effizient sind und genau die Art von Berechnung durchführen können, die man zur Physik und Grafikberechnung benötigt.
    Das wird sich dann zeigen, wenn der Nehalem sämtlichen Tests durchgezogen wurde.
    "Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
    (Laplace, frz. Astronom u. Mathematiker, 1749-1827)

  7. #1097
    Professional Avatar von eFFeCTiVe
    Registriert seit
    20.07.2007
    Beiträge
    3.666

    Standard

    Was sagt ihr, ist das gut oder teuer für die Karte: ZOTAC GeForce GTX 280, 1024MB DDR3-RAM 399,90 € und die GTX 260 für ca. 255 €
    Intel Core i7 950 @ 3,06 GHz||beQuiet StraightPower @ 650 W||3 * 2 GB 1333er Kingston DDR3-RAM||
    ASUS P6T SE||NVidia GTX 750 @ 1024 MB||Creative SoundBlaster X-Fi Xtreme Audio

  8. #1098
    Professional Avatar von HunT
    Registriert seit
    19.12.2007
    Beiträge
    2.857

    Standard

    Zitat Zitat von eFFeCTiVe Beitrag anzeigen
    Was sagt ihr, ist das gut oder teuer für die Karte: ZOTAC GeForce GTX 280, 1024MB DDR3-RAM 399,90 € und die GTX 260 für ca. 255 €
    Viel zu teuer!

    Wenns denn unbedingt ne Zotac sein muss, dann bekommste hier eine für ca. 350€ -> http://www.hpm-computer.de/product_i...80-1024MB.html

    Ansonsten würde ich dir eine von Leadtek empfehlen für ca. 330€ und ist genauso schnell -> http://www.mindfactory.de/product_in...6?pid=geizhals

    Eine GTX 260 von Zotac bekommste schon für ca. 230€ -> http://www.mindfactory.de/product_in...9?pid=geizhals
    "Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
    (Laplace, frz. Astronom u. Mathematiker, 1749-1827)

  9. #1099
    Co-Administrator Avatar von ZaCXeeD
    Registriert seit
    17.11.2007
    Ort
    München
    Beiträge
    12.149

    Standard

    Zitat Zitat von eFFeCTiVe Beitrag anzeigen
    Was sagt ihr, ist das gut oder teuer für die Karte: ZOTAC GeForce GTX 280, 1024MB DDR3-RAM 399,90 € und die GTX 260 für ca. 255 €
    ist noch zu teuer, jetzt wo die ATI karten drausen sind

    noch würd ich abwarten, wenn du eine kaufen willst, dann wart ab

    - Crysis2142

  10. #1100
    Gesperrt
    Registriert seit
    26.02.2007
    Ort
    Hamburg
    Beiträge
    2.665

    Standard

    Zitat Zitat von CryHead Beitrag anzeigen
    Die ATI hat nen GDDR 5, deswegen ist sie schneller.


    Gruß

    Garnix is schneller, hatte bis heute ne HD 4870 X2 zum testen hier, der letze schrott die karte, guck dir mal mein Bench an, mit meiner GTX 280 schaffe ich das doppelte...






    -Para

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •