jo gab es schon seit dem release der GTX280
http://www.evga.com/products/moreInf...eries%20Family
http://www.alternate.de/html/product...PCIe&l3=NVIDIA
aber meiner meinung nach ist der preis zu übertrieben, aber performance ist daurch am besten
Druckbare Version
jo gab es schon seit dem release der GTX280
http://www.evga.com/products/moreInf...eries%20Family
http://www.alternate.de/html/product...PCIe&l3=NVIDIA
aber meiner meinung nach ist der preis zu übertrieben, aber performance ist daurch am besten
lol die tags sind lustig: Für Sparfüchse xDD
aber wirklich lieber 2x hd4870
Da kommt was ganz großes...BigBang II
http://www.hardware-infos.com/news.php?news=2262
lol das soll alos bedeuten, dass du die alten karten als kleine verstärkung nutzen kannst für die high end GPUs
naja ich denk einfach mal, dass jetzt dadurch auch nicht viel daraus kommt
nur mehr umsat auf die älteren karten, wenn die qulität halt entsprechend ist
Muss man einfach abwarten, was im Endeffekt dabei rauskommt.
naja wenn schon jetzt spekulationen kommen, heist das eigentlich nichts gutes, wenn das sogar was daran wahr ist, heist das, dass nvidia eindeutig probleme haben
ist ja auch ein bisschen schwierig in solcher marktsituation einen verteil daraus zu ziehen, auser die konkurrenz mit neuester technilogie wieder an den letzen platz zu degradieren^^
wenn es ja wahr ist, hab ich ja erwähnt^^
Wenn nicht, dann ist ja alles denk ich mal soweit ok, weils owas denke ich mir, lasst nvidia nicht bringen, die alten chips als physx karten verweden, naja, cih denk mal die GTX280 hat genug atm, dann kommen ja noch die GT300, die wahrscheinlich viel zu viel haben und dann wozu noch die alten karten?^^
um einfach die verkäufer zu verklickern, dass die alten grafikkarten auch doch noch was geben und dann so eine art menü von grafikkarten kaufen können
ich glaub, da nehme ich lieber 2 280 gtx anstatt meine alte 8800 GT mit einer GT200 karte zu kombinieren
wenn ich das richtig verstanden hab^^
Also sowas käme für mich nur in Frage, wenn nVidia es schafft die Physikkarte bei nichtbedarf praktisch komplett abzuschalten. Ich möchte keinen dauerhaften Stromfresser im Rechner haben, der nur geglegendlich mal zum Einsatz kommt.
Ansonsten ist's natürlich ne tolle Sache, wenn man alte Karten noch verwenden möchte.
naja, ich hatte ziemlich probs mit dem beta driver - wart jetzt ma bis der neue whql zertifizierte zum download bereit steht ..
Ich hoffe aber, dass zu dem Big Bang nicht nur der Treiber gehört. Es wäre schön, wenn die auch gleich den 200b vorstellen würden.
quatsch...
Ati braucht da etwas länger *g*
sobald ait die 4870x2 da hat wirds von nvidia den GT200b chip geben (höher getaktet oder so)...
dann is wieder aufgeräumt und nvidia steht am treppchen.
der GT200b soll schon im september kommen.
das perverse daran is ja...
eine 8800gts reicht alle mal *g*
Lol bei mir langen nichtmal 2x 280 gtxen
Mfg LKrieger
is mir zu teuer *g*
meine 8800gts hat mir gereicht.... aber der speicherbug hat mich verrückt gemacht.
also bin ich auf die 4870er umgestiegen.
Hab mir jetzt von nem bekannten noch ne zweite 4870er gekauft. Die hat er beim flashen gekillt. Mit etwas glück kann ich sie wieder funktionierend flashen. Dann hab ich ein 4870cf :)
allerdings brauch ich dann auch ein neues netzteil :(
wenn bei den Microrucklern der längste Frameabstand entscheidend ist für die "Flüssigkeit" des Spieleeindrucks, nützen einem doch die ganzen fps nix, die man durch SLI gewinnt. Ich rede allerdings nur in der Theorie, für einen realen Vergleich fehlt mir ne 2. Karte. Hätte ich sie allerdings, würde ich mir sicher die fehlende Flüssigkeit des Spieleeindrucks einbilden :) Ist quasi ein logisches Dilemma.
ähm bei der GT200 sind die mikroruckler nicht so stark wie bei der G80 oder G92, finde es ist besser geworden, nur bei hohen temps, wie z.b. ab 85 Grad fangen die ruckler dann an, zumindest ist jetzt beim treiber 177.79 ist das sogar weniger der fall bei hohen temps und dafür mehr fps bei crysis
Ja vollkommen gleichmäßis sind die Frametimes nicht. Kommt halt immer auf die FPS an. Sprich schaust du nur aufs Meer heraus - sind die Frametimes dann natürlich kleiner als wenn du mitten in einen Jungle guckst (is ja logisch). Aber diese Ruckler das die Frametimes rauf und runterspringen ist Geschichte.
Mfg LKrieger
noch vor einigen Tagen hast du doch die pfiffige These aufgestellt, man könne unter XP keine DX10-Effekte aktivieren^^^^^^^^ Pfiffig finde ich auch, wie du Grafiktweaks mit Microrucklern verwechselst. Und das in EINEM Satz, in dem auch noch von Dummheit anderer die Rede ist:
PRÄDIKAt MULTI-SELFOWNED :ugly:^^
sry wenn ich leider nicht so viel weis wie ein allwissender -.-
und ich habe nicht gesagt, dass man die DX10 effekte und Xp aktivieren kann, ich hab jediglich geschrieben, dass man die performance du das umschreiben der cvar groups verbessern kann, erstmal richtig durchlesen und nicht nru den hintergrund gleich einbeziehen lassen^^
- Crysis2142
GT200b cooming shortly!
http://www.fudzilla.com/index.php?op...=8773&Itemid=1
Zitat:
Nvidia is currently finalizing the clocks on the chip and it waits to see the final performance of R700. Nvidia's chip is likely to be slightly faster than ATI's dual chip offering but we suspect that the performance will be quite close.
Ob der GT200b viel schneller ist, als eine GTX280?
Wenn er nur etwas kühler wird, macht es wenig Sinn, denn eine GTX280 ist bei 57% FAN immernoch relativ unhörbar und bringt eine recht gute Kühlleistung.
Da steht ja auch, dass NV derzeit an den Taktraten rumfeilt. Wenn das denn stimmen sollte, arbeitet NV sehr hart daran, die Performancekrone beizubehalten.
EDIT: Hier auch nochmal dieselbe Meldung, nur ins deutsche übesetzt. http://www.gamestar.de/index.cfm?pid...fp=1#liststart
hey jungs,
mal ne banale frage (hoffe ich).....
ich hab ein mainboard (ASUS P5N32 SLI)...und somit unterstütz es nur 16x PCI-E....
wenn ich mir jetzt die GTX280 zulegen würde, mit pcie 2.0....was heißt das für mich...
ist da ne bremse drin?
oder kriege ich volle leistung ?
danke
Das wird dich nur geringfügig Leistung kosten max.5% (aber nur in seltenen Fällen, normalerweise immer so 2-3%).
Was man so alles im Web findet -> http://www.nvidia.com/content/forcewithin/us/index.html
Mhhh, das sind jetzt die berühmten neuen Treiber? Bringen die einem nur was bei der Geforce 8er Reihe und aufwärts oder auch, wenn man ne schwächere Karte hat?
Du musst ne Weile warten, nicht soo ungeduldig sein.
Klickst Du auf den Link vom post von Siberian Tiger, dann 'n bissl warten bis dieses Video zuende ist und dann auf Download Power Pack oder so.
Version 177.83
oder gehst auf http://www.laptopvideo2go.com/
Die Treiber sind aber noch nicht auf der Nvidia Homepage dann warte ich lieber ;)
Könnt ihr nachher Benches reinstellen, wenn ihr die Treiber drauf habt? Würde mich besonders bei dei den CUDA Karten interessieren. Wäre aber auch interessant, ob es ohne CUDA in PhysiX was bringt.
Jemand von euch schon PhysiX ausprobiert mit dem Treiber?
lol sicher sind die auf der Nvidia seite, oder is das vllt ne ATI seite ?! ROFL :D:D
http://www.nvidia.com/content/forcew...s/download.asp
Jepp
3D Mark Ventage 15286 Punkte, das is schon abnormal mit meinem System, laut ziech seiten müßte ich so 10000 haben, keine ahnung wieso ich soviel habe, selbst das Monstersystem da unten hat net mal 11000 :D
Hier hat die GTX 280 grad mal 10946 Punkte, testsystem is
Core 2 Extreme QX9770 (übertaktet per Multiplikator auf 4 GHz, Quad-Core)
XFX nForce 790i Ultra
2x 1024 MB G.Skill DDR3-1600
http://www.computerbase.de/artikel/h...3dmark_vantage
-Para
Hast schon die neuste Version von Vantage drauf? Bei der soll ja angeblich die GPU Physik rausgenommen worden sein.
Moin Para, Die Benches wolltest du ja auch mal von mir - hab gestern den Vantage getestet. 21793 Punkte - kann später wenn ich daheim bin auch nomal Bild im Benchthread uppen... Gebencht hab ich mit 2x 280 GTX und dem Q6600 auf 3,88 GhZ.
Mfg LKrieger
Das müsste es sein -> http://www.futuremark.com/download/3dmva_hotfix_101/
Die Punkte von 3DMark nützen wenig, ein Vergleich mit den vorigen Treibern wäre schön. Fühlt es sich denn wenigstens besser an?
Computerbase spricht von einem minimalen Plus, bringen die Treiber wirklich nicht mehr?
Es scheint wohl bald wirklich was ganz großes zu kommen, mal schauen was dann mit der HD 4870GX2 passiert, ich bin gespannt drauf dann heißt es Duel VS Duel karte, und nicht wie jetzt Single VS Duel :D;-)
Plant Nvidia eine GX2-Karte mit zwei GT200b ("GTX 280 GX2")
http://www.pcgameshardware.de/aid,65...b_GTX_280_GX2/
-Para
Also bevor mein Rechner schrott war, hatte ich den Treiber drauf und musste sagen an den Treiber wurde viel gearbeitet, nicht grad der hammer aber es hat gezeigt das man aus den Karten noch einiges bei Games wie Crysis rausholen kann, FPS kann ich net sagen, waren glaub ich bei Island so um dreh knappe 40-45 Frames bei Very High mit AA und 1680x1050
@Siberian Tiger
ich denke das bringt sehr wenig wenn die die Ergebnisse nicht resetten^^
Mal gucken wenn mein rechner läuft, wie viel Punkte ich dann hab
Ich glaube, die HD4870X2 wird nicht lange leben...die wird zermatscht! :D Naja, trotzdem nichts für mich.
Hoffe wir das beste für NVIDIA^^
Mal gucken wann die Stunde wieder für NVIDIA schlagen wird^^
Was ich aber komisch finde, wieso kommt das erst jetzt los, wieso nicht mittendrin
Einfach mal ATI den Krieg in der "X2"-Reihe erklären^^ da würden schon die Aktien wieder hochkommen und alle wären glücklich^^ sofern NVIDIA eine Aktiengesellschaft ist XD^^
GT200b erst im 4. Quartal mit GDDR5
http://www.fudzilla.com/index.php?op...=8987&Itemid=1
Tja Leute, wenn das stimmen sollte, dann wartet nicht mit den Kauf einer GTX 280, denn die wird kaum noch günstiger oder ihr wartet bis zum GT200b. Wäre mein Tipp an euch.
Naja es steht nirgendswo ne Quelle bei dem Artikel
Denk mal das es noch alles inoffiziell bleibt
Naja, auch wenn sie kommt, dann bin ich ectht mal gespannt was die dann draufhat
http://www.pcgameshardware.de/aid,65...r_Shader-ALUs/
...noch mal aufwärmen...
Die sollen lieber den GT300 bzw. GT200b rausbringen...
Solangsam finde ich es echt arm von Nvidia, kaum hat der Konkurrent eine schnellere Karte in einem Preissegment schon muss die Karte überarbeitet bzw. neu vermarktet werden.
Wieso lassen sie die GTX260 nicht einfach so wie sie ist und konzentriren sich auf den eigentlichen Refresh (GT200b):roll:
Hab grad bei Alternate gesehen, dass die ATI HD4870 (199 Euro)z. Z. billiger ist als die GTX260 (206 Euro bei HoH).
Ich denke mal AMD hat den Preiskampf gewonnen ^^
Ja, da die 4870 ja immer mindestens gleichschnell oder sehr oft sogar besser wie die GTX260 ist (dazu kommt noch das die 4870 billiger als die GTX260 ist) will Nvidia mit dem Refresh der 260GTX dann an der 4870 vorbei ziehen. Anders kann ich mir diesen Schwachsinn nicht erklären:roll:
Keine Frage beide Hersteller sind klasse, aber bei Nvidia blickt doch langsam niemand mehr durch von jeder Grafikkarte gibt es 3 Versionen (ohne das man diese am Namen kennzeichnet). Bestes Beispiel hierfür sind die neuen 8800GT die mit einem kleineren Speicherinterface als 256Bit verkauft werden, diese sind nämlich nicht ein Stück gekennzeichnet:neutral:
Ist eig auch nur gut für uns Kosnumenten da die Preise stetig fallen..
auch gut für mich dann kann ich mir gleich 2 von den karten kaufen das dürfte auf langer Sicht reichen:grin:
nvidia steckt jetzt warscheinlich ein haufen geld in die unbenennung und verbesserung der alten chips. die sollen sich lieber was neues einfallen lassen. wenn die schon was verbessern, sollen sie das mit der Leistung regeln, um energie zu sparen.
GTX 260 für 197€
http://shop.strato.de/epages/1548649...l&Locale=de_DE
-Para
nix 197, schau genauer hin 198.98 XD
197,99 € :D ;-)
http://www.yakoon.de/deeplink.jsp?PR...0&EXT=GEIZHALS
-Para
Ja diese Refresh kacke ist echt voll unnötig wer brauchte eine 9800GTX ?? Niemand war ja überflüssig Wer brauchte die 9800Gt ?? Niemand ist ja voll der Schrott. Wer braucht die 9800GTX + NIEMAND! Wer braucht die GTx 260 mit 216 Alus niemand die wird ja trotzdem nicht schneller.
Ich weiß gar nicht was ihr habt. Die Shaderanzahl zu erhöhen ist die einfachste Methode die Leistung der Karte zu verbessern.
Das kostet nVidia weder Zeit noch Geld und erlaubt es so die GTX 260 leistungsmäßig vor die 4870 zu setzen. Warum sollen sie das also nicht machen? Wir Kunden können davon doch nur profitieren. Verstehe nicht, wie man darüber meckern kann.
Die ATI hat nen GDDR 5, deswegen ist sie schneller.
Gruß
Gearbox Software setzt auf PhysX!
http://www.pcgameshardware.de/aid,65...tzt_auf_Physx/
Ich finde diese Entwicklung gut und besser als der Einsatz von Havok. Die Entwickler fangen so langsam an, zu begreifen, dass man mit Physik on GPU mehr machen kann als on CPU.
Havok verwendet in Zukunft ja auch die GPU. Angeblich soll der Ansatz von Havok intelligenter sein und die GPU & CPU verwenden, anstatt ausschließlich die GPU zu belasten.
Wenn man auch mal die Zukunft betrachtet und die neuen Befehlssatzerweiterungen (SSE5 und AVX) der CPUs sieht, dann sieht man auch, dass die CPU immer geeigneter zur Grafik und Physikberechnung wird.
CPU und GPU gleichen sich in Zukunft immer weiter an. Die GPUs können weit mehr als nur Grafik berechnen und die CPUs enthalten Befehlssätze, die ähnlich spezialisiert und effzient sind, wie die einer GPU.
Von daher macht es schon Sinn Physikberechnungen auch auf der CPU durchzuführen und genau das will Havok machen.
Leider wird das Ganze noch etwas dauern und bis dahin hat nVidia jetzt die Chance die PhysX Engine etwas durchzusetzen und in Zukunft vielleicht auch eine GPU/CPU Kombinationsnutzung zu implementieren. Sobald die neuen Nehalems draußen sind, wird das garantiert passieren und PhysX wird auch die Vorteile von AVX nutzen.
Steht eigentlich fest, dass die einen neuen Namen bekommt? Ich glaube nämlich, dass die weiterhin nur GTX 260 heißen wird.
Du hast es ja gerade gesagt. Bis dahin wird das noch ne Weile dauern und genau diese Zeit wird NV nutzen, um PhysX bei den Entwicklern beliebter zu machen. Ob zukünftige CPUs nur wegen irgendwelchen Befehlssätzen komplexe Grafikberechnungen wie in Crysis durchführen können, wage ich mal zu bezweifeln, zumal die Architektur einer CPU sich einer GPU nicht nur optisch unterscheidet und man aus einer GPU keinen MultiCore Core Chip wie bei den CPUs basteln kann. Eine GPU ist schon lange ein MultiCore Chip gewesen. Deswegen finde ich auch die Ideen von 2 GPUs on DIE ein bisschen überflüssig, weil es nix bringen würde, da man auch genauso gut, die zusätzlichen Transistoren mit in den DIE packen kann..
Über Havok FX ist fast nix bekannt und für den "angeblich" besseren Ansatz gibt es auch keine Beweise. Zumindest sind mir keine bekannt.
Natürlich machen Multicore GPUs Sinn. Besonders in zukunft wenn es mehr in Richtung Raytracing geht anstatt der bisher üblichen Rasterung. Guckst du hier
Beim Raytracing lässt sich die Leistung praktisch 1:1 mit der Anzahl der Kerne skalieren und mit Kerne meine ich jetzt komplette und GPU Kerne. Keine Shadereinheiten. Natürlich arbeitet eine GPU heute schon massiv parallel aber es ist nicht mit einer Multicore GPU zu vergleichen. Das ist schon was anderes.
Das auch bei den GPUs die Zukunft in der Multicore Technologie steckt kannst du ja daran sehen, das ATi und nVidia behauptetn sich in Zukunft darauf zu konzentrieren.
Der R700 soll zum Beispiel schon die erste richtige Multicore GPU sein und soweit ich weiß hat nVidia auch so etwas geplant.
Das mit den CPUs dauert auch nicht mehr lange. Der Nehalem ist bald da und nVidia wird die PhysX Engine sicherlich darauf hin spezialisieren, die neuen Operationen auch zu nutzen.
Das lohnt sich nämlich schon, denn die neuen Befehle sind jetzt es richtige Risc Operationen, die sehr sehr effizient sind und genau die Art von Berechnung durchführen können, die man zur Physik und Grafikberechnung benötigt.
Nichts anderes habe ich auch gemeint. Ich sprach davon, dass native MultiGPU on DIE mit der heutigen, parrallel arbeitenden, Architektur keinen Sinn machen. Ich habe nicht von MultiGPU on PCB gesprochen.
Soll oder sollte? Es hat sich herausgestellt, dass R700 die Bezeichnung von zwei RV770 on PCB ist. Du hattest damals vor erscheinen der HD4870X2 noch gedacht, der R700 sei eine native DualGPU.Zitat:
Das auch bei den GPUs die Zukunft in der Multicore Technologie steckt kannst du ja daran sehen, das ATi und nVidia behauptetn sich in Zukunft darauf zu konzentrieren.
Der R700 soll zum Beispiel schon die erste richtige Multicore GPU sein und soweit ich weiß hat nVidia auch so etwas geplant.
Das wird sich dann zeigen, wenn der Nehalem sämtlichen Tests durchgezogen wurde.Zitat:
Das mit den CPUs dauert auch nicht mehr lange. Der Nehalem ist bald da und nVidia wird die PhysX Engine sicherlich darauf hin spezialisieren, die neuen Operationen auch zu nutzen.
Das lohnt sich nämlich schon, denn die neuen Befehle sind jetzt es richtige Risc Operationen, die sehr sehr effizient sind und genau die Art von Berechnung durchführen können, die man zur Physik und Grafikberechnung benötigt.
Was sagt ihr, ist das gut oder teuer für die Karte: ZOTAC GeForce GTX 280, 1024MB DDR3-RAM 399,90 € und die GTX 260 für ca. 255 € :?:
Viel zu teuer!
Wenns denn unbedingt ne Zotac sein muss, dann bekommste hier eine für ca. 350€ -> http://www.hpm-computer.de/product_i...80-1024MB.html
Ansonsten würde ich dir eine von Leadtek empfehlen für ca. 330€ und ist genauso schnell -> http://www.mindfactory.de/product_in...6?pid=geizhals
Eine GTX 260 von Zotac bekommste schon für ca. 230€ -> http://www.mindfactory.de/product_in...9?pid=geizhals
Garnix is schneller, hatte bis heute ne HD 4870 X2 zum testen hier, der letze schrott die karte, guck dir mal mein Bench an, mit meiner GTX 280 schaffe ich das doppelte...
http://img212.imageshack.us/img212/8862/11111pn4.jpg
-Para