Guckst du hier.Zitat:
Zitat von Martin80
Druckbare Version
Guckst du hier.Zitat:
Zitat von Martin80
Zitat:
Zitat von noxon
Danke noxon, dann wiirds ja nun wirklich ernst.
Bin auf kommende Vergleiche gespannt.
Aber gab es nich schon lange einen Treiber der die R600ter unterstützte?! Also sie hätten da einiges anders machen können wenn sie schon nen halbes jahr später als Nvidia ihre karten auf denm markt schmeißen, wenn ich das richtig gelesen habe basteln die schon seid 2003 an der DX10 sprich R600ter serie. Da hätte wenigstens ein Finaler Treiber für die Karten bereit stehen können. Nvidia war da ja auch nich anders, aber die hatten sie wenigstens soweit optimiert das FPS technisch kaum etwas mehr raus kam. Ledeglich die Bugs mußten im nachhinein raus genommen werden oder sehe ich das falsch?!Zitat:
Zitat von noxon
Und meinst du das man mit nem anderen Treiber soviel mehrleistung erwarten kann?! Ich glaub eher weniger, jedenfalls hab ich das so noch nie gesehen, aber es soll ja immer was neues geben ^^
Ich denke das die HD 2900XTX mit 1024MB GDDR4 einiges reißen kann auch durch den 60nm fertigungsprozess. Aber bis dato hat Nvidia unter garantie auch so was in der richtung entwickelt und holt wieder einmal auf.
Was ich hoffe ist nur, das AMD jetzt wieder richtig fuß fassen kann um noch am Markt bestehen zu können, allein der Stromverbrauch der HD2900XT und der sagenhaft laute Lüfter sind ein absolutes "nich kauf" argument :(
Naja. Ich denke da rechnen die auch noch die Entwicklung des Xenos für die Xbox360 mit ein. Das ist ja praktisch die Vorstufe zum R600 gewesen.Zitat:
Zitat von dapalme
Einen Treiber kann man erst fertigstellen, wenn die Karte fertig ist. Wir wissen ja nicht, was ATi in letzter Zeit noch alles so an der Karte geändert hat. Der Releasetermin wurde ja nicht umsonst verschoben.Zitat:
Da hätte wenigstens ein Finaler Treiber für die Karten bereit stehen können.
nVidia hat ja für Vista zum Beispiel immer noch keine vernünftigen Treiber. Der besitzt noch nciht einmal einen richtigen SLI support und auch sonst funktioniert dort alles mehr schlecht als recht.Zitat:
Nvidia war da ja auch nich anders, aber die hatten sie wenigstens soweit optimiert das FPS technisch kaum etwas mehr raus kam. Ledeglich die Bugs mußten im nachhinein raus genommen werden oder sehe ich das falsch?!
Es kommt drauf an, was die dort noch für Optimierungen vornimmt. Wir sehen ja, dass durch den neuen Treiber, der einige Optimierungen enthielt, bei Oblivion die Framerate um 172% angestiegen ist. Der Unterschied zwischen 15 fps und 41 fps ist schon gewaltig. Dafür nehme ich auch eine etwas schlechtere Bildqualität in Kauf.Zitat:
Und meinst du das man mit nem anderen Treiber soviel mehrleistung erwarten kann?!
Meistens sehe ich de Qualitätsunterschiede sowieso nur im direkten Vergleich auf Screenshots.
Also wer bei den 8800tern ein SLI sys aufbaut ist selber schuld, die haben soviel power das man das schnomal nicht brauch bis jetzt zumindest nicht ;) Und alles andere funtzte bei mir jedenfalls einwandfrei, die Games die ich zocke laufen eigentlich auch alle! Und das meinesachtens auch sehr gut!!!Zitat:
Zitat von noxon
Also das kommt für mich garnicht in frage, da kann ich ja z.B. einfach ne auflösung von 1600x1200 nehmen ohne AA und AF und habe dann auch mehr FPS, wenn sollte alles gleichgestellt sein und ich zocke generel in 1280x1024 (mehr macht mein moni nich :() plus AA und AF auf höchster Stufe!!!Zitat:
Zitat von noxon
Mitdem vergleich auf Screens gebe ich dir recht, aber ich habe den unterschied zwischen meiner alten 7900GT und der 8800GTX gemerkt, die BildQuali is eindeutig besser! Dafür brauchte ich nich wirklich nene Screenshot. Ich liebe Grafik über alles, je schöner und realer desto besser, flimmern usw kann ich da net gebrauchen! ;)Zitat:
Zitat von noxon
Das schönste was ich bisher gesehen habe is:
http://crysis.4thdimension.info/modu...p=getit&lid=56
Also wenn ich das später mal auf meinem Rechner sehen sollte dann sag ich, so langsam bin ich zufrieden mit der Grafik ;)
Crytek macht das schon *gg
EDTI:
TOPIC FIX ^^
also laut Benchmarks von Noxon´s Post aus dem DX10 Thread (siehe den Link zu Tomshardware) ist die HD2900XT fürn ar***... sollen da noch bessere kommen? Die 8600GS hat ja besser abgeschnitten... wie seht ihr das?
erstmal hallo FOOFI mein schnuckel, ^^Zitat:
Zitat von foofi
also so wie ich das sehe ist die HD2900XT vorerst das Topmodel von AMD/ATI später soll ja dann die HD2900XTX folgen, aber jeder Benchbericht sieht anders aus. Aber meines achtens nich wirklich gut für AMD/ATI
Das ist alles keine Entschuldigung dafür, dass nVidia keine Treiber dafür bereit stellt. Die Leute haben teures Geld dafür bezahlt, dass sie ein SLI Verbund nutzen können und nun schaft es nVidia nicht dafür einen passenden Treiber zu schreiben und das obwohl die Karte und vista schon seit Ewigkeiten auf dem Markt sind.Zitat:
Zitat von dapalme
Ich sage ja nicht, dass man ohne AA und ohne AF zocken soll, aber ich finde zum Beispiel, das man bei allem über 4xAA kaum noch Unterschiede ausmachen kann. 16xAA oder sowas ist definitiv übertrieben. CSAA wäre noch vertretbar, aber alles darüber ist verschenkte Performance.Zitat:
Also das kommt für mich garnicht in frage, da kann ich ja z.B. einfach ne auflösung von 1600x1200 nehmen ohne AA und AF und habe dann auch mehr FPS, wenn sollte alles gleichgestellt sein und ich zocke generel in 1280x1024 (mehr macht mein moni nich :() plus AA und AF auf höchster Stufe!!!
Und beim AF kann man ruhig die optimierenden Algorithmen aktivieren, wie ich finde. Ob das AF nun winkelunabhängig ist oder nicht bemerkt man kaum. Erst recht nicht bei einem schnellen Ego-Shooter, bei dem man auf ganz andere Dinge achtet.
Ich habe lieber eine geringfügig und kaum spürbare Verschlechterung der Bildqualität und kann dafür höhere Details beim Spiel verwenden, als auf niedrigeren Details spielen zu müssen bei denen das Bild absolut perfekt aussieht.
//EDIT:
So ist es.Zitat:
aber jeder Benchbericht sieht anders aus. Aber meines achtens nich wirklich gut für AMD/ATI
Und wie ich ja schon erwähnt habe erreicht die 2900 XT mit dem 8.37.4.2 Treiber das Niveau einer 8800 Ultra in Oblivion bei 1280x1024 mit 4xAAA und 16xAF. Auch in allen anderen Spielen liegt sie immer zwischen GTS und GTX.
Treibermäßig kann sich daalso noch einiges tun.
NOXON
wie ich eben mit bekommen habe gibt es ja ab heut oder Morgen ne DX10 Demo (Lost Planet) hier kann man ja dann die Performance zwischen R600 und G80 real messen nich das du wieder sagst das sei nix ganzes, klar is das ganze für Nvidia optimiert aber wie heißt es so schön, wer zuerst kommt malt zuerst ^^
Ich ware gerade 1 Woche im Urlaub. Sollte nicht am 15-16.05.2007 der r600 seinen Release haben?
Ich habe aber nichts davon gelesen. Ist der Chip jetzt raus und Karten zu kaufen?
Oh man, man ist eine Woche nicht da und fühlt sich wie von nem anderen Stern...