Da :D
Crysis:
http://www.computerbase.de/artikel/h...schnitt_crysis
Warhead:
http://www.computerbase.de/artikel/s...itt_benchmarks
Druckbare Version
http://www.guru3d.com/article/geforc...review-test/13
Sorry is leider nur die SLI sklaierung aber trägt auch zum thema bei!
PS: computerbase is getürkt komm lieber mit foren beiterägen computerbase vertrau ich keinen prozent!
PS: außerdem ist 19" eh keine auflösung das ist nen halber moni :P
EDIT: foofi was los die wiederholst dich hahahaha^^
COmputerbase unterscheiden sich innerhalb der tests und von anderen spielern erheblich was denkst du wieso die nicht ihre benchmark szenen rausgeben wollen? ;-)
Und fakt is in deinem thread ovn FdeL sind nur screens von benches von webseiten
gibt genug forenmember die ne X2 un d dann ne GTX280 hatten und alle bessere ergebnisse hatten (22" und höher)
Also erzählt ma hier nicht rumHD4870 schön und gut wer sich ne X2 aber holt hat selber pech
@omega
Danke für die Links;)
Da ist die 4870 X2 meistens auch schneller als eine GTX280:)
Klar das 2 GTX280 im SLI die X2 wegputzen, aber gegen eine 280 kann sich die X2 doch noch sehr gut durchsetzen:)
Mfg
Wäre auch sonst arm. Allerdings finde ich es unfair eine Grafikkarte die ZWEI GPUs hat (ATI 4870X2) gegen eine Grafikkarte mit nur einer GPU (NVIDIA GTX280) zu vergleichen. Wie du schon schriebst... gegen zwei GTX280 hat die X2 keine Chance... und nur das wäre ein fairer Vergleich :cool:.
Also Leute hört bitte auf zu behaupten dass SLI nix an MEHR Leistung bringen würde.
Ich hab im 3D Mark 06 bei 1920x1200 (26") und max. AA und blabla... mit einer 8800Ultra um die 30 FPS und im SLI Betrieb ca. 55 FPS...ist also um die 90% mehr Leistung. Crysis fällt nicht ganz so krass aus, im Durchschnitt 15FPS mehr im SLI Betrieb. 3D Mark Vantage genau wie 3D Mark 06.
Fakt: SLI mit aktuellen Treibern = 70-90% mehr Leistung. Wohlbemerkt bei hohen Auflösungen und hohen Grafikdarstellungen. SLI bei minimum Details ist Schwachsinn und wird von Windows nicht genutzt, die zweite Graka bleibt zwar aktiv, leistet aber nicht viel, weil die erste Graka ja nicht überfordert ist.
aberglaube ist auch ein glaube :)
So wie ich die zeugen jehovas das machen lasse das sie eben wollen lass ich auch dich in deinen glauben.. Aber respektiere bitte das es auch was anderes gibt :)
So, und jetzt bleibt mal wieder locker alle... Knallt eure freundin/frau oder wedelt euch einen von der palme damit wieder ruhe herscht...
Ok, mal ehrlich^^
Wieso glauebn soviele das die 9800gx2 sooo gut is? Das ist sie nähmlich nicht. Es ist dasselbe wie 8800gx2. Nur bissi besser halt. Aber an die 4870x2 kommt sie niemals ran und ich denke das wissen die meisten.
@JamDeluxe: Zuerstmal gibts garkeine 8800 GX2 :D. Ein paar Posts vorher hast du geschrieben das eine 280 GTX langsamer sein soll als eine X2. Auch das stimmt nicht. Bei Benchmarks kann man dem Glauben schenken. Wenn es sich jedoch um die Praxis (in Spielen) handelt dann ist die 280 sehr wohl schneller für Ihren Zweck... Zudem musst du dir vor Augen halten, das die X2 aus 2 Karten besteht und sie somit auch vieeel heißer wird und auch zig mal schneller kaputt geht (selbst erlebt...) Die 280 jedoch läuft als Singlekarte und toppt das Doppelpack dann trotzdem noch...
Mfg LKrieger
8800gx2 ;) süss!
du meinst wohl ne 7800gx2? die is aber schon etwas älter :)
Da hier immer noch einige die GeForce GTX 280 mit der ATI HD 4870X2 vergleiche finde ich einfach nur lächerlich und idiotisch da die eine eine Singlekarte ist die andere eine Dualkarte was einfach unrealistisch ist zum vergleichen.
Wenn schon Singlekarte = Singlekarte und Dualkarte = Dualkarte vergleichen
Sorry ist aber so ;)
auch wenn´s etwas am Thema vorbeigeht; mich würde interessieren, wie es mit den Microrucklern bei v-synch aussieht, also bei konstanten 60 HZ, sofern das die min fps eines Spiels hergeben. Strenggenommen müsste man 2 Rechner nebeneinander aufstellen und das ganze subjektiv vergleichen. Ich traue den Multigpu-Lösungen da nicht so. "Usererfahrungen" sind mir da leider suspekt, da kein Echtzeitvergleich multipliziert mit Wunschdenken (is ja nich billich).
Das mit der 8800gx2 war nur nen Beispiel weil die 9000er Reihe dasselbe wie die 8000er Reihe ist. Ich weis das es keine 8800gx2 gibt^^. Aber ihr habt natürlich recht die X2 Wird heißer. Und soweit ich weis ist sie nur auf niedrigeren Auflösungen Leistungsfähiger wie die GTX280. Da wäre es eher sinnvoller sich 2 HD4870 zu holen. Die bringen die selbe Leistung bei weniger Temperatur.
ne X2 is ein brett und nicht 2, aber halt mit 2 chips, kriegerle ;-)
GX2 sind 2 bretter, mit jeweils 1 chip...
Aber der vergleich HD4870X2 gegen GTX280 ist DESHALB WICHTIG weil es hier geht:
AMDs stärkste karte gegen Nvidias stärkste
so und nun das fazit!
Wer so dumm is, und sich die X2 holt weil sie in geringen auflösungen wie unter 22" schneller ist als die GTX280 ist unklug! (Wärmer, mehr verbrauch...) Und zudem sind da sogut wie alle games eh alle über 60 fps hinaus und da is das SCHEIßEGAL ob da nu 60 oder 65 fps ne karte hat!
In 1920x1200 hat die X2 gegen die GTX280 keiine chance, in getürkten benchmarks wie zb. computerbase.de oder pcgh.de vll schon, aber in der praxis NIEMALS :roll:
Also Leistungskrone pro watt/ pro FPS/ wärme geht EINDEUTIG an die GTX280 danach für das mid segment an die HD4870 :) (NICHT X2!)
...
Und jetzt bedenke man noh den GT200b (GT206) -> GTX270/GTX290 bzw GTX2x0GX2
Werden im dez. sicherk ommen, dann kann man eindeutig sehen X2 gegen GX2 das die HD4000er reihe immer ncoh nicht die leistungskrone erlangt hat! ;-)
Ich schätze die GX2 ist locker 60-80% schneller als die X2 von AMD ;)
Puh ihr bringt mich am frühen morgen ins schwitzen :-(
EDIT: Iwie schaff ich es nicht, weniger smileys zu nutzen^^
ich denke die diskussion kann man jetzt endlich beenden...
Du verdrehst hier irgendwas, es ist nämlich genau andersrum die 4807X2 ist in hohen bis sehr hohen Auflösung besser als die GTX280 und die GTX280 ist in niedrigen bis mittleren Auflösungen besser als die X2. Das liegt daran das ein Crossfire sowie auch SLI System viel besser unter hohen Auflösungen skaliert als eine eine einzelne Grafikkarte.
Und es macht sehr wohl was aus wenn man mehr als 60FPS hat, denn jeder Frame zählt egal ob das Bild schon bei 60FPS schon Flüssig ist, das Spielgefühl wird einfach durch jedes einzelne Frame mehr besser (zumindest bei Shootern);)
Wieso verbreiten alle hier so eine sch**** wenn sie überhaupt keine Beweise dafür haben. Wenn du mir irgendein Beweise vorlegen kannst das deinen Behauptung stimmt dann werde ich meine Meinung zu Computerbase und co. ändern aber solange du einfach nur Behauptungen ohne Beweis in den Raum stellst kauft dir das wohl keiner ab:-|
ich hab es nicht nötig dir jetzt aufzulisten welches benchies auf einmal andere werte haben als in anderen EIGENEN Computerbase tabellen, glaub mir halt nciht is mir ****** egal
Genauso wie die tatsache, das die GTX280 in hohen auflösungen einfach mal besser ist als die X2, 100% zustimmt!
Denk was du denkst! Soll mir egal sein...
Ja WOW in shootern is mir das auch klar aber da zock ich auch breitbild und kein 5:4 rotz :???:und schwubbs liegt die GTX280 wieder vorn ;)
Und wer jetzt meinte ich wäre nvidia fanbo kriegt eine vorn latz :twisted:
Ich kann Shaddy da nur zustimmen. Bei meinem 3 Wöchigem praktikum habe ich das mit 2 Rechnern getestet. Und 3 von den X2 Karten kamen wieder zurück weil die wegen Hitze verreckt sind. Außerdem hat die 280 SEHR WOHL die Nase bei höheren Auflösungen vorne. Das ist ja auch der Zweck bei der Karte sonst kauft man sich eine 260 - die ist für kleinere Auflösungen passend.
Die X2 ist in kleineren Auflösungen besser, daher als High End Karte fehl am Platz. Außerdem kommt die Karte locker mal auf 100 Grad - was den Bauteilen nicht zu gute kommt und dem Lötzinn erstrechtnicht...
Egal - BTT...
Is mir schon klar. Ich meine das die X2 aus zwei Karten (daher auch 2 chips) sogesehen besteht und die 280 (ein chip) aus einer .Zitat:
ne X2 is ein brett und nicht 2, aber halt mit 2 chips, kriegerle :wink:
GX2 sind 2 bretter, mit jeweils 1 chip...
Mfg LKrieger
Nem mod werdet ihr wohl hoffentlich ENDLICH glauben :x
Als wenn ein Mod alles weiß:roll:
Nun gut, es soll ja nicht in Streit ausarten, also würde ich mal Vorschlagen das wir das Thema X2 vs. GTX280 einfach abschließen und jedem seine Meinung lassen:)
EDIT by LKrieger: Jo - will hier niemand von seiner Meinung abbringen. Wills jedoch so erzählen wie ich die Erfahrung gemacht habe - Streit will ich schon garnicht ;)
Also lieber BTT...
@sli user, hab ne 88er gtx xxx .. jetzt ergibt sich ev. die möglichkeit, ne 88er gtx von asus mit standard ref. takt fast gratis zu bekommen. die neueren driver sollen flexibler sein .. die höher getaktete karte wird dann somit im sli betrieb auf den standard takt gesetzt. hat jemand schon erfahrungen damit gemacht??
kleininfo: zum test- und später vlt. prod. einsatz soll des ganze auf nem 24" tft kommen
Gibt es ne möglichkeit 3x HD4870X2 zu benutzen ? Triple Crossfire ?!
Nein, denn das wäre eigendlich 6fach Crossfire.
ATI hat schon mal mit octa crossfire also mit 8 grakas gespielt, meint aber dass das keinen leistungsvorteil bringt.
Wir werden sehn!
hab nochma kurz ne frage an die sli user. müsste meine zweite 8800gtx dann über 2 stromadapter anschliessen .. sollte kein prob sein oder?? (also zwei von diesen hier -> http://www.hardwerker.de/ebay/kabel/pcienvidia.jpg für die zweite 8800gtx)
Netzteil leistung ist kein prob, lediglich dass nur zwei pci-e kabel vorhanden sind :neutral:
Edit: hab eben nicht unbedingt lust, die graka zu beschädigen ;)
es wären allerdings 2 adapter - wohl verstanden :)
soll ich in diesem fall je eine 88er gtx mit dem netzteil pci-e stecker bestücken oder die erste graka so belassen (mit beiden pci-e stecker vom netzteil) und die zweite graka mit beiden pci-e adaptern betreiben??
habe schon gehört eben, dass leute die graka geschrottet haben mit diesen adaptern, darum frage ich sicherheitshalber lieber nochmals nach hier bei euch sli usern.
zudem steht es eben im handbuch, dass man die graka nicht mit nem adapter betreiben soll ^^
@warp: hast beide 12V 3-pin molex stecker verbunden mit dem netzteil über 2 verschiedene netzteil leitungen?
Würde mich mal interessieren. Denn ich habe zuhause noch 2 8600 er rumliegen, da mein Board jetzt ja SLI kann, wollte ich das mal Testen. Ok, die brauchen keinen Stromanschluss, daher müsste das ja mit eineim 620W Netzteil gehen, oder?
Wollte einfach mal sehen, was 2 8600er leisten können ^^
Ja. Im Prinzip ist es egal, aber es ist durchaus möglich, dass ein Adapter durch einen Wackelkontakt ausfällt und da wäre es von Vorteil, wenn ein Anschluss immer direkt mit dem NT verbunden ist, denn wenn zufällig beide ausfallen (Stoß gegen PC), dann könnte die Karte eventuell einen Schaden bekommen.
Ich hab meine damalige GTX280 über einen 8zu6pin-Adapter betrieben und der 6pin-Adapter war an einem 6zu4pin drann. Hatte keine Probleme.
@chenjung
Dein Netzteil könnte gerade so reichen:wink: Es ist eh fraglich, ob man Midrange-Karten überhaupt im SLI betreiben sollte. Dann lieber doch eine 4850>=x