Seite 12 von 14 ErsteErste ... 21011121314 LetzteLetzte
Ergebnis 111 bis 120 von 132

Thema: GeForce 8800 Ultra SLI oder ATI 4870X2?

  1. #111
    Professional Avatar von JamDeluxe
    Registriert seit
    25.09.2008
    Ort
    Frankfurt/Main
    Beiträge
    3.239

    Standard

    Ok, mal ehrlich^^
    Wieso glauebn soviele das die 9800gx2 sooo gut is? Das ist sie nähmlich nicht. Es ist dasselbe wie 8800gx2. Nur bissi besser halt. Aber an die 4870x2 kommt sie niemals ran und ich denke das wissen die meisten.

  2. #112
    Moderator Avatar von LKrieger
    Registriert seit
    17.02.2007
    Ort
    Maro
    Beiträge
    4.140

    Standard

    @JamDeluxe: Zuerstmal gibts garkeine 8800 GX2 . Ein paar Posts vorher hast du geschrieben das eine 280 GTX langsamer sein soll als eine X2. Auch das stimmt nicht. Bei Benchmarks kann man dem Glauben schenken. Wenn es sich jedoch um die Praxis (in Spielen) handelt dann ist die 280 sehr wohl schneller für Ihren Zweck... Zudem musst du dir vor Augen halten, das die X2 aus 2 Karten besteht und sie somit auch vieeel heißer wird und auch zig mal schneller kaputt geht (selbst erlebt...) Die 280 jedoch läuft als Singlekarte und toppt das Doppelpack dann trotzdem noch...

    Mfg LKrieger

  3. #113
    Semi Pro
    Registriert seit
    03.04.2008
    Ort
    Linz
    Beiträge
    1.137

    Standard

    8800gx2 süss!

    du meinst wohl ne 7800gx2? die is aber schon etwas älter

    Q6600 @ 3,85ghz (1,4 vcore) | Asus P5Q-Pro | 8gb ram | HD4870x2 @ GPU875/Vram980mhz | Watercooled

  4. #114
    Erfahrener User Avatar von Ice Man
    Registriert seit
    03.11.2007
    Beiträge
    419

    Standard

    Da hier immer noch einige die GeForce GTX 280 mit der ATI HD 4870X2 vergleiche finde ich einfach nur lächerlich und idiotisch da die eine eine Singlekarte ist die andere eine Dualkarte was einfach unrealistisch ist zum vergleichen.

    Wenn schon Singlekarte = Singlekarte und Dualkarte = Dualkarte vergleichen

    Sorry ist aber so
    Intel Core i7-2600 | ASUS P8P67 Pro | EVGA GeForce GTX 560 Ti | 8 GB Corsair XM3 Dual Kit
    Creative X-Fi Xtreme Gamer |
    Enermax MODU87+ 600W | Corsair Obsidian 700D

  5. #115
    Semi Pro
    Registriert seit
    31.10.2006
    Beiträge
    999

    Standard

    auch wenn´s etwas am Thema vorbeigeht; mich würde interessieren, wie es mit den Microrucklern bei v-synch aussieht, also bei konstanten 60 HZ, sofern das die min fps eines Spiels hergeben. Strenggenommen müsste man 2 Rechner nebeneinander aufstellen und das ganze subjektiv vergleichen. Ich traue den Multigpu-Lösungen da nicht so. "Usererfahrungen" sind mir da leider suspekt, da kein Echtzeitvergleich multipliziert mit Wunschdenken (is ja nich billich).
    Sys: Asus GTX 280 @756/1512/2700 wakü by ZERN-CPU-Block @ 1,16V, Q6600 @ 3,95 Ghz (wakü by ZERN CPU-Block) @ 1,57V, Asus P5K-E Wifi AP (PCI 1.0), Corsair Billich-Ram @ 1165 MHZ 5:5:5:15, Radiator: Toyota Diesel, Pumpe: 1250 Eheim 220V Aquarien-Edition, Enermax 720 Infiniti (ja, mit "i")

  6. #116
    Professional Avatar von JamDeluxe
    Registriert seit
    25.09.2008
    Ort
    Frankfurt/Main
    Beiträge
    3.239

    Standard

    Das mit der 8800gx2 war nur nen Beispiel weil die 9000er Reihe dasselbe wie die 8000er Reihe ist. Ich weis das es keine 8800gx2 gibt^^. Aber ihr habt natürlich recht die X2 Wird heißer. Und soweit ich weis ist sie nur auf niedrigeren Auflösungen Leistungsfähiger wie die GTX280. Da wäre es eher sinnvoller sich 2 HD4870 zu holen. Die bringen die selbe Leistung bei weniger Temperatur.
    Geändert von JamDeluxe (01.11.2008 um 08:15 Uhr)

  7. #117
    Shaddy
    Gast

    Standard

    Zitat Zitat von LKrieger Beitrag anzeigen
    @JamDeluxe: Zuerstmal gibts garkeine 8800 GX2 . Ein paar Posts vorher hast du geschrieben das eine 280 GTX langsamer sein soll als eine X2. Auch das stimmt nicht. Bei Benchmarks kann man dem Glauben schenken. Wenn es sich jedoch um die Praxis (in Spielen) handelt dann ist die 280 sehr wohl schneller für Ihren Zweck... Zudem musst du dir vor Augen halten, das die X2 aus 2 Karten besteht und sie somit auch vieeel heißer wird und auch zig mal schneller kaputt geht (selbst erlebt...) Die 280 jedoch läuft als Singlekarte und toppt das Doppelpack dann trotzdem noch...

    Mfg LKrieger

    ne X2 is ein brett und nicht 2, aber halt mit 2 chips, kriegerle
    GX2 sind 2 bretter, mit jeweils 1 chip...

    Aber der vergleich HD4870X2 gegen GTX280 ist DESHALB WICHTIG weil es hier geht:
    AMDs stärkste karte gegen Nvidias stärkste
    so und nun das fazit!


    Wer so dumm is, und sich die X2 holt weil sie in geringen auflösungen wie unter 22" schneller ist als die GTX280 ist unklug! (Wärmer, mehr verbrauch...) Und zudem sind da sogut wie alle games eh alle über 60 fps hinaus und da is das SCHEIßEGAL ob da nu 60 oder 65 fps ne karte hat!

    In 1920x1200 hat die X2 gegen die GTX280 keiine chance, in getürkten benchmarks wie zb. computerbase.de oder pcgh.de vll schon, aber in der praxis NIEMALS

    Also Leistungskrone pro watt/ pro FPS/ wärme geht EINDEUTIG an die GTX280 danach für das mid segment an die HD4870 (NICHT X2!)

    ...

    Und jetzt bedenke man noh den GT200b (GT206) -> GTX270/GTX290 bzw GTX2x0GX2
    Werden im dez. sicherk ommen, dann kann man eindeutig sehen X2 gegen GX2 das die HD4000er reihe immer ncoh nicht die leistungskrone erlangt hat!
    Ich schätze die GX2 ist locker 60-80% schneller als die X2 von AMD



    Puh ihr bringt mich am frühen morgen ins schwitzen

    EDIT: Iwie schaff ich es nicht, weniger smileys zu nutzen^^

  8. #118
    Professional Avatar von sic
    Registriert seit
    24.03.2007
    Beiträge
    2.960

    Standard

    ich denke die diskussion kann man jetzt endlich beenden...

  9. #119
    Professional Avatar von Fusion145
    Registriert seit
    02.02.2007
    Beiträge
    1.584

    Standard

    Zitat Zitat von Shaddy Beitrag anzeigen
    Wer so dumm is, und sich die X2 holt weil sie in geringen auflösungen wie unter 22" schneller ist als die GTX280 ist unklug! (Wärmer, mehr verbrauch...) Und zudem sind da sogut wie alle games eh alle über 60 fps hinaus und da is das SCHEIßEGAL ob da nu 60 oder 65 fps ne karte hat!
    Du verdrehst hier irgendwas, es ist nämlich genau andersrum die 4807X2 ist in hohen bis sehr hohen Auflösung besser als die GTX280 und die GTX280 ist in niedrigen bis mittleren Auflösungen besser als die X2. Das liegt daran das ein Crossfire sowie auch SLI System viel besser unter hohen Auflösungen skaliert als eine eine einzelne Grafikkarte.

    Und es macht sehr wohl was aus wenn man mehr als 60FPS hat, denn jeder Frame zählt egal ob das Bild schon bei 60FPS schon Flüssig ist, das Spielgefühl wird einfach durch jedes einzelne Frame mehr besser (zumindest bei Shootern)

    Zitat Zitat von Shaddy Beitrag anzeigen
    In 1920x1200 hat die X2 gegen die GTX280 keiine chance, in getürkten benchmarks wie zb. computerbase.de oder pcgh.de vll schon, aber in der praxis NIEMALS
    Wieso verbreiten alle hier so eine sch**** wenn sie überhaupt keine Beweise dafür haben. Wenn du mir irgendein Beweise vorlegen kannst das deinen Behauptung stimmt dann werde ich meine Meinung zu Computerbase und co. ändern aber solange du einfach nur Behauptungen ohne Beweis in den Raum stellst kauft dir das wohl keiner ab
    Geändert von Fusion145 (01.11.2008 um 14:12 Uhr)
    Wissen ist das einzige Gut, das sich vermehrt, wenn man es teilt

  10. #120
    Shaddy
    Gast

    Standard

    ich hab es nicht nötig dir jetzt aufzulisten welches benchies auf einmal andere werte haben als in anderen EIGENEN Computerbase tabellen, glaub mir halt nciht is mir ****** egal

    Genauso wie die tatsache, das die GTX280 in hohen auflösungen einfach mal besser ist als die X2, 100% zustimmt!
    Denk was du denkst! Soll mir egal sein...

    Ja WOW in shootern is mir das auch klar aber da zock ich auch breitbild und kein 5:4 rotz und schwubbs liegt die GTX280 wieder vorn

    Und wer jetzt meinte ich wäre nvidia fanbo kriegt eine vorn latz

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •