Aus einer geheimen Quelle
Druckbare Version
Aus einer geheimen Quelle
Wenn die tabelle echt ist und die leistung tatsächlich so aussehen wird, dann kann AMD/ATI einpacken und wir werden übelste opfer von nVidias monopolstellung...
Na schönen dank auch.
Ich hoffe das NV noch mehr Leistung bei Spielen bringt. Denn die Ergebnisse sind ja auf dem Benchmark zurückzuführen. Ein Benchmark ist nicht gleich ein Spiel.
Mit viel Glück ist wirklich die Leistung dreier G80s mit einer Karte möglich. Denn mit SLI kann man ja auch nicht einfach 300% rechnen (3-way Sli G80) Unter SLI ist ja immer ein haufen Verlust zu rechnen und zu erwarten. Die Karten laden ja alle die gleichen Speicherinformationen rein und arbeiten dann mit modus afr oder spit frame rendering usw... Mit 2 Karten hat man zirka 80 Mehrleistung als zu einer Karte. Bei einer 3. Karte kann man nochmal mit so 30% rechnen.
Bei Spielen könnten wir dann tatsächlich mit einer GT200 3 G80 in SLI plätten. Wenn das so wäre wäre das der absolute durchbruch für nv - und wiedermal eine megamäßige High end Karte.
Vielleicht werden dann jetzt mal die arbeiten und die Speicherverwaltung unter SLI bei der neuen G200 Serie optimiert, sodass man tatsächlich immer mit 90-95% Mehrleistung für jede Karte rechnen kann.
@Godsson: ATI wird sich insovern wieder halten können, das sie günstiger Ihre Karten auf den Markt bringen werden. Somit wird man für NV einen Haufen mehr bezahlen müssen - aber wird auch einen größeren Leistungsschub erwarten können. ATI wird sich denk ich schon noch überwasser halten können. Da die Fangemeinde unter ATI schon noch seehr groß ist - und sich nicht jeder Nvs Topmodelle Leisten können und auch nicht wollen.
Mfg LKrieger
Also irgendwie kann ich das nicht ganz glauben. Eine HD4870 soll gerade mal so schnell sein, wie eine 8800 Ultra?
Das wäre wirklich etwas wenig und nicht besonders vorteilhaft für uns Kunden. Im High-End Sektor hätte nVidia dann erst einmal eine sichere Monopol-Stellung und wird wahrscheinlich keinen Grund sehen ihre Preise in nächster Zeit zu senken.
Ich hoffe, dass die Werte nciht ganz stimmen und ATi in der Realität besser ist, als in dem Benchmark.
Okay, ich gebs zu, ich hab euch verarscht...:aua:...selbstgemachte Benchmarls sind doch cool, oder? Muahaha
Und hier ein offizieller Verarsche Benchmark -> http://www.pcgameshardware.de/aid,64...e_aufgetaucht/
Ich möchte euch dringend raten, gerade in den Tagen kurz vor Veröffentlichung der Karten sehr vorsichtig mit autauchende Benchmarks umzugehen, auch wenn sie noch so realistsich oder inrealistisch klingen.
EDIT: Bin ich besoffen?
Also ich kann nur sagen das die benchmarks die kurz vorm release des G80 raus kamen, eigentlich der wahrheit entsprachen.
Aber freuen tu ich mich jetzt schon wie sonst was. Nur stell ich mir dann die Frage für was ich die eigentlich benötige. Crysis ok, aber sonst sind wohl eher wenig Spiele vorhanden nah an die Qualitäten von Crysis herankommen. Aber auf diese CUDA Technologie bin ich ja mal gespannt. Wenn die auch in Spielen einsatz findet, wäre das ja mal nicht schlecht. :)
@DR. Kongo G80: Nunja - nichtnur CRYSIS hat solche krassen Ansprüche sondern auch der Kommende Shooter Far Cry2, sowie Battlefield 3 (wird sicher auch einiges fressen). Wer gerne das neue Need 4 Speed spielt hat auch einige Probleme selbst mit SLI ruckelt nämlich das Spiel teilweise. FEAR2, COD5 und weitere neue Spiele werden mit Sicherheit auch ähnliche Leistungsstarke Engines besitzen.
Wenn man alles auf max zocken möchte langt nunmal keine G80 mehr aus (oder hat noch nie ausgereicht bei CRYSIS). Wer AA einschaltet der kann CRYSIS auf max heutzutage nicht flüssig spielen. Selbst ich kann mit 3 Karten unter Vista mit ner Resi von 1920x1200 und allem auf max nicht richtig flüssig zocken. Mit AA wäre es wieder unspielbar! Wird Zeit das endlich mal was richtig gescheites kommt.
Glaube schon das wir früher oder später endlich mal richtig gescheite Karten benötigen (zumindest die Zocker ;)).
Mfg LKrieger
Ich finde diese beiden Sätze besonders interessant.
"Dabei zeichnet sich ein klares Bild ab, denn die Geforce GTX 280 und die Geforce GTX 260 würden mit einem kolportierten Ergebnis von rund 4100 bzw. 3800 Punkten deutlich vor der Radeon HD4870 (RV770XT) liegen. Angesichts des vermuteten Preises von 349 US-Dollar für die Radeon HD4870 könnte AMDs Zielgruppe das Mid-Range-Segment darstellen, während Nvidia wohl eher den High-End-Markt anpeilt"
Ich kann mir gut vorstellen das ATI sich erst mal auf das Mid-Range-Segment konzentriert und erst garnicht versucht NVidia im High-End-Markt zu "schlagen".
@DualNuke: Wäre durchaus möglich das ATI erstmal versucht sich mit günstigeren Midrange Karten wieder aufzupäppeln. Denn da hat ATI zurzeit noch super Vorteile und kann die Karten auch noch günstiger anbieten. Sollte NV allerdings noch weiter Profit schlagen - wird NV sich auch nicht davon scheuen die MidKarten günstiger anzubieten.
Allerdings jetzt mal wieder zurück zur GT 200.
Mfg LKrieger
Nochmal zum Thema MidKarten. Eine 8800GT 512MB für 126€ NEU! Ich finde damit deckt Nvidia auch diesen Bereich recht gut ab.
@Topic
Wenn es eine GTX 280 geben wird und der Chip GT 200 heißt, ist es doch durchaus möglich, dass es auch eine GT 280 geben wird, oder was meint ihr dazu? Wenn sie ein ähnliches Verhältnis wie die 8800GT hätte, wäre das der ultimative P/L-Killer:D