Seite 219 von 222 ErsteErste ... 119169209217218219220221 ... LetzteLetzte
Ergebnis 2.181 bis 2.190 von 2217

Thema: nVidia Serie - Sammelthread

  1. #2181
    VIP Avatar von xeonsys
    Registriert seit
    07.10.2006
    Beiträge
    10.262

    Standard

    GTX1080 IM TEST


    Nvidia GeForce GTX 18 im Test - ComputerBase


    Von einem Leistungsplus im Bereich von 50 Prozent und mehr haben wir uns aber schon lange verabschiedet. Die GeForce GTX 1080 ist hier aber dennoch ein positives Beispiel, da sowohl die neue Fertigung wie auch die neue Architektur dafür sorgen, dass wir ein ordentliches Plus in der Leistung sehen. So beträgt der Vorsprung der GeForce GTX 1080 zur GeForce GTX 980 Ti zwischen 5 und und 30 Prozent. Ausreißer in beide Richtungen führen zu einem Mittelwert von 20 bis 25 Prozent. Gerade die höheren Auflösungen profitieren dabei von der Leistung der GPU im Zusammenspiel mit dem 8 GB großen Speicher. Vergleicht man die GeForce GTX 980 als echten Vorgänger der GeForce GTX 1080 (denn sicherlich wird es eine GeForce GTX 1080 Ti auf Basis der großen Ausbaustufe der Pascal-Architektur geben), so kommen wir auf ein Leistungsplus von 50 bis 70 Prozent und hier werden die Vorteile zu Gunsten der höheren Auflösungen sogar noch deutlicher. Der Vergleich zur Radeon R9 Fury X ist ebenso abhängig vom jeweiligen Benchmark, wie dies bei den bisher genannten Karten auch schon der Fall ist. Mal ist die Radeon R9 Fury X 10 Prozent langsamer und mal sind es sogar 50 Prozent. Hin und wieder kann sich die Karte sogar vor die GeForce GTX 1080 setzen. Mit den ersten Polaris-Karten im Sommer wird AMD sicherlich noch nicht gegen die GeForce GTX 1080 bestehen können. Dazu sieht AMD die Vega-GPUs vor, die aber erst gegen Ende des Jahres erscheinen werden – wenn sich die Gerüchte zu einer beschleunigten Einführung denn als falsch herausstellen sollten.
    NVIDIA GeForce GTX 18 mit Pascal-Architektur im XXL-Test - Hardwareluxx





    8K und 6K

    Bemerkenswert: Während die GTX Titan X dank 12 GiByte Speicher Bioshock Infinite in 8K ohne träges Streaming wegsteckt, stockt die GTX 1080 beim Wechsel von 6K auf 8K mehrere Sekunden und lässt Texturdetails vermissen - hier genügen 8 GiByte Grafikspeicher nur haarscharf. Da beide Modelle jedoch selbst maximal übertaktet nur rucklige Bildraten ausgeben, ist diese Beobachtung akademischer Natur. Dass 6 GiByte in jedem Fall zu wenig sind, zeigen die miserablen 8K-Werte der beiden GTX-980-Ti-Karten.
    Nvidia Geforce GTX 1080 im Test: Fazit

    Auch wenn die Geforce GTX 1080 keine revolutionär neue Architektur mit sich bringt: Nvidia hat beim GP104-Chip mithilfe der 16-nm-Fertigung und behutsamen Optimierungen an den für den Großteil der Gamer richtigen Schrauben gedreht und eine enorm schnelle Grafikkarte entwickelt, an der es zurzeit nur wenig zu kritisieren gibt. Sie ist die neue 100-Prozent-Marke im PCGH-Leistungsindex (15 Spiele, drei Auflösungen, HQ-AF) und im Schnitt schon bei Standard-Boost von 1.733 MHz flotter als die schnellste GTX 980 Ti mit Werks-OC (1.430 MHz), hängt eine Standard-980-Ti um 28 %, eine Fury X um 31 % und eine GTX 980 um 56 % ab, kostet aber auch mehr als all diese Modelle. Nur die Titan X als Single-GPU-Karte ist derzeit teurer, aber auch sie wird im Mittel um 23 % zurückgelassen. Dem einstigen Topmodell bleibt gegenüber der GTX 1080 nur ihr 12 GiByte großer Speicher, allerdings ist uns kein Fall bekannt, bei dem sich dieser gegenüber 8 GiByte in spielbaren Fps-Gefilden positiv bemerkbar macht.
    Mit einem typischen Maximalverbrauch von 180 Watt, den Nvidia über GPU-Boost 3.0 gut in hohen Takt umsetzen kann, ist die Geforce GTX 1080 überdies nicht allzu stromhungrig, zum Betrieb genügt ein einzelnes 8-Pol-Kabel vom Netzteil. Dank 8 Gigabyte Grafikspeicher, fortschrittlicher Display-Engine inklusive 8K-/HEVC/10-Bit- und HDR-Support dürften hier auch längerfristig die meisten Wünsche erfüllt werden. Kurzfristig sollten es sich zumindest Besitzer einer hochgezüchteten GM200-Grafikkarte (Titan X, 980 Ti) zweimal überlegen, ob die GTX 1080 ein lohnenswertes Upgrade darstellt. Strom lässt sich auf jeden Fall sparen - aufgemotzte Versionen der genannten Karten verbrauchen gut und gerne 300 Watt -, ein fühlbares Leistungsplus ist jedoch selbst dann rar, wenn die GTX 1080 ebenfalls ausgereizt wird.


    Geforce GTX 18 im Test: Der erste 16-nm-Konig mit 2 GHz im OC-Betrieb
    Summer 2010


  2. #2182
    Moderator Avatar von LKrieger
    Registriert seit
    17.02.2007
    Ort
    Maro
    Beiträge
    4.140

    Standard

    Hab vor ner Woche zwei Custom Modelle reserviert. Dauert noch aber wird Hammer!

    Grüße LK

  3. #2183
    Prophet Avatar von SplitTongue
    Registriert seit
    07.03.2008
    Ort
    Kehl / Straßburg
    Beiträge
    7.323

    Standard

    Zitat Zitat von LKrieger Beitrag anzeigen
    Hab vor ner Woche zwei Custom Modelle reserviert. Dauert noch aber wird Hammer!

    Grüße LK
    Schande, echt jetz ?

    Deine Gehaltsabrechnung würde ich gern mal sehn, ich müsste für so 2 Babies ne Hypothek aufnehmen

  4. #2184
    Semi Pro Avatar von befubo
    Registriert seit
    24.07.2008
    Ort
    Zürich, Schweiz
    Beiträge
    801

    Standard

    Vorbestellt hab ich noch nix, will zuerst die Custom designs anschauen
    Dann hau ich mir mal ne 1080er rein und Ende Sommer vielleicht im SLI, zuerst die Benches mal anschauen
    Ist gerade ein super Zeitpunkt mein System upzugraden.
    Gerade habe ich mein neues Case bekommen, mein neues x99x Killer Mainboard, Netzteil, RAM und 1tb SSD eingebaut. Jetzt warte ich noch auf die Broadwell-e Prozessoren und die 1080er

  5. #2185
    Professional Avatar von chenjung
    Registriert seit
    13.09.2008
    Ort
    In Hessen
    Beiträge
    3.911

    Standard

    Bin ganz wuschig auf die 1070
    CPU: i9 13900K € 5.5 Ghz | RAM: 32GB DDR4 CorsAir Dominator | Nvidia RTX 3070 OC | Asus ROG STRIX Gaming E2 WiFi Z690 | be Quiet Darkbase 900 Case | be Quiet Dark Power 12 850 Watt Titanium | 4K AOC Monitor | 24" BenQ Monitor |

  6. #2186
    Semi Pro
    PotW Gewinner: 3
    Avatar von ReVan1199
    Registriert seit
    02.07.2009
    Ort
    Irgendwo im Nirgendwo
    Beiträge
    1.839

    Standard

    Zitat Zitat von chenjung Beitrag anzeigen
    Bin ganz wuschig auf die 1070
    Für den Preis eine Grafikkarte mit GDDR5 und Mainstream-Chip? Finde ich ziemlich unattraktiv. Ich bin gerade am überlegen, ob ich mir gebraucht eine GTX 980 Ti kaufe.

  7. #2187
    Professional Avatar von chenjung
    Registriert seit
    13.09.2008
    Ort
    In Hessen
    Beiträge
    3.911

    Standard

    Zitat Zitat von ReVan1199 Beitrag anzeigen
    Für den Preis eine Grafikkarte mit GDDR5 und Mainstream-Chip? Finde ich ziemlich unattraktiv. Ich bin gerade am überlegen, ob ich mir gebraucht eine GTX 980 Ti kaufe.
    Wenn ich schon ein totales Systemupate mache, dann auch mit "allem" neu ;D
    CPU: i9 13900K € 5.5 Ghz | RAM: 32GB DDR4 CorsAir Dominator | Nvidia RTX 3070 OC | Asus ROG STRIX Gaming E2 WiFi Z690 | be Quiet Darkbase 900 Case | be Quiet Dark Power 12 850 Watt Titanium | 4K AOC Monitor | 24" BenQ Monitor |

  8. #2188

  9. #2189
    Semi Pro Avatar von hyper.aN#
    Registriert seit
    10.01.2011
    Beiträge
    916

    Standard

    bei solchen artikeln tut es mir die Linux community richtig leid

    Geforce GTX 17 und GTX 18 - Spiele-Benchmarks in Windows 1 und Linux - GameStar
    Source: Windows 1 vs. Ubuntu 16.4 Graphics Performance With NVIDIA's GTX 17 & GTX 18 - Phoronix


    wieso kann es nicht so aussehen wie bei diesem Benchmark in Blender
    Top GPU cards performance comparison in Blender: GTX18, Titan X, GTX98Ti and AMD R9 – Blender render farm – LionRender

    solche benchmarks werden von der Windows welt leider vollkommen ignoriert und tauchen nirgends in news auf größeren seiten auf....

    solche performance unterschiede könnten bei spielen der realität entsprechen wenn die Treiber besser währen, richtiges porting ist natürlich auch wichtig

  10. #2190

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •