Seite 5 von 155 ErsteErste ... 345671555105 ... LetzteLetzte
Ergebnis 41 bis 50 von 1550

Thema: nVidia GT200 Infos/Spekulationen

  1. #41
    Erfahrener User Avatar von Jannez
    Registriert seit
    15.01.2008
    Ort
    Rendsburg, SH
    Beiträge
    446

    Standard

    Zitat Zitat von jodob Beitrag anzeigen
    tja, mit dem neusten Patch wurde DX10.1 ja "glücklicher Weise" wieder deaktiviert... wir wolln doch nicht, dass ein paar Kunden zu ATI wechseln
    echt!!
    ich hab den patch bei mir auch drauf und der bringt gar nix!

    .....BTT!!

    @noxon
    Wie viel RAM bräuchte man denn um 4 x AA zu machen?? (du kennst dich mit allem aus )

    bei 1024 MB ist ja auch einiges an RAM verfügbar. vlt kann man den dann ja mal sinnvoll nutzen und nicht so wie bei den 1 GB Karten, die es jetzt gibt und bei denen es nicht wirklich was bringt.
    c2d E6420 @2,66 - Radeon HD5750 - 4 GB - Creative X-fi Extreme Music - win7 professional 64bit - Enermax Pro 82+ 625 Watt

  2. #42
    Professional Avatar von -THRiLLiAL-
    Registriert seit
    16.10.2007
    Beiträge
    2.343

    Standard

    ach die sollen erst ma die karte(n) launchen .. bei der 9er war im vorfeld ein riesen aufruhr - und was kam dabei raus? naja, ich lass des ganze ma auf mich zukommen, erstma bin ich mit meiner xfx 88er gtx xxx zufrieden.
    und was den namenjungle betrifft (falls es wirk so sein sollte mit der 2xx bezeichnung) ..
    wieso kann man nicht einfach da weitermachen, wo man aufgehört hat?? statt verschlimmbessern lernt man draus und machts halt wieder besser ..


  3. #43
    Professional Avatar von randfee
    Registriert seit
    18.06.2007
    Beiträge
    4.095

    Standard

    Jannez,

    ich hab dir mal grade ausgerechnet wieviel RAM man mindestens fürs einfachste 4xAA braucht. Die letzte Spalte in MB, das brauchst du mindestens. Da reines FSAA aber unschön ist und man noch mehr Subpixel braucht ist die letzte Zahl ein guter Richtwert für die Größenordnung, in Wahrheit, dürfte man aber bis zum Doppelten brauchen, je nachdem was noch gepuffert werden muss.

    Bei meinem 22" TFT mit 1680er Auflösung bräuchte die CPU für das on-chip 4xAA also mal gute 40MB extra cache... nicht grade klein, nur gut 4 mal so groß, wie der ganze chip im Moment



    Dies ist ein AA, welches vom ganzen Bild gemacht wird. Je nachdem wie man das ganze angeht, kann man aber auch abschnittsweise AA machen mit weniger Speicher. Es wird immer mehr geglättet und das Ergebnis in einem sogenannten accumulation buffer immer wieder überschrieben, das bräuchte dann garnicht mehr Speicher, weiß garnicht mehr, wieso das nicht mehr so gemacht wird, ist schon länger her, dass ich sowas wusste.

    Ich würde das ganze AA in der Pipeline gar ganz auslagern und gar von nem dedizierten chip machen lassen. Da sie aber immer mehr alles auf einem wollen, müssen sie wohl ne AA-CPU auf der GPU unterbringen
    Geändert von randfee (18.05.2008 um 23:43 Uhr)
    2500K @ 4,8GHz | 5850 | 32GB DDR3

  4. #44
    Moderator Avatar von LKrieger
    Registriert seit
    17.02.2007
    Ort
    Maro
    Beiträge
    4.140

    Standard

    Nochmal zu der DX10.1 Geschichte zurückzukommen. Ich sehe das so, das DX10.1 ja nichts weiter ist, als Physik. Da gabs ja eben mal eine Techdemo die vor kurzem erschienen ist. Inder konnte man mit einem Fön lauter Bälle wegblasen. Auf dem Platz waren so um die 10000 Bälle! Da NV dieses PhysiX-Feature besitzt, wird man vielleicht indirekt DX10.1 besitzen. Denke mal das wird sogar noch mehr Leistung bringen als das von den DX10.1 Ati dingern.

    Denke mal das man in den Spielen dann die Option hat (nicht die Pflicht DX10.1 zu besitzen) DX10.1 anzuschalten bzw NV PhysiX zu enabeln.
    Geändert von LKrieger (19.05.2008 um 09:53 Uhr)

  5. #45
    Erfahrener User Avatar von Haha7
    Registriert seit
    15.11.2007
    Beiträge
    323

    Standard

    Zitat Zitat von LKrieger Beitrag anzeigen
    Nochmal zu der DX10.1 Geschichte zurückzukommen. Ich sehe das so, das DX10.1 ja nichts weiter ist, als Physik. Da gabs ja eben mal eine Techdemo die vor kurzem erschienen ist. Inder konnte man mit einem Fön lauter Bälle wegblasen. Auf dem Platz waren so um die 10000 Bälle! Da NV dieses PhysiX-Feature besitzt, wird man vielleicht indirekt DX10.1 besitzen. Denke mal das wird sogar noch mehr Leistung bringen als das von den DX10.1 Ati dingern.

    Denke mal das man in den Spielen dann die Option hat (nicht die Pflicht DX10.1 zu besitzen) DX10.1 anzuschalten bzw NV PhysiX zu enabeln.
    Bei der Demo gehts nicht um die Physik, sondern um die Beleuchtung.
    Dank dx10.1 kann man realistischere Beleuchtung schneller berechnen (global ilumin.. ka.)
    Die Bälle deswegen, weil das ganze dank dem lightning räumlicher aussehen soll^^
    Der PhysicsCuda Kram sollte sowieso drauf laufen.
    2600k 4.4Ghz@water, Gigabyte GTX 670 4gb, asus p8p67 deluxe, und noch immer: xfi-xtreme music --sennheiser pc151 -- Logitech G15 classics roxomg

  6. #46
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Zitat Zitat von Jannez Beitrag anzeigen
    mit SP 1 wurde es eingeführt. Irgendwem ist bei einem test von AC aufgefallen, dass es mit SP 1 und einer AMD HD 3xxx 25% schneller lief und die Kantenglättung besser funktionierte als mit ohne SP1 und derselben Karte.
    Na, wir wollen mal nicht übertreiben. Von 25% habe ich jedenfalls nichts gehört. Vielleicht an einigen Stellen, aber sicherlich nicht im Durchschnitt. So viel Performance kann man durch die kleinen Verbesserungen des SM 4.1 gar nicht erzielen.
    Ein Großteil des Performancezuwachses hatte auch ganz andere Gründe und zwar wurde ein Renderpfad im Postprocessing mit DX10.1 nicht mehr durchgeführt. Dann steigt natürlich auch die Framerate.



    @noxon
    Wie viel RAM bräuchte man denn um 4 x AA zu machen?? (du kennst dich mit allem aus )
    Da hat dir der gute Randfee ja schon weitergeholfen.
    Wie du siehst kommt man mit ein paar MB nicht besonders weit. Sollte das Feature nur bei Auflösungen von 1024x768 und darunter verfügbar sein wäre es für mich überflüssig.
    1680x1050 sollten schon mindestens unterstützt werden und 40 MB eDRAM auf der GPU unterzubringen ist wohl so gut wie unmöglich.

    Ich könnte mir höchstens vorstellen, dass dies alles auf einen separaten Chip ausgelagert wird, aber auch das bezweifle ich stark. Ich denke auch, dass das Ganze viel zu teuer werden würde.
    Geändert von noxon (19.05.2008 um 11:30 Uhr)

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

  7. #47
    Professional Avatar von CRYSISTENSE
    Registriert seit
    09.04.2007
    Ort
    Bayern
    Beiträge
    2.841

    Standard

    Glaubt ihr, dass der GT200 einen E6600 oder sogar einen Q6600 ausbremsen könnte? Wäre schon etwas hart, wenn man sich gleich zur neuen GPU auch noch eine neue CPU holen müsste, nur damit man keinen Engpass hat
    The mind is a cage, but there is no prisoner inside

  8. #48
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Ich denke nicht, dass ein E6600 die Karte ausbremsen würde.
    Auf CB gibt es im Moment einen Artikel darüber, wie sich die Anzahl der Prozessorkerne auf die Spieleleistung auswirkt und da erkennt man selbst bei Multicore Spielen wie Crysis keinen großen Leistungsunterschied.

    Aktuelle und grafisch anspruchsvolle Spiele werden auch mit den neuen Karten weiterhin GPU limitiert sein und DX10 sorgt auch dafür, dass die CPU Last deutlich sinkt.
    Nur ältere Spiele wie zum Beispiel Unreal Tournament 3 werden CPU limitiert sein, aber wen stört es schon, ob man 230 fps oder 300 fps hat?

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

  9. #49
    Professional Avatar von chicken
    Registriert seit
    24.10.2007
    Beiträge
    4.728
    Intel Core i5-2500K
    ASRock P67 Pro3
    8 GB DDR3-1333
    GTX560 2GB
    Win7 x64

  10. #50
    Professional Avatar von HunT
    Registriert seit
    19.12.2007
    Beiträge
    2.857

    Standard

    Zitat Zitat von chicken Beitrag anzeigen
    Ja, hab auch schon gehört, dass die GTX 260/280 aufgrund der 512bit Speicherbausteine auf beiden Seiten des PCB hat. Wenn das allerdings stimmt, wie werden wohl die Wasserkühllösungen dafür aussehen? Weil ich hab kein Bock meinen GT200 durch den Standart Lüfter kochen zu lassen, sondern will ihn gepflegt mit Wasser kühlen!
    "Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
    (Laplace, frz. Astronom u. Mathematiker, 1749-1827)

Seite 5 von 155 ErsteErste ... 345671555105 ... LetzteLetzte

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •