Seite 1 von 2 12 LetzteLetzte
Ergebnis 1 bis 10 von 1550

Thema: nVidia GT200 Infos/Spekulationen

Hybrid-Darstellung

Vorheriger Beitrag Vorheriger Beitrag   Nächster Beitrag Nächster Beitrag
  1. #1
    Professional Avatar von -THRiLLiAL-
    Registriert seit
    16.10.2007
    Beiträge
    2.343

    Standard

    also des 512-bit speicherinterface bei der gtx280er soll immer noch der wahrheit entsprechen.
    (joa und zudem bleibt für amd noch zu hoffen, dass diese den treiber dann so gut hinbekommen wie momentan der 8.5er @vista unter dx10)


  2. #2
    Professional Avatar von HunT
    Registriert seit
    19.12.2007
    Beiträge
    2.857

    Standard

    Im Moment sind auch Gerüchte im Umlauf, der GT200 sei in Wirklichkeit ein G90, der dann nicht veröffentlicht wurde, weil AMD zu der Zeit keine Konkurenz darstellte. Er sollte zum Q4 2007 rauskommen, weshalb sich auch erklären ließe, warum der GT200 kein DX10.1 unterstützen würde. Der GT100 soll dann der Nachfolger des GT200, der angeblich ein G90 sein soll, sein.

    Aber wie gesagt,, alles nur Gerüchte.
    "Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
    (Laplace, frz. Astronom u. Mathematiker, 1749-1827)

  3. #3
    Gesperrt
    Registriert seit
    05.01.2008
    Beiträge
    5.406

    Standard

    Mit wieviel Frames würde Crysis damit laufen ?
    Wenn ich mir schon die 9800GX2 anschaue, dann hauen die ganz schön rein.
    Very High mit 50fps. ! (?)
    Jetzt noch diese GT200er Karte..... Könnte man 16Q AntiAlaising dazu schalten und es immernoch flüssig spielen ?

  4. #4
    Erfahrener User Avatar von borni
    Registriert seit
    20.09.2007
    Beiträge
    273

    Standard

    Zitat Zitat von Siberian Tiger Beitrag anzeigen
    Im Moment sind auch Gerüchte im Umlauf, der GT200 sei in Wirklichkeit ein G90, der dann nicht veröffentlicht wurde, weil AMD zu der Zeit keine Konkurenz darstellte. Er sollte zum Q4 2007 rauskommen, weshalb sich auch erklären ließe, warum der GT200 kein DX10.1 unterstützen würde. Der GT100 soll dann der Nachfolger des GT200, der angeblich ein G90 sein soll, sein.

    Aber wie gesagt,, alles nur Gerüchte.
    Geruchte die in meinen Ohren sehr plausibel klingen...
    Kannst du dich noch erinnern wie ich spekuliert habe das Nvidia da irgendwo einen G90 in der Hinterhand hat, damals als sie den G92 als 8800GT raus gebracht haben... Ich denke das ist mehr als nur ein Gerücht!

  5. #5
    Professional Avatar von HunT
    Registriert seit
    19.12.2007
    Beiträge
    2.857

    Standard

    Zitat Zitat von borni Beitrag anzeigen
    Geruchte die in meinen Ohren sehr plausibel klingen...
    Kannst du dich noch erinnern wie ich spekuliert habe das Nvidia da irgendwo einen G90 in der Hinterhand hat, damals als sie den G92 als 8800GT raus gebracht haben... Ich denke das ist mehr als nur ein Gerücht!
    Ne, kann mich leider nicht daran errinnern. Ist aber auch egal, ob nun G90 oder sonst was. Hauptsache die Leistung stimmt! Desweiteren habe ich erfahren, dass der GT200 einen ähnlichen Quantensprung erreichen soll wie der G80 zum G71.

    http://benchmarkreviews.com/index.ph...d=178&Itemid=1

    Hier sind auch nochmal viele Informationen. (englisch)

    Offenbar herrschen aktuell Streitigkeiten, welche Graka nun schneller sein wird. Der R700 oder der GT200?!

    Angeblich soll die GTX 280 etwa 50% Mehrleistung gegenüber der 9800GX2 bieten, was bedeuten würde, dass man Crysis auf jeden Fall in Auflösungen wie 1920*1200 unter very high durchgehend flüssig spielen werden kann. Aufgrund der 512bit SI würde die Karte aber im Gegensatz zur 9800GX2 nicht so stark bei aktiviertem AA einbrechen.

    Das wird ein heißer Tanz!
    "Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
    (Laplace, frz. Astronom u. Mathematiker, 1749-1827)

  6. #6
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Ich hoffe, dass ATi leistungsmäßig mit nVidia mithalten kann, denn wenn die wirklich ihre Karten zu den "günstigen" Preisen anbieten wollen wie erwartet, dann muss nVidia auch ganz schnell die Preise senken.

    Aber egal was letztendlich für Preise dabei herauskommen. Ich werde mir auf jeden Fall eine nVidia Karte kaufen. Ich erhoffe mir nämlich, dass in Zukunft mehr Anwendungen die Cuda API nutzen werden um ihre Berechnungen zu beschleunigen.

    Photoshop macht's vor.

    Für Spiele ist es meiner Meinung nach auch sehr wichtig, dass die PhysX Engine die nVidia GPU zur Berechnung heran zieht. Aus diesem Grund wird die Engine in Zukunft sehr viel Verbreitung finden.
    Wann und ob ATi die Berechnungen der PhysX Engine auf der GPU durchführen wird ist indes noch völlig unbekannt.

    Aus dem Grund werde ich mir also eine nVidia Karte holen, auch wenn sie kein SM4.1 unterstützt, aber das halte ich nicht für so wichtig. Meine einzige Hoffnung ist, dass ATi konkurrenzfähige Karten zu niedrigen Preisen anbietet und so die Preise von nVidia etwas drückt.

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

  7. #7
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Zitat Zitat von noxon Beitrag anzeigen
    Photoshop macht's vor.
    Hier ist schon die nächste CUDA Anwendung
    SuperPI wird durch CUDA Nvidia-GPU-tauglich

    So langsam wird das ja was.


    //EDIT:
    Und hier schon wieder: Football-Simulation „Backbreaker“ nutzt PhysX.
    Finde ich echt gut, dass immer mehr Spiele davon Gebrauch machen und das jetzt sogar die Animationsengine, die auch bei GTA4 zum Einsatz kommt, die GPU zur Berechnung hinzu zieht.
    Geändert von noxon (28.05.2008 um 10:17 Uhr)

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

  8. #8
    Professional Avatar von HunT
    Registriert seit
    19.12.2007
    Beiträge
    2.857

    Standard

    Aus einer geheimen Quelle
    "Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
    (Laplace, frz. Astronom u. Mathematiker, 1749-1827)

  9. #9
    Semi Pro Avatar von BF_C.R.Y.S.I.S
    Registriert seit
    10.01.2008
    Ort
    Österreich
    Beiträge
    762

    Standard

    so, jetzt hab ich auch mal den ganzen thread durch!

    ich werde das diesmal auch ganz entspannt angehen mit dem kauf... immerhin kann ich crysis jetzt auch auf very high mit mind. 8fach AA flüssig spielen und von dem her warte ich sicher mal, bis die ersten die neue gtx280 haben und man hört ob es sich lohnt oder nicht...

    ausserdem braucht man ja wie schon öfter hier angemerkt die leistung noch bei den wenigsten games...

    die nächsten "meilensteine" in der performance-frage werden sicher FC 2 und S.T.A.L.K.E.R. - clear sky...

    und wenn die beiden games bei akzeptablen werten bei mir laufen, warte ich sicher noch so lange, bis ichs wieder nötig habe, eine bzw. wieder 2 neue grakas zu kaufen... ansonsten wird da die gtx280 auch schon so billig sein, dass man sie sich ohne schlechtes gewissen leisten kann...
    http://crysis.4thdimension.info/forum/image.php?type=sigpic&userid=4214&dateline=1214312  795


  10. #10
    Professional Avatar von HunT
    Registriert seit
    19.12.2007
    Beiträge
    2.857

    Standard

    GPU Leistung wird immer benötigt, als gibt sehr wohl eine Daseinsberechtigung der GTX 280. Vor allem für Leute ohne nForce Board und mindestens einem 22Zöller. Leute mit nem 30 Zöller werden sich über die GTX 280 freuen.

    Die Karte würde auch nicht 600$ kosten, wenn sie nicht dementsprechend Leistung satt bieten würde. Noch herrscht ja kein Monopol, deshalb kann man von dieser Theorie ausgehen. Nur wenn ATI es sich selbst versaut, dann ist nur ein weiterer Schritt in die Geschichtsbücher für ATI.
    "Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
    (Laplace, frz. Astronom u. Mathematiker, 1749-1827)

Seite 1 von 2 12 LetzteLetzte

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •