Ergebnis 1 bis 10 von 40

Thema: Schock für Nvidia?

Hybrid-Darstellung

Vorheriger Beitrag Vorheriger Beitrag   Nächster Beitrag Nächster Beitrag
  1. #1
    Semi Pro Avatar von dapalme
    Registriert seit
    03.01.2007
    Ort
    HSK (NRW)
    Beiträge
    1.308

    Standard

    Zitat Zitat von Heinz_Baer Beitrag anzeigen
    @Siberian Tiger: Du weißt aber schon, dass die 3870X2 die momentan beste Karte auf dem Markt ist?
    Und dass Preis/Leistung bei ATI immernoch erste Sahne ist?
    Und dass Nvidia häufiger Schwachsinn verspricht? Ich erinnere an die G92 Reihe und auch an die 9xxx Reihe. Von beiden sagte man, die Teraflop-Marke würde geknackt.
    Da hast du ne falsche info!!! schau nochmal genau nach es war nich der G90er Reihe die die 1Teraflop marke knackt

    http://www.computerbase.de/news/hard...e_nvidias_g92/ <-- da steht.. Zitat CB:
    Die von nVidia vor Analysten in Aussicht gestellte Leistung von einem Teraflop dürfte sich also auf ein anderes Modell, möglicherweise die neue Basisvariante der kommenden Generation, den G90, und nicht auf den G92 beziehen.

    Zitat Zitat von Heinz_Bear Beitrag anzeigen
    Du weißt aber schon, dass die 3870X2 die momentan beste Karte auf dem Markt ist?
    falsch Nvidias 9800GX2 schlägt die ATI!
    Geändert von dapalme (16.03.2008 um 17:30 Uhr)


  2. #2
    User
    Registriert seit
    03.12.2007
    Beiträge
    40

    Standard

    Zitat Zitat von dapalme Beitrag anzeigen
    Da hast du ne falsche info!!! schau nochmal genau nach es war nich der G90er Reihe die die 1Teraflop marke knackt

    http://www.computerbase.de/news/hard...e_nvidias_g92/ <-- da steht.. Zitat CB:
    Die von nVidia vor Analysten in Aussicht gestellte Leistung von einem Teraflop dürfte sich also auf ein anderes Modell, möglicherweise die neue Basisvariante der kommenden Generation, den G90, und nicht auf den G92 beziehen.



    falsch Nvidias 9800GX2 schlägt die ATI!

    dann zeig uns bitte wo du ZURZEIT eine 9800gx2 kaufen kannst....
    Asus P5B Deluxe auf dem stecken
    C2D E6300@3,3ghz | 2gb G.Skill 6400 cl4 | 8800gt 512mb | SB Audigy 4

  3. #3
    Semi Pro Avatar von dapalme
    Registriert seit
    03.01.2007
    Ort
    HSK (NRW)
    Beiträge
    1.308

    Standard

    Zitat Zitat von Scud Beitrag anzeigen
    dann zeig uns bitte wo du ZURZEIT eine 9800gx2 kaufen kannst....
    achso, du meinst auf den einen monat kommt es an oder wie?! wenn es so wie bei ATI läuft das die neue generation sich um nen halbes jahr verschiebt ok ^^ lol


  4. #4
    User
    Registriert seit
    03.12.2007
    Beiträge
    40

    Standard

    naja wenn man schon etwas "quoted" und dadrauf eine antwort gibt, sollte es schon richtig sein.
    Asus P5B Deluxe auf dem stecken
    C2D E6300@3,3ghz | 2gb G.Skill 6400 cl4 | 8800gt 512mb | SB Audigy 4

  5. #5
    Semi Pro Avatar von dapalme
    Registriert seit
    03.01.2007
    Ort
    HSK (NRW)
    Beiträge
    1.308

    Standard

    Zitat Zitat von Scud Beitrag anzeigen
    naja wenn man schon etwas "quoted" und dadrauf eine antwort gibt, sollte es schon richtig sein.
    letzendlich giung es da um den Test von CB wo nVidia's 9800GX2 mal wieder ATI eingeholt hat, inkl noch nich finalem Treiber für die GraKa ^^

    Nvidia bräuchte echt mal nen Dämpfer aber das wird leider noch etwas dauern

    Wenn ATI wirklich ne MegaKarte mit 800 StreamProzis hat, dann hoffe ich das es keine "mehrkern" GPU wird weil dann wird es denk ich nich soviel bringen

    Glaubt man den Spezifikationen für den G100 bzw G200 dann könnte das eine harte nuss für AMD/ATI werden. Wenn ich das noch richtig in erinnerung habe dann sollte auf dem teil 1 oder 2 GB GDDR5 Speicher verbaut werden mit sage und schreibe 2200MHz inkl 780MHz GPU takt und 512bit Speicheranbindung wodurch eine Bandbreite von gut 205.000 MB/s erreicht werden könnten.

    EDIT: (wie glaubwürdig auch immer, heutzutage is einigesw möglich!!!)

    Hier die daten wie ich sie gefunden hatte:

    Codename: G100
    Herstellung in 65 nm
    256 Stream-Prozessoren
    780 MHz Chiptakt
    3.200 MHz Speichertakt
    512 Bit Speicherinterface
    2.048 MB (256 X 8 GDDR5 (0.25-0.5 ns)
    Dual DVI
    Unterstützung für DirectX 10.1, VP3 <LI class=last-child>15–25 Prozent geringere TDP als GeForce 8800 GTS

    Ich betone nochmals "alles gerüchte!!!!!" sollten sie aber wahr werden wird es für AMD/ATI schwieriger. Andererseits könnte ich nich verstehen warum nVidia auf sowenige Streamprozessoren baut?!
    Geändert von dapalme (16.03.2008 um 18:01 Uhr)


  6. #6
    Professional Avatar von HunT
    Registriert seit
    19.12.2007
    Beiträge
    2.857

    Standard

    Zitat Zitat von dapalme Beitrag anzeigen
    letzendlich giung es da um den Test von CB wo nVidia's 9800GX2 mal wieder ATI eingeholt hat, inkl noch nich finalem Treiber für die GraKa ^^

    Nvidia bräuchte echt mal nen Dämpfer aber das wird leider noch etwas dauern

    Wenn ATI wirklich ne MegaKarte mit 800 StreamProzis hat, dann hoffe ich das es keine "mehrkern" GPU wird weil dann wird es denk ich nich soviel bringen

    Glaubt man den Spezifikationen für den G100 bzw G200 dann könnte das eine harte nuss für AMD/ATI werden. Wenn ich das noch richtig in erinnerung habe dann sollte auf dem teil 1 oder 2 GB GDDR5 Speicher verbaut werden mit sage und schreibe 2200MHz inkl 780MHz GPU takt und 512bit Speicheranbindung wodurch eine Bandbreite von gut 205.000 MB/s erreicht werden könnten.

    EDIT: (wie glaubwürdig auch immer, heutzutage is einigesw möglich!!!)

    Hier die daten wie ich sie gefunden hatte:

    Codename: G100
    Herstellung in 65 nm
    256 Stream-Prozessoren
    780 MHz Chiptakt
    3.200 MHz Speichertakt
    512 Bit Speicherinterface
    2.048 MB (256 X 8 GDDR5 (0.25-0.5 ns)
    Dual DVI
    Unterstützung für DirectX 10.1, VP3 <LI class=last-child>15–25 Prozent geringere TDP als GeForce 8800 GTS

    Ich betone nochmals "alles gerüchte!!!!!" sollten sie aber wahr werden wird es für AMD/ATI schwieriger. Andererseits könnte ich nich verstehen warum nVidia auf sowenige Streamprozessoren baut?!
    OMG, Gott hilf mir!!!

    Dieses Denken ist genauso dumm, wie die Leistung einer Graka am VRAM auszumachen! ATI Stream Prozessoren sind NICHT gleich Nvidia Stream Prozessoren!

    Die HD3870 hat derzeit 320 Stream Prozessoren, die 8800GTX aber nur 128 Stream Prozessoren! Die 8800GTX ist aber dennoch schneller als die HD3870.

    Ich zitiere mal einen User aus PCGH:

    Laut AMD/ATI besitzt die Radeon HD 2400 insgesamt 40 Streamprozessoren, welche für die Berechnung von Shaderanweisungen zuständig sind. Um diese Anzahl besser einschätzen zu können, sollen folgende Beispielrechnungen helfen:

    Die Radeon X1950 XTX besitzt beispielsweise insgesamt 56 Shadereinheiten (48 Pixel- und 8 Vertexshader). Jede Einheit kann die Komponenten Rot, Grün, Blau und den Alphawert berechnen. Hier spricht man von 4D.

    Die Geforce 8800 besitzt insgesamt 128 Streamprozessoren. Diese können aber nur eine einzige Komponente berechnen. In diesem Falle sind die Streamprozessoren 1-dimensional (1D). Teilt man nun die 128 Streamprozessoren durch vier, so kommt man auf 32 Pixelshader der alten Technik!

    Die Radeon HD 2400 eigentlich nur 8 "richtige" Streamprozessoren. Diese sind aber in der Lage neben den klassischen Komponenten Rot, Grün, Blau und den Alphawert noch eine weitere 1D-Skalaranweisung zu berechnen. Die Radeon HD 2400 ist demzufolge 5-dimensional (5D). Laut AMD/Ati sind die Streamprozessoren „a 5-way superscalar shader processor“. Im Vergleich zur Geforce 8800, welche nur 1-dimensionale Streamprozessoren besitzt, spricht AMD/ATI zurecht von 40 Streamprozessoren (8 x 5 = 40), denn jeder Streamprozessor auf der Radeon HD 2400 können bis zu 5 Anweisungen parallel zugewiesen werden.

    Zu guter letzt kann man nun noch die Radeon HD 2400 mit der alten Radeon X1950 XTX vergleichen. 56 4-dimensionale Shadereinheiten ergeben nach "der neuen Rechnung" 224 Streamprozessoren (56 x 4 = 224). 40 Streamprozessoren der Radeon HD 2400 sind also alles andere als viel!

    Gleiches gilt andersherum natürlich dann auch für die 320 Streeaming Prozessoren des RV670. Nach alter Technik wären das gerade mal 64 Pixelshader. Das würde zwar imemrnoch gut dem Doppelten des G92 entsprechen, das Verhältnis 64 zu 32 trifft die Sache aber schon eher als 320 zu 128, da man nun annehmen müßte, das der RV670 nur nooch doppelt und nicht mehr 3mal so schnell ist wie ein G92.

    Warum ist der G92 dann aber immer noch schneller?
    Bei der Radeon HD 2xxx-Serie werden der eigentliche Grafikchip (GPU) und die Shadereinheiten identisch getaktet. Bei den Geforce 8xxx-Modellen werden die Shadereinheiten (also die Streamprozessoren) deutlich höher getaktet. So beträgt beispielsweise bei der Geforce 8500 GT der Chiptakt 450 MHz und der Takt der Shadereinheiten 900 MHz.
    Das heißt, die Shader sind doppelt so schnell, 32 können also die Arbeit von 64 verrichten, weshalb der G92 und der RV670 leistungsmäßig in der etwa der gleichen Klasse spielen.

    Das der G92 dann doch immer noch ein Tick schneller ist, liegt möglicherweise daran, das der G92 möglichweise insgesamt höher taktet (wenn man sich die Abwärme angut, glaub ich das gerne) oder aber auch daran, das NVidias Archetektur effezienter ist.
    Leute, ich möchte hier niemanden beleidigen, aber bitte glaubt nicht sofort jeden ******! Und vor allem bitte ich euch diese dumme Amy Denkweise: "Bigger is Better" abzugewöhnen.
    Geändert von HunT (16.03.2008 um 20:49 Uhr)
    "Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
    (Laplace, frz. Astronom u. Mathematiker, 1749-1827)

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •