Seite 4 von 4 ErsteErste ... 234
Ergebnis 31 bis 40 von 40

Thema: Schock für Nvidia?

  1. #31
    Semi Pro Avatar von dapalme
    Registriert seit
    03.01.2007
    Ort
    HSK (NRW)
    Beiträge
    1.308

    Standard

    Zitat Zitat von Scud Beitrag anzeigen
    dann zeig uns bitte wo du ZURZEIT eine 9800gx2 kaufen kannst....
    achso, du meinst auf den einen monat kommt es an oder wie?! wenn es so wie bei ATI läuft das die neue generation sich um nen halbes jahr verschiebt ok ^^ lol


  2. #32
    User
    Registriert seit
    03.12.2007
    Beiträge
    40

    Standard

    naja wenn man schon etwas "quoted" und dadrauf eine antwort gibt, sollte es schon richtig sein.
    Asus P5B Deluxe auf dem stecken
    C2D E6300@3,3ghz | 2gb G.Skill 6400 cl4 | 8800gt 512mb | SB Audigy 4

  3. #33
    Semi Pro Avatar von dapalme
    Registriert seit
    03.01.2007
    Ort
    HSK (NRW)
    Beiträge
    1.308

    Standard

    Zitat Zitat von Scud Beitrag anzeigen
    naja wenn man schon etwas "quoted" und dadrauf eine antwort gibt, sollte es schon richtig sein.
    letzendlich giung es da um den Test von CB wo nVidia's 9800GX2 mal wieder ATI eingeholt hat, inkl noch nich finalem Treiber für die GraKa ^^

    Nvidia bräuchte echt mal nen Dämpfer aber das wird leider noch etwas dauern

    Wenn ATI wirklich ne MegaKarte mit 800 StreamProzis hat, dann hoffe ich das es keine "mehrkern" GPU wird weil dann wird es denk ich nich soviel bringen

    Glaubt man den Spezifikationen für den G100 bzw G200 dann könnte das eine harte nuss für AMD/ATI werden. Wenn ich das noch richtig in erinnerung habe dann sollte auf dem teil 1 oder 2 GB GDDR5 Speicher verbaut werden mit sage und schreibe 2200MHz inkl 780MHz GPU takt und 512bit Speicheranbindung wodurch eine Bandbreite von gut 205.000 MB/s erreicht werden könnten.

    EDIT: (wie glaubwürdig auch immer, heutzutage is einigesw möglich!!!)

    Hier die daten wie ich sie gefunden hatte:

    Codename: G100
    Herstellung in 65 nm
    256 Stream-Prozessoren
    780 MHz Chiptakt
    3.200 MHz Speichertakt
    512 Bit Speicherinterface
    2.048 MB (256 X 8 GDDR5 (0.25-0.5 ns)
    Dual DVI
    Unterstützung für DirectX 10.1, VP3 <LI class=last-child>15–25 Prozent geringere TDP als GeForce 8800 GTS

    Ich betone nochmals "alles gerüchte!!!!!" sollten sie aber wahr werden wird es für AMD/ATI schwieriger. Andererseits könnte ich nich verstehen warum nVidia auf sowenige Streamprozessoren baut?!
    Geändert von dapalme (16.03.2008 um 18:01 Uhr)


  4. #34
    Professional Avatar von HunT
    Registriert seit
    19.12.2007
    Beiträge
    2.857

    Standard

    Zitat Zitat von dapalme Beitrag anzeigen
    letzendlich giung es da um den Test von CB wo nVidia's 9800GX2 mal wieder ATI eingeholt hat, inkl noch nich finalem Treiber für die GraKa ^^

    Nvidia bräuchte echt mal nen Dämpfer aber das wird leider noch etwas dauern

    Wenn ATI wirklich ne MegaKarte mit 800 StreamProzis hat, dann hoffe ich das es keine "mehrkern" GPU wird weil dann wird es denk ich nich soviel bringen

    Glaubt man den Spezifikationen für den G100 bzw G200 dann könnte das eine harte nuss für AMD/ATI werden. Wenn ich das noch richtig in erinnerung habe dann sollte auf dem teil 1 oder 2 GB GDDR5 Speicher verbaut werden mit sage und schreibe 2200MHz inkl 780MHz GPU takt und 512bit Speicheranbindung wodurch eine Bandbreite von gut 205.000 MB/s erreicht werden könnten.

    EDIT: (wie glaubwürdig auch immer, heutzutage is einigesw möglich!!!)

    Hier die daten wie ich sie gefunden hatte:

    Codename: G100
    Herstellung in 65 nm
    256 Stream-Prozessoren
    780 MHz Chiptakt
    3.200 MHz Speichertakt
    512 Bit Speicherinterface
    2.048 MB (256 X 8 GDDR5 (0.25-0.5 ns)
    Dual DVI
    Unterstützung für DirectX 10.1, VP3 <LI class=last-child>15–25 Prozent geringere TDP als GeForce 8800 GTS

    Ich betone nochmals "alles gerüchte!!!!!" sollten sie aber wahr werden wird es für AMD/ATI schwieriger. Andererseits könnte ich nich verstehen warum nVidia auf sowenige Streamprozessoren baut?!
    OMG, Gott hilf mir!!!

    Dieses Denken ist genauso dumm, wie die Leistung einer Graka am VRAM auszumachen! ATI Stream Prozessoren sind NICHT gleich Nvidia Stream Prozessoren!

    Die HD3870 hat derzeit 320 Stream Prozessoren, die 8800GTX aber nur 128 Stream Prozessoren! Die 8800GTX ist aber dennoch schneller als die HD3870.

    Ich zitiere mal einen User aus PCGH:

    Laut AMD/ATI besitzt die Radeon HD 2400 insgesamt 40 Streamprozessoren, welche für die Berechnung von Shaderanweisungen zuständig sind. Um diese Anzahl besser einschätzen zu können, sollen folgende Beispielrechnungen helfen:

    Die Radeon X1950 XTX besitzt beispielsweise insgesamt 56 Shadereinheiten (48 Pixel- und 8 Vertexshader). Jede Einheit kann die Komponenten Rot, Grün, Blau und den Alphawert berechnen. Hier spricht man von 4D.

    Die Geforce 8800 besitzt insgesamt 128 Streamprozessoren. Diese können aber nur eine einzige Komponente berechnen. In diesem Falle sind die Streamprozessoren 1-dimensional (1D). Teilt man nun die 128 Streamprozessoren durch vier, so kommt man auf 32 Pixelshader der alten Technik!

    Die Radeon HD 2400 eigentlich nur 8 "richtige" Streamprozessoren. Diese sind aber in der Lage neben den klassischen Komponenten Rot, Grün, Blau und den Alphawert noch eine weitere 1D-Skalaranweisung zu berechnen. Die Radeon HD 2400 ist demzufolge 5-dimensional (5D). Laut AMD/Ati sind die Streamprozessoren „a 5-way superscalar shader processor“. Im Vergleich zur Geforce 8800, welche nur 1-dimensionale Streamprozessoren besitzt, spricht AMD/ATI zurecht von 40 Streamprozessoren (8 x 5 = 40), denn jeder Streamprozessor auf der Radeon HD 2400 können bis zu 5 Anweisungen parallel zugewiesen werden.

    Zu guter letzt kann man nun noch die Radeon HD 2400 mit der alten Radeon X1950 XTX vergleichen. 56 4-dimensionale Shadereinheiten ergeben nach "der neuen Rechnung" 224 Streamprozessoren (56 x 4 = 224). 40 Streamprozessoren der Radeon HD 2400 sind also alles andere als viel!

    Gleiches gilt andersherum natürlich dann auch für die 320 Streeaming Prozessoren des RV670. Nach alter Technik wären das gerade mal 64 Pixelshader. Das würde zwar imemrnoch gut dem Doppelten des G92 entsprechen, das Verhältnis 64 zu 32 trifft die Sache aber schon eher als 320 zu 128, da man nun annehmen müßte, das der RV670 nur nooch doppelt und nicht mehr 3mal so schnell ist wie ein G92.

    Warum ist der G92 dann aber immer noch schneller?
    Bei der Radeon HD 2xxx-Serie werden der eigentliche Grafikchip (GPU) und die Shadereinheiten identisch getaktet. Bei den Geforce 8xxx-Modellen werden die Shadereinheiten (also die Streamprozessoren) deutlich höher getaktet. So beträgt beispielsweise bei der Geforce 8500 GT der Chiptakt 450 MHz und der Takt der Shadereinheiten 900 MHz.
    Das heißt, die Shader sind doppelt so schnell, 32 können also die Arbeit von 64 verrichten, weshalb der G92 und der RV670 leistungsmäßig in der etwa der gleichen Klasse spielen.

    Das der G92 dann doch immer noch ein Tick schneller ist, liegt möglicherweise daran, das der G92 möglichweise insgesamt höher taktet (wenn man sich die Abwärme angut, glaub ich das gerne) oder aber auch daran, das NVidias Archetektur effezienter ist.
    Leute, ich möchte hier niemanden beleidigen, aber bitte glaubt nicht sofort jeden ******! Und vor allem bitte ich euch diese dumme Amy Denkweise: "Bigger is Better" abzugewöhnen.
    Geändert von HunT (16.03.2008 um 20:49 Uhr)
    "Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
    (Laplace, frz. Astronom u. Mathematiker, 1749-1827)

  5. #35
    Erfahrener User
    Registriert seit
    29.10.2007
    Beiträge
    324

    Standard

    Zitat Zitat von ExeQtor Beitrag anzeigen
    Wie Mike Magee, schreibt, soll AMD etwas in der Hinterhand haben, was einer Schockbehandlung für Nvidia gleichkommen würde. Worum es sich handelt, ist natürlich nicht bekannt. Ausserdem vermutet Magee, dass Nvidia selbst noch einiges in petto hätte.

    Sind wir jetzt schlauer? Nein!

    Das ist wie wenn ich sage, Wolfsburg soll den Riesenvorteil gegenüber Bayern haben. Warum? keines Ahnung! Aber total krass ey alter, aber Bayern hat auch was krasses in der Hinterhand...


    So ein Riesenmüll... Sorry... Aber die Meldung hat in etwa so viel Gehalt wie der Haufen den ich eben ins Klo gejagt hab...
    AMD 2x 2,6, 8800 GTS, 2 Gig RAM

  6. #36
    Erfahrener User Avatar von PIMP50
    Registriert seit
    04.07.2006
    Beiträge
    652

    Standard

    wäre schon wenns so wär aba es is nur eine spekulation!!! mehr auch net! ich glaub es ers wenn ich so ne graka in meinen pc habe! nvidia und amd/ati sollen endlich mal ne nextgen rausbringen.. g92 und rv670 sind nen dreck! nix anderes als nen g80 und nen r600!



  7. #37
    Nixblicker
    Gast

    Standard

    Zitat Zitat von PIMP50 Beitrag anzeigen
    wäre schon wenns so wär aba es is nur eine spekulation!!! mehr auch net! ich glaub es ers wenn ich so ne graka in meinen pc habe! nvidia und amd/ati sollen endlich mal ne nextgen rausbringen.. g92 und rv670 sind nen dreck! nix anderes als nen g80 und nen r600!
    also ich habe eine 8800GT und ich finde die garnicht dreck
    oder wie meinste das jetzt ?

  8. #38
    Erfahrener User Avatar von PIMP50
    Registriert seit
    04.07.2006
    Beiträge
    652

    Standard

    ich hab ne hd3870/rv670 und finde sie auch gut..aba es sind keine nextgen grakas wie der name vermuten lässt! g92 is auch nur nen bisl bessere g80 mehr net!



  9. #39
    Nixblicker
    Gast

    Standard

    Zitat Zitat von PIMP50 Beitrag anzeigen
    ich hab ne hd3870/rv670 und finde sie auch gut..aba es sind keine nextgen grakas wie der name vermuten lässt! g92 is auch nur nen bisl bessere g80 mehr net!
    NextGen heißt erst bei mir, 80% mehr leistung als eine 8800Ultra/8800GT !

  10. #40
    Professional Avatar von -THRiLLiAL-
    Registriert seit
    16.10.2007
    Beiträge
    2.343

    Standard

    Zitat Zitat von PIMP50 Beitrag anzeigen
    g92 is auch nur nen bisl bessere g80 mehr net!
    kommt drauf an in welcher hinsicht!! in den höheren resis kann kein g92 dem g80 des wasser reichen! es muss sich jetzt keiner hier die mühe machen und was anderes behaupten, denn es ist fakt! aber hier gehts ja eig um was anderes, worüber man gar noch nix sagen kann, weil nix wirk festes bekannt ist .. eig mehr oder weniger sinnlos und zudem sorgt es wieder 1x mehr für flames und aufhetzung der user hier. ist ja "schön", wenn ein konkurrenzkampf herrscht, aber schon nur der satz "schock für nvidia" sorgt wieder riesig für aufruhr. warten wir doch erst ma ab und sind vernünftig ..
    Geändert von -THRiLLiAL- (16.03.2008 um 22:34 Uhr)


Seite 4 von 4 ErsteErste ... 234

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •