Seite 3 von 73 ErsteErste 123451353 ... LetzteLetzte
Ergebnis 21 bis 30 von 728

Thema: Grafikkarten (allgemeine Diskussion)

  1. #21
    Semi Pro Avatar von dapalme
    Registriert seit
    03.01.2007
    Ort
    HSK (NRW)
    Beiträge
    1.308

    Standard

    Nein die Vertex und Pixelshader waren damals festgelegt wie du selbst geschrieben hast und somit konnte keins eigenständig entscheiden wieviel Speicherplatz usw benutz werden kann... wie gesagt durch DX10 enstehen nich neue Effekte sondern bessere weil hier unabhängig Pixel und VertexShader berechnet werden können bzw zusammen.

    wodurch sonst kann DX10 so hohe feine Partikel oder auch effkete in höherer anzahl schneller berechnen lassen als DX9.0c


  2. #22
    Semi Pro Avatar von pumax
    Registriert seit
    14.01.2007
    Beiträge
    845

    Standard

    lol ich glaub man kann den Thread Namen umbenennen wen ich so sehe über was hier gesprochen wird^^

  3. #23
    User
    Registriert seit
    02.02.2007
    Beiträge
    20

    Standard



    Ok, warte, du verdrehst hier etwas.

    Richtig, die Shader können jetzt frei verwendet werden, das Programm kann sagen welche Shaderberechnung es haben möchte und alle Shader können sich darauf einstellen.
    Aber, das hat nichts aber rein gar nichts, mit dem Grafikspeicher zu tun. Das Bild das die Shader Bearbeiten liegt im Speicher, allerdings ist hier die Größe des Bildes und der Aufwand ausschlaggebend wie viel Speicher verwendet wird. Pro Bild gibts eine Rechnpipeline, diese Pipeline besteht aus viel mehr Rechenschritten als die Shader, die lediglich ein kleinen Teil darstellen. Diese können in keinsterweise sagen sie wollen so oder so viel Speicher haben, da sie innerhalb der Operation nur ein kleiner Teilbereich sind, wichtig, sicherlich, aber eben nur ein Schritt von vielen.
    Kannst hier mal lesen, vielleciht drücken die es versändlicher aus: http://de.wikipedia.org/wiki/Shader#Verarbeitungskette

  4. #24
    VIP Avatar von foofi
    Registriert seit
    13.05.2006
    Ort
    GER Cologne/Bonn - GR Alex/polis
    Beiträge
    15.210

    Standard

    Zitat Zitat von Kaktus79
    Selbst derzeit gibt es kaum ein Spiel das mit 512MB etwas anfangen kann,
    - TES Oblivion
    - Flight Simulator X
    - Rainbow 6 Vegas

    und alle anderen schlecht programmierten Spiele... (Gothic3)

    Titel die bald kommen zählen wir mal auch dazu: Alan Wake, Bioshock S.T.A.L.K.E.R. Crysis u.A.

  5. #25
    User
    Registriert seit
    02.02.2007
    Beiträge
    20

    Standard

    Aber das alles erst ab Auflösungen jenseits von 1280x1024! Zumal in dieser speziellen Auflösung der Vorsprung bei den Karten Marginal bis kaum Vorhanden ist. Oder hast du Benchs die das Gegenteil zeigen? Mir sind keine bekannt, aber ich lasse mich gerne eines besseren belehren.

  6. #26
    Semi Pro Avatar von dapalme
    Registriert seit
    03.01.2007
    Ort
    HSK (NRW)
    Beiträge
    1.308

    Standard

    ich weiß schon was du meinst, aber dann sag mir warum beide unternehmen sowohl Nvidia wie auch AMD/ATI immer mehr Speicher auf eine GraKa packen, die gängiste auflösung ist heutzutage immer noch 1024x768 der trend geht aber in richtung 1280x1024 oder auch widescreen. Jedoch bringt laut deiner aussage der ganze speicherkram erst ab 1600x1200 etwas... warum sollten die also (sagen wir z.B.) 1Gig ram auf eine GraKa packen und dann auch noch gleich GDDR4?! Es hängt eingeutig mit der Physik berechnung etc zusammen... Nvidia entwickelt bzw hat schon eine art Quad-SLI (wird allem anschein nach auf der diesjähriegen Cebit vorgstellt) und hiermit können die ersten beiden GraKas oder auch die ersten 3 Grafiken berechenen und die 4te wird dazu genutzt um Physik teile im Spiel zu berechnen. Das ist deshalb so weil eine GraKa wesentlich mehr berechnen kann als eine CPU... Daher auch der Trend in richtung GPGPU!!! Also ein Prozessor mit CPU und GPU in einem. Ich habe mal gelesen das Nvidias G80 kurz davor ist um x86 befehle auszuführen, bei bestimmter Programmierung (edit: bzw. bestimmten vorraussetzungen) wäre es möglich, die Grafikkarte alleine ein komplexes 3D Programm zum erstellen von Grafiken berechnen zu lassen. allein durch die tatsache das die G80 Platinen 128 StreamPROZESSOREN besitzen mit jeweils 1,3GHz. Das ist nahe dran an einer CPU-GPU einheit! Es hieß sogar das Nvidia sich hier ein patent geben lassen sollte.

    PS.: Das war keine chinesische seite ^^


  7. #27
    VIP Avatar von foofi
    Registriert seit
    13.05.2006
    Ort
    GER Cologne/Bonn - GR Alex/polis
    Beiträge
    15.210

    Standard

    Zitat Zitat von Kaktus79
    Aber das alles erst ab Auflösungen jenseits von 1280x1024!
    nicht wirklich, also nicht bei FSX und Rainbow 6 Vegas...

    Und ich rede hier auch über kommende Spiele.

    Kaufst du dir etwa im April eine 256 MB Karte um im laufe des Jahres dir eine 512 MB oder mehr zu kaufen?

    Zitat Zitat von dapalme
    PS.: Das war keine chinesische seite ^^
    http://www.beareyes.com.cn/2/lib/200...70102054_2.htm

  8. #28
    Semi Pro Avatar von dapalme
    Registriert seit
    03.01.2007
    Ort
    HSK (NRW)
    Beiträge
    1.308

    Standard

    Zitat Zitat von foofi
    Zitat Zitat von dapalme
    PS.: Das war keine chinesische seite ^^
    http://www.beareyes.com.cn/2/lib/200...70102054_2.htm
    ey na warte wenn ich dich kriege..... ^^

    ich such mal die seite mom

    also ich weiß nur das es mit Nvidias CUDA technologie zu tun hat die mit dem G80 mit drin ist


  9. #29
    VIP Avatar von foofi
    Registriert seit
    13.05.2006
    Ort
    GER Cologne/Bonn - GR Alex/polis
    Beiträge
    15.210

    Standard

    Zitat Zitat von Kaktus79
    Ui.. langsam wird es schwierig.... *g*!

    Wo fang ich an......

    Speicher:
    Sicher ist schnellerer Speicher wichtig, keine Frage, es geht mir auch mehr um die größe des Speichers der ungenutzt bleibt. Im ernst, es ist eher ein Marketing Trick als wirklich nützlich. Keiner würde heute einem Hersteller glauben das seine Karte eine High End Karte ist wen sie nur 256MB Speicher hätte. Es gibt ja auch eine X1600pro mit 512MB, was ja auch völlig Witzlos ist. Bei den super High End Karten ist es so, da diese für enorme Auflösungen gebaut werden und da auch der Speicher genutzt wird. Man geht einfach davon aus das der Hardcore Gamer Auflösungen ab 1600x1200 fährt, tun ja auch viele, aber eben nicht alle. Man wird demnächst sehen was ich meine, wen die 8800GTS mit 320MB auf den Markt kommt. Diese mit der aktuellen 640MB Version verglichen wird man erst Unterschiede in höheren Auflösungen sehen.
    Die Speicherbandbreite an sich wirkt sich nur aus wen die GPU aus mitziehen kann. Und eine 8800GTX dürfte bei dieser Speicherbandbreite schon ziemlich ausgeschöpft sein. Einfach nur den Speichertakt zu erhöhen wird kaum etwas bringen wen man nicht parallel den GPU Takt mit erhöht. Das muss im Gleichgewicht sein. Ich habe meine X1900GT im Speichertakt höher als eine X1900XT, aber es bringt mir eigentlich nichts ob ich diesen mit 1400Mhz oder 1640Mhz laufen lasse, einfach weil die GPU nicht mehr mitkommt, so sieht es auch ähnlich bei der 8800GTX und 8800GTS aus.

    Quad SLI!
    Für was ist das den genau ausgelegt? Für 1280x1024? Bestimmt nicht. Es ist die Möglichkeit extrem hohe Auflösungen flüssig darzustellen, bei den Standard Auflösungen macht SLI kaum Sinn, da das System völlig unterfordert ist. Die Sache mit der Physik Berechnung auf einer Seperaten Grafikkarte ist noch ein wenig Zukunftsmusik und wird bisher nicht unterstützt. Wünschenswert wäre diese Lösung für High End Gamer sicherlich, da die wichtige Floting Point Berechnung bei einer Grafikkarte teilweise um da 20ig Fache höher ist als bei einer CPU die dafür schlichtweg nicht ausgelegt ist. Eine kleine zweite oder dritte Grafikkarte kölnnte diese Berechnung spielend übernehmen, richtig. Aber es hat sich noch nicht durchgesetzt. Abwarten. Ich hoffe es, den es hat mehr Vorteile als eine PhysikX Karte, die lediglich Effektphysik darstellen kann und keine echte Spielephysik, was in meinen Augen etwas erbärmlich ist.

    So.. hab ich was vergessen? Das Thema wird immer größer

    Achja.. das nVidias G80 GPU schon ziemlich einer CPU ähnelt ist bekannt.... aber das sagt kaum etwas über die Leistung aus. Nur das man Theoretisch die GPU als CPU verwenden könnte.. zumindest fast. Einige überhebliche Fachleute munkeln das nVidia ins CPU Geschäft will. Bedenkt man aber wie winzig die Reccourcen nVidias im Gegensatz zu AMD oder Intel sind, ziemlich unwahrscheinlich. ATI war für AMD auch nur ein etwas größerer Einkauf, der aber aus der Portotasche bezahlt wurde.

  10. #30
    Semi Pro Avatar von dapalme
    Registriert seit
    03.01.2007
    Ort
    HSK (NRW)
    Beiträge
    1.308

    Standard

    danke foofi... knutschaaaa....

    so also ich habe dir denn link oben gepostet und das ist wirklich so das Nvidias G80 die Physik in Spielen übernehmen kann, das ist auchschon länger bekannt unter dem namen HAVOK richtig?!

    Was meinst du wofür Havok ausgelegt ist, das sich die GPU nen teil davon schnappt und es mit berechnet!!! CRYSIS wird laut aussage von Jevat keine AGAIA PHYSIKS karten unterstützen bzw brauchen. Wenn ich das interview weiter richtig verfolgt habe wird die 2te oder dritte GraKa durch Cry Physik entwickelung genutzt! bzw kann dafür benutzt werden.

    Wenn ich die möglichkeit hätte eine 8800GTX mit 256MB 512MB und auch 768MB zu testen würde schon auffallen auch bei "nur" 1240x1028 mit AA und AF auf höchste einstellungen und qualitätsstufe die unteren GraKas völligst brach liegen und der bench schlechter ausfällt!

    EDIT:

    hey foofi eine nachricht hast du vergessen... *grummel*

    hier z.B. ein Interview mit Nvidia:
    http://www.beat.de/~beatdownload/bea..._interview.pdf

    bitte genau lesen


Seite 3 von 73 ErsteErste 123451353 ... LetzteLetzte

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •