Seite 2 von 25 ErsteErste 123412 ... LetzteLetzte
Ergebnis 11 bis 20 von 248

Thema: R600 Info

  1. #11
    User Avatar von CrysisMaster
    Registriert seit
    16.02.2006
    Ort
    DE - Hamburg
    Beiträge
    94

    Standard

    Könnte die kommende R600 schon 1024 Mb GDDR4 Speicher
    besitzen ?

    Überall steht, dass sie 512 Mb haben wird. Es steht aber auch,
    dass es nur Spekulation sei.

    Und noch was:
    Wird die R600 sofort 600 € kosten ? Die X1800 XT hat ja am
    Release 520 € gekostet.

  2. #12
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Zitat Zitat von CrysisMaster
    Könnte die kommende R600 schon 1024 Mb GDDR4 Speicher
    besitzen ?
    Also ich habe schon öfter gelesen, dass es die auch mit 1GB GDDR4 Speicher geben soll. Wäre ja egentlich auch der nächst logische Schritt. Spiele wie GRAW benötigen ja schon 512 MB, wenn man alles auf Maximum setzen will.


    Und noch was:
    Wird die R600 sofort 600 € kosten ? Die X1800 XT hat ja am
    Release 520 € gekostet.
    Ich hoffe nicht, aber ich denke so in der Region um die 500 EUR wird die normale Version kosten. Die abgespekten Versionen werden hoffentlich schnell kommen.

    Die X800 XL hat zum Beispiel bei der Einführung "nur" 300 EUR gekostet, als die X800 XT noch über 500 EUR kostete. Und so viel schlechter als die XT ist die XL auch nicht, dass das 200 EUR wert gewesen wäre.

    2 Jahre nach dem Kauf komme ich mit meiner XL immer noch sehr gut aus. Tja. Mit Ausnahme von Crysis. Also muss demnächst ne Neue her.

  3. #13
    Semi Pro Avatar von jodob
    Registriert seit
    12.05.2006
    Beiträge
    1.228

    Standard

    seh ich auch so... meine 68 ultra hat beim release von crysis ausgedient... oblivion muss ich ja schon bremsen, weil es sinst unter 17 fps sinkt...

    die r600 wird bestimmt mit 1 gig speicher rauskommen... nvidia will ja auch dual core karten vom typ G80 mit 1 gig ram rausbrimgen... daher wird der R600 auch mit 1 gig klarkommen können

  4. #14
    Erfahrener User Avatar von Nightspider
    Registriert seit
    17.05.2006
    Beiträge
    285

    Standard

    Also gleich am Anfang wird es sicherlich noch keine Dual Chip Variante geben.

    Dualcore gibt es sowieso nicht, da mann dann auch gleich die Anzahl der Pipes etc. verdoppeln könnte und es nur ein Chip wäre.
    Macht man aber nicht wegen zu hoher Wärmeentwicklung.
    Dual Chip wird aber sicherlich kommen.

    1Gigabyte auf einer Dualchip Variante bringt aber auch keine Vorteile, da jeder Kern dann nur 512 MB hat.
    Also ist es so wie bei normalen 512 MB karten.
    Wenn jeder Kern 1GB haben soll, müssten insgesamt 2GB verbaut sein und das ist zu teuer deshalb wird es sicherlich erstmal keine 2GB Dual Chip Variante geben.
    Besonders, weil GDDR4 Speicher verbaut wird und dieser sicherlich am Anfang sehr teuer ist.

    1GB auf einer einzelnen normalen Karte wird sicherlich als erstes herauskommen.

    Es seidenn, NVIDIA will Multi Chip Varianten nurnoch im High End Segment verkaufen, wodurch normale Single Chip-High End Varianten wie GTX wegfallen.
    Eben so, wie Dualcore den Platz von High End Single Core bei CPUs einnimmt.

    Aber.....ABWARTEN...wir werden schon sehen, welcher Weg nach ROM führt

    PS: Richtiges GPU Dualcore wäre halt nur möglich, indem die Taktrate oder der Stromverbrauch stark gesenkt wird aber da ist Multi Chip schon wahrscheinlicher.

  5. #15
    Administrator Avatar von warpspeed
    Registriert seit
    22.01.2006
    Ort
    Hessen, Germany
    Beiträge
    8.260

    Standard Avatar-Upload geht

    Hi,

    @noxon
    Avatar-Upload ist jetzt möglich .
    Greetings... WarpSpeed FORENREGELN/FORUMRULES

    AMD Ryzen 9 3950X @ 4.1 GHz - Patriot DIMM 32 GB DDR4-4400 - ASUS ROG STRiX X570-E Gaming - Gainward NVIDIA GeForce GTX 2080 Ti Phoenix GS 11GB RAM - Creative Soundblaster AE9-PE - Cooler Master V1200 Platinum (Netzteil) - Corsair Cooling Hydro Series H115i Pro - Monitor-1: Acer Predator CG437KP (43" 4k G-Sync Monitor) / Monitor-2: Samsung Curved UHD TV KU6679 (43" 4k TV) - Razer Cynosa Chroma (Tastatur) - Logitech G502 Proteus Core (Maus) - Logitech G25 (Lenkrad) - MS XBOX360 Gamepad - MS Windows 10 Pro 64Bit

  6. #16
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard Re: Avatar-Upload geht

    Zitat Zitat von warpspeed
    @noxon
    Avatar-Upload ist jetzt möglich .
    Ah danke.

    Habe letztens erst gemerkt, dass ich meinen Avatar bei mir auf dem Webspace gelöscht hatte ohne daran zu denken, dass ich den hier verwende.

    Ich habe mal meinen alten Avatar wieder ausgekramt, obwohl ich in letzter Zeit eigentlich immer diesen hier verwendet habe:


  7. #17
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    WoW

    Wäre echt cool, wenn das stimmt. Der Inquirer hat eigentlich immer recht zuverlässige Informationen.

    64 Pipelines soll der Chip haben? Das muss ja ein riesen Leistungssprung werden im Vergleich zu heutigen Karten. Besonders nVidia muss sich warm anziehen, wenn es stimmt, dass der G80 nur 32 Pipelines haben soll.

  8. #18
    VIP Avatar von foofi
    Registriert seit
    13.05.2006
    Ort
    GER Cologne/Bonn - GR Alex/polis
    Beiträge
    15.210

    Standard

    ja und das geile ist soweit ich weiss das man die Pipes selber einstellen kann wieviele vertex und pixel units eingesetzt werden müssen!

  9. #19
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Jup.

    Mein Vergleich von gerade hinkt allerdings ein wenig. Es ist nicht so, dass 64 Pipelines gegen 32 antreten, sondern 64 universelle Pipelines des R600 gegen 32 Pixel- + 16 Vertex/Geometry-Pipelines des G80.

    Das Problem von nVidia ist halt nur, dass sie nie alle 48 Pipelines voll ausnutzen können, während der R600 alle Pipelines ausreizen kann. Jedenfals theoretisch. Keine Ahnung ob das in der Praxis wirklich funktioniert.

    Außerdem muss man beachten, dass Unified-Shader geringfügig langsamer sind, als spezielle Pixel- und Vertex-Shader. Dafür sind sie aber univeseller nutzbar.

    Naja. Man wird's abwarten müssen, was sich so ergibt und was die ersten Benchmarks zeigen. Ich hoffe nur, dass der Stromverbrauch nicht bei den befürchteten 175 - 200 Watt liegen wird.

    Schade ist auch, dass TSMC anscheinend noch nicht in der Lage ist den R600 in 65 nm zu fertigen. Das soll erst irgendwann im nächsten Jahr möglich sein. Ich weiß allerdings nicht, ob ich darauf warten sollte oder doch einen 80nm Chip nehmen soll.



    //EDIT:

    Ach jetzt habe ich das erst einmal kappiert. 64 MMAD-Einheiten wären gar nicht so ungewöhnlich. Das Sensationelle, wenn es denn stimmen sollte, ist, dass es 64 physikalische Pipelines sind.

    Bisher wurde das immer so gemacht, dass pro Pipeline mehrere MADDs versorgt wurden. Zum Beispiel haben die X1800 und die GeForce 7800 physikalisch gesehen beide nur 8 Pixelpipelines, aber ATi hat 2 MADDs pro Pipeline und nVidia 3 MADDS pro Pipeline angebunden, weswegen die logische Gesamtanzahl von 16 und 24 Pixelpipelines Zustande kommt.

    Was das allerdings für nNchteile hat, wenn sich mehrere MADDs eine Pipeline teilen müssen weiß ich im Moment nicht, aber für jede MADD eine eigene Pipeline zu haben scheint wohl von Vorteil zu sein.

    Wenn es wirklich 64 physikalische Pipelines sind, dann können wir uns echt auf einen riesigen Stromfresser einrichten.

  10. #20
    User
    Registriert seit
    09.09.2006
    Beiträge
    43

    Standard

    r600 is ja der codename wie sollen die dann heiße (nur so ne vermutung RADEON X2800 XTX).
    ach und gibs dann eigentlich auch modello die etwas biliger sind so im vergleich zu einer 7900gt oder X1900 XT.

    Muss glaub mal ne umfrage starten wie viel sich im nächsten Monaten eien R600 oder G80 holen.


    mfg.

Seite 2 von 25 ErsteErste 123412 ... LetzteLetzte

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •