Hier findet ihr Informationen zu ATI's noch erscheinenden R600 GPU.
Klick mich
Druckbare Version
Hier findet ihr Informationen zu ATI's noch erscheinenden R600 GPU.
Klick mich
Hi,
Schick :D. Sogar DX10 kompatibel.
Mal schauen was NVIDIA dagegen setzt.
PS: THX for the info :).
Schon ein wenig alt, aber leider, GameStar typisch, nichtssagend.
Hier mal etwas detailiertere Infos zu der R600 und deren Spezifikationen:
- tcmagazine.info berichtet über die Spezifikationen des Next-Generation Grafikchips R600 von ATI. Die Spezifikationen sollen wie folgt lauten:
# 64 Shader pipelines (Vec4+Scalar)
# 32 TMU's
# 32 ROPs
# 128 Shader Operationen pro Zyklus
# 800 MHz Chip Takt
# 104,2 Milliarden Shaderoperationen pro Sekunde
# 512 GFLOPs for the shaders
# 2 Milliarden triangles/sec
# 25,6 Gpixels/Gtexels/sec
# 256-bit 512MB 1.8GHz GDDR4 Memory
# 57,6 GB (theoretische) Bandbreite (bei 1.8GHz Ramtakt)
# WGF2.0 Unified Shader
Neben neuem GDDR4 Speicher soll der R600 auch in 65µ feinen Strukturen gefertigt werden, um somit die Stromaufnahme und Verlustleistung senken zu können und gleichzeitig die Taktrate des Chips anheben zu können.
All das sind Spekulationen über eine Karte die Ende des nächsten Jahres erscheinen soll, somit können die Informationen nicht als sichere Spezifikation angesehen werden und sollten unter der Kategorie 'Gerüchteküche' abgelegt werden.
Hi,
wieso steht da "...über eine Karte die Ende des nächsten Jahres erscheinen soll..."? Dachte die kommt Ende diesen Jahres (2006) raus?! Oder sind diese Infos auch schon etwas älter ;)?
o0ps.
Hab ich doch glatt vergessen: Stand Dienstag, 21. Juni 2005
hehehe, das erklärt es :cool:.
*heul* wo ist mein Avatar?!?!
Hi,
@Adem67
Öhm... dann Avatar ;)... bitte max 130 Pixel breit und max 160 hoch. DANKE!
Wo wir gerade dabei sind. Warum darf man keine Avatare hochladen, sondern kann sie nur verlinken?
Ja das ist mir auch schon aufgefallen,
werde da mal mich mit Warp zusammen setzen und mal einige Punkte klären zum Forum und zur Seite.
Aber aufgepasst.
Im Zuge der kommenden Website, die hier in einigen Tage oder wohl möglich auch in eingen Wochen erst, hier ihr Tageslicht erblicken wird, wird es auch einige Neuerungen mit sich bringen. Dazu werde ich aber einen seperaten Topic aufmachen und einiges mal euch offerieren, damit ihr auch bescheid wisst was da auf euch zukommt und worauf ihr uns auch eure Meinung sage könnt.
Kritik, Empfehlungen und Wünsche sind da drin dann natürlich herzlich willkommen.
Dazu aber später mehr wie gesagt.
Könnte die kommende R600 schon 1024 Mb GDDR4 Speicher
besitzen ?
Überall steht, dass sie 512 Mb haben wird. Es steht aber auch,
dass es nur Spekulation sei.
Und noch was:
Wird die R600 sofort 600 € kosten ? Die X1800 XT hat ja am
Release 520 € gekostet.
Also ich habe schon öfter gelesen, dass es die auch mit 1GB GDDR4 Speicher geben soll. Wäre ja egentlich auch der nächst logische Schritt. Spiele wie GRAW benötigen ja schon 512 MB, wenn man alles auf Maximum setzen will.Zitat:
Zitat von CrysisMaster
Ich hoffe nicht, aber ich denke so in der Region um die 500 EUR wird die normale Version kosten. Die abgespekten Versionen werden hoffentlich schnell kommen.Zitat:
Und noch was:
Wird die R600 sofort 600 € kosten ? Die X1800 XT hat ja am
Release 520 € gekostet.
Die X800 XL hat zum Beispiel bei der Einführung "nur" 300 EUR gekostet, als die X800 XT noch über 500 EUR kostete. Und so viel schlechter als die XT ist die XL auch nicht, dass das 200 EUR wert gewesen wäre.
2 Jahre nach dem Kauf komme ich mit meiner XL immer noch sehr gut aus. Tja. Mit Ausnahme von Crysis. Also muss demnächst ne Neue her. ;)
seh ich auch so... meine 68 ultra hat beim release von crysis ausgedient... oblivion muss ich ja schon bremsen, weil es sinst unter 17 fps sinkt...
die r600 wird bestimmt mit 1 gig speicher rauskommen... nvidia will ja auch dual core karten vom typ G80 mit 1 gig ram rausbrimgen... daher wird der R600 auch mit 1 gig klarkommen können
Also gleich am Anfang wird es sicherlich noch keine Dual Chip Variante geben.
Dualcore gibt es sowieso nicht, da mann dann auch gleich die Anzahl der Pipes etc. verdoppeln könnte und es nur ein Chip wäre.
Macht man aber nicht wegen zu hoher Wärmeentwicklung.
Dual Chip wird aber sicherlich kommen.
1Gigabyte auf einer Dualchip Variante bringt aber auch keine Vorteile, da jeder Kern dann nur 512 MB hat.
Also ist es so wie bei normalen 512 MB karten.
Wenn jeder Kern 1GB haben soll, müssten insgesamt 2GB verbaut sein und das ist zu teuer deshalb wird es sicherlich erstmal keine 2GB Dual Chip Variante geben.
Besonders, weil GDDR4 Speicher verbaut wird und dieser sicherlich am Anfang sehr teuer ist.
1GB auf einer einzelnen normalen Karte wird sicherlich als erstes herauskommen.
Es seidenn, NVIDIA will Multi Chip Varianten nurnoch im High End Segment verkaufen, wodurch normale Single Chip-High End Varianten wie GTX wegfallen.
Eben so, wie Dualcore den Platz von High End Single Core bei CPUs einnimmt.
Aber.....ABWARTEN...wir werden schon sehen, welcher Weg nach ROM führt ;) :D
PS: Richtiges GPU Dualcore wäre halt nur möglich, indem die Taktrate oder der Stromverbrauch stark gesenkt wird aber da ist Multi Chip schon wahrscheinlicher.
Hi,
@noxon
Avatar-Upload ist jetzt möglich :D.
Ah danke.Zitat:
Zitat von warpspeed
Habe letztens erst gemerkt, dass ich meinen Avatar bei mir auf dem Webspace gelöscht hatte ohne daran zu denken, dass ich den hier verwende. :)
Ich habe mal meinen alten Avatar wieder ausgekramt, obwohl ich in letzter Zeit eigentlich immer diesen hier verwendet habe:
http://www.gameslowdown.de//forum/im...xon_avatar.gif
WoW
Wäre echt cool, wenn das stimmt. Der Inquirer hat eigentlich immer recht zuverlässige Informationen.
64 Pipelines soll der Chip haben? Das muss ja ein riesen Leistungssprung werden im Vergleich zu heutigen Karten. Besonders nVidia muss sich warm anziehen, wenn es stimmt, dass der G80 nur 32 Pipelines haben soll.
ja und das geile ist soweit ich weiss das man die Pipes selber einstellen kann wieviele vertex und pixel units eingesetzt werden müssen! ;)
Jup.
Mein Vergleich von gerade hinkt allerdings ein wenig. Es ist nicht so, dass 64 Pipelines gegen 32 antreten, sondern 64 universelle Pipelines des R600 gegen 32 Pixel- + 16 Vertex/Geometry-Pipelines des G80.
Das Problem von nVidia ist halt nur, dass sie nie alle 48 Pipelines voll ausnutzen können, während der R600 alle Pipelines ausreizen kann. Jedenfals theoretisch. Keine Ahnung ob das in der Praxis wirklich funktioniert.
Außerdem muss man beachten, dass Unified-Shader geringfügig langsamer sind, als spezielle Pixel- und Vertex-Shader. Dafür sind sie aber univeseller nutzbar.
Naja. Man wird's abwarten müssen, was sich so ergibt und was die ersten Benchmarks zeigen. Ich hoffe nur, dass der Stromverbrauch nicht bei den befürchteten 175 - 200 Watt liegen wird.
Schade ist auch, dass TSMC anscheinend noch nicht in der Lage ist den R600 in 65 nm zu fertigen. Das soll erst irgendwann im nächsten Jahr möglich sein. Ich weiß allerdings nicht, ob ich darauf warten sollte oder doch einen 80nm Chip nehmen soll.
//EDIT:
Ach jetzt habe ich das erst einmal kappiert. 64 MMAD-Einheiten wären gar nicht so ungewöhnlich. Das Sensationelle, wenn es denn stimmen sollte, ist, dass es 64 physikalische Pipelines sind.
Bisher wurde das immer so gemacht, dass pro Pipeline mehrere MADDs versorgt wurden. Zum Beispiel haben die X1800 und die GeForce 7800 physikalisch gesehen beide nur 8 Pixelpipelines, aber ATi hat 2 MADDs pro Pipeline und nVidia 3 MADDS pro Pipeline angebunden, weswegen die logische Gesamtanzahl von 16 und 24 Pixelpipelines Zustande kommt.
Was das allerdings für nNchteile hat, wenn sich mehrere MADDs eine Pipeline teilen müssen weiß ich im Moment nicht, aber für jede MADD eine eigene Pipeline zu haben scheint wohl von Vorteil zu sein.
Wenn es wirklich 64 physikalische Pipelines sind, dann können wir uns echt auf einen riesigen Stromfresser einrichten.
r600 is ja der codename wie sollen die dann heiße (nur so ne vermutung RADEON X2800 XTX).
ach und gibs dann eigentlich auch modello die etwas biliger sind so im vergleich zu einer 7900gt oder X1900 XT.
Muss glaub mal ne umfrage starten wie viel sich im nächsten Monaten eien R600 oder G80 holen.
mfg.
Also ich schätze auch, dass ATi jetzt eine X2000'er Serie beginnt.
Zuerst wird es wieder die X2800 in allen möglichen Versionen sein.
Kurze Zeit danach wird es auch günstigere, abgespekte X2200'er - X2700'er Versionen geben.
Neues von ATi: Die R600 verbraucht bei Vollast ca. 180 Watt. Bei der dreifachen Crossfirelösung ist auch kein 1000 Watt Netzteil notwendig, da ein paar Kartenmodelle eine separate Stromlösung (externes Netzteil) haben werden.
Diese Gerüchte sind ja schon seit Ewigkeiten im Umlauf, aber Beweise gibt es dafür noch keine.
Di Stromaufnahme wird, ohne Zweifel, sehr hoch sein, aber ich weiß nicht, ob die wirklich so viel verbraten wird. Das ist ja kaum noch mit einer Luftkühlung zu kühlen.
Ich würde bei diesen Angaben recht vorsichtig sein. Es ist ja noch nciht einmal bekannt wie der chip aufgebaut sein wird und wie viele Transistoren er haben wird.
Naja. einfach mal abwarten. Ich erwarte zwar auch nichts Gutes, aber ich hoffe auf Besserung, wenn ATi auf 65 nm sechselt. Das kann allerdings noch ein Weilchen dauern bis solche großen Prozessoren wie GPUs in 65nm gefertigt werden können.
Eigentlich würde ich ja gerne bis dahin mit dem Kauf so einer Karte warten.
Es gibt mal wieder etwas Neues zum R600.
Wenn das stimmt, das wäre ja schon nicht schlecht. The Inquirer. Ich würde da zwar vorsichtig sein, was diese Gerüchte angeht, aber trotzdem darf man mal träumen.
Hier mal eine kleine Übersichtmüber die angeblichen Leistungsdaten:
1,1GHz GDDR4 @ 512Bit SI = 140GB/s (8800GTX: 86GB/s)
64 Shader 4-way SIMD = 256 Shader (8800GTX: 128 Shader)
16 ROPs @ 750MHz = 12bp (8800GTX: 13,8bp)
Man muss hier aber auch die Taktraten vergleichen. Zwar hat der R600 theoretisch doppelt so viele Shadereinheiten, aber wenn die nur halb so schnell getaktet sind wie die das G80, dessen Shader mit 1350 MHz getaktet sind, sind sie wieder gleich auf.
Des Weiteren hängen beim R600 an einem Shader ganze 4 Rops. Das kann Vor- aber auch Nachteile haben. Der R600 hätte somit die Möglichkeit einen kompletten Pixel, (r,g,b + Alpha) in einem Rutsch zu berechnen, während der G80 vier Durchläufe dafür bräuchte.
Wenn ein Spiel solche Operationen aber nicht erfordert, dann kann es sein, dass große Teile des R600 brach liegen. Das hängt dann vom Spiel ab, ob die Shadereinheiten effizient genutzt werden oder nicht.
Letztendlich lässt sich trotz der Daten nicht viel über die Leistung des Chips sagen. Trotzdem ist es schön mal wieder was vom R600 zu hören, damit man mal wieder was zu spekulieren hat. ;)
Klingt sehr vielversprechend... :).
Ich hole mir aber trotzdem die G80... Leider kann mein Händler sie noch nicht liefern... evtl. nächste Woche oder so :D.
sorry wegen offtopic aber @warpspeed welche Marke hast du dir bestellt?
Bestellt so dorekt keine... ich nehme die, die zuerst da ist. Und wie es aussieht ist das diese hier (ist wohl schon zu haben):
http://www.alternate.de/pix/prodpic/...0/j/jbxvg1.jpg
http://www.alternate.de/html/product...l?artno=JBXVG1
Wenn die die wirklich auf Lager haben, habe ich die am Samstag :D.
Hi warpspeed,
bevor du die 8800 GTX bei Alternate kaufst wollte ich dich auf das
Angebot aufmerksam machen: http://geizhals.at/deutschland/a225878.html
650 € sind einwenig viel, 510 € machens auch :wink:
Wir haben beide das Gleiche MoBo. Ich bin gespannt ob die 28 cm lange
Karte überhaupt passt.[/url]
Das MoBo sollte da keine grosse Schwierigkeiten machen, eher vieleicht das Gehäuse... sollte aber passen ;)Zitat:
Zitat von CrysisMaster
bei meinem thermal take soprano würde es knapp werden :?
Hier gibt's schon ein paar Bilder des Chips.
Aufgrund der Bilder wird schon wieder heftigst diskuttiert. Zum Einen ist der Chip wohl sehr groß, was die m eisten ein wenig verwundert hat. Da er in 80nm gefertigt wird und nicht wie der G80 in 90nm hätte man ihn eigentlich kleiner erwartet.
Zum Anderen verwundert ein wenig die 45° Drehung des Chips. Einige meinen, dass das auf einen großen Speicherbus hinweisen könnte.
Man munkelt über 512 Bit, aber ich persönlich halte das eher für Wunschdenken.
//EDIT:
Hier sind noch ein paar. Also wenn das nicht viele Pins sind, dann weiß ich's auch nicht. :)
http://www.iamxtreme.net/andre/R600_1.jpg
http://www.iamxtreme.net/andre/R600_2.jpg
http://www.iamxtreme.net/andre/R600_3.jpg
Einige haben es versucht zu zählen und sind auf 2140 Pins gekommen. Der G80 hat 1557.
Das ist schon Irrsinn was der R600 für Pins hat und macht ein 512 Bit Interface vielleicht doch etwas wahrscheinlicher.
O.O ich warte definitiv auf die R600!!
Also irgend eine Überraschung hat ATi definitiv noch in der Hinetrhand.
So viele Pins werden normalerweise nicht benötigt.
Das wäre echt geil, wenn das wirklich eine 512 Bit Speicheranbindung wäre. Dazu noch mit schnellen GDDR4 Rams.
Mit so einer Speicheranbindung wird man irrsinnig hohe AA, AF und HDR Settings bei sehr hohen Auflösungen nutzen können.
Jemand hat aber auch vermutet, dass die Pins eventuell auch für einen Ringbus verwendet werden könnten um somit beliebig viele GPUs bequem zusammenschalten zu können.
Für mich wäre das allerdings weit weniger interessant.
http://www.computerbase.de/news/hard...der_atis_r600/
hier ein paar "infos"
und hier die nächste Generation R700
http://www.hardware-infos.com/news.php?news=690
der chip sieht ja echt gewaltig aus, bleibt zu hoffen, dass der mit ner anständigen kühlung, ala zalman oder arctic cooling auch overclocked noch recht kühl zu betreiben ist, falls nicht, montiert man halt einfach nen scythe infinythe an die graka ;)
Und hier auch nochmal:
http://www.hardwareluxx.de/story.php?id=4923
Ist zwar alles das gleiche,aber...
Hehe.
Hardwareluxx hat wohl in Mathe nicht richtig aufgepasst.
60°? :?Zitat:
Am auffälligsten ist dabei die um 60 Grad gedrehte Position der GPU.
Ich als nicht Geometriefreak sage mal 45° - richtig?Zitat:
Zitat von noxon
wenn manns genau nehmen will und vom Schriftzug ausgeht -45°! :wink: 8)
releasedate 20.1.07-glaube kaum dass man etwas am wochende released (in diesem fall wäre es samstag)
Am 20.01 fällt das NDA. Ab da darf also offiziell über die Karte berichtet werden und man wird eine Menge Benchmarks am WE zu lesen bekommen. :)
ich denke, da wird auch vorher schon ne menge durchfliessen, an benchmarks, etc.
ich poste dann mal wieder extreme benchmarks mit ln2 und co. 8)
die ersten dei es nicht abwarten können ihre benches mit dem r600 reinzustellen werden wohl (wie immer) die typen vom xs forum sein.
heh, genau dort werden wir wohl auch die ersten benches finden, oder auf einer der anderen grossen benching sites, irgendwo tauchen immer was auf, naja., wir können ja abwarten, gibt ja sowieso noch keine dx10 software, von daher :wink:
http://www.pcgameshardware.de/?article_id=530120
wenn die spekulationen stimmen lohnt das warten ja immer mehr 8)
genau deshalb hab ich den hype um den g80 an mir vorbeiziehen lassen :D
:(... noch so lange :?.Zitat:
Zitat von hardtecs4u.com
Naja. Das ist ja noch erträglich, solange eine hohe Verfügbarkeit wirklich gegeben ist.
Was nutzt einem ein Januar-Release, wenn man die Karte nicht bekommt.
All zu eilig habe ich es jetzt eh nicht mehr die Karte zu bekommen. :)
Ich fänd's aber schön, wenn man am 20 Januar wenigstens schon einmal ein paar genauee Informationen zu dem Chip bekommt. Nicht, dass das NDA auch verschoben wurde, aber eigentlich ist das zu erwarten.
ich sag nur xs forum, da kriegen wir doch previews immer schon 2 wochen vor dem nda.
ja, die insider bei extremesystems werden schon einige benches etc vor dem nda machen ;)
bin gespannt, was ati so aus dem hut zaubern wird, und februar ist wirklich mehr als in ordnung, ich hatte eher mit ende märz gerechnet, naja, da gibs beim crysis release ja schon fast die augeborten modelle, x2950 oder ähnlichem xD
http://xtremesystems.org/forums/showthread.php?t=128328
ma hoffen, die sind keine fakes, sieht gut aus für ati 8)
Wau, nicht schlecht... habe aber eigentlich mehr Vorsprung erwartet. Naja, da bin ich ja doch froh, dass ich mir die NVIDIA GeForce 8800 GTX gekauft habe :D. So viel langsamer ist die ja (anscheinend) nicht :cool:.
Hier mal die R600 Daten:
* 64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle
* 32 TMUs, 16 ROPs
* 512 bit Memory Controller, full 32 bit per chip connection
* GDDR3 at 900 MHz clock speed (January)
* GDDR4 at 1.1 GHz clock speed (March, revised edition)
* Total bandwidth 115 GB/s on GDDR3
* Total bandwidth 140 GB/s on GDDR4
* Consumer memory support 1024 MB
* DX10 full compatibility with draft DX10.1 vendor-specific cap removal (unified programming)
* 32FP internal processing
* Hardware support for GPU clustering (any x^2 number, not limited to Dual or Quad-GPU)
* Hardware DVI-HDCP support (High Definition Copy Protocol)
* Hardware Quad-DVI output support (Limited to workstation editions)
* 230W TDP PCI-SIG compliant
http://level505.com/wp-content/uploa...6-16001200.jpg
Das hier erstaunt mich etwas...
http://level505.com/wp-content/uploa...2-16001200.jpg
ähm, du weisst schon, dass das noch mit den übeslsten beta treibern gemachte benchmarks sind, ich würde nicht zuviel in die benches vertrauen, bis zum release vergeht noch einige zeit, und die finalen retail karten werden schon rocken, freu mich schon auf erste overclocking versuche meinerseits ;)
Mag ja sein, dass das noch Beta-Treiber sind aber auch NVIDIA entwickelt ihre Treiber stetig weiter ;).
Nicht das ich NVIDIA hochloben will aber die 8800er ist wirklich super... und so leise :D.
finde die g80 auch super im insgesamteindruck, aber die r600 wird auf jedenfall ebenbürtig, und leise, nunja, geht mich nix an, ich nutz sowieso keine stock kühler, aus prinzip schon nicht xD
ich mach denn nen review, wenn ich meine neue rig zusammenbaue ;)
Die R600 wird auch sicher etwas besser/schneller sein aber den erwarteten "Riessenvorsprung" kann ich bis jetzt nicht sehen. Zumindest nicht, wenn man sich an den "aktuellen" Benchmarks orientiert.
das stimmt, aber sind ja auch nur einige settings, und kaum infos, zur karte, ob die stock usw. ist, und mit nem riesenvorsprung habe ich nie gerechnet, ich denke die meinsten analysten auch nicht.
das wäre ja auch nen wunder gewesen, aber ich denke die r600 wird sich schon geil übertakten lassen, und crysis wird so oder so auf beiden karten super laufen und aussehen.
bin gespannt auf die nächsten r600 reviews, vor allem mit finalem layout und treibern :)
warten wir mal ab, bis dx10 anwendungen da sind, da zeigt sich dann, was in den karten wirklich steckt :wink:
Die Leistungen der Karten sind auch immer sehr von dem Spiel abhängig.
Durch die unterschiedlichen Shaderstrukturen, der beiden Karten sind einige Spiele besser für den R600 geeignet und andere wiederum mehr für den G80.
ATi hat zwar nur 64 Shader, aber dafür sind diese 4-fach ausgeführt. Mit einem Takt und einem Shader würden sich zum Beispiel Rot, Grün, Blau und Alpha Kanal gleichzeitig berechnen lassen, während bei nVidia diese Operationen auf mehrere Shader verteilt werden müssen.
Im schlimmsten Fall auf 4 Shader, die jeweils nur einen Kanal berechnen. In diesem Fall steht der R600 sehr gut da. Wenn das Spiel aber von solchen Operationen wenig Gebrauch macht und sowieso alles auf mehrere Shader verteilt oder von der 4-Fach Ausführung wenig gebrauch macht, dann sieht der R600 wegen seiner geringeren Shaderanzahl wieder schlechter aus, als der G80.
Es kommt also stark auf die Programmierung des Spiels und auf den Job-Verteiler (Habe im Moment den korrekten Begriff vergessen) der Graka-Chips an, wie effizient die Karten arbeiten werden.
Letzteres kann durch Treiberupdates noch sichtbare Verbesserungen ergeben.
Wahrscheinlich werden sich die Programmierer irgendwann doch die Mühe machen müssen ihre Spiele auf beide Strukturen getrennt zu optimieren. In rechenintensiven Operationen also zwei Renderpfade für den G80 und den R600 integrieren.
Man sieht die Schankungen auch schon recht deutlich: CB-Forum Thread
naja, man muß auch nicht immer glauben was im Vorfeld alles Gepriesen wird. Es besteht nunmal auch die Möglichkeit daß die Benches gefaked sind. Gründe dafür gäbe es genügend. Am besten warten wir den Release ab und vergewissern uns.
Wenn sich das so bestätigt was die Benches sagen, dann bekomme ich auch das Sabbern. Nur....wer hat schon nen Sys das diese Karte dann wirklich ausreizen kann. Nicht jeder kann sich mal eben ein neues Board für 220,-, nen neuen OC Ram für ab ca 280,-€ und dann noch nen QX 6700+ für nen Taui leisten. Dann noch die Graka und schwupps biste bei 2000,-€. Wer dann noch ne WAKÜ hat muß nochmal was tiefer in die Tasche greifen.
Kommt noch hinzu dass es zur Zeit kein Game gibt, dass von dieser Karte was profitieren kann.Zitat:
Zitat von Grinsemann
hmm, dass sehe ich dann wiederrum etwas anders.
Die meisten Spiele werden mit 1600x1200 getestet mit 4xAA und 16xAF.
Dort merkt man ja schon schnell wo sich die Spreu vom Weizen trennt.
Wer allerdings über einen "HighEnd" TFT verfügt, dem steht nochmals eine Option weiter offen bei einer Auflösung von 2500x1600 mit AA/AF bei gerade noch spielbaren Frames zu zocken. Wie bei Grafikkarten wird auch im Peripheriebereich nicht geschlafen um deren Hardware voll auszureizen. Wohl oder übel sind dieseTFTs leider noch nicht für den Spielebetrieb optimiert. Ich gehe aber schwehr davon aus, dass in spätestens einem Jahr für Games optimierte TFTs in dieser Größenordnung auch schon für Schnäppchenpreise von sage ich mal 350,-€ zu haben sind.
Spiele wie FEAR, BF2 und Konsorten sind ja schon bei solchen Auflösungen getestet worden. Dort merkte man schnell, welche Graka abermals einen Performancevorsprung herausholen konnte.
Mit zukünftigen Grakas wie der G80 oder G81bzw G84 wie R600 und Nachfolger wird es eine minderwertige Auflösung von 1280x1024 wohl nicht mehr geben. Somit steht wohl fest, dass den aktuellen Spielen noch einiges mehr an Leistung abgewonnen werden kann.
Ich zocke zur Zeit alles auf 1680x1050 ohne Probleme! Ok, mit dem Highend TFT, da hast du vollkommen Recht!Zitat:
Zitat von Grinsemann
Habe mal nen kurzen Blick auf dein SYS geworfen.
Dein TFT ist aber auch schon nicht von schlechten Eltern.
Hätte ich auch gerne, wenn mein Hausdrache nicht so ne Antipatie gegen meinen Rechner hätte... - lol
Mit nem anderen Board und/oder Ram könntest du aus deinem Opti bestimmt auch noch mehr rausholen.
Wasn das fürn Stepping?
@Foofi, sag mal hast du nicht ne die neue Nvidia Geforce 8800 GTX ?? Wenn, dann müsstest du mal die Info's unter in deinem Banner (Sys|P) ändern!
Wieso is mir das so vertraut? :twisted: :twisted: :twisted:Zitat:
Zitat von Grinsemann
Och ihr Armen. Is das echt so schlimm? 8OZitat:
Zitat von dapalme
Wenn man sein verdientes Geld immer wieder in die Kiste steckt schon ^^Zitat:
Zitat von CelluX
Mein bester Kollege meinte wenn ich keine frau hätte, würd ich verhungern und verdursten, vorm PC sterben und hätte nix von der Welt gesehen, aber dafür hätteste den krassesten Rechner ^^
Ich antwortete nur:
Recht haste aber die Welt hät ich im Internet bereist ^^
Hm...naja zum Glück ist bei mir niemand der mich anörgeln kann deswegen. Naja ausser meine Mutter die will lieber das ich für Führerschein etc. spare. Aber EGAL! :D
Zitat:
Zitat von dapalme
Mit Google Earth ?! :)
So hat jeder halt seine Hobbys! Mein Nachbar steht jeden Tag in der Garage und putzt sein Moped! obwohl er schon seit Wochen nimemr gefahren ist!
Schlimm wird es erst wenn man sein Riesengehäuse mit 2x25cm Lüftern im Wohnzimemr zu stehen hat und jedem erklären muss wofür man das denn braucht! Das geht einem dann richtig aufn keks!
BTW. Wenn kein Platz mehr für Videos auf der Platte ist, heisst das dann nicht, das man sich ne neue gößere holen muss?! Hardwarekauf ich komme!
rofl also beio 750GB sollte da noch irgenwo platz sein ^^
Naja bei mir sind es ja ganze 7x 120mm Lüfter plus die WaKü mit nochmals 5x 120mm Lüfter ^^
EDIT:
aus 250mm wurden 120mm sry ^^
7x250mm??? LOL?`Wo das denn? Und überhaupt 250mm??? Woher und wie Teuer? Und wo passen die drauf?
ach was hab ich denn wieder geschrieben sry das sind alles 120er rofl
mal eben edititieren ^^
Aplus XClio Twin Engine ! Nicht nur vom Optischen ein Leckerbissen auch von der Qualität ein Genuss! komplett schraubfreies System. GraKawechsel in 15 Sekunden ohne Schrauben usw.
1x 250 vorn. 1x 250 seitlich und einen 120er hinten. Mehr braucht man nicht!. Hatte mir vorher mal das Aerocool 3T Engine geholt. Das war natürlich ne Katastrophe bezüglich der Qualität. ausserdem war der seitliche 250er Lüfter zu weit oben. Der jetzige kühlt die GraKa besser mit. Vor allem in Verbindung mit dem X2 Accelero habe ich die Graka Temp um 5° gegenüber dem 3T gehäuse verringert!
http://www.forum-3dcenter.org/vbulle...279402&page=35
Und allzu teuer ist das gehäuse auch nicht. Allerdings ist halt das Design Geschmackssache, Wie immer !
lohohohohohl :D:D...ich dachte schon was geht jetzt denn ab ^^Zitat:
Zitat von dapalme
sowas tritt man ungerne in der Öffendlichkeit breit. Dafür ist es ..zu persönlich. Man unterschätzt dieses Hobby arg welches schnell zur Sucht werden kann. Man will es vielleicht nicht wirklich wahr haben, aber es ist so und kann in ehelichen Verhältnissen oder Ehen selber schnell zu nem ernsten Problem führen. Wenn du interesse hast kann ich dir es per pn genauer erläutern wieso weshalb warum, es zu solchen Ausschreitungen kommen kann, aber nicht öffendlich und erst recht nicht in dem Thread.Zitat:
Zitat von CelluX
Nun bitte wieder BTT
MyDrivers.com will neue Informationen bezüglich Atis kommender "R600"-Familie erfahren haben. So soll die Z-Füllrate ohne Anti-Aliasing 150 Prozent, die FP16-Blending- und Filterleistung 170 Prozent, die FP32-Blending- und Filterleistung 290 Prozent und die FP-16-Filterleistung sogar 700 Prozent über der des Vorgängers "R580" (vermutlich X1950 XTX) liegen. Wahrscheinlich verfügt der "R600" über 64 Unified-Shader und könnte sogar mit bis zu 814 MHz takten. Die offizielle Vorstellung erfolgt auf der Cebit im März, doch mit einer breiten Verfügbarkeit ist wohl erst ab April zu rechnen.
Das Low-End-Modell "RV610" und der für die Mittelklasse gedachte "RV630" werden vermutlich im Gegensatz zum "R600" (80nm) schon im feineren 65nm-Prozess hergestellt. Für den "RV610" sind wohl 128 bis 256 MByte DDR2-Speicher angedacht, die mit 64bit angebunden werden. Der "RV630" verfügt mit 128bit schon über ein doppelt so breites Speicherinterface über das bis zu 512 MByte GDDR4-Speicher angesprochen werden können. Beide Karten sollen offenbar im April vorgestellt werden und ab Mai erhältlich sein.
Carsten Spilles Meinung
Bleibt's jetzt doch beinahe dabei: Der R600 ist einfach ein verdoppelter R580 mit den nötigen D3D10-Erweiterungen? Wäre ja witzig, wenn diese uralte Spekulation sich doch durchsetzen würde. Schauen wir mal auf die Details:Shader-ALUs R580: 4 Quads á 12 ALUs (48)R600: 8 Quads á 12 ALUs (96)- deckt sich mit dem Äußerungen Ortons und den darauf basierenden Spekulationen.BandbreiteR580: 8x32 Bit (256)R600: 16x32 Bit (512)512 Bit sind ja mittlerweile beinahe gesetzt.FP16-Filterleistung ("+700%")R580 (650 MHz, 16 "Pipes") : 2.600 MTex/s (Shader)R600 (650 MHz, 32 "Pipes") : 20.800 MTex/s (TMU)Hier macht sich natürlich bezahlt, wenn man Funktionen nicht mehr emulieren muss, sondern die dafür gedachte Hardware nutzt.Z-Fill (+150%)R580 (650 MHz, 16 ROPs): 10.400 MZix/sR600 (650 MHz, 20 ROPs): 26.000 MZix/s (double-z)Mit dem dickeren 512-Bit-Speicherinterface wären auch 20 ROPs noch gut zu füttern. Würde passen wie die Faust auf's Auge. :)
http://www.pcgameshardware.de/?article_id=553262
ein Wort: KRASS ! 8O
Wenn das stimmt...huhu...das wäre ja mal was!
Aber leider ist sowas ja immer eine Spekulation, und nicht offiziell :wink:
Muss aber bei solchen Features die Karte ziemlich groß sein? Wenn sie größer als ne GTX ist, bin ich enttäuscht!!! Finde ich total *******.
Aber wir werden es ja sehen.
Den Kollegen von VR-Zone ist es gelungen, ein erstes Bild von ATIs neuem Flaggschiff, dessen Bezeichnung derzeit noch R600 lautet, aufzutreiben. Die neuen Grafikkarten sollen Nvidias DirectX10-Grafikkarten, die bereits seit einiger Zeit im Handel erhältlich sind, Konkurrenz machen und deren Leistung übertreffen.
Das Bild zeigt das absolute High-End-Modell, das wahrscheinlich wieder den Zusatz XTX im Namen tragen soll. Von ihm wird es laut VR-Zone zwei Varianten geben, die jeweils für den OEM- respektive den Endkundenmarkt gedacht sind, und sich vor allem durch ihre Abmessungen unterscheiden sollen. Das Foto stellt angeblich die besonders lange Variante für OEM-Hersteller dar.
Die Abmaße sind es auch, die den Käufer auf den ersten Blick auch am meisten beeindrucken dürfen. Von bis zu 12,4 Zoll (rund 31,5 Zentimeter) bei der OEM- und 9,5 Zoll (rund 24,1 Zentimeter) bei der Endkundenvariante ist die Rede. Dabei soll der Kühlkörper größer sein als die eigentliche Grafikkarte.
Auch bei der Leistungsaufnahme wird ATIs neues Flaggschiff Rekorde setzen. Von bis zu 270 Watt ist die Rede. Die natürlich ebenfalls geplante etwas weniger gut ausgestattete XT-Variante des R600 soll immerhin noch satte 240 Watt benötigen. Bei der High-End-Ausgabe XTX kommt allerdings auch GDDR4- statt GDDR3-Speicher zum Einsatz.
Von einem Gigabyte ist die Rede. Die günstigeren Varianten werden auch mit weniger Speicher auf den Markt kommen. Früher an die Öffentlichkeit gelangte Zahlen, die angeblich einen Benchmark-Vergleich zwischen Nvidias aktuellem Topprodukt GeForce 8800GTX und dem R600 wiedegeben, bescheinigen ATI einen Leistungsvorteil von bis zu 39 Prozent.
Die neuen DirectX10-fähigen Grafikkarten von ATI sollen noch rechtzeitig zur CeBIT erstmals offiziell der Öffentlichkeit präsentiert werden. Über die Preise lässt sich angesichts der beinahe unglaublichen Leistungswerte und Größen der Karten nur spekulieren. Inzwischen gibt es auch Berichte, wonach ATI für professionelle Anwender Produkte auf Basis des R600 mit bis vier Gigabyte Speicher plant.
39% okay
http://www.winfuture.de/news,29963.html
Über-Edition des R600 bestätigt
asserkühlung soll es bringen. Und wir haben weitere Einzelheiten über die vier R600-Versionen erfahren, die ATI für die Kunden vorbereitet.
Eine Karte ist mit DDR3 ausgestattet, und die andere - die längere Spielkarte - mit DDR4. Als dritte wird jetzt jedoch die Über-Edition genannt.
Es wird die schnellste unter der ersten Ladung von Karten sein, die in die Regale kommen. Die entscheidende geheime Zutat ist eine Wasserkühlung. Wir wir gehört haben, stehen zwei Firmen im Wettbewerb, um den Kühler zu bauen. Eine ist Aavid, deren Kühler in letzter Zeit auf vielen Grafikkarten zu sehen waren, und die zweite Firma ist die dänische Asetek.
Sowohl die Wasserpumpe als auch das Reservoir sollen sich auf dem Kühlkörper befinden. Die Karte wird daher ähnlich wie die anderen Karten aussehen, nur mit einem größeren Kühlkörper, einem Lüfter und einem Reservoir.
Es sollten also nicht übermäßig viele Kabel und Röhren von der Karte weg und zur Karte führen. Es wird wohl die schnellste Karte weit und breit sein, aber da müssen wir noch eine Weile die Luft anhalten. Und dann werden wir noch auskundschaften müssen, was es genau mit der vierten Variante auf sich hat.
http://de.theinquirer.net/2007/02/09..._bestaeti.html
R600 XTX
* 1 GB DDR4 Speicher
* Herstellung im 80 nm Prozess
* Stromverbrauch - Retail-Version: 240 Watt - OEM-Version: 270 Watt
* Länge - Retail-Version: 24.13 cm - OEM-Version: 31.5 cm
R600 XT
* 512 MB GDDR3 Speicher
* Herstellung im 80 nm Prozess
* Stromverbrauch 240 Watt
* Länge: 24.13 cm
http://www.vr-zone.com/?i=4622
pix
So soll die grafikkarte ausehen:
http://screenshots.winfuture.de/1171039883.jpg
und wie man sieht wird die R600 mehr als doppelt so viel strom brauchen als die Geforce 8800 gtx (114 W bei volllast).Ich bin froh das ich mir die gtx geholt habe...
EDIT:HIER NOCH MEHR BILDER
Wo sieht man das?
Hä?
Ich wollte wissen, woher du weißt, dass der R600 doppelt so viel benötigt.
Achso SRY,schau mal über meinem Beitrag wo ich das Bild rein gemach hab.Da stehen diese Infos:
R600 XTX
* 1 GB DDR4 Speicher
* Herstellung im 80 nm Prozess
* Stromverbrauch - Retail-Version: 240 Watt - OEM-Version: 270 Watt
* Länge - Retail-Version: 24.13 cm - OEM-Version: 31.5 cm
Und sogar die
R600 XT
* 512 MB GDDR3 Speicher
* Herstellung im 80 nm Prozess
* Stromverbrauch 240 Watt
* Länge: 24.13 cm
verbraucht 240 Watt LOOL
Damit ist doch sicherlich nicht der Verbrauch der Karte gemeint, sonder der des gesamten Rechners.
Woher kommen diese Ergebnisse denn? Die wenigsten werden nämlich eine Möglichkeit haben den Verbrauch der Karte direkt zu messen. Dazu braucht man schon ganz spezielles Equipment. Deshalb wird immer der Verbrauch des Gesamtsystems angegeben. Ich kann mir echt nicht vorstellen,d ass das die Karte alleine sein soll.
hmm,also die gtx verbraucht schonmal sicher 114 watt.alternate gibt es bistimmt net umsontzt an.Naja mal schauen ob damit die Karte gemeint ist oder das ganze system...
Lese dir das mal durch, da steht der Stromverbrauch der Karte, anscheinend hat v-r zone das gemessen.
http://www.pcgameshardware.de/?article_id=556503
Jo,da steht auch das die Karte so viel verbraucht.Geforce is THE BEST.Bin echt froh das ich die gtx hab :D ,hoffendlich wird das noch mit dem Treiber...
o.O ... Was bring ATI für ein Monster da raus...31,5 cm? *******!! Damit passt sie nicht mehr in mein Raidmax Sagitta Case 921BS!
Kann mir auch nicht vorstellen, dass nur die Karte 270W ziehen soll....
Wie man hier sieht benötigt sie 1x6-Pin PCIe und 1x8-Pin Stromanschlüsse:
http://www.pcgameshardware.de/screen...1038403919.jpg
Hat jemand ne Idee wofür hier Makierungen zum Öffnen bzw. Schließen sind, warum sollte man das an dem Punkt öffnen? Und noch viel mehr, was ist das für ein Henkel da rechts(ja mich regt die große auf :evil: , weil wenn der Henkel da nicht wäre, wäre sie kleiner!)
==> http://www.pcgameshardware.de/screen...1038405716.jpg
Kann mir einer erzählen, was die OEM-Version ist?
Kann man die 8800GTX als OEM und die 8800GTS als Retail gleichsetzten oder wie? Schlicht gesagt, OEM ist die stärkste?
ich glaube die meinen mit OEM,das es die Testversion ist.Also die haben die Test version von R600 getestet,weil ja die Karte noch nicht ganz fertig ist denke ich...
Also da steht ja gar nichts dazu, wie sie es gemessen haben: vr-zoneZitat:
Zitat von pumax
Ich wüsste gerne wie die in de Lage sein sollen den Stromverbrauch einer einzelnen Karte zu messen. Schließlich muss man dort auch den Strom messen, der über den PCIe Bus übertragen wird und da kann man mal nicht eben ein Multimeter zwischenklemmen.
Außerdem steht da weder bei, ob es Schein- oder Wirkleistung ist noch ob das unter Last oder Idle Betrieb gemessen wurde.
Wenn schon, dann möchte ich einen Test sehen, wo das Messverfahren aufgeführt ist, die Hardware bekannt ist und die Zustände definiert sind bei denen der Strom gemessen wurde.
Ich warte also ab, bis die ersten richtigen Tests mit den echten Karten erscheinen. Am besten auf CB. Die verwenden für das Benchmark das gleiche System und so kann man die Karten auch direkt gegenüber stellen und sehen, wie viel höher der Stromverbrauch wirklich ausfällt.
Die haben bestimmt n Mainboard mit onbaord grafik genommen, gemessen, danach den R600 rein nochmal messen..
schon hab ich den verbrauch allein vom R600 :roll: :roll: :roll:
^^ löl
OK. Das könnte fast klappen, aber wie sorgt man dafür, dass beide Grafikkarten voll ausgelastet werden?
Wenn man den OnBoard-Chip ausschaltet und nur den R600 betreibt, dann hat man ja lediglich die Leistung die der R600 mehr verbraucht als der OnBoard-Chip. Also müssen beide Karten voll belastet werden und jeweils ein eigenständiges Spiel rendern. Jetzt weiß ich nicht, ob das überhaupt mögllich ist. Ich glaube nicht. Jedenfalls nicht mit DX9 Karten. Unter Vista mit DX10 Karten wäre es eventuell möglich.
Schön wäre es natürlich wenn man zwei R600 im CF Betrieb laufen lassen könnte. Dann wäre es wirklich machbar. Natürlich steigt dann auch die Prozessorlast und der Prozessor verbraucht mehr Strom und solche Dinge, aber so ungefähr könnte das schon hinhauen.
ach wer weiß was und wie sie es gemacht haben wollen. fest steht wenn eine der R600ter locker 240-270W verbraucht kannste ein CF sys eh vergessen oder willst du dir n 1KW NT rein hauen?! überleg mal dasnn ziehen sich dir beiden GraKa's ja schon alleine über 500W!!!
*grübel
Nur mal so als Info. Der G80 hat auch einen Peakleistungsaufnahme von 225 Watt.
Wenn diese Angabe mit den 240 Watt also stimmt, dann wird das sicherlich auch der Worst-Case sein und da liegt der R600 gar nicht mal so weit drüber.
Außerdem kommt es hauptsächlich darauf an, was die Karte im Idle-Betrieb benötigt. Wenn ATi Stromspartechniken einsetzt, wie sie das auch bei Mobile-Chips machen, dann kann das Ganze schon wieder ganz anders aussehen und eventuell sind sie dann sogar sparsamer als nVidia. Der G80 läuft soweit ich weiß auch noch mit vollen Takt, selbst wenn er nichts zu tun hat.
Soetwas wie C'n'Q oder EIST für Desktop-Grakas wäre doch wirklich mal an der Zeit.
Also warten wir mal ab, was die ersten rechtigen Tests an's Tageslicht bringen. Vielleicht überrascht ATi und ja noch. Zu hoffen wäre es.
Jo warten wir einfach mal.Vill. sind ja das auch alles nur fakes...
^^ die Karte sieht sehr lang aus...!Zitat:
Zitat von noxon
zu lang in mein gehäus würde es nicht reinpassen....
noxon bezog sich auf den Stromverbrauch nicht auf die Länge^^Zitat:
Zitat von foofi
und ich beziehe mich aber auf die Länge ;)Zitat:
Zitat von Born_Brainless
Die finde ich persönlich ziemlich lang...!