Archiv verlassen und diese Seite im Standarddesign anzeigen : R600 Info
Hier findet ihr Informationen zu ATI's noch erscheinenden R600 GPU.
Klick mich (http://www.gamestar.de/news/hardware/32852/)
warpspeed
16.05.2006, 13:40
Hi,
Schick :D. Sogar DX10 kompatibel.
Mal schauen was NVIDIA dagegen setzt.
PS: THX for the info :).
Schon ein wenig alt, aber leider, GameStar typisch, nichtssagend.
Hier mal etwas detailiertere Infos zu der R600 und deren Spezifikationen:
tcmagazine.info (www.tcmagazine.info) berichtet über die Spezifikationen des Next-Generation Grafikchips R600 von ATI. Die Spezifikationen sollen wie folgt lauten:
# 64 Shader pipelines (Vec4+Scalar)
# 32 TMU's
# 32 ROPs
# 128 Shader Operationen pro Zyklus
# 800 MHz Chip Takt
# 104,2 Milliarden Shaderoperationen pro Sekunde
# 512 GFLOPs for the shaders
# 2 Milliarden triangles/sec
# 25,6 Gpixels/Gtexels/sec
# 256-bit 512MB 1.8GHz GDDR4 Memory
# 57,6 GB (theoretische) Bandbreite (bei 1.8GHz Ramtakt)
# WGF2.0 Unified Shader
Neben neuem GDDR4 Speicher soll der R600 auch in 65µ feinen Strukturen gefertigt werden, um somit die Stromaufnahme und Verlustleistung senken zu können und gleichzeitig die Taktrate des Chips anheben zu können.
All das sind Spekulationen über eine Karte die Ende des nächsten Jahres erscheinen soll, somit können die Informationen nicht als sichere Spezifikation angesehen werden und sollten unter der Kategorie 'Gerüchteküche' abgelegt werden.
warpspeed
16.05.2006, 14:41
Hi,
wieso steht da "...über eine Karte die Ende des nächsten Jahres erscheinen soll..."? Dachte die kommt Ende diesen Jahres (2006) raus?! Oder sind diese Infos auch schon etwas älter ;)?
o0ps.
Hab ich doch glatt vergessen: Stand Dienstag, 21. Juni 2005
warpspeed
16.05.2006, 14:50
hehehe, das erklärt es :cool:.
*heul* wo ist mein Avatar?!?!
warpspeed
16.05.2006, 15:56
Hi,
@Adem67
Öhm... dann Avatar ;)... bitte max 130 Pixel breit und max 160 hoch. DANKE!
Wo wir gerade dabei sind. Warum darf man keine Avatare hochladen, sondern kann sie nur verlinken?
Ja das ist mir auch schon aufgefallen,
werde da mal mich mit Warp zusammen setzen und mal einige Punkte klären zum Forum und zur Seite.
Aber aufgepasst.
Im Zuge der kommenden Website, die hier in einigen Tage oder wohl möglich auch in eingen Wochen erst, hier ihr Tageslicht erblicken wird, wird es auch einige Neuerungen mit sich bringen. Dazu werde ich aber einen seperaten Topic aufmachen und einiges mal euch offerieren, damit ihr auch bescheid wisst was da auf euch zukommt und worauf ihr uns auch eure Meinung sage könnt.
Kritik, Empfehlungen und Wünsche sind da drin dann natürlich herzlich willkommen.
Dazu aber später mehr wie gesagt.
CrysisMaster
18.05.2006, 15:08
Könnte die kommende R600 schon 1024 Mb GDDR4 Speicher
besitzen ?
Überall steht, dass sie 512 Mb haben wird. Es steht aber auch,
dass es nur Spekulation sei.
Und noch was:
Wird die R600 sofort 600 € kosten ? Die X1800 XT hat ja am
Release 520 € gekostet.
Könnte die kommende R600 schon 1024 Mb GDDR4 Speicher
besitzen ?
Also ich habe schon öfter gelesen, dass es die auch mit 1GB GDDR4 Speicher geben soll. Wäre ja egentlich auch der nächst logische Schritt. Spiele wie GRAW benötigen ja schon 512 MB, wenn man alles auf Maximum setzen will.
Und noch was:
Wird die R600 sofort 600 € kosten ? Die X1800 XT hat ja am
Release 520 € gekostet.
Ich hoffe nicht, aber ich denke so in der Region um die 500 EUR wird die normale Version kosten. Die abgespekten Versionen werden hoffentlich schnell kommen.
Die X800 XL hat zum Beispiel bei der Einführung "nur" 300 EUR gekostet, als die X800 XT noch über 500 EUR kostete. Und so viel schlechter als die XT ist die XL auch nicht, dass das 200 EUR wert gewesen wäre.
2 Jahre nach dem Kauf komme ich mit meiner XL immer noch sehr gut aus. Tja. Mit Ausnahme von Crysis. Also muss demnächst ne Neue her. ;)
seh ich auch so... meine 68 ultra hat beim release von crysis ausgedient... oblivion muss ich ja schon bremsen, weil es sinst unter 17 fps sinkt...
die r600 wird bestimmt mit 1 gig speicher rauskommen... nvidia will ja auch dual core karten vom typ G80 mit 1 gig ram rausbrimgen... daher wird der R600 auch mit 1 gig klarkommen können
Nightspider
06.06.2006, 17:51
Also gleich am Anfang wird es sicherlich noch keine Dual Chip Variante geben.
Dualcore gibt es sowieso nicht, da mann dann auch gleich die Anzahl der Pipes etc. verdoppeln könnte und es nur ein Chip wäre.
Macht man aber nicht wegen zu hoher Wärmeentwicklung.
Dual Chip wird aber sicherlich kommen.
1Gigabyte auf einer Dualchip Variante bringt aber auch keine Vorteile, da jeder Kern dann nur 512 MB hat.
Also ist es so wie bei normalen 512 MB karten.
Wenn jeder Kern 1GB haben soll, müssten insgesamt 2GB verbaut sein und das ist zu teuer deshalb wird es sicherlich erstmal keine 2GB Dual Chip Variante geben.
Besonders, weil GDDR4 Speicher verbaut wird und dieser sicherlich am Anfang sehr teuer ist.
1GB auf einer einzelnen normalen Karte wird sicherlich als erstes herauskommen.
Es seidenn, NVIDIA will Multi Chip Varianten nurnoch im High End Segment verkaufen, wodurch normale Single Chip-High End Varianten wie GTX wegfallen.
Eben so, wie Dualcore den Platz von High End Single Core bei CPUs einnimmt.
Aber.....ABWARTEN...wir werden schon sehen, welcher Weg nach ROM führt ;) :D
PS: Richtiges GPU Dualcore wäre halt nur möglich, indem die Taktrate oder der Stromverbrauch stark gesenkt wird aber da ist Multi Chip schon wahrscheinlicher.
warpspeed
06.06.2006, 17:51
Hi,
@noxon
Avatar-Upload ist jetzt möglich :D.
@noxon
Avatar-Upload ist jetzt möglich :D.
Ah danke.
Habe letztens erst gemerkt, dass ich meinen Avatar bei mir auf dem Webspace gelöscht hatte ohne daran zu denken, dass ich den hier verwende. :)
Ich habe mal meinen alten Avatar wieder ausgekramt, obwohl ich in letzter Zeit eigentlich immer diesen hier verwendet habe:
http://www.gameslowdown.de//forum/images/avatars/noxon_avatar.gif
WoW
Wäre echt cool, wenn das (http://uk.theinquirer.net/?article=33784) stimmt. Der Inquirer hat eigentlich immer recht zuverlässige Informationen.
64 Pipelines soll der Chip haben? Das muss ja ein riesen Leistungssprung werden im Vergleich zu heutigen Karten. Besonders nVidia muss sich warm anziehen, wenn es stimmt, dass der G80 nur 32 Pipelines haben soll.
ja und das geile ist soweit ich weiss das man die Pipes selber einstellen kann wieviele vertex und pixel units eingesetzt werden müssen! ;)
Jup.
Mein Vergleich von gerade hinkt allerdings ein wenig. Es ist nicht so, dass 64 Pipelines gegen 32 antreten, sondern 64 universelle Pipelines des R600 gegen 32 Pixel- + 16 Vertex/Geometry-Pipelines des G80.
Das Problem von nVidia ist halt nur, dass sie nie alle 48 Pipelines voll ausnutzen können, während der R600 alle Pipelines ausreizen kann. Jedenfals theoretisch. Keine Ahnung ob das in der Praxis wirklich funktioniert.
Außerdem muss man beachten, dass Unified-Shader geringfügig langsamer sind, als spezielle Pixel- und Vertex-Shader. Dafür sind sie aber univeseller nutzbar.
Naja. Man wird's abwarten müssen, was sich so ergibt und was die ersten Benchmarks zeigen. Ich hoffe nur, dass der Stromverbrauch nicht bei den befürchteten 175 - 200 Watt liegen wird.
Schade ist auch, dass TSMC anscheinend noch nicht in der Lage ist den R600 in 65 nm zu fertigen. Das soll erst irgendwann im nächsten Jahr möglich sein. Ich weiß allerdings nicht, ob ich darauf warten sollte oder doch einen 80nm Chip nehmen soll.
//EDIT:
Ach jetzt habe ich das erst einmal kappiert. 64 MMAD-Einheiten wären gar nicht so ungewöhnlich. Das Sensationelle, wenn es denn stimmen sollte, ist, dass es 64 physikalische Pipelines sind.
Bisher wurde das immer so gemacht, dass pro Pipeline mehrere MADDs versorgt wurden. Zum Beispiel haben die X1800 und die GeForce 7800 physikalisch gesehen beide nur 8 Pixelpipelines, aber ATi hat 2 MADDs pro Pipeline und nVidia 3 MADDS pro Pipeline angebunden, weswegen die logische Gesamtanzahl von 16 und 24 Pixelpipelines Zustande kommt.
Was das allerdings für nNchteile hat, wenn sich mehrere MADDs eine Pipeline teilen müssen weiß ich im Moment nicht, aber für jede MADD eine eigene Pipeline zu haben scheint wohl von Vorteil zu sein.
Wenn es wirklich 64 physikalische Pipelines sind, dann können wir uns echt auf einen riesigen Stromfresser einrichten.
Rasenmaeher
12.09.2006, 09:26
r600 is ja der codename wie sollen die dann heiße (nur so ne vermutung RADEON X2800 XTX).
ach und gibs dann eigentlich auch modello die etwas biliger sind so im vergleich zu einer 7900gt oder X1900 XT.
Muss glaub mal ne umfrage starten wie viel sich im nächsten Monaten eien R600 oder G80 holen.
mfg.
Also ich schätze auch, dass ATi jetzt eine X2000'er Serie beginnt.
Zuerst wird es wieder die X2800 in allen möglichen Versionen sein.
Kurze Zeit danach wird es auch günstigere, abgespekte X2200'er - X2700'er Versionen geben.
Neues von ATi: Die R600 verbraucht bei Vollast ca. 180 Watt. Bei der dreifachen Crossfirelösung ist auch kein 1000 Watt Netzteil notwendig, da ein paar Kartenmodelle eine separate Stromlösung (externes Netzteil) haben werden.
Diese Gerüchte sind ja schon seit Ewigkeiten im Umlauf, aber Beweise gibt es dafür noch keine.
Di Stromaufnahme wird, ohne Zweifel, sehr hoch sein, aber ich weiß nicht, ob die wirklich so viel verbraten wird. Das ist ja kaum noch mit einer Luftkühlung zu kühlen.
Ich würde bei diesen Angaben recht vorsichtig sein. Es ist ja noch nciht einmal bekannt wie der chip aufgebaut sein wird und wie viele Transistoren er haben wird.
Naja. einfach mal abwarten. Ich erwarte zwar auch nichts Gutes, aber ich hoffe auf Besserung, wenn ATi auf 65 nm sechselt. Das kann allerdings noch ein Weilchen dauern bis solche großen Prozessoren wie GPUs in 65nm gefertigt werden können.
Eigentlich würde ich ja gerne bis dahin mit dem Kauf so einer Karte warten.
Es gibt mal wieder etwas Neues zum R600.
Wenn das stimmt, das wäre ja schon nicht schlecht. The Inquirer (http://uk.theinquirer.net/?article=35707). Ich würde da zwar vorsichtig sein, was diese Gerüchte angeht, aber trotzdem darf man mal träumen.
Hier mal eine kleine Übersichtmüber die angeblichen Leistungsdaten:
1,1GHz GDDR4 @ 512Bit SI = 140GB/s (8800GTX: 86GB/s)
64 Shader 4-way SIMD = 256 Shader (8800GTX: 128 Shader)
16 ROPs @ 750MHz = 12bp (8800GTX: 13,8bp)
Man muss hier aber auch die Taktraten vergleichen. Zwar hat der R600 theoretisch doppelt so viele Shadereinheiten, aber wenn die nur halb so schnell getaktet sind wie die das G80, dessen Shader mit 1350 MHz getaktet sind, sind sie wieder gleich auf.
Des Weiteren hängen beim R600 an einem Shader ganze 4 Rops. Das kann Vor- aber auch Nachteile haben. Der R600 hätte somit die Möglichkeit einen kompletten Pixel, (r,g,b + Alpha) in einem Rutsch zu berechnen, während der G80 vier Durchläufe dafür bräuchte.
Wenn ein Spiel solche Operationen aber nicht erfordert, dann kann es sein, dass große Teile des R600 brach liegen. Das hängt dann vom Spiel ab, ob die Shadereinheiten effizient genutzt werden oder nicht.
Letztendlich lässt sich trotz der Daten nicht viel über die Leistung des Chips sagen. Trotzdem ist es schön mal wieder was vom R600 zu hören, damit man mal wieder was zu spekulieren hat. ;)
warpspeed
16.11.2006, 09:20
Klingt sehr vielversprechend... :).
Ich hole mir aber trotzdem die G80... Leider kann mein Händler sie noch nicht liefern... evtl. nächste Woche oder so :D.
sorry wegen offtopic aber @warpspeed welche Marke hast du dir bestellt?
warpspeed
16.11.2006, 09:31
Bestellt so dorekt keine... ich nehme die, die zuerst da ist. Und wie es aussieht ist das diese hier (ist wohl schon zu haben):
http://www.alternate.de/pix/prodpic/450x450/j/jbxvg1.jpg
http://www.alternate.de/html/productDetails.html?artno=JBXVG1
Wenn die die wirklich auf Lager haben, habe ich die am Samstag :D.
CrysisMaster
16.11.2006, 20:07
Hi warpspeed,
bevor du die 8800 GTX bei Alternate kaufst wollte ich dich auf das
Angebot aufmerksam machen: http://geizhals.at/deutschland/a225878.html
650 € sind einwenig viel, 510 € machens auch :wink:
Wir haben beide das Gleiche MoBo. Ich bin gespannt ob die 28 cm lange
Karte überhaupt passt.[/url]
Wir haben beide das Gleiche MoBo. Ich bin gespannt ob die 28 cm lange
Karte überhaupt passt.[/url]
Das MoBo sollte da keine grosse Schwierigkeiten machen, eher vieleicht das Gehäuse... sollte aber passen ;)
bei meinem thermal take soprano würde es knapp werden :?
Hier (http://www.beyond3d.com/forum/showpost.php?p=880403&postcount=674) gibt's schon ein paar Bilder des Chips.
Aufgrund der Bilder wird schon wieder heftigst diskuttiert. Zum Einen ist der Chip wohl sehr groß, was die m eisten ein wenig verwundert hat. Da er in 80nm gefertigt wird und nicht wie der G80 in 90nm hätte man ihn eigentlich kleiner erwartet.
Zum Anderen verwundert ein wenig die 45° Drehung des Chips. Einige meinen, dass das auf einen großen Speicherbus hinweisen könnte.
Man munkelt über 512 Bit, aber ich persönlich halte das eher für Wunschdenken.
//EDIT:
Hier sind noch ein paar. Also wenn das nicht viele Pins sind, dann weiß ich's auch nicht. :)
http://www.iamxtreme.net/andre/R600_1.jpg
http://www.iamxtreme.net/andre/R600_2.jpg
http://www.iamxtreme.net/andre/R600_3.jpg
Einige haben es versucht zu zählen und sind auf 2140 Pins gekommen. Der G80 hat 1557.
Das ist schon Irrsinn was der R600 für Pins hat und macht ein 512 Bit Interface vielleicht doch etwas wahrscheinlicher.
O.O ich warte definitiv auf die R600!!
Also irgend eine Überraschung hat ATi definitiv noch in der Hinetrhand.
So viele Pins werden normalerweise nicht benötigt.
Das wäre echt geil, wenn das wirklich eine 512 Bit Speicheranbindung wäre. Dazu noch mit schnellen GDDR4 Rams.
Mit so einer Speicheranbindung wird man irrsinnig hohe AA, AF und HDR Settings bei sehr hohen Auflösungen nutzen können.
Jemand hat aber auch vermutet, dass die Pins eventuell auch für einen Ringbus verwendet werden könnten um somit beliebig viele GPUs bequem zusammenschalten zu können.
Für mich wäre das allerdings weit weniger interessant.
http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/november/erste_bilder_atis_r600/
hier ein paar "infos"
assbottle
26.11.2006, 10:27
und hier die nächste Generation R700
http://www.hardware-infos.com/news.php?news=690
pissdrunx1987
26.11.2006, 20:28
der chip sieht ja echt gewaltig aus, bleibt zu hoffen, dass der mit ner anständigen kühlung, ala zalman oder arctic cooling auch overclocked noch recht kühl zu betreiben ist, falls nicht, montiert man halt einfach nen scythe infinythe an die graka ;)
BoOgIeMaN
26.11.2006, 22:52
Und hier auch nochmal:
http://www.hardwareluxx.de/story.php?id=4923
Ist zwar alles das gleiche,aber...
Hehe.
Hardwareluxx hat wohl in Mathe nicht richtig aufgepasst.
Am auffälligsten ist dabei die um 60 Grad gedrehte Position der GPU.
60°? :?
60°? :?
Ich als nicht Geometriefreak sage mal 45° - richtig?
assbottle
27.11.2006, 11:29
wenn manns genau nehmen will und vom Schriftzug ausgeht -45°! :wink: 8)
releasedate 20.1.07-glaube kaum dass man etwas am wochende released (in diesem fall wäre es samstag)
Am 20.01 fällt das NDA. Ab da darf also offiziell über die Karte berichtet werden und man wird eine Menge Benchmarks am WE zu lesen bekommen. :)
pissdrunx1987
27.11.2006, 19:14
ich denke, da wird auch vorher schon ne menge durchfliessen, an benchmarks, etc.
ich poste dann mal wieder extreme benchmarks mit ln2 und co. 8)
die ersten dei es nicht abwarten können ihre benches mit dem r600 reinzustellen werden wohl (wie immer) die typen vom xs forum sein.
pissdrunx1987
27.11.2006, 20:57
heh, genau dort werden wir wohl auch die ersten benches finden, oder auf einer der anderen grossen benching sites, irgendwo tauchen immer was auf, naja., wir können ja abwarten, gibt ja sowieso noch keine dx10 software, von daher :wink:
pissdrunx1987
30.11.2006, 17:46
http://www.pcgameshardware.de/?article_id=530120
wenn die spekulationen stimmen lohnt das warten ja immer mehr 8)
genau deshalb hab ich den hype um den g80 an mir vorbeiziehen lassen :D
warpspeed
07.12.2006, 12:52
ATIs R600-Chip erst im Februar?
Unter Berufung auf die Gerüchteküche des Inquirers hat unser Partner das 3DCenter Informationen bezüglich des bevorstehend Grafikchips R600 aus dem Hause ATI parat. Demzufolge wird der Chip nicht wie vermutet im Januar, sondern im Februar nächsten Jahres, erscheinen. Allerdings sei mit einem Hard-Launch, also einer Verfügbarkeit der Karten beim Release, zu rechnen.
Weiterhin wird berichtet, dass der R600 mit über 720 Millionen Transistoren sogar NVIDIAs „Transistormonster“ - den G80 (680 Millionen Transistoren) - in diesem Punkt nochmals überflügeln kann. Allerdings hat ATI hier den Vorteil, dass der R600 wie bereits der R580+ im 80-nm-Prozess gefertigt werden wird, während NVIDIA bei dem G80 noch auf 90-nm-Produktion setzt.
Eins steht in allen Fällen fest: ATI steht unter Zugzwang. Denn mit einer Veröffentlichung des R600 circa drei Monate nach dem Erscheinen von NVIDIAs G80, wäre alles andere als eine Zurückeroberung der Perfomance-Krone eine Enttäuschung.
:(... noch so lange :?.
Naja. Das ist ja noch erträglich, solange eine hohe Verfügbarkeit wirklich gegeben ist.
Was nutzt einem ein Januar-Release, wenn man die Karte nicht bekommt.
All zu eilig habe ich es jetzt eh nicht mehr die Karte zu bekommen. :)
Ich fänd's aber schön, wenn man am 20 Januar wenigstens schon einmal ein paar genauee Informationen zu dem Chip bekommt. Nicht, dass das NDA auch verschoben wurde, aber eigentlich ist das zu erwarten.
ich sag nur xs forum, da kriegen wir doch previews immer schon 2 wochen vor dem nda.
pissdrunx1987
07.12.2006, 16:47
ja, die insider bei extremesystems werden schon einige benches etc vor dem nda machen ;)
bin gespannt, was ati so aus dem hut zaubern wird, und februar ist wirklich mehr als in ordnung, ich hatte eher mit ende märz gerechnet, naja, da gibs beim crysis release ja schon fast die augeborten modelle, x2950 oder ähnlichem xD
pissdrunx1987
31.12.2006, 14:44
http://xtremesystems.org/forums/showthread.php?t=128328
ma hoffen, die sind keine fakes, sieht gut aus für ati 8)
warpspeed
31.12.2006, 14:56
Wau, nicht schlecht... habe aber eigentlich mehr Vorsprung erwartet. Naja, da bin ich ja doch froh, dass ich mir die NVIDIA GeForce 8800 GTX gekauft habe :D. So viel langsamer ist die ja (anscheinend) nicht :cool:.
Hier mal die R600 Daten:
* 64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle
* 32 TMUs, 16 ROPs
* 512 bit Memory Controller, full 32 bit per chip connection
* GDDR3 at 900 MHz clock speed (January)
* GDDR4 at 1.1 GHz clock speed (March, revised edition)
* Total bandwidth 115 GB/s on GDDR3
* Total bandwidth 140 GB/s on GDDR4
* Consumer memory support 1024 MB
* DX10 full compatibility with draft DX10.1 vendor-specific cap removal (unified programming)
* 32FP internal processing
* Hardware support for GPU clustering (any x^2 number, not limited to Dual or Quad-GPU)
* Hardware DVI-HDCP support (High Definition Copy Protocol)
* Hardware Quad-DVI output support (Limited to workstation editions)
* 230W TDP PCI-SIG compliant
http://level505.com/wp-content/uploads/2006/12/ati-r600-3dmark06-16001200.jpg
Das hier erstaunt mich etwas...
http://level505.com/wp-content/uploads/2006/12/ati-r600-bf2-16001200.jpg
pissdrunx1987
31.12.2006, 14:59
ähm, du weisst schon, dass das noch mit den übeslsten beta treibern gemachte benchmarks sind, ich würde nicht zuviel in die benches vertrauen, bis zum release vergeht noch einige zeit, und die finalen retail karten werden schon rocken, freu mich schon auf erste overclocking versuche meinerseits ;)
warpspeed
31.12.2006, 15:01
Mag ja sein, dass das noch Beta-Treiber sind aber auch NVIDIA entwickelt ihre Treiber stetig weiter ;).
Nicht das ich NVIDIA hochloben will aber die 8800er ist wirklich super... und so leise :D.
pissdrunx1987
31.12.2006, 15:10
finde die g80 auch super im insgesamteindruck, aber die r600 wird auf jedenfall ebenbürtig, und leise, nunja, geht mich nix an, ich nutz sowieso keine stock kühler, aus prinzip schon nicht xD
ich mach denn nen review, wenn ich meine neue rig zusammenbaue ;)
warpspeed
31.12.2006, 15:13
Die R600 wird auch sicher etwas besser/schneller sein aber den erwarteten "Riessenvorsprung" kann ich bis jetzt nicht sehen. Zumindest nicht, wenn man sich an den "aktuellen" Benchmarks orientiert.
pissdrunx1987
31.12.2006, 15:15
das stimmt, aber sind ja auch nur einige settings, und kaum infos, zur karte, ob die stock usw. ist, und mit nem riesenvorsprung habe ich nie gerechnet, ich denke die meinsten analysten auch nicht.
das wäre ja auch nen wunder gewesen, aber ich denke die r600 wird sich schon geil übertakten lassen, und crysis wird so oder so auf beiden karten super laufen und aussehen.
bin gespannt auf die nächsten r600 reviews, vor allem mit finalem layout und treibern :)
warten wir mal ab, bis dx10 anwendungen da sind, da zeigt sich dann, was in den karten wirklich steckt :wink:
Die Leistungen der Karten sind auch immer sehr von dem Spiel abhängig.
Durch die unterschiedlichen Shaderstrukturen, der beiden Karten sind einige Spiele besser für den R600 geeignet und andere wiederum mehr für den G80.
ATi hat zwar nur 64 Shader, aber dafür sind diese 4-fach ausgeführt. Mit einem Takt und einem Shader würden sich zum Beispiel Rot, Grün, Blau und Alpha Kanal gleichzeitig berechnen lassen, während bei nVidia diese Operationen auf mehrere Shader verteilt werden müssen.
Im schlimmsten Fall auf 4 Shader, die jeweils nur einen Kanal berechnen. In diesem Fall steht der R600 sehr gut da. Wenn das Spiel aber von solchen Operationen wenig Gebrauch macht und sowieso alles auf mehrere Shader verteilt oder von der 4-Fach Ausführung wenig gebrauch macht, dann sieht der R600 wegen seiner geringeren Shaderanzahl wieder schlechter aus, als der G80.
Es kommt also stark auf die Programmierung des Spiels und auf den Job-Verteiler (Habe im Moment den korrekten Begriff vergessen) der Graka-Chips an, wie effizient die Karten arbeiten werden.
Letzteres kann durch Treiberupdates noch sichtbare Verbesserungen ergeben.
Wahrscheinlich werden sich die Programmierer irgendwann doch die Mühe machen müssen ihre Spiele auf beide Strukturen getrennt zu optimieren. In rechenintensiven Operationen also zwei Renderpfade für den G80 und den R600 integrieren.
Man sieht die Schankungen auch schon recht deutlich: CB-Forum Thread (http://www.computerbase.de/forum/showpost.php?p=2446246&postcount=143)
Grinsemann
01.01.2007, 17:43
naja, man muß auch nicht immer glauben was im Vorfeld alles Gepriesen wird. Es besteht nunmal auch die Möglichkeit daß die Benches gefaked sind. Gründe dafür gäbe es genügend. Am besten warten wir den Release ab und vergewissern uns.
Wenn sich das so bestätigt was die Benches sagen, dann bekomme ich auch das Sabbern. Nur....wer hat schon nen Sys das diese Karte dann wirklich ausreizen kann. Nicht jeder kann sich mal eben ein neues Board für 220,-, nen neuen OC Ram für ab ca 280,-€ und dann noch nen QX 6700+ für nen Taui leisten. Dann noch die Graka und schwupps biste bei 2000,-€. Wer dann noch ne WAKÜ hat muß nochmal was tiefer in die Tasche greifen.
Nur....wer hat schon nen Sys das diese Karte dann wirklich ausreizen kann.
Kommt noch hinzu dass es zur Zeit kein Game gibt, dass von dieser Karte was profitieren kann.
Grinsemann
01.01.2007, 21:50
hmm, dass sehe ich dann wiederrum etwas anders.
Die meisten Spiele werden mit 1600x1200 getestet mit 4xAA und 16xAF.
Dort merkt man ja schon schnell wo sich die Spreu vom Weizen trennt.
Wer allerdings über einen "HighEnd" TFT verfügt, dem steht nochmals eine Option weiter offen bei einer Auflösung von 2500x1600 mit AA/AF bei gerade noch spielbaren Frames zu zocken. Wie bei Grafikkarten wird auch im Peripheriebereich nicht geschlafen um deren Hardware voll auszureizen. Wohl oder übel sind dieseTFTs leider noch nicht für den Spielebetrieb optimiert. Ich gehe aber schwehr davon aus, dass in spätestens einem Jahr für Games optimierte TFTs in dieser Größenordnung auch schon für Schnäppchenpreise von sage ich mal 350,-€ zu haben sind.
Spiele wie FEAR, BF2 und Konsorten sind ja schon bei solchen Auflösungen getestet worden. Dort merkte man schnell, welche Graka abermals einen Performancevorsprung herausholen konnte.
Mit zukünftigen Grakas wie der G80 oder G81bzw G84 wie R600 und Nachfolger wird es eine minderwertige Auflösung von 1280x1024 wohl nicht mehr geben. Somit steht wohl fest, dass den aktuellen Spielen noch einiges mehr an Leistung abgewonnen werden kann.
hmm, dass sehe ich dann wiederrum etwas anders.
Die meisten Spiele werden mit 1600x1200 getestet mit 4xAA und 16xAF.
Dort merkt man ja schon schnell wo sich die Spreu vom Weizen trennt.
Wer allerdings über einen "HighEnd" TFT verfügt, dem steht nochmals eine Option weiter offen bei einer Auflösung von 2500x1600 mit AA/AF
Ich zocke zur Zeit alles auf 1680x1050 ohne Probleme! Ok, mit dem Highend TFT, da hast du vollkommen Recht!
Grinsemann
02.01.2007, 12:11
Habe mal nen kurzen Blick auf dein SYS geworfen.
Dein TFT ist aber auch schon nicht von schlechten Eltern.
Hätte ich auch gerne, wenn mein Hausdrache nicht so ne Antipatie gegen meinen Rechner hätte... - lol
Mit nem anderen Board und/oder Ram könntest du aus deinem Opti bestimmt auch noch mehr rausholen.
Wasn das fürn Stepping?
@Foofi, sag mal hast du nicht ne die neue Nvidia Geforce 8800 GTX ?? Wenn, dann müsstest du mal die Info's unter in deinem Banner (Sys|P) ändern!
Hätte ich auch gerne, wenn mein Hausdrache nicht so ne Antipatie gegen meinen Rechner hätte... - lol
Wieso is mir das so vertraut? :twisted: :twisted: :twisted:
Hätte ich auch gerne, wenn mein Hausdrache nicht so ne Antipatie gegen meinen Rechner hätte... - lol
Wieso is mir das so vertraut? :twisted: :twisted: :twisted:
Och ihr Armen. Is das echt so schlimm? 8O
Och ihr Armen. Is das echt so schlimm? 8O
Wenn man sein verdientes Geld immer wieder in die Kiste steckt schon ^^
Mein bester Kollege meinte wenn ich keine frau hätte, würd ich verhungern und verdursten, vorm PC sterben und hätte nix von der Welt gesehen, aber dafür hätteste den krassesten Rechner ^^
Ich antwortete nur:
Recht haste aber die Welt hät ich im Internet bereist ^^
Hm...naja zum Glück ist bei mir niemand der mich anörgeln kann deswegen. Naja ausser meine Mutter die will lieber das ich für Führerschein etc. spare. Aber EGAL! :D
Och ihr Armen. Is das echt so schlimm? 8O
Wenn man sein verdientes Geld immer wieder in die Kiste steckt schon ^^
Mein bester Kollege meinte wenn ich keine frau hätte, würd ich verhungern und verdursten, vorm PC sterben und hätte nix von der Welt gesehen, aber dafür hätteste den krassesten Rechner ^^
Ich antwortete nur:
Recht haste aber die Welt hät ich im Internet bereist ^^
Mit Google Earth ?! :)
So hat jeder halt seine Hobbys! Mein Nachbar steht jeden Tag in der Garage und putzt sein Moped! obwohl er schon seit Wochen nimemr gefahren ist!
Schlimm wird es erst wenn man sein Riesengehäuse mit 2x25cm Lüftern im Wohnzimemr zu stehen hat und jedem erklären muss wofür man das denn braucht! Das geht einem dann richtig aufn keks!
BTW. Wenn kein Platz mehr für Videos auf der Platte ist, heisst das dann nicht, das man sich ne neue gößere holen muss?! Hardwarekauf ich komme!
rofl also beio 750GB sollte da noch irgenwo platz sein ^^
Naja bei mir sind es ja ganze 7x 120mm Lüfter plus die WaKü mit nochmals 5x 120mm Lüfter ^^
EDIT:
aus 250mm wurden 120mm sry ^^
7x250mm??? LOL?`Wo das denn? Und überhaupt 250mm??? Woher und wie Teuer? Und wo passen die drauf?
ach was hab ich denn wieder geschrieben sry das sind alles 120er rofl
mal eben edititieren ^^
Aplus XClio Twin Engine ! Nicht nur vom Optischen ein Leckerbissen auch von der Qualität ein Genuss! komplett schraubfreies System. GraKawechsel in 15 Sekunden ohne Schrauben usw.
1x 250 vorn. 1x 250 seitlich und einen 120er hinten. Mehr braucht man nicht!. Hatte mir vorher mal das Aerocool 3T Engine geholt. Das war natürlich ne Katastrophe bezüglich der Qualität. ausserdem war der seitliche 250er Lüfter zu weit oben. Der jetzige kühlt die GraKa besser mit. Vor allem in Verbindung mit dem X2 Accelero habe ich die Graka Temp um 5° gegenüber dem 3T gehäuse verringert!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=279402&page=35
Und allzu teuer ist das gehäuse auch nicht. Allerdings ist halt das Design Geschmackssache, Wie immer !
ach was hab ich denn wieder geschrieben sry das sind alles 120er rofl
mal eben edititieren ^^
lohohohohohl :D:D...ich dachte schon was geht jetzt denn ab ^^
Grinsemann
25.01.2007, 18:15
Hätte ich auch gerne, wenn mein Hausdrache nicht so ne Antipatie gegen meinen Rechner hätte... - lol
Wieso is mir das so vertraut? :twisted: :twisted: :twisted:
Och ihr Armen. Is das echt so schlimm? 8O
sowas tritt man ungerne in der Öffendlichkeit breit. Dafür ist es ..zu persönlich. Man unterschätzt dieses Hobby arg welches schnell zur Sucht werden kann. Man will es vielleicht nicht wirklich wahr haben, aber es ist so und kann in ehelichen Verhältnissen oder Ehen selber schnell zu nem ernsten Problem führen. Wenn du interesse hast kann ich dir es per pn genauer erläutern wieso weshalb warum, es zu solchen Ausschreitungen kommen kann, aber nicht öffendlich und erst recht nicht in dem Thread.
Nun bitte wieder BTT
MyDrivers.com will neue Informationen bezüglich Atis kommender "R600"-Familie erfahren haben. So soll die Z-Füllrate ohne Anti-Aliasing 150 Prozent, die FP16-Blending- und Filterleistung 170 Prozent, die FP32-Blending- und Filterleistung 290 Prozent und die FP-16-Filterleistung sogar 700 Prozent über der des Vorgängers "R580" (vermutlich X1950 XTX) liegen. Wahrscheinlich verfügt der "R600" über 64 Unified-Shader und könnte sogar mit bis zu 814 MHz takten. Die offizielle Vorstellung erfolgt auf der Cebit im März, doch mit einer breiten Verfügbarkeit ist wohl erst ab April zu rechnen.
Das Low-End-Modell "RV610" und der für die Mittelklasse gedachte "RV630" werden vermutlich im Gegensatz zum "R600" (80nm) schon im feineren 65nm-Prozess hergestellt. Für den "RV610" sind wohl 128 bis 256 MByte DDR2-Speicher angedacht, die mit 64bit angebunden werden. Der "RV630" verfügt mit 128bit schon über ein doppelt so breites Speicherinterface über das bis zu 512 MByte GDDR4-Speicher angesprochen werden können. Beide Karten sollen offenbar im April vorgestellt werden und ab Mai erhältlich sein.
Carsten Spilles Meinung
Bleibt's jetzt doch beinahe dabei: Der R600 ist einfach ein verdoppelter R580 mit den nötigen D3D10-Erweiterungen? Wäre ja witzig, wenn diese uralte Spekulation sich doch durchsetzen würde. Schauen wir mal auf die Details:Shader-ALUs R580: 4 Quads á 12 ALUs (48)R600: 8 Quads á 12 ALUs (96)- deckt sich mit dem Äußerungen Ortons und den darauf basierenden Spekulationen.BandbreiteR580: 8x32 Bit (256)R600: 16x32 Bit (512)512 Bit sind ja mittlerweile beinahe gesetzt.FP16-Filterleistung ("+700%")R580 (650 MHz, 16 "Pipes") : 2.600 MTex/s (Shader)R600 (650 MHz, 32 "Pipes") : 20.800 MTex/s (TMU)Hier macht sich natürlich bezahlt, wenn man Funktionen nicht mehr emulieren muss, sondern die dafür gedachte Hardware nutzt.Z-Fill (+150%)R580 (650 MHz, 16 ROPs): 10.400 MZix/sR600 (650 MHz, 20 ROPs): 26.000 MZix/s (double-z)Mit dem dickeren 512-Bit-Speicherinterface wären auch 20 ROPs noch gut zu füttern. Würde passen wie die Faust auf's Auge. :)
http://www.pcgameshardware.de/?article_id=553262
ein Wort: KRASS ! 8O
Wenn das stimmt...huhu...das wäre ja mal was!
Aber leider ist sowas ja immer eine Spekulation, und nicht offiziell :wink:
Muss aber bei solchen Features die Karte ziemlich groß sein? Wenn sie größer als ne GTX ist, bin ich enttäuscht!!! Finde ich total *******.
Aber wir werden es ja sehen.
Den Kollegen von VR-Zone ist es gelungen, ein erstes Bild von ATIs neuem Flaggschiff, dessen Bezeichnung derzeit noch R600 lautet, aufzutreiben. Die neuen Grafikkarten sollen Nvidias DirectX10-Grafikkarten, die bereits seit einiger Zeit im Handel erhältlich sind, Konkurrenz machen und deren Leistung übertreffen.
Das Bild zeigt das absolute High-End-Modell, das wahrscheinlich wieder den Zusatz XTX im Namen tragen soll. Von ihm wird es laut VR-Zone zwei Varianten geben, die jeweils für den OEM- respektive den Endkundenmarkt gedacht sind, und sich vor allem durch ihre Abmessungen unterscheiden sollen. Das Foto stellt angeblich die besonders lange Variante für OEM-Hersteller dar.
Die Abmaße sind es auch, die den Käufer auf den ersten Blick auch am meisten beeindrucken dürfen. Von bis zu 12,4 Zoll (rund 31,5 Zentimeter) bei der OEM- und 9,5 Zoll (rund 24,1 Zentimeter) bei der Endkundenvariante ist die Rede. Dabei soll der Kühlkörper größer sein als die eigentliche Grafikkarte.
Auch bei der Leistungsaufnahme wird ATIs neues Flaggschiff Rekorde setzen. Von bis zu 270 Watt ist die Rede. Die natürlich ebenfalls geplante etwas weniger gut ausgestattete XT-Variante des R600 soll immerhin noch satte 240 Watt benötigen. Bei der High-End-Ausgabe XTX kommt allerdings auch GDDR4- statt GDDR3-Speicher zum Einsatz.
Von einem Gigabyte ist die Rede. Die günstigeren Varianten werden auch mit weniger Speicher auf den Markt kommen. Früher an die Öffentlichkeit gelangte Zahlen, die angeblich einen Benchmark-Vergleich zwischen Nvidias aktuellem Topprodukt GeForce 8800GTX und dem R600 wiedegeben, bescheinigen ATI einen Leistungsvorteil von bis zu 39 Prozent.
Die neuen DirectX10-fähigen Grafikkarten von ATI sollen noch rechtzeitig zur CeBIT erstmals offiziell der Öffentlichkeit präsentiert werden. Über die Preise lässt sich angesichts der beinahe unglaublichen Leistungswerte und Größen der Karten nur spekulieren. Inzwischen gibt es auch Berichte, wonach ATI für professionelle Anwender Produkte auf Basis des R600 mit bis vier Gigabyte Speicher plant.
39% okay
http://www.winfuture.de/news,29963.html
Über-Edition des R600 bestätigt
asserkühlung soll es bringen. Und wir haben weitere Einzelheiten über die vier R600-Versionen erfahren, die ATI für die Kunden vorbereitet.
Eine Karte ist mit DDR3 ausgestattet, und die andere - die längere Spielkarte - mit DDR4. Als dritte wird jetzt jedoch die Über-Edition genannt.
Es wird die schnellste unter der ersten Ladung von Karten sein, die in die Regale kommen. Die entscheidende geheime Zutat ist eine Wasserkühlung. Wir wir gehört haben, stehen zwei Firmen im Wettbewerb, um den Kühler zu bauen. Eine ist Aavid, deren Kühler in letzter Zeit auf vielen Grafikkarten zu sehen waren, und die zweite Firma ist die dänische Asetek.
Sowohl die Wasserpumpe als auch das Reservoir sollen sich auf dem Kühlkörper befinden. Die Karte wird daher ähnlich wie die anderen Karten aussehen, nur mit einem größeren Kühlkörper, einem Lüfter und einem Reservoir.
Es sollten also nicht übermäßig viele Kabel und Röhren von der Karte weg und zur Karte führen. Es wird wohl die schnellste Karte weit und breit sein, aber da müssen wir noch eine Weile die Luft anhalten. Und dann werden wir noch auskundschaften müssen, was es genau mit der vierten Variante auf sich hat.
http://de.theinquirer.net/2007/02/09/ueberedition_des_r600_bestaeti.html
R600 XTX
* 1 GB DDR4 Speicher
* Herstellung im 80 nm Prozess
* Stromverbrauch - Retail-Version: 240 Watt - OEM-Version: 270 Watt
* Länge - Retail-Version: 24.13 cm - OEM-Version: 31.5 cm
R600 XT
* 512 MB GDDR3 Speicher
* Herstellung im 80 nm Prozess
* Stromverbrauch 240 Watt
* Länge: 24.13 cm
http://www.vr-zone.com/?i=4622
pix
So soll die grafikkarte ausehen:
http://screenshots.winfuture.de/1171039883.jpg
und wie man sieht wird die R600 mehr als doppelt so viel strom brauchen als die Geforce 8800 gtx (114 W bei volllast).Ich bin froh das ich mir die gtx geholt habe...
EDIT:HIER NOCH MEHR BILDER (http://www.pcgameshardware.de/?menu=browser&article_id=556680&image_id=582580)
HIER UNTER STROMVERSORGUNG (http://www.alternate.de/html/product/details.html?artno=JBXVG1&showTechData=true)
Hä?
Ich wollte wissen, woher du weißt, dass der R600 doppelt so viel benötigt.
Achso SRY,schau mal über meinem Beitrag wo ich das Bild rein gemach hab.Da stehen diese Infos:
R600 XTX
* 1 GB DDR4 Speicher
* Herstellung im 80 nm Prozess
* Stromverbrauch - Retail-Version: 240 Watt - OEM-Version: 270 Watt
* Länge - Retail-Version: 24.13 cm - OEM-Version: 31.5 cm
Und sogar die
R600 XT
* 512 MB GDDR3 Speicher
* Herstellung im 80 nm Prozess
* Stromverbrauch 240 Watt
* Länge: 24.13 cm
verbraucht 240 Watt LOOL
Damit ist doch sicherlich nicht der Verbrauch der Karte gemeint, sonder der des gesamten Rechners.
Woher kommen diese Ergebnisse denn? Die wenigsten werden nämlich eine Möglichkeit haben den Verbrauch der Karte direkt zu messen. Dazu braucht man schon ganz spezielles Equipment. Deshalb wird immer der Verbrauch des Gesamtsystems (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/31/#abschnitt_stromverbrauch) angegeben. Ich kann mir echt nicht vorstellen,d ass das die Karte alleine sein soll.
hmm,also die gtx verbraucht schonmal sicher 114 watt.alternate gibt es bistimmt net umsontzt an.Naja mal schauen ob damit die Karte gemeint ist oder das ganze system...
Lese dir das mal durch, da steht der Stromverbrauch der Karte, anscheinend hat v-r zone das gemessen.
http://www.pcgameshardware.de/?article_id=556503
Jo,da steht auch das die Karte so viel verbraucht.Geforce is THE BEST.Bin echt froh das ich die gtx hab :D ,hoffendlich wird das noch mit dem Treiber...
o.O ... Was bring ATI für ein Monster da raus...31,5 cm? *******!! Damit passt sie nicht mehr in mein Raidmax Sagitta Case 921BS!
Kann mir auch nicht vorstellen, dass nur die Karte 270W ziehen soll....
Wie man hier sieht benötigt sie 1x6-Pin PCIe und 1x8-Pin Stromanschlüsse:
http://www.pcgameshardware.de/screenshots/medium/1171038403919.jpg
Hat jemand ne Idee wofür hier Makierungen zum Öffnen bzw. Schließen sind, warum sollte man das an dem Punkt öffnen? Und noch viel mehr, was ist das für ein Henkel da rechts(ja mich regt die große auf :evil: , weil wenn der Henkel da nicht wäre, wäre sie kleiner!)
==> http://www.pcgameshardware.de/screenshots/medium/1171038405716.jpg
Kann mir einer erzählen, was die OEM-Version ist?
Kann man die 8800GTX als OEM und die 8800GTS als Retail gleichsetzten oder wie? Schlicht gesagt, OEM ist die stärkste?
ich glaube die meinen mit OEM,das es die Testversion ist.Also die haben die Test version von R600 getestet,weil ja die Karte noch nicht ganz fertig ist denke ich...
Lese dir das mal durch, da steht der Stromverbrauch der Karte, anscheinend hat v-r zone das gemessen.
Also da steht ja gar nichts dazu, wie sie es gemessen haben: vr-zone (http://www.vr-zone.com/?i=4622)
Ich wüsste gerne wie die in de Lage sein sollen den Stromverbrauch einer einzelnen Karte zu messen. Schließlich muss man dort auch den Strom messen, der über den PCIe Bus übertragen wird und da kann man mal nicht eben ein Multimeter zwischenklemmen.
Außerdem steht da weder bei, ob es Schein- oder Wirkleistung ist noch ob das unter Last oder Idle Betrieb gemessen wurde.
Wenn schon, dann möchte ich einen Test sehen, wo das Messverfahren aufgeführt ist, die Hardware bekannt ist und die Zustände definiert sind bei denen der Strom gemessen wurde.
Ich warte also ab, bis die ersten richtigen Tests mit den echten Karten erscheinen. Am besten auf CB. Die verwenden für das Benchmark das gleiche System und so kann man die Karten auch direkt gegenüber stellen und sehen, wie viel höher der Stromverbrauch wirklich ausfällt.
Die haben bestimmt n Mainboard mit onbaord grafik genommen, gemessen, danach den R600 rein nochmal messen..
schon hab ich den verbrauch allein vom R600 :roll: :roll: :roll:
^^ löl
OK. Das könnte fast klappen, aber wie sorgt man dafür, dass beide Grafikkarten voll ausgelastet werden?
Wenn man den OnBoard-Chip ausschaltet und nur den R600 betreibt, dann hat man ja lediglich die Leistung die der R600 mehr verbraucht als der OnBoard-Chip. Also müssen beide Karten voll belastet werden und jeweils ein eigenständiges Spiel rendern. Jetzt weiß ich nicht, ob das überhaupt mögllich ist. Ich glaube nicht. Jedenfalls nicht mit DX9 Karten. Unter Vista mit DX10 Karten wäre es eventuell möglich.
Schön wäre es natürlich wenn man zwei R600 im CF Betrieb laufen lassen könnte. Dann wäre es wirklich machbar. Natürlich steigt dann auch die Prozessorlast und der Prozessor verbraucht mehr Strom und solche Dinge, aber so ungefähr könnte das schon hinhauen.
ach wer weiß was und wie sie es gemacht haben wollen. fest steht wenn eine der R600ter locker 240-270W verbraucht kannste ein CF sys eh vergessen oder willst du dir n 1KW NT rein hauen?! überleg mal dasnn ziehen sich dir beiden GraKa's ja schon alleine über 500W!!!
*grübel
Nur mal so als Info. Der G80 hat auch einen Peakleistungsaufnahme von 225 Watt.
Wenn diese Angabe mit den 240 Watt also stimmt, dann wird das sicherlich auch der Worst-Case sein und da liegt der R600 gar nicht mal so weit drüber.
Außerdem kommt es hauptsächlich darauf an, was die Karte im Idle-Betrieb benötigt. Wenn ATi Stromspartechniken einsetzt, wie sie das auch bei Mobile-Chips machen, dann kann das Ganze schon wieder ganz anders aussehen und eventuell sind sie dann sogar sparsamer als nVidia. Der G80 läuft soweit ich weiß auch noch mit vollen Takt, selbst wenn er nichts zu tun hat.
Soetwas wie C'n'Q oder EIST für Desktop-Grakas wäre doch wirklich mal an der Zeit.
Also warten wir mal ab, was die ersten rechtigen Tests an's Tageslicht bringen. Vielleicht überrascht ATi und ja noch. Zu hoffen wäre es.
Jo warten wir einfach mal.Vill. sind ja das auch alles nur fakes...
Also da steht ja gar nichts dazu, wie sie es gemessen haben: vr-zone (http://www.vr-zone.com/?i=4622)
^^ die Karte sieht sehr lang aus...!
zu lang in mein gehäus würde es nicht reinpassen....
Born_Brainless
11.02.2007, 17:12
Also da steht ja gar nichts dazu, wie sie es gemessen haben: vr-zone (http://www.vr-zone.com/?i=4622)
^^ die Karte sieht sehr lang aus...!
noxon bezog sich auf den Stromverbrauch nicht auf die Länge^^
Also da steht ja gar nichts dazu, wie sie es gemessen haben: vr-zone (http://www.vr-zone.com/?i=4622)
^^ die Karte sieht sehr lang aus...!
noxon bezog sich auf den Stromverbrauch nicht auf die Länge^^
und ich beziehe mich aber auf die Länge ;)
Die finde ich persönlich ziemlich lang...!
zu lang in mein gehäus würde es nicht reinpassen....
24 cm passen bei dir nicht in's Gehäuse? Was hast du denn für ein Gehäuse?
//EDIT:
Ich sehe gerade, dass du ne EVGA Geforce 8800 GTX hast.
Die ist sogar 2 cm länger als die ATi Karte.
24 cm passen bei dir nicht in's Gehäuse? Was hast du denn für ein Gehäuse?
ah! 24 cm sind zum Glück gerade richtig, auf dem Bild sah die Karte ziemlich lang aus, aber ok.
Naja. Foofi. Um so eine News möglichst dramatisch ausehen zu lassen wird natürlich immer der worst case gewählt.
Es gibt eine OEM Version, die 31 cm lang ist. Die normale Einzelhandelsversion ist allerdings "nur" 24 cm lang. Letztendlich wird sich das von Hersteller zu Hersteller sowieso immer um einige cm unterscheiden. Ist bei den 8800 Karten ja nicht anders. Da erreichen auch einige Karten die stolze Länge von 28 cm.
@Noxon, hast du mal so eine Designsache von NVidia gesehen, da ist ein extra Case für die Grafikkarten mit eigenem Nezteil, sodann ist dieses Gehäuse mit dem Hauptgehäuse, wo die restliche Hauptplantine ist, verbunden. Sieht heftig aus, also dort könnten a sodann längere und grössere Karten entwickelt werden... ich weiss nicht ob ich das schonmal bei ATi gesehen hab, aber auf einer NVidia Seite war das ganz sicher.
Also hier kommt was richtiges an infos rüber:
Allmählich fügen sich die Einzelheiten zu einem kompletten Bild. Es wird vier, vielleicht sogar fünf verschiedene Sorten von Grafikkarten mit dem neuen Chip von AMD / ATI geben. Ja, und es gibt UFOs ...
Wenn ATI tatsächlich die Über-Edition einer wassergekühlten Karte baut, dann könnten wir sogar von fünf Spielkarten reden. Aber bleiben wir erst einmal bei denen, die wir ganz klar bestätigen können.
Als Dragonshead wird die R600XTX gehandelt. Es ist eine Karte für OEM-Hersteller in der vollen Länge von 12,4 Zoll (31,5 cm) mit 1024 MB Speicher.
Die zweite Karte heißt Dragonshead 2. Sie läuft mit der gleichen Taktrate wie die R600XTX mit 12,4 Zoll. Sie ist aber nur 9,5 Zoll (24 cm) lang und braucht mit 240 Watt etwas weniger Strom. Sie hat ebenfalls 1024 MB Speicher an Bord sowie einen 512-Mbit-Speichercontroller. Sie kommt mit diesen speziellen Dual-6-Pin-Steckern, die wir schon bei der Geforce 8800 GTX bewundern durften.
Die dritte Karte hört auf den Codenamen Catseye. Sie ist mit dem R600XT-Chip bestückt und um 10 bis 15 Prozent langsamer getaktet als die R600XTX. Sie kommt mit 512 MB GDDR3-Speicher, ist 9,5 Zoll (in der metrischen Welt 24 cm) lang und besetzt zwei Steckplätze auf dem Motherboard. Sie saugt ebenfalls 240 Watt und hat auch diese speziellen Stecker. Sie dürfte voraussichtlich im April auf den Markt kommen. Die ersten drei Kartenvariationen verfügen über Dual-DVI und VIVO-Option.
Mit dem Codenamen UFO wurde die vierte R600-basierte Karte versehen, die wir bestätigen können. Die Taktrate ist kleiner als bei der R600XL-Version. Dual-DVI sowie TV-Out sind mit drin, aber kein VIVO (VideoInVideoOut). Sie ist neun Zoll lang (22,9 cm), und der Kühler benötigt zwei Slots. Sie verbraucht 180 Watt und hat einen 2x3-Pin-Stecker. Die Produktion soll im April anlaufen.
alles kopiert (hehe schreibfaul ^^) von:
http://de.theinquirer.net/2007/02/12/die_spielarten_des_r600_im_det.html
Eigentlich spricht mich sowieso nur das hier an:
Die zweite Karte heißt Dragonshead 2. Sie läuft mit der gleichen Taktrate wie die R600XTX mit 12,4 Zoll. Sie ist aber nur 9,5 Zoll (24 cm) lang und braucht mit 240 Watt etwas weniger Strom. Sie hat ebenfalls 1024 MB Speicher an Bord sowie einen 512-Mbit-Speichercontroller. Sie kommt mit diesen speziellen Dual-6-Pin-Steckern, die wir schon bei der Geforce 8800 GTX bewundern durften.
Wunderbares Flakschiff :mrgreen: !! Mein absoluter Favorit, zur Zeit....Ich finde es sehr geil, dass die Karte "nur" 24 cm lang ist; die alten Karten(GeForce 7950 GX2, ATi X1950XTX) waren auch 24 cm lang!!
Vor allem ist die Karte damit kleiner als die 8800GTX (bis zu 28cm).
Wird Crysis eigentlich 1GB Speicher untersützen?, wurde schon was dazu gesagt?
Aber gerade für die Leute, die nicht so viel Geld ausgeben wollen, könnte die die R600XT interessant werden...
Nur wie soll ich das verstehen:
...und besetzt zwei Steckplätze auf dem Motherboard.
Die Karte brauch doch keine 2 PCIe Steckplätze....?
Nur wie soll ich das verstehen:
...und besetzt zwei Steckplätze auf dem Motherboard.
Die Karte brauch doch keine 2 PCIe Steckplätze....?
Die Karte besetzt zwei Slots, keine zwei PCIe Steckplätze ;)
der angeblich neue benchmark
http://www.pcgameshardware.de/screenshots/medium/r600scores.jpg
also fals der stimmt,freue ich mich das ati so schlecht abschneidet:D.Nur 2000 Punkte unterschied LOL.Hammer!!
genau, kein sehr großer Unterschied.
wenn das kein Fake sein sollte, hat ATI ein Problem.
Ich glaube aber dass sich die Leistung der R600 noch verbessern wird mit entprechenden Treibern.
Einen großen Quantensprung wird man aber glaube ich nicht erleben.
Und wenn noch der Stromverbrauch stimmtn sollte LOL,dann bye bye ATI^^
Born_Brainless
13.02.2007, 16:11
also fals der stimmt,freue ich mich das ati so schlecht abschneidet:D.Nur 2000 Punkte unterschied LOL.Hammer!!
2000 Punkte sind meiner Meinung nach nicht ohne und richtig interessant wirds sowieso erst bei der 06er version weil die ja exzessiven Gebrauch von Shadern macht.
Außerdem glaub ich sind das sowieso fakes
Na Dna bist wohl ein Nvidia Fanboy?
Oh, stimmt. Dann der Stromverbrauch :lol:
Ja,bin eher der Nvidia Fan^^,naja mal sehen villeicht wird ja doch noch was aus der R600,kann ich mir aber eigentlich nicht vorstellen weil bis jetzt derer benchmark schlecht war und es kann ja nicht sein das die alle gefaket sind...
Dann müssen wir einfach mal abwarten wie sich die R600 schlagen wird...
Also auf synthetische Benchmarks wie 3DMark würde ich nicht zählen.
Gerade jetzt bei den DX10 Karten unterscheiden sich beide Chip in vielerlei hinsicht. Der Eine setzt zum Beispiel auf viele Shader die wenig Rechenschritte auf einmal ausführen können während der andere auf wenig Shader setzt, die dafür viele Rechenschritt auf einmal durchführen können.
Die Unterschiede gibt es auch noch in vielen anderen Bereichen der Chiparchitektur und so ist es sehr schwer vorherzusagen, wie gut ein Spiel auf einer Karte läuft.
Das eine Spiel kommt vielleicht besser mit den vielen Shadern, die weniger berechnen zurecht, während ein anderes Spiel sehr stark von Shadern profitiert, die viele Rechenschritte auf einmal durchführen können.
Die Ergebnisse der Karten werden sehr stark von den Spielen abhängig sein, die getestet werden. Das wird nicht mehr so einfach übertragbar sein, wie unter DX9.
Es ist sehr schwer, wenn nicht sogar unmöglich, einen ausgewogenen Test zu schrieben, der beide Karten gleichberechtigt bewertet.
Letztendlich kommt es darauf an, wie die Spiele laufen werden und das auch bei hohen Qualitätseinstellungen.
Das ist ein anderer Punkt, warum mich die 3DMark Benchmarks nicht interessieren. Ich will doch wissen, wie die Performance bei 16x AF und 4x MSAA aussieht und darüber sagt der Benchmark gar nichts aus. Da kann ATi dank seines 512 Bit Interface und seiner erhöhten Speicherbandbreite vielleicht kräftig punkten.
Ich würde also abwarten, bis die ersten richtigen Spiele in den Einstellungen und in der Auflösung getestet wurden, die man gerne verwenden möchte.
Erst dann kann jeder für sich entscheiden, welche Karte für ihn die Beste ist.
Klingt ja alles schön, nur jetzt hast du mich total unsicher gemacht, ob ich warten soll oder ne 8800 nehmen soll :roll:
Heißt das, man sollte jetzt immer abwarten, bis die Spiele mit der Grafikkarte getestet wurden...und dann erst zuschlagen?
Born_Brainless
13.02.2007, 17:57
Klingt ja alles schön, nur jetzt hast du mich total unsicher gemacht, ob ich warten soll oder ne 8800 nehmen soll :roll:
Warte einfach bis der R600 kommt, wenn dich dann die Leistung nicht überzeugt kannst du dir ja immer noch eine 8800 kaufen ;)
Warte einfach bis der R600 kommt, wenn dich dann die Leistung nicht überzeugt kannst du dir ja immer noch eine 8800 kaufen ;)
So sehe ich das auch. Ich werde jetzt auch bis zum 8 März warten und mal sehn, was die Testberichte so sagen. Kaufen werde ich mir aber wahrscheinlich erst einmal eine 8800 GTS. Die wird nur halb so viel kosten und so viel schlechter wird sie auch nicht sein. Außerdem ist sie in ausreichender Menge verfügbar. Wer weiß, wie das beim R600 wird.
Dann zum Ende des Jahres werde ich aber auf den R680 Refresh-Chip wechseln und die 8800 GTS wieder verkaufen. Der Wertverfall dürfte dann noch nicht all zu hoch sein.
oder warte auf den G81 :lol:
http://www.hardware-infos.com/news.php?news=828
schaut euch das mal an da könnte ja was dran sein
Da halt ich nicht viel von.
1. Wie kann die XTX2 nur einen 256Bit Speicherinterface haben?
2. Warum sind die Low-End Karten nicht mit 64Bit angebunden?
Naja 128Bit sind ja ganz gut aber hab gedacht, die niedrigere Preisklasse is noch mit 64Bit angebunden :? .
ne geforce 7600 gs hat doch auch 128bit
also ich find das ok 64 währen a weng wenig
1. Wie kann die XTX2 nur einen 256Bit Speicherinterface haben?
Das liegt daran, dass das ein CF System ist, dass aus zwei Chips besteht. Jeder Chip benötigt da seine eigene Speicheranbindung und da es ohnehin schon ein Mega-Problem war so viele Leitungen für ein 512 Bit Interface auf das PCB zu übertragen wird man das nicht verdoppeln können.
Deswegen wird jeder Chip nur mit 256 Bit angebunden sein, womit letztendlich wieder so viel Leitungen verlegt werden müssen, wie bei einem einzigen 512 Bit Interface.
Was aber sehr interessant ist, das ist die Anzahl der shader. Die soll auf einmal von 64 auf 128 gestiegen sein? Na ich weiß nicht. Wenn das stimmt, dann sind die Shader sicherlich nicht 4-fach ausgelegt und wenn doch, dann wär der R600 dem G80 meilenweit voraus.
Turnschuh
14.02.2007, 10:52
Hier die Benchmark Ergebnisse der r600.
Bin leider zu faul das alles zu kopieren, deshalb geht auf den link und lest selbst.
http://www.tweakpc.de/news/11048/erste-benchmarks-des-r600/
GeForce 8900 GTX vs. ATI R600
Im März wird bekanntlich die neue DirectX10 Grafikkartengeneration von ATI erwartet. nVidia hat seine neuen Grafikkarten (GeForce 8) bereits seit einiger Zeit auf dem Markt, will aber offenbar nochmal nachlegen, um ATI jeglichen Wind aus den Segeln zu nehmen. Angeblich ist eine GeForce 8900 GTX mit 25% mehr Shader Einheiten geplant, das wären dann 160. Ob dieses Modell weiterhin auf dem in 90nm Technik gefertigten G80 Grafikchip basiert und ob es höher getaktet wird als eine GeForce 8800 GTX, ist noch Spekulation.
http://www.hartware.de/
Hier die Benchmark Ergebnisse der r600.
Bin leider zu faul das alles zu kopieren, deshalb geht auf den link und lest selbst.
http://www.tweakpc.de/news/11048/erste-benchmarks-des-r600/
ich halte den test für einen fake. und selbst wenn es ein richtiger test sein sollte, dann ist er nicht aussagekräftig, da nicht mit einem multicore getestet wurde, dann könnte die sache ganz anders aussehen
Finale Spezifikationen von AMD zum R600 (http://www.pcgameshardware.de/?article_id=559375)
Sind das offizielle oder inoffizielle daten?
Wenn du weiter runterscrollt, wird dir dieses als Quelle angegeben:
http://www.dailytech.com/article.aspx?newsid=6138
ob das auch wirklich stimmt?
Neue R600 Spekulationen: AMD-Dokument aufgetaucht
Chilehardware.com hat ein geheimes internes AMD-Dokument aufgetrieben, aus dem sich weitere Informationen zum R600 herauslesen lassen. So sollen erste lauffähige Samples bereits seit Anfang Februar existieren, der offizielle Launch hingegen ist für Ende März geplant. WHQL-Treiber sollen am 14. März, also einen Tag vor der Cebit, erscheinen - ein Treiber-Debakel wie Nvidia mit dem G80 unter Vista will sich Ati anscheinend nicht liefern.
Nach derzeitigem Stand wird eine R600 Grafikkarte, ebenso wie eine 8800GTX, zwei zusätzliche Stromleitungen des Netzteils benötigen. Anders als die 8800GTX jedoch nicht zwei sechspolige, sondern einen sechs- und einen achtpoligen Anschluss. Die Länge der Retail-Karten wird mit 9,5 Zoll angegeben (was etwas über 24cm entspricht), die Länge der OEM-Karten mit 12" (etwas über 30cm). Weiterhin werden die OEM-Karten über zusätzliche Halterungen verfügen, um den Transport der Computer zum Kunden zu erleichtern. Alle R600 Karten unterstützen dem Dokument zufolge Crossfire.
Die Systemvoraussetzungen werden derzeit noch überarbeitet, nach derzeitigem Stand werden ein High-End Netzteil sowie eine gute Gehäuselüftung zwingende Voraussetzung für den Einsatz einer R600 sein.
http://www.pcgameshardware.de/?article_id=559603
pix
http://www.pcgameshardware.de/?menu=browser&article_id=559603&image_id=585448
also einen Tag vor der Cebit, erscheinen - ein Treiber-Debakel wie Nvidia mit dem G80 unter Vista will sich Ati anscheinend nicht liefern.
haha also nach dem Nvidia seine 8800GTS/X schon lange draußen hat kann AMD/ATI ja das mundwerk groß aufreißen, immerhin wird Nvidia bis dato auch mal einen WHQL Treiber draußen haben und wird somit doch schneller sein als AMD/ATI! Außerdem wette ich mit euch das der kleine süße R600 nich lange an der Spitze bleiben wird, zumindest nich so lange wie es der G80 geschafft hat!
Die länge usw waren schon lange klar! Was auch witzig ist, der 6pol wird mit nem 6poligen stecker gekoppelt und der 8polige anschluß... lol mit entweder 2x 4pol...
oder1x 6pol (lol was das fehlen noch zwei oder?! ^^)
evtl 1x 8pol
greatz Dapalme
@dapalme der Finale WHQL Treiber von Nvidia ist schon da :wink:
@dapalme der Finale WHQL Treiber von Nvidia ist schon da :wink:
hmm du meinst diesen von 3DGuru bzw Laptopvideo2go?!
diese wurden wieder raus genommen falls du es noch nicht mit bekommen hast :wink:
Da war irgenwas nich richtig an dem Treiber, ich will auh nicht wissen was daran falsch ist ^^
Oder meinst du für alle DX9 Karten?! Ich meinte jetzt Speziel die 8800GTX/S
@ DN@ kommst ne runde chatten ^^
Ich meine den HIER (http://www.computerbase.de/news/treiber/grafikkarten/nvidia/2007/februar/finaler_whql-forceware_10065/)!!
genau der ist das schau selbst hier:
ähm... hmm... heut morgen stand da noch groß in rot geschrieben das der von Nvidia raus genommen werden sollte ^^ warte mal...
EDIT:
haben se scheinbar dann doch wieder frei gegeben was soll das denn?!
EDIT2:
der ist jetzt auch offiziel bei Nvidia zum Download freigeben:
http://www.nvidia.com/object/winvista_x64_100.65.html
ja das haben sie,frag mich net warum^^.Aber der funzt bis jetzt gut.Aber cod2 geht immer noch net mit AA 4x....
EDIT:Klar ist der offiziel :D
lass uns im chat weiter quatschen wir sind im falschen Thread ^^
sry Mods
BACK TO TOPIC ^^
R600 in das zweite Quartal 2007 verschoben (http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/februar/r600_quartal_2007/)
Tja. So wird das natürlich nie was mit dem R600. Die können ja nicht erwarten, dass man ewig auf den Chip wartet. Da müssen sie sich nicht wundern, wenn die Leute alle auf nVidia umsteigen.
pissdrunx1987
21.02.2007, 15:27
gutes brauch ebend zeit, besser nen fertiges produkt als nvidia mit ihren vista treibern...^^
ausserdem ist 2tes quartal bald und auf cebit wird die karte vorgestellt, also leger bleiben, giebt sowieso noch kein dx10 spiel, wofür sich solche karten wirklich lohnen, ultra hq gaming ist natürlich ne ganz andere sache, finde diese kleine verschiebung aber nicht schlimm!
die news von gestern fand ich da eher spannender:
http://www.pcgameshardware.de/?article_id=559603
gutes brauch ebend zeit, besser nen fertiges produkt als nvidia mit ihren vista treibern...^^
Was glaubst du warum die verschoben wird? weil gut ding zeit braucht ^^
Hmm... das könnte doch glatt nen Duell zwischen G90 und R600 werden, mal sehen was so passiert *gg
Naja. Was mich stört ist, dass es schon seit Ewigkeiten verschoben wird.
Erst soll sie noch 2006 erscheinen, dann Anfang Januar, dann Anfang Februar, dann am 8 März, dann Ende März und jetzt Erst im Q2?
Und die letzten Verschiebungen immer mit der gleichen Begründung, dass man sicherstellen möchte, dass beim Start genügend Exemplare vorhanden sind. Dass das nicht wirklich der Grund ist, solte klar sein. Irgend etwas anderes läuft da schief.
Naja. soll mir egal sein. Ich hab jetzt meine 8800 GTS bestellt.
Born_Brainless
01.03.2007, 21:20
auf PCGH gibts ein paar neue Infos und Bilder ;)
http://www.pcgameshardware.de/?article_id=564620
Ein Monster diese OEM Version :twisted:
auf PCGH gibts ein paar neue Infos und Bilder ;)
http://www.pcgameshardware.de/?article_id=564620
Ein Monster diese OEM Version :twisted:
Naja so wie ich das sehe, musst du dir mal den Lüfter weg denken dann ist sie genau so groß wie ne 6800
Leider noch Top Secret: HIS zeigt (nur) der Presse „R600 HIS Grafikkarten“ im NDA Room auf der CeBIT 2007
Nur unter strengster Geheimhaltungspflicht und auch nur der Fachpresse gewährt Grafikkarten-Hersteller HIS einen ersten Einblick in die neue R600 Generation – Dazu feiert HIS auf der CeBIT sein 20jähriges Firmenjubiläum
ersten Vorgeschmack auf die HIS Grafikkarten der nächsten Generation mit AMDs neuem Grafikchip Radeon 600 können die Journalisten bereits auf der CeBIT 2007 in Hannover bekommen. Auf seinem Messestand in Halle 20, Stand C39 präsentiert der renommierte Grafikkarten-Hersteller Hightech Information System Limited (HIS) in einem abgeschlossenen und abgeschirmten „NDA-Raum“ (NDA = non-disclosure agreement) seine ersten R600-Modelle. „Wir planen eine R600 Live-Demo für Redakteure, die vorher eine Verschwiegenheitserklärung unterschrieben haben. Leider dürfen wir diese außergewöhnlich leistungsstarken Grafikkarten noch nicht frei in der Öffentlichkeit zeigen. Doch ich darf versprechen, ein Besuch des HIS CeBIT Standes lohnt sich in diesem Jahr besonders“, erläutert Peter Hirschfeld, Sales- und Marketing Direktor Europa bei der Hightech Information System, die auf der CeBIT ihr 20jähriges Firmenjubiläum feiert.
Vertreter der Presse, die an einem Besuch der R600 Live-Demo im „HIS NDA-Raum“ interessiert und bereit sind, eine Vertraulichkeitsvereinbarung zu unterschreiben, melden sich kurz bei der KoM AGENTUR (Kontakt s.u.) an. Auch noch einige kostenlose CeBIT Tages-Eintrittskarten sind bei der KoM AGENTUR erhältlich (nur solange der Vorrat reicht). Zudem zeigt HIS auf seinem Messestand die weltweit erste X1550 Dual DVI 1X PCI-E Grafikkarte mit “Multi Card Setup”, die in der Lage ist gleich sechs LCD Displays mit nur einem Motherboard zu unterstützen. Auch die neue Einsteigerkarte mit eigenem IceQ Kühlsystem, die HIS X1550 IceQ TURBO, wird auf der CeBIT 2007 vorgestellt.
http://www.pressebox.de/pressemeldungen/hightech-information-system-ltd-his/boxid-96574.html
8O 8O Also ich habe eine xFx 8800GTS X Tuned (die hochgezüchtete Version). und diese Langt mir im Moment vollkommen obwohl ich auch schon auf die bald laut Nvidia erscheinende 8900 GTX freue.
Aber wenn ich hier sehe das die R600 GPU gleich mal 200 Watt fristt wird mir da doch angst und bibberbange^^.muss sich dann wohl jeder ein Enermax W1000 zulegen^^.
28 Screenshots von Atis neuer R600-Techdemo mit Ruby und erste R600-Eindrücke (Update)
Auf der Cebit gelang es uns, 28 Screenshots von der neuen Ati-Technologie-Demo zu erstellen. Hinter verschlossenen Türen und unter Ausschluss der Presse werden R600-Systeme mit dieser Technologie-Demo vorgeführt. Die Demo benötigt ca. 680 MByte an Video-Speicher - 500 MByte werden alleine für Texturen reserviert. Außerdem nutzt die Demo soft particles und self-shadowing. Insgesamt kommen 375 Shaders zum Einsatz. Der Standard-Pixel-Shader nutzt dabei 430 Instruktionen.
Erster Eindruck zur R600: Die Karte sieht einer X1950 XTX sehr ähnlich und nutzt einen fast identischen Kühler. Das Board benötigt gleich zwei Stromanschlüsse, wobei einer den neuen PCI-E-Standard unterstützt. Zunächst wurde spekuliert, dass das PCB übermäßig lang ist - das kann ich nicht bestätigen.
Update:
Mittlerweile wurden wir gebeten, die Bilder der R600-Demo wieder zu entfernen - dieser Bitte sind wir natürlich umgehend nachgekommen. Sobald es etwas neues gibt, halten wir Sie natürlich auf dem Laufenden.
http://www.pcgameshardware.de/?article_id=571567
Atis DirectX10-Einsteiger- und Mittelklasse Karte-RV610 und RV630 gesichtet (15 Bilder online)
Hinter verschlossenen Türen ist es uns gelungen, als eines der ersten Magazine einen Blick auf die neuen Einsteiger- und Mittelklasse-Karten von Ati zu werfen. Ein Launch wird für Mitte April angepeilt. Besonders interessant ist Atis DX10-Karte RV630. Diese wird vermutlich für ca. 200 Euro in den Handel kommen und damit Nvidias Geforce 8600 GTS Konkurrenz machen. Die Bilder in unserer Galerie zeigen die RV630 mit und ohne Kühler. Bei der Karte ohne Kühler wird noch ein anderes Platinenlayout verwendet. Die finalen Taktraten stehen zum jetzigen Zeitpunkt noch nicht fest. Bilder einer R600 können wir Ihnen leider nicht zeigen, da entsprechende Karten mit Herstellerlogos voll geklebt sind und wir unsere Quellen geheim halten wollen.
pix
http://www.pcgameshardware.de/?menu=browser&article_id=571589&image_id=%20594540
Während neue Grafikkarten auf der CeBIT mit der Lupe zu suchen sind, zeigen sich Kühler für nVidias G80 und ATis für April erwarteten R600 allerorts. Neben Arctic Cooling, Asus, MSI und Zalman stellt auch Thermaltake zwei neue Wasserkühler, die die beiden High-End-Chips vor dem Hitzetod bewahren, aus.
Neben dem eigentlichen Wasserkühler, der die Wärme des Kerns abführt, verfügt sowohl der TMG ND4 (G80), als auch der TMG AT4 (R600) über einen Radiallüfter, der die restlichen Komponenten mit Frischluft versorgt.
Galer
pix
http://www.computerbase.de/news/hardware/gehaeuse_kuehlung/2007/maerz/weitere_wasserkuehlungen_g80_r600/
Cebit 2007: Gründe für Atis R600-Verspätung
Wie Sie sicherlich mitbekommen haben, gilt für Boardpartner strengste Geheimhaltung, was R600-Boards angeht. Doch warum hat Ati/AMD den Launch nach hinten verschoben? Wir haben bei den Kartenherstellern nachgefragt: Der wichtigste Grund ist demnach die schlechte Verfügbarkeit von GDDR4-Speicher - Samsung kann die hohe Nachfrage nicht befriedigen. Um einen Paper-Launch zu vermeiden, hat man sich dann anscheinend dazu entschlossen, den Launch zu verschieben. Es gibt auch Stimmen die sagen, dass es noch Treiberprobleme gibt und R600-Boards nicht auf allen Konfigurationen absolut stabil laufen. Wir bleiben für Sie natürlich am Ball.
Wir gehen davon aus, dass R600-Boards im Mai auf den Markt kommen werden.
http://www.pcgameshardware.de/?article_id=571760
8O :cry:
Born_Brainless
16.03.2007, 17:46
hm.. Also ich kann mir sehr schwer vorstellen, dass das hauptsächlich am Speicher liegt, für den X1950xt scheinen ja auch genug gddr4 Speicherchips vorhanden zu sein.
CeBIT: Alle R6xx-Chips von ATI gehen auf 65 Nanometer
Anfang Januar war bei AMD / ATI von einer grundsätzlichen Überarbeitung des Grafikchips R600 die Rede. Doch es steckte viel mehr dahinter.
Tatsächlich fasste die Firma richtig Mut, nahm nicht den Weg von R520/R580, und warf den R600 zum alten Eisen. Den R600 in 80 nm - so drang es jetzt nach außen - wird es nur in einer sehr begrenzten Menge von Chips geben.
AMD / ATI haben sich entschieden, ihre Probleme zu lösen, indem sie jeden verfügbaren Aufwand einsetzten, um querbeet auf 65 Nanometer umzusteigen, einschließlich dieses 720 Millionen Transistoren schweren Monsters. Das reduziert den Energieverbrauch drastisch und befähigt sie zugleich, den R600 mit 1 GHz oder sogar mehr zu takten. Die Massenproduktion des R600 wird in 65-Nanometer-Fertigung sein.
Das bedeutet wirklich viel. Obwohl AMD hinsichtlich des großen Schaukampfes G80 gegen R600 um sechs Monate zurück liegt, ist die Firma um sechs Monate voraus gegenüber NV55, zuvor bekannt als G81 und derzeit bekannt als G90 (oder eben NV55 in der Gegend von Satan Clara).
Wir haben mit einigen AMD-Leuten der oberen Ränge gesprochen, und sie haben dieses Gerücht bestätigt. Daher wird der R600, der in künftigen Tagen in den Ladenregalen liegen wird, in 65 nm sein und um ein Drittel weniger Energie verbrauchen als der 80-nm-Grafikprozessor.
http://de.theinquirer.net/2007/03/16/cebit_alle_r6xxchips_von_ati_g.html
CeBIT: MSI enthüllt DX10-Geheimnisse von AMD und Nvidia
PR-Leute von AMD erkundigten sich gestern bei Journalisten, ob es denn stimme, dass MSI die RV610- und RV630-Chips enthüllt hat. Wir können das jetzt mit einem klaren Ja beantworten.
Doch MSI hörte damit noch nicht auf. Die Firma zeigte ganz offen Nvidia Geforce 8600GT und 8500GT. Daher ist MSI der einzige Laden in diesem Häuserblock, der jede Grafikkarte zeigt, die in den Monaten April und Mai auf den Straßen angeboten wird.
Und damit hörte MSI immer noch nicht auf. Die Firmenvertreter zeigten G84M und G86M, also die mobilen Teile, und dazu noch AMDs Angebot für den breiten Markt, den RV630M. Es ist klar zu sehen, dass der G86M-Chip ganz anders aufgebaut ist als die Desktop-Version, während der G84M-Chip dem Desktop-Gegenstück verdächtig ähnlich sieht.
In diesem Beitrag zeigen wir die Desktop- und auch die mobilen Varianten sowohl von AMD als auch von ATI. Also bitte dranbleiben, es folgen eine Menge Bilder. Vorausschicken müssen wir noch, dass es sich hier nicht um Referenz-Designs handelt.
AMD RV610 HDMI
nett
http://de.theinquirer.net/2007/03/17/cebit_msi_enthuellt_dx10geheim.html
Und was bedeutet das ansonsten noch für uns, außer ne billigere Stromrechnung und höher Übertaktungsmöglichkeiten ??
Möglicherweise wird auch die Die-Größe verkleinert wodurch auf einem Waver mehrere Chips hergestellt werden können. Das kann auch zu kleineres Preisen führen.
Crossfire-Physik: bis zu 10 Mal schneller als CPU?
AMD demonstrierte auf der Cebit eine Physik-Demo auf Basis von Havok FX. Havok FX ist eine neue Version der Physikengine der Firma Havok, die eine Beschleunigung von Effektephysik durch Grafikkarten erlaubt. Das erste Spiel mit Havok FX wird nach bisherigem Kenntnisstand Hellgate: London sein, das im Juni erwartet wird. Nvidia und AMD unterstützen mit ihren Multi-Grafiklösungen Havok FX.
Die Physikdemo von AMD zeigte eine Szene, bei der unterschiedliche Türme aus Mauersteinen aufgebaut werden, die dann von einer Kugel zum Einsturz gebracht werden. Die Szene wurde einmal per CPU berechnet, einmal per Crossfire offenbar mit zwei X1900 XTX auf einem RD580X-Mainboard. Leider konnten wir nicht herausfinden, welche Hardware genau verwendet wurde. Auf dem PC, bei dem die CPU die Physik berechnete, lagen die Fps nur bei 3-10. Auf dem anderen PC mit Crossfire-Physik lief die Szene ungleich flüssiger ab mit Fps zwischen 40 und 100. Die Leistungsunterschiede sind aufgrund der dürftigen Informationen mit Vorsicht zu genießen.
http://www.pcgameshardware.de/?article_id=571782
R600: Exklusive Zusammenarbeit zwischen AMD und Valve?
http://www.pcgameshardware.de/?article_id=571781
Update: Ein kleines Detail der R600-Karten wollen wir Ihnen nicht vorenthalten: Die Karten nutzen bereits den neuen PCI-E-Stromanschluss. Allerdings kommt sowohl der neue, als auch der alte Stromanschluss auf den R600-Boards zum Vorschein. Siehe letztes Bild in unserer Galerie
http://www.pcgameshardware.de/?article_id=571589
da
http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=571589&entity_id=-1&image_id=595092&page=1
Allerdings kommt sowohl der neue, als auch der alte Stromanschluss auf den R600-Boards zum Vorschein
Ist doch sch**** , da braucht man wieder extra n Adapter :?
Brauchst du nicht. Du kannst auch einen 6-Pol Stecker in die 8'er Buchse stecken.
Sind die anderen auf Masse??
oder der R600 läuft mit 6-Pol einfach langsamer
oder es kommt immer wenn du Windows startes der Fehler das die Graka zu wenig Strom bekommt :wink:
Es wird lediglich etwas mit Spannungsstabilisierung einer besseren Lastverteilung zu tun haben.
Genauso wie man eigentlich auch keinen 6 Pol PCIe Stecker braucht, sondern auch über einen Adapter an einen normalen 4 Pol Molex Stecker anschließen kann oder wie bei den Netzteilen ein 20-poliger Stecker auch in die 24 polige Buchse gesteckt werden kann oder ein 4 poliger P4 Stecker auch in eine 8 polige Buchse passt. :)
Möglich ist alles, aber die Netzteile können ihre Last besser verteilen, wenn sie zusätzliche Stromkreise zur Verfügung haben.
Martin80
19.03.2007, 09:31
Wenn ich gerade nochmal doof in die Runde fragen darf:
Wann erscheinen die ersten Karten?
Neue Ruby-Demo als Youtube-Video
Screenshot aus dem Youtube-Video
Nachdem wir bereits etliche Details zu Atis neuer Grafikkartengeneration in Erfahrung bringen und auch schon ein paar Screenshots veröffentlichen konnten, die wir auf Bitten AMDs allerdings wieder entfernt haben, ist nun das Sahnehäubchen auf dem R600-Kuchen aufgetaucht.
Ein Youtube-Video einer neuen Ruby-Techdemo ist nun verfügbar. Aber schauen Sie selbst unter Links zum Thema. Mithilfe der Techcrunch-Webseite und dem Video-Lan-Client oder einem anderen Player, der flv-Dateien wiedergeben kann, ist es überdies möglich, das Video auch lokal von der eigenen Festplatte abzuspielen.
http://www.pcgameshardware.de/?article_id=571861
http://www.pcgameshardware.de/?menu=browser&article_id=571861&image_id=595126
http://www.youtube.com/watch?v=EJ6aMxPh6k0
fett
8O :D :mrgreen: :mrgreen: :mrgreen:
Auf der CeBIT 2007 zeigt Enermax erste Netzteile, die bereits die PCI Express 2.0-Spezifikation erfüllen. Mit diesem neuen Standard wird nicht nur die Geschwindigkeit verdoppelt, sondern auch die zulässige Leistungsaufnahme von Grafikkarten auf 300 Watt erhöht.
Hierfür wurde ein neuer Stromversorgungsstecker für Grafikkarten definiert, der für die 12V-Spannungsversorgung zusätzlich zu den bisherigen 3x2-Pin-Stecker einen weiteren Anschluss mit 4x2 Pins vorsieht. Das von Enermax ausgestellte Galaxy DXX 1000 CrossFire kann nicht nur mit 1000 Watt auftrumpfen, sondern weiß auch die neuen Grafikkarten mit Strom zu versorgen. Das Netzteil besitzt insgesamt fünf Kabel mit 3x2 Pins und könnte somit fünf klassische Grafikkarten betreiben, die jeweils eine 3x2-Pin-Stromversorgung für PCI Express for Graphics (PEG) vorsehen. Von diesen Steckern können zwei mit Hilfe einer 2x1-Pin-Leiste in einen PCI Express 2.0-Stecker umgewandelt werden. In dieser Konfiguration werden zwei PCI Express 2.0-Grafikkarten (2x 300 Watt) und ein PCI Express 1.0-Pixelbeschleuniger (1x 150 Watt) unterstützt.
Fire
Auch sonst kann sich das Netzteil sehen lassen. Das Netzteil kann bis zu 24 Laufwerke mit Strom versorgen. Außerdem bietet es fünf unabhängige 12-Volt-Rails und erfüllt damit die Spezifikation EPS12V 2.92, die Ende des Jahres von Intels Stoakley-Plattform (Xeon DP der nächsten Generation, Bensley-Nachfolger) benötigt wird. Das Netzteil bietet erstmalig eine extra Arbeitsspeicher-Stromversorgung für Systeme auf Basis der neuen Intel-Plattform. Diese zusätzliche 2x2-Pin-Stromversorgung (12 Volt) ist für Systeme mit 16 DIMM-Steckplätzen und einem Arbeitsspeicherausbau zw. 32 und 64 GB vorgesehen. Hier zeigt sich der Stromhunger der hitzköpfigen FB-DIMMs, die pro Modul bis zu 5 Watt verschlingen.
Enermax verspricht beim Galaxy DXX 1000 CrossFire eine Effizienz von 80 bis 85 Prozent im Lastbereich zw. 20 und 100 Prozent. Ein Modell mit 850 Watt Leistung ist ebenfalls angekündigt. Weitere Information hält das Datenblatt bereit.
PCI Express 2.0 wird unter anderem mit ATis kommender R600-Grafikkartengeneration (Radeon X2900/2800-Serie) Einzug halten. Intel wird hierfür im dritten Quartal 2007 den X38 (Bearlake-X) präsentieren. ATi hat den RD790 in der Hinterhand und nVidia soll mit dem laut Gerüchten für Ende Sommer geplanten nForce 7 auch nicht lange auf sich warten lassen. Bei SIS ist der Standard für 2008 auf der Roadmap.
http://www.computerbase.de/news/hardware/gehaeuse_kuehlung/2007/maerz/enermax_netzteile_pcie_20/
fett
8O :D :mrgreen: :mrgreen: :mrgreen:
also für mich sieht das aus wie ne normale Videosequenz aus irgendnem Game!!!
AMD feiert den R600 in Afrika
Es werden heiße Nächte in Tunesien sein. Die große Show zur Markteinführung einer neuen GPU-Generation findet vom 23. bis zum 25. April in der tunesischen Hauptstadt Tunis statt.
AMD wird zwei Tage lang die ganzen neuen Produktlinien von mobilen und Desktop-GPUs vorführen. Durch die gleichzeitige Vorstellung der Einsteiger-, Mainstream- und High-End-Versionen wird das Ereignis zur ersten Queerbeet-Markteinführung einer kompletten neuen Produktgeneration durch einen Grafikchip-Hersteller.
Die komplette Markteinführung heißt im übrigen auch Gaming, Video und Stream-Computing: Radeons, FireStreams und die Stream-Prozessoren.
Wir sind ziemlich sicher, dass AMD die R600-Chips aus der ursprünglichen Produktions-Charge zeigt - die aus der 80-nm-Fertigung. Der R600 ist ein 80-nm-Chip auf Grafikkarten mit GDDR3-Speicher. Unsere Quellen informieren uns jedoch weiterhin darüber, dass ein späterer - der "Produktions"-Chip - auf einem geschrumpften Die beruhen wird.
Ja, wir sprechen von einem 720-Millionen-Transistoren-Chip, der drüben bei TSMC in einem 65-nm-Herstellungsverfahren entsteht. Wann der 65-nm-Chip aus der Deckung kommen wird, bleibt noch abzuwarten.
http://de.theinquirer.net/2007/03/2..._in_afrika.html
weitere R600-Fotos aufgetaucht
Sowohl bei der VR-Zone als auch bei Tweaktown sind weitere R600-Fotos aufgetaucht. Die Bilder bei Tweaktown sind zum Teil unkenntlich gemacht, wohl um die Quellen aus denen die Karte stammt zu schützen.
Mit der Häufung von R600-Bildern in letzter Zeit scheint es nun eine Chance auf einen Launch in nicht allzu ferner Zukunft geben. Die Treiber sollen allerdings erst mit Catalyst 7.5 im Mai final werden, im April wird es nur Beta-Treiber geben.
Sollte sich die derzeitigen Gerüchte bewahrheiten wird der R600 erst nach der 8800 Ultra von Nvidia auf den Markt kommen - keine gute Startposition für AMD/Ati.
http://www.pcgameshardware.de/?article_id=572219
Cebit 2007: R6x-Generation mit dediziertem Videoprozessor
In der R600-Generation will AMD auf den Ati-Radeon-Chips auf eigene Videoprozessoren setzen.
Wie AMD auf einer Pressekonferenz auf der Cebit zeigte, setzt man bei den Chips der R(V)6x-Generation nicht mehr auf eine Videobeschleunigung über die Pixelshader. Stattdessen kommt eine spezialisierte Videoverarbeitungseinheit zum Einsatz.
Grund: Die kleineren Chips, welche über deutlich weniger Shadereinheiten verfügen als die Top-Modelle, wären wahrscheinlich mit der Darstellung mehrerer HD-Datenströme und gleichzeitigem Rendering von Vistas Aero-Glass-Oberfläche überfordert.
Dank des UVP (Universal Video Processor) soll jeder der neuen Chips in der Lage sein, problemlos HD-Video und Aero-Glass zugleich anzuzeigen.
http://www.pcgameshardware.de/?article_id=571980
VR-Zone testet R600 auf CeBIT
Auch wenn AMD auf der CeBIT eine große Geheimniskrämerei rund um den R600 veranstaltete, ist es unseren Kollegen von VR-Zone gelungen – im Gegensatz zum Rest der schreibenden Zunft – einen ersten Blick auf das kommende Flagschiff der Kalifornier zu werfen.
Aber nicht nur eine ausführliche Fotosession war dem asiatischen Online-Magazin vergönnt, auch ein 3DMark06-Durchlauf konnte still und heimlich durchgeführt werden. Antreten musste der R600 dabei gegen eine GeForce 8800 GTX. Als Prozessor kam ein Core 2 Extreme X6800 zum Einsatz.
Das erzielte Ergebnis ist eher ernüchternd. Während die GeForce 8800 GTX die obligatorischen 9500 Punkte in 1600x1200 an den Tag legte, war die X2900 XTX mit 9700 3DMarks nur marginal schneller und das bei einem Chiptakt von sage und schreibe 800 MHz.
Sicherlich sollte man das Ergebnis nicht zu sehr auf die Goldwaage legen, da der 3DMark06 nur einer unter vielen Benchmarks ist und nicht unbedingt die Performance von Spielen widerspiegelt. Hinzu kommt, dass sich die Treiber noch im Beta-Stadium befinden und somit noch Optimierungspotential vorhanden ist.
Weiter heißt es in dem Bericht auf VR-Zone, dass der 65nm Prozess bei TSMC wohl doch nicht so gut läuft, wie angenommen. Die Ausbeute der ersten R600 Wafer war offensichtlich relativ gering, was den Launch weiter verzögern könnte oder die Verfügbarkeit anfangs stark beschränkt. Von 20.000 Stück ist bis zum Launch die Rede, was vermutlich zu wenig ist, um den Markt zu befriedigen.
http://www.k-hardware.de/news.php?s=&news_id=6441
CeBIT : Retail R600XTX Pictured & Benchmarked]
http://www.vr-zone.com/?i=4830
[Water-Cooled X2900 XTX Card Pictured]
http://www.vr-zone.com/index.php?i=4854
Qimonda streicht GDDR4: Favorit nun GDDR5
GDDR4 biete gegenüber GDDR3 fast keine Neuerungen. Die Stromaufnahme des neuen Speichertyps konnte aber nicht so weit nach unten geschraubt werden, dass sie für Low-Voltage-Hardware interessant sein könnte. Feurle äußerte sich zu dem Thema mit dem passenden Statement: „It is not really a selling feature presently“. GDDR5 soll die Schwächen beheben. Gleichzeitig wird die Performance um etwa das Dreifache gegenüber dem heutigen, 800 MHz (DDR 1600) schnellen GDDR3-Speicher ansteigen. Außerdem wird es weitere neue Features geben, sagt Feurle voraus. Die Klassifizierung und entsprechende Spezifikationen für einen neuen Standard sollen von der JEDEC bereits im Sommer 2007 fertig gestellt werden. Erste Samples von GDDR5 will Qimonda Ende 2007 vorstellen, die Produktion soll 2008 starten.
http://www.computerbase.de/news/hardware/2007/maerz/qimonda_gddr4_favorit_gddr5/
hyper1337
26.03.2007, 21:03
Qimonda streicht GDDR4: Favorit nun GDDR5
GDDR4 biete gegenüber GDDR3 fast keine Neuerungen. Die Stromaufnahme des neuen Speichertyps konnte aber nicht so weit nach unten geschraubt werden, dass sie für Low-Voltage-Hardware interessant sein könnte. Feurle äußerte sich zu dem Thema mit dem passenden Statement: „It is not really a selling feature presently“. GDDR5 soll die Schwächen beheben. Gleichzeitig wird die Performance um etwa das Dreifache gegenüber dem heutigen, 800 MHz (DDR 1600) schnellen GDDR3-Speicher ansteigen. Außerdem wird es weitere neue Features geben, sagt Feurle voraus. Die Klassifizierung und entsprechende Spezifikationen für einen neuen Standard sollen von der JEDEC bereits im Sommer 2007 fertig gestellt werden. Erste Samples von GDDR5 will Qimonda Ende 2007 vorstellen, die Produktion soll 2008 starten.
http://www.computerbase.de/news/hardware/2007/maerz/qimonda_gddr4_favorit_gddr5/
Ist dir eigentlich bewusst, dass man News nicht einfach hier rein kopieren darf ? Schreib die lieber mal selber !
Falls du der aus dem Doom3-Forum bist, hier hab ich was:
Vegerich:
"Hallo lieber dummer hässlicher Xeonsys,
Wie du weißt hassen dich alle aus dem Doom3 Forum wie auch aus dem Quake 3 Forum (Quake 3 ist das beste Spiel !!!!).
Du bist einfach nur ein dummer Newsspammer,du hast in deinen Lesezeichen immer so schwule Newsseiten wie zB Stern.de oder so und wenn du mal was unsinniges oder dummes findest (genau sowas wie dich) dann kopierst du das in diverse Foren rein! Und das nicht nur in einen Post sondern in mehrere auf einmal!!!
Deshalb bitten wir dich,bringe dich und deine Familie um!"
omg wie kann man nur so dumm sein und sowas schreiben wie in dem zotat unten!!!!bringe dich und deine familie um...ist dir klar was das heißt?!?!
wie dumm muss man sein
da muss man ja gar nich mahr nachdenken
Mods, löscht das hier mal bitte und am besten banned den gleich mit :evil: :evil: also mit meinem die 3 Posts..
Wenn ich eins nicht abkann, sind es Leute die sowas nicht wahrnehmen oder nicht wahrnehmen können, was damit ausgedrückt wird!
Mein Gott....da werde ich regelrecht aggressiv!!
hyper1337
26.03.2007, 21:37
Das war nicht von mir, ich hab nur etwas zitiert.
Ob du aggressiv wirst, interessiert doch keine Sau ! :D
Das war nicht von mir, ich hab nur etwas zitiert.
Ja und? Sowas gehört hier nicht hin! Ließ dir mal die Forenregeln durch! Es ist diskriminierend.
Falls du der aus dem Doom3-Forum bist, hier hab ich was:
Und du warst ja dafür, ansonsten hättest du das nicht gepostet.
Jetzt beruhigt euch mal wieder.
Ich wollte xeonsys ohnehin schon einmal anschreiben, wegen seinen ganzen Newspostings. Das ist ja hier keine News-Seite, sondern ein Forum in dem es um Crysis geht.
Man kann ja ab und zu mal einen Link zu einer News posten und dazu selbst ein paar Worte verfassen, aber hier ständig nur Newsberichte von anderen Seiten zusammenzusuchen ist nicht das, was wir wollen.
Ich werde xeonsys deswegen auch noch einmal per PM ansprechen.
Bisher hatte ich nur noch keine Zeit/Lust dazu. ;)
hyper1337
27.03.2007, 17:02
Bin ich auch der Meinung ! Ihr werdet sonst noch richtig aggressiv. 8)
Es hat mich schon ein bisschen gernervt, weil ich selbst News schreibe in einem Forum und dann jemand einfach immer News hier ins Forum kopiert und ich mich förmlich "durchkämpfen" muss durch die ganzen Newsposts.
So nach dem Motto "The higher your postcount, the larger your penis".
:wink:
Und weil es eine Crysis-Seite ist, kriegen wir die neusten News auf der Startseite und wie du schon gesagt hast, ist das hier auch ein Crysis-Forum. Nur komplett ohne andere News wäre es auch langweiliger für einige, aber zu viele News belästigen andere. Aber er ist halt ein News-Spammer der gröbsten Sorte. :twisted:
WoW.
Glaubt ihr Hier (http://www.dailytech.com/ATI+Releases+More+R600+Details/article6903.htm) ist was dran?
Demnach soll die HD 2900 XT (Sie soll jetzt nciht mehr X 2900 XT heißen) sage und schreibe 320 Streamprozessoren besitzen. Kann das wirklich sein?
Das wäre ja echt der Hammer. Vorrausgesetzt natürlich, dass die auch so leistungsfähig sind, wie die der G80. Es bringt ja nichts mehr zu haben, wenn sie nur halb so schnell getaktet sind.
wow @noxon aber mehr bedeutet auch erleichterung :D
Born_Brainless
13.04.2007, 13:21
WoW.
Glaubt ihr Hier (http://www.dailytech.com/ATI+Releases+More+R600+Details/article6903.htm) ist was dran?
Wenn die Infos wirklich direkt von Amd kommen, warum auch nicht?
Würde mich für Ati freuen (<---Fanboy :P )
Ach und noxon (oder ein anderer mod) könnte man den anderen r600 Thread schließen? Einer reicht.
Flaggschiff
14.04.2007, 14:22
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/weitere_details_r600-familie/
das habe ich gerade gefunden!
zitat:...In Sachen Spieleperformance, welche eine türkische Internetseite mittels einer Crysis-Demo ermittelt haben will, stellt die Radeon HD 2900 XT die GeForce 8800 GTX in den Schatten...
sachen gibts. :roll:
warpspeed
17.04.2007, 16:20
Topic Fix
So.
Die Ersten haben schon gegen das NDA verstoßen und einen Benchmark durchsichern lassen.
2900 XT vs. 8800 GTS (http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/benchmarks_radeon_hd_2900_xt_8800_gts/)
paraphonatic
24.04.2007, 14:29
So.
Die Ersten haben schon gegen das NDA verstoßen und einen Benchmark durchsichern lassen.
2900 XT vs. 8800 GTS (http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/benchmarks_radeon_hd_2900_xt_8800_gts/)
hmm. also da die 2900 soweit ich weiss die highend karte werden soll, ist die aber ziemlich low, zumindest nach dem benchmark, immerhin ist die 8800 GTX / GTX 6 monate alt !!!
TIEfighter
24.04.2007, 14:39
Nur in HL2 haben sich unterschiede von gut dem Doppelten an Punkten gezeigt...
Mal gucken. Getestet wurde aber auch XT und nicht die XTX
em das is noch net die richtige highend karte...es wird noch die hd 2900xtx geben mit 1gb arbeitsspeicher!!
Also die XTX lässt sich mit der GTX vegleichen und die hier getestete XT mit der GTS.
Die_Chriele
24.04.2007, 22:28
Mal ne kurze Frage. Weiß eigentlich jemand, wann die Karten jetzt released werden???
Gruß, Christoph.
paraphonatic
24.04.2007, 22:34
Mal ne kurze Frage. Weiß eigentlich jemand, wann die Karten jetzt released werden???
Gruß, Christoph.
mitte mai laut gerüchte, aber welches jahr, das weiß leider noch keiner :wink: :lol:
PS: hab gerade im netz gelesen das der neue AMD 50 % schneller sein soll als intel sein top produkt, wenn das mal nacher nicht genau so ausschaut wie bei der R600 & 8800, ich sags ja AMD & ATI geht noch pleite *gg* :wink: :lol:
back to topic
paraphonatic
25.04.2007, 14:42
R650 gegen G90 - Wer macht das Rennen?
Sowohl Nvidia als auch Ati werden bald die 65 Nanometer-Fertigung einführen. Interessant ist dabei die Frage, welcher Chip schneller, effizienter und stabiler sein wird.
Nvidias G90 mit seiner stabilen Architektur und den wahrscheinlich höheren Taktraten? Oder doch Atis R650, der wahrscheinlich "nur" eine Weiterentwicklung des R600 sein wird, dessen thermische und energietechnischen Leistungsprobleme aber dank 65 Nanometer Produktion zum Grossteil behoben werden dürften?
Aktuell heißt es, dass beide Chips Ende dieses Jahres veröffentlicht werden sollen. Schaut man sich aber die Verzögerungen an, mit denen speziell Atis R600 in den letzten Monaten zu kämpfen hatte, so muss diese Meldung mit einer gewissen Skepsis betrachtet werden.
da bin ich ja mal gespannt :wink:
Born_Brainless
25.04.2007, 14:44
Du hast vergessen zu schreiben, dass die News von www.pcgameshardware.de ist ;)
Die News find ich übrigens völlig sinnlos, man sollte nicht zum spekulieren anfangen wenn es noch nichtmal der r600 released wurde...
ich kann mir gut vorstellen, dass die Jungs von PCGHW etwas mehr wissen, aber nichts sagen dürfen :D
Also die XTX lässt sich mit der GTX vegleichen und die hier getestete XT mit der GTS.
hmhm jungs schafft den die 8800gtx im 3dmark06 nicht 10'000 punkte? dan hat die hd 2900xt die gtx ja überholt oder nicht? und finale treiber für den ati gibts ja noch net.. heisst also performance schub gibts weiter..
paraphonatic
25.04.2007, 15:42
Also die XTX lässt sich mit der GTX vegleichen und die hier getestete XT mit der GTS.
hmhm jungs schafft den die 8800gtx im 3dmark06 nicht 10'000 punkte? dan hat die hd 2900xt die gtx ja überholt oder nicht? und finale treiber für den ati gibts ja noch net.. heisst also performance schub gibts weiter..
hmm, die XT wurde mit keiner GTX getestet sonndern mit ner GTS,und war nichtmal 5 % schneller.
Die GTS schafft mit nen E6600 ca 10000, die GTX ca 12000 !!!
ich hab knapp 13000 allerdings nen übertakteten E6600 :wink:
ach, das ist eine reine Treiberangelegenheit...
sobald geniale Treiber rauskommen, könnte sich das Blatt wenden...
paraphonatic
26.04.2007, 10:11
es giebt wieder neues zu der R600 XTX, leider nix gutes, sihet hier !!!
Neue R600-Benches: HD 2900 XTX bis zu 50% langsamer als 8800
Nachdem Dailytech bereits eine AMD HD 2900 XT mit einer 8800 GTS verglichen hat, wurde nun eine HD 2900 XTX mit einer simulierten 8800 Ultra von Nvidia verglichen dazu wurde eine 8800 GTX auf 650 MHz Core-Takt und 1 GHz Speichertakt übertaktet.. Das Ergebnis: die AMD-Karte liegt maximal knapp 50 Prozent hinter dieser 8800 "Ultra".
Zwar ist der Rückstand nur unter Company of Heroes so groß, die HD 2900 XTX kann aber auch in den anderen Benchmarks, die Dailytech gemacht hat, nicht gegen eine 8800 Ultra bestehen: In keinem der getesteten Spiele (Company of Heroes, Fear, Half Life 2: Episode 1 und Oblivion) schafft es die Karte, zur Konkurrenz von Nvidia aufzuschließen. Immerhin scheinen die Treiber für die HD 2900 XTX final zu sein, auf jeden Fall gibt Dailytech an, über solche Treiber für die Benchmarks zu Verfügen (Catalyst v8.361).
Dies ist vielleicht auch einer der Gründe, warum die XTX-Variante von AMD bislang immer abgestritten wurde - ist die Karte tatsächlich langsamer als die 8800 Ultra, kann AMD diese kaum als High-End-Modell am Markt positionieren.
quelle:pcgames-hardware
warpspeed
26.04.2007, 11:22
Topic Fix
Neue R600-Benches: HD 2900 XTX bis zu 50% langsamer als 8800
Na ich weiß nicht, was ich von den Benches halten soll. In einigen Messungen ist die XTX langsamer als die XT und in den anderen ist sie kaum schneller.
Irgendwie sieht das für mich so aus, als ob irgend etwas anderes die Leistung limitiert. Vielleicht wird der Prozessor noch zu stark beansprucht und deswegen giibt's keine besseren Frameraten.
Ich warte mal ab, bis es mehr Benchmarks gibt. Auf solche einzelnen Benches kann man sich nciht wirklich verlassen.
Ich erinnere nur mal an den Benchmark von vor ein paar Monaten, in dem der R600 einen riesigen Vorsprung gegenüber einer 8800 GTX hatte.
ich glaube die HD 2900XTX schneidet so schlecht ab:
1. wegen den (Beta-)Treibern
2. Gab es ja mal Probleme mit dem 1Gb Gddr4 Ram so dass sie schlechter war als die XT
nutzt natürlich Geforce aus und sagt die Ultra ist schneller
Meine Meinung != Eure Meinung
daher denkts euch wies am besten für euch ist :D
Centurio81
26.04.2007, 21:48
war doch klar dass da was im Bsch ist.. Glaube nicht dass die r600 wesentlich schneller als ne 8800 GTX oder ultra sein wird..
Niemand lässt seine produkte freiwillig auf den markt.. das wäre blödsinn weil marktanteile verloren gehen.. grade jetz wo auch die mittelklassekarten dx10 drauf haben seit 8600 GT/GTS..
Irgendwie scheint es da Probleme zu geben bei AMD..
Anders lässt sich das doch gar net erklären..
Hier mal was von einem Hersteller:
http://www.hisdigital.com/html/product_ov.php?id=304
Takte sind leider nicht erwähnt
dafür das es sich um einen 80nm statt angenommen 65nm GPU handelt
Hehe. Dumm gelaufen für His. Das NDA ist noch nicht gefallen. Die haben die Seite ganz schnell wieder offline genommen, aber hier nochmal der Inhalt für alle die, die's verpasst haben.
http://img478.imageshack.us/img478/4903/his1as5.jpg
http://img384.imageshack.us/img384/6908/his2zs1.jpg
http://img483.imageshack.us/img483/8017/his3va6.jpg
Das Spiel, dass dabei ist, soll übrigens HL² Ep2 sein.
Zum Preis steht da leider nichts, aber angeblich soll einem Shop in Holland vor einiger Zeit ein ähnliches Malheur passiert sein und der soll die Karte für 380 EUR zur Vorbestellung angeboten haben.
Valve Black Box=
HL² Ep2+Team Fortress2+Portal
ehhhh leutz mal beabsichtigt dass der speicher von der karte völlig im ar*** is ?????????????? in manchen benchs is die xtx sogar noch langsamer als die xt wegen dem kapputten ram was vorallem der grund dafür ist dass die bis september/november(bis wann auch immer) verschoben wird .
wenn man sich die daten ansieht (150% mehr streaming-prozessoren, 30% mehr ram etc. als gtx ) kann man sich doch die THEORETISCHE leistung ausdenken.
un glaubt ihr wirklich dass die sich soviel zeit lassen, unter so einem druck von seiten nvidia stehen, un dann das ganze so vermurksen ? also ich persönlich glaube das kaum. denke die haben schon noch ihr ass im ermle..xtx(ati)+barcelona(amd) sag ich nur :twisted:
nein, ich achte mind seit der letzten rechtschreibreform nich mehr auf groß/kleinschreibung :D
Was meinst du mit kaputtem Ram?
Und die Anzahl der Streamingprozessoren ist ziemlich irrelevant. Es kommt auch darauf an, wie hoch die getaktet sind. ATis sind viel langsamer getaktet, als die von nVidia. Also brauchen die auch mehr Einheiten um die gleiche Leistung zu vollbringen.
Des Weiteren unterscheiden sich die Shader auch noch in diversen anderen Faktoren, die sie unterschiedlich Effizient machen.
Du kannst also nicht die reinen Zahlenwerte vergleichen.
PS: Gewöhne dir trotzdem an die Groß- und Kleinschreibung zu beachten. Di hat sich ja durch die neue Rechtschreibreform nicht geändert. Also bitte.
So. Nun haben die Jungs von CB auch ihen Test der HD 2900 T (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/1/#abschnitt_einleitung) reigegeben.
Sieht nicht besonders gut aus. Besonders, wenn man etwas höhere AA und AF Settings verwendet versagt der R600 total. Der G80 bricht dort weit weniger ein als der R600 und liefert zudem noch eine bessere Bildqualität, ist dabei leiser und verbraucht weniger Strom.
Es spricht nicht wirklich viel für die 2900 XT. Wirklich schade für ATi/AMD.
PS:
Was an dem Artikel auch ganz schön ist, dass ist der erste Teil in dem die Technik erklärt wird. Der ist wirklich umfassend und man bekommt einen guten Einblick in die Technik, die dahinter steckt.
Martin80
14.05.2007, 11:01
Da muss ich nochmal fragen, und zwar doof:
Ab wann kann man die ATI/AMD DX10 Karte(n) im Laden um diie Ecke erwerben?
NOXON war schneller, *schnief
hab genau diesen artikel auchgelesen und ich muß sagen nach mehr als nem halben jahr ist das echt enttäuschend für ATI/AMD da werden wohl weiterhin rote zahlen geschrieben, wenn man bedenkt das die Karte nich annähernd an die GTX kommt trotzt der enorm hohen taktraten und der hohen speicheranbindung (512 satt 368bit) auch die Bildquali scheint nich gerade berauschend zu sein, einziger pluspunkt meiner meinung nach ist das der Hardware support für D3D11 da ist. Nur wer braucht ihn jetzt schoin wenn nich mal D3D10 richtig im schwung ist?!
naja meie meinung ein paar euros mehr bezahlen und bei der 8800GTX zugreifen!!! Bin voll auf zufrieden mit dieser Karte!!!
gretz Dapalme
Sehe ich ganz genauso.
Warum die eine Tessellation-Einheit eingebaut haben ist mir auch nicht ganz klar, obwohl es daran liegen könnte, dass der Xenos diese Einheit auch schon hat und sich ATi dachte: "Ach was solls. Packen wir die auch noch rein."
Trotzdem kann ich mir denken, dass die den Chip nur unnötig größer, teurer und stromhungriger macht.
Mich würde auch einmal interessieren, was ATi so ein Chip in der Produktion kostet. Ich wette, dass der G80 deutlich billiger ist und ATi bei Weitem nicht so viel Gewinn machen wird, wie nVidia.
Worüber ich aber am Meisten enttäuscht bin, dass ist das schlechte Abschneiden bei hohen Qualitätseinstellungen. Das sinkt die Performance ja total in den Keller, während es sich beim G80 noch in Grenzen hält. Bei 4xAA und 8xAF bleiben dot nur noch ~40% der Leistung übrig, während der G80 noch ~60% bietet.
Ich dachte eigentlich, dass der hohe Speicherdurchsatz hier helfen würde, aber dem scheint wohl nicht so zu sein. Außerdem scheint das AF nicht so gut zu sein, wie beim G80.
Ich bin auch mal auf wetere DX10 Benchmarks gespannt. Dort sollen ja angeblich die Stärken des R600 liegen. Bei DX9 hätte er laut ATi in einigen Bereichen Nachteile sich in Dx10 aber als Vorteil erweisen würden. Zum Beispiel beim HDRR.
Die Geometry-Shader, die natürlich auch nur in DX10 Titeln zum Einsatz kommen, sollten auch erheblich besser sein, als beim G80. Es mag also sein dass der R600 bei echten DX10 Spielen wirklich besser ist, aber momentan hat man einfach noch viel zu viel DX9 Spiele, sodass es wichtiger ist, dass man dort genügend Leistung hat.
Naja. Waten wir es aber noch einmal ein wenig ab, bis ATi finale Treiber herausbringt. CB meinte ja auch, dass sie während des Tests noch einen neuen Beta Treiber bekommen hätten und sich dadurch unter Oblivion die Performance deutlich verbessert habe.
Ich könnte mir vorstellen, dass man besonders beim Tweaken des Dispatch Processors noch einiges an ungenutzter Performance herausholen kann. Wunder erwarte ich dort aber auch nicht.
Verfügbar ist die Kate aber soweit ich weiß noch nicht. Eine wurde, glaube ich schon in einem Schweizer Shop gesichtet, aber ich weiß nicht mehr genau wo.
Martin80
14.05.2007, 12:48
Verfügbar ist die Kate aber soweit ich weiß noch nicht. Eine wurde, glaube ich schon in einem Schweizer Shop gesichtet, aber ich weiß nicht mehr genau wo.
Gibts denn da ein offizielles Datum für den release?
Gibt es sicherlich, aber ich hab's im Moment auch ncht im Kopf.
www.gidf.de sollte dir aber weiterhelfen können. :)
warpspeed
14.05.2007, 13:00
Topic Fix
Martin80
14.05.2007, 13:21
Gibt es sicherlich, aber ich hab's im Moment auch ncht im Kopf.
www.gidf.de sollte dir aber weiterhelfen können. :)
buh
ev1lbert
14.05.2007, 13:23
Vergleich zwischen hd 2900 xt und anderen karten
http://www.chip.de/artikel/c1_artikel_26418453.html
nvidia hat weniger speicherinterface dafür mehr shader clock =)
Naja. So einfach lässt sich das heut zu Tage nicht mehr vergleichen. Die Chips unterscheiden sich so stark in ihren Architekturen, dass man Anhand solcher Werte kaum noch Aussagen treffen kann.
Die 320 Streamprozessoren zum Beispiel sind in Wirklichkeit nur 64 5-fach skalare Shader, die nur halb so hoch getaktet sind, wie die beim G80. 5*64 = 320 klingt natürlich besser, aber die wird der R600 nie wirklich ausnutzen. Davon bleiben eine Menge ungenutzt. Je nach Anwendung.
Während die Chips früher in ihren Prinzipien noch einigermaßen identisch waren geht nun jeder Hersteller seine eigenen Wege und versucht über unterschiedliche Fähigkeiten, Anordnungen und Aufteilungen der einzelnen Bauelemente die optimale Leistung zu erzielen.
Aus diesem Grund werden die Benchmarkergebnisse auch sehr stark von den Spielen abhängen. Einige kommen mit dem R600 deutlich besser klar als mit dem G80 und umgekehrt.
Nehmen wir Call of Duty 2. Nimmt man kein AA und kein AF liegt der 2900 XT auf Platz 1 und übertrift selbst die 8800 GTX um ein knappes %.
Aktiviert man aber nun 4xAA und 16xAF, dann liegt die 2900 XT nur noch auf Platz 9. Der Leistungsabfall ist dort doppelt so hoch wie beim G80. Damit ist der R600 sogar noch langsamer als eine X1900 XT.
Hier macht sich die unterschiedliche Vorgehensweise des R600 also schlecht bemerkbar. Hoffen wir mal, dass es stimmt und das es sich in DX10 Spielen zum Vorteil entwickelt.
Born_Brainless
14.05.2007, 13:48
Hab jetzt auch mal den CB Test zum R600 überflogen und bin natürlich etwas enttäuscht, ich glaube da hätte sich jeder etwas mehr erwartet.
Hoffentlich tut sich da Treibermäßig noch was oder Dx10 liegt der Karte mehr...
Jetzt bin ich wirklich gespannt wie es mit ATI/AMD weitergeht, sollte amd's K10 auch nicht aufschließen können dürfte es mit der Firma bergab gehen.
So langsam mache ich mir auch sorgen um AMD. Die haben zwar schon einige Male lange Verlustphasen duchgemacht, aber dieses Mal scheint es wohl etwas länger zu dauern.
Sie machten bereits Verluste und ich sehe auch nicht, wie sie in nächster Zeit gegen Intel und nVidia ankommen wollen.
Hoffentlich tut sich da Treibermäßig noch was oder Dx10 liegt der Karte mehr...
Also leute ich weiß nich warum ihr hoft das beim R600 in DX10 noch mehr raus zu holen ist?! wenn man mal hier schaut:
KLICK MICH (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/31/#abschnitt_call_of_juarez_d3d10)
Das sind eigentlich schon "DX10" benches, klar noch in der anfangs phase aber selbst hier liegt der R600 auch nich soweit vorn :( Und schaut mal genau bei der Variance Shadow Maps D3D10-Techdemo da liegt die Radeon HD 2900 XT stellenweise FPS technisch sogar weit hinter der GTS von Nvidia!!!
Also ok das Top model mit 1024MB GDDR4 haben wior noch nich gesehen, aber Nvidia wird bis dahin auch etwas anderes haben und ich denke dann spätestens dann wird es für ATI/AMD ganz eng werden weil die ein gutes halbes jahr auf holen müßen, hinzu kommt das sie nich nur die Performance steigern müßen sondern auch die Bild Quali verbessern müßen, wenn ich richtig gelesen habe ensteht doch etwas texturflimmern beim R600 was bei Nvidias G80 nich mehr vorhanden ist.
was ist bei den beiden Bildern von Call of Juarez anders? Die sehen für mich beide gleich aus, wobei das Gras sehr hässlich wirkt :?
Was ist der Unterschied von den beiden Screenshots???
Das sind eigentlich schon "DX10" benches, klar noch in der anfangs phase aber selbst hier liegt der R600 auch nich soweit vorn :(
Naja. Das ist EIN Spiel, dass da gebencht wurde. Daraus lässt sich nichts schlussfolgern und immerhin ist die 2900 XT da schon einmal besser als die GTS, welches ja das Gegenstück zur 2900 XT sein soll.
Außerdem interessieren mich solche Benches recht wenig, wenn dort kein AA oder AF aktiviert wurde. Von daher warte ich noch auf weitere Benchmarks mit einem finalen Treiber.
Ach ja. Und diese Techdemo ist auch total überflüssig. Das hat nichts mit Spielen zu tun und wenn irgend ein Hobbyprogrammierer dort eine Demo schreibt und die nur auf einer 8800 GTX testet und optimiert sollte klar sein, dass die dort auch am Besten läuft.
Mich würde sowieso einmal interessieren, warum ich mit meiner GTS dort über 190 fps und übertaktet über 230 fps bei identischen Settings erreiche.
Naja. Wie auch immer. Ich warte also lieber erst einmal echte Benches von echten Spielen ab, die wahrscheinlich aber erst in 6-12 Monaten in ausreichender Anzahl vorliegen um über die DX10-Leistungsfähigkeit urteilen zu können.
@Robin:
Der Unterschied ist, dass das eine von einem G80 gezeichnet wurde und das andere vom R600. ;)
KitKat-Chunky
14.05.2007, 17:36
Ich werf hier ma was aktuelles in die Runde!
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Ich werf hier ma was aktuelles in die Runde!
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
hmmm das war relativ aktuell, mit dem neuen treiber is die bild quali besser aber die performance sinkt wieder.
Also was auch immer AMD/ATI da gebastelt haben ist einfach nur sry aber lächerlich!!!
@Noxon, das mag zwar soweit richtig sein, aber es geht um DX10 und das liegt nunmal nur in dieser Form vor! Der R600 floppt meines achtens an allen ecken und kanten!!! Schon bei Gamestar gelesen wieviel SONE beim zocken auf deine ohren saußen?! Sage und schreibe 7,2 SONE im vergleich zu 1,0 SONE 8800Ultra is das echt hammer, meine anlage werde ich nich so laut aufdrehen das ich meinen PC nich mehr höre. Mein nachbar muß ja denken ich flieg mit nem Privatjet ausm Garten ^^
Also wie gesagt dafür das es sich um gut ein Halbes jahr Späteren Release handelt hätte da echt mehr bei raus kommen müßen!!!
Wenn du mal siehst wie der R600 bei eingeschaltetem AA und AF einbricht das kann nich sein das die Kart so dermaßen einbricht. Das sind ja manchmal gut und gerne 30-50% und das soll was heißen, schau der G80, den juckt das kaum waas du da machst.
Ih bin zwar Nvidia Anhänger, aber ih mache mir Sorgen um AMD weil die gehen ganz den Bach unter, weiß nich was die sich dabei gedacht haben ATI mit rüber zu holen, nur wegen einer CPU-GPU einheit *lol
Und dann ahb ich noch was für dich NOXON:
http://www.pcgameshardware.de/?menu=browser&article_id=601352&image_id=654653&show=original
http://www.pcgameshardware.de/?menu=browser&article_id=601352&entity_id=-1&image_id=654652&mode=article&overview=yes&show=original
Quelle:
http://www.pcgameshardware.de/?article_id=601352
So in beiden fällen liegt die HD 2900XT wieder klar hinter der 8800GTS!!! Und das kriegst du niemals nur mit nem treiber hin so nen vorsprung!!!
auf PCGH ist der R600 mancjmal auch vor der GTS
auf PCGH ist der R600 mancjmal auch vor der GTS
ich meinte die beiden Screens die ich gerade gepostet hab, trotzdem scheint es nich gaerade ein kaufgrund zu sein wenn du dann noch son nen düsending im rechner hast. Also ich bin mal gespannt was da noch kommt, am anfang kann man eh nur spekulieren aber bisher bin ich echt enttäuscht, vom preis her könnte die GTS aber auch interessanter sein da die beiden karten kaum nen großen unterschied machen!!!
TIEfighter
14.05.2007, 19:32
Also ich muss jetzt ganz ehrlich mal sagen mir war ATI irgendwie immer lieber. Ich bin zwar auch nicht so ein Super Pro was Hardware angeht aber trotzdem wirkt es auf mich auch etwas... na ja enttäuschend was man bis jetzt von der HD2900XT sehen konnte.
Das lange warten hat da ja mal gar nichts gebracht. Ich frag mich jetzt ob das durch die Übername durch AMD passiert ist. Vielleicht hätte die Karte schon lange draußen sein sollen doch durch die ganze Sache hat sich das alles verschoben.
Also wenn sich das nicht bald bessert werde ich wohl umsteigen. Aber im Moment guck ich mir das noch an bis zu meinem neuen PC ist es ja noch was Zeit.
@TIEfighter Das meiste am R600 hat ja noch ATI gemacht
Aber ich sehs so: 1 Glübirnen braucht rund den selben Strom wie die die R600 mehr 8)
werd mir aber eine GTS zulegen(wenn billiger)
Hoffe dass ich richtig geFIXED hab :?:
Und dann ahb ich noch was für dich NOXON:
http://www.pcgameshardware.de/?menu=browser&article_id=601352&image_id=654653&show=original
http://www.pcgameshardware.de/?menu=browser&article_id=601352&entity_id=-1&image_id=654652&mode=article&overview=yes&show=original
Was erzählst du mir das. Ich behaupte ja nichts anderes. Beitrag (http://crysis.4thdimension.info/modules.php?name=Forums&file=viewtopic&p=22467&sid=460fd692f1b88c4697e5193503aaff25#22467)
Das Einzige, was ich noch zu bedenken gebe ist die Zuverlässigkeit der DX10 Benches und die Aktualität des Treibers. Es kann sich in den Bereichen durchaus noch etwas tun und die 2900 XT könnte zumindest mit der GTS gleichziehen und eventuell sogar überholen.
Wir sehen ja, was für Unterschiede die Treiber ausmachen können, wenn wir uns die Ergebnisse vom 8.37.4.2 ansehen. Da wird momentan also noch ein Mittelweg zwischen Leistung und Bildqualität gesucht. Wir werden abwarten müssen um zu sehen, wie gut die Karte letztendlich wirklich ist.
Ohne finale Treiber würde ich die Karte jedenfalls noch nicht als Flop abtun.
Naja ich hoffe das die neue ATI-Karte trotzdem gekauft wird. Auch wenn ich NVIDIA Jünger bin. Aber Konkurrenz belebt nun einmal das Geschäft.
Naja da ich meine Wii nun verkaufen werde da sie leider ein Fehlkauf war, werde ich mir die HD 2900 XT wohl noch diesen Monat zulegen.
Auch wenn sie in den test nicht immer an die 88ter ran reichte, hatte sie immer doppelt so viel leistung wie meine X1950 pro ^^ und naja das geht schon in ordnung, Treiber holen noch viel raus und vorallem...ich brauche ja auch endlich ne DX 10 karte ;)
Da muss ich nochmal fragen, und zwar doof:
Ab wann kann man die ATI/AMD DX10 Karte(n) im Laden um diie Ecke erwerben?
Guckst du hier (http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/mai/verfuegbarkeitscheck_ati_radeon_hd_2900_xt/).
Martin80
15.05.2007, 08:57
Guckst du hier (http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/mai/verfuegbarkeitscheck_ati_radeon_hd_2900_xt/).
Danke noxon, dann wiirds ja nun wirklich ernst.
Bin auf kommende Vergleiche gespannt.
Das Einzige, was ich noch zu bedenken gebe ist die Zuverlässigkeit der DX10 Benches und die Aktualität des Treibers. ...
Wir sehen ja, was für Unterschiede die Treiber ausmachen können, wenn wir uns die Ergebnisse vom 8.37.4.2 ansehen. Da wird momentan also noch ein Mittelweg zwischen Leistung und Bildqualität gesucht. Wir werden abwarten müssen um zu sehen, wie gut die Karte letztendlich wirklich ist.
Ohne finale Treiber würde ich die Karte jedenfalls noch nicht als Flop abtun.
Aber gab es nich schon lange einen Treiber der die R600ter unterstützte?! Also sie hätten da einiges anders machen können wenn sie schon nen halbes jahr später als Nvidia ihre karten auf denm markt schmeißen, wenn ich das richtig gelesen habe basteln die schon seid 2003 an der DX10 sprich R600ter serie. Da hätte wenigstens ein Finaler Treiber für die Karten bereit stehen können. Nvidia war da ja auch nich anders, aber die hatten sie wenigstens soweit optimiert das FPS technisch kaum etwas mehr raus kam. Ledeglich die Bugs mußten im nachhinein raus genommen werden oder sehe ich das falsch?!
Und meinst du das man mit nem anderen Treiber soviel mehrleistung erwarten kann?! Ich glaub eher weniger, jedenfalls hab ich das so noch nie gesehen, aber es soll ja immer was neues geben ^^
Ich denke das die HD 2900XTX mit 1024MB GDDR4 einiges reißen kann auch durch den 60nm fertigungsprozess. Aber bis dato hat Nvidia unter garantie auch so was in der richtung entwickelt und holt wieder einmal auf.
Was ich hoffe ist nur, das AMD jetzt wieder richtig fuß fassen kann um noch am Markt bestehen zu können, allein der Stromverbrauch der HD2900XT und der sagenhaft laute Lüfter sind ein absolutes "nich kauf" argument :(
wenn ich das richtig gelesen habe basteln die schon seid 2003 an der DX10 sprich R600ter serie.
Naja. Ich denke da rechnen die auch noch die Entwicklung des Xenos für die Xbox360 mit ein. Das ist ja praktisch die Vorstufe zum R600 gewesen.
Da hätte wenigstens ein Finaler Treiber für die Karten bereit stehen können.
Einen Treiber kann man erst fertigstellen, wenn die Karte fertig ist. Wir wissen ja nicht, was ATi in letzter Zeit noch alles so an der Karte geändert hat. Der Releasetermin wurde ja nicht umsonst verschoben.
Nvidia war da ja auch nich anders, aber die hatten sie wenigstens soweit optimiert das FPS technisch kaum etwas mehr raus kam. Ledeglich die Bugs mußten im nachhinein raus genommen werden oder sehe ich das falsch?!
nVidia hat ja für Vista zum Beispiel immer noch keine vernünftigen Treiber. Der besitzt noch nciht einmal einen richtigen SLI support und auch sonst funktioniert dort alles mehr schlecht als recht.
Und meinst du das man mit nem anderen Treiber soviel mehrleistung erwarten kann?!
Es kommt drauf an, was die dort noch für Optimierungen vornimmt. Wir sehen ja, dass durch den neuen Treiber, der einige Optimierungen enthielt, bei Oblivion die Framerate um 172% angestiegen ist. Der Unterschied zwischen 15 fps und 41 fps ist schon gewaltig. Dafür nehme ich auch eine etwas schlechtere Bildqualität in Kauf.
Meistens sehe ich de Qualitätsunterschiede sowieso nur im direkten Vergleich auf Screenshots.
nVidia hat ja für Vista zum Beispiel immer noch keine vernünftigen Treiber. Der besitzt noch nciht einmal einen richtigen SLI support und auch sonst funktioniert dort alles mehr schlecht als recht..
Also wer bei den 8800tern ein SLI sys aufbaut ist selber schuld, die haben soviel power das man das schnomal nicht brauch bis jetzt zumindest nicht ;) Und alles andere funtzte bei mir jedenfalls einwandfrei, die Games die ich zocke laufen eigentlich auch alle! Und das meinesachtens auch sehr gut!!!
Der Unterschied zwischen 15 fps und 41 fps ist schon gewaltig. Dafür nehme ich auch eine etwas schlechtere Bildqualität in Kauf..
Also das kommt für mich garnicht in frage, da kann ich ja z.B. einfach ne auflösung von 1600x1200 nehmen ohne AA und AF und habe dann auch mehr FPS, wenn sollte alles gleichgestellt sein und ich zocke generel in 1280x1024 (mehr macht mein moni nich :() plus AA und AF auf höchster Stufe!!!
Meistens sehe ich de Qualitätsunterschiede sowieso nur im direkten Vergleich auf Screenshots.
Mitdem vergleich auf Screens gebe ich dir recht, aber ich habe den unterschied zwischen meiner alten 7900GT und der 8800GTX gemerkt, die BildQuali is eindeutig besser! Dafür brauchte ich nich wirklich nene Screenshot. Ich liebe Grafik über alles, je schöner und realer desto besser, flimmern usw kann ich da net gebrauchen! ;)
Das schönste was ich bisher gesehen habe is:
http://crysis.4thdimension.info/modules.php?name=Downloads&d_op=getit&lid=56
Also wenn ich das später mal auf meinem Rechner sehen sollte dann sag ich, so langsam bin ich zufrieden mit der Grafik ;)
Crytek macht das schon *gg
EDTI:
TOPIC FIX ^^
also laut Benchmarks von Noxon´s Post aus dem DX10 Thread (siehe den Link zu Tomshardware) ist die HD2900XT fürn ar***... sollen da noch bessere kommen? Die 8600GS hat ja besser abgeschnitten... wie seht ihr das?
also laut Benchmarks von Noxon´s Post aus dem DX10 Thread (siehe den Link zu Tomshardware) ist die HD2900XT fürn ar***... sollen da noch bessere kommen? Die 8600GS hat ja besser abgeschnitten... wie seht ihr das?
erstmal hallo FOOFI mein schnuckel, ^^
also so wie ich das sehe ist die HD2900XT vorerst das Topmodel von AMD/ATI später soll ja dann die HD2900XTX folgen, aber jeder Benchbericht sieht anders aus. Aber meines achtens nich wirklich gut für AMD/ATI
Also wer bei den 8800tern ein SLI sys aufbaut ist selber schuld, die haben soviel power das man das schnomal nicht brauch bis jetzt zumindest nicht ;)
Das ist alles keine Entschuldigung dafür, dass nVidia keine Treiber dafür bereit stellt. Die Leute haben teures Geld dafür bezahlt, dass sie ein SLI Verbund nutzen können und nun schaft es nVidia nicht dafür einen passenden Treiber zu schreiben und das obwohl die Karte und vista schon seit Ewigkeiten auf dem Markt sind.
Also das kommt für mich garnicht in frage, da kann ich ja z.B. einfach ne auflösung von 1600x1200 nehmen ohne AA und AF und habe dann auch mehr FPS, wenn sollte alles gleichgestellt sein und ich zocke generel in 1280x1024 (mehr macht mein moni nich :() plus AA und AF auf höchster Stufe!!!
Ich sage ja nicht, dass man ohne AA und ohne AF zocken soll, aber ich finde zum Beispiel, das man bei allem über 4xAA kaum noch Unterschiede ausmachen kann. 16xAA oder sowas ist definitiv übertrieben. CSAA wäre noch vertretbar, aber alles darüber ist verschenkte Performance.
Und beim AF kann man ruhig die optimierenden Algorithmen aktivieren, wie ich finde. Ob das AF nun winkelunabhängig ist oder nicht bemerkt man kaum. Erst recht nicht bei einem schnellen Ego-Shooter, bei dem man auf ganz andere Dinge achtet.
Ich habe lieber eine geringfügig und kaum spürbare Verschlechterung der Bildqualität und kann dafür höhere Details beim Spiel verwenden, als auf niedrigeren Details spielen zu müssen bei denen das Bild absolut perfekt aussieht.
//EDIT:
aber jeder Benchbericht sieht anders aus. Aber meines achtens nich wirklich gut für AMD/ATI
So ist es.
Und wie ich ja schon erwähnt habe erreicht die 2900 XT mit dem 8.37.4.2 Treiber das Niveau einer 8800 Ultra in Oblivion bei 1280x1024 mit 4xAAA und 16xAF. Auch in allen anderen Spielen liegt sie immer zwischen GTS und GTX.
Treibermäßig kann sich daalso noch einiges tun.
NOXON
wie ich eben mit bekommen habe gibt es ja ab heut oder Morgen ne DX10 Demo (Lost Planet) hier kann man ja dann die Performance zwischen R600 und G80 real messen nich das du wieder sagst das sei nix ganzes, klar is das ganze für Nvidia optimiert aber wie heißt es so schön, wer zuerst kommt malt zuerst ^^
Die_Chriele
20.05.2007, 13:43
Ich ware gerade 1 Woche im Urlaub. Sollte nicht am 15-16.05.2007 der r600 seinen Release haben?
Ich habe aber nichts davon gelesen. Ist der Chip jetzt raus und Karten zu kaufen?
Oh man, man ist eine Woche nicht da und fühlt sich wie von nem anderen Stern...
Jack3443
20.05.2007, 14:37
Außerdem ist der R600 ein richtiger Stromfresser im Vergleich zum G80. Dazu kommt noch, dass sie extrem laut ist. Das einzige Argument warum man sich die kaufen sollte ist ihr Preis. 340€ ist nicht wirklich teuer. Jedoch is die 8800gts von den Benchmarks her ja auch nichts schlechter als die 2900xt und braucht weniger strom und ist viel leiser. Ausßerdem sind alle Games für Nvidia optimiert.
Meiner meinung nach siehs schlecht aus für AMD/ATI
Die_Chriele
21.05.2007, 08:59
ääääh nochmal die Frage.
Ist der r600 jetzt draußen, oder nicht?
Martin80
21.05.2007, 09:06
ääääh nochmal die Frage.
Ist der r600 jetzt draußen, oder nicht?
Das Theater geht mir ehrlich gesagt auch ziemlich auf den Sack.
Keine Ahnung.
Flaggschiff
21.05.2007, 09:12
ääääh nochmal die Frage.
Ist der r600 jetzt draußen, oder nicht?
man kann den sogar schon kaufen:
http://geizhals.at/deutschland/?fs=2900XT&x=0&y=0&in=
Die_Chriele
21.05.2007, 17:39
Die 8800gtx kann man ja zum Beispiel im SLI-Verband laufen lassen.
Ich habe gerade gelesen, dass man mit dem r600 auch 8!!! Karten zusammen stecken kann.
http://www.golem.de/0701/49706.html
Wers braucht....
Grüße, Christoph.
Andy200877
21.05.2007, 18:44
http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/
Naja wer sich ne Ati holt ist dann wohl selber schuld.
summa sumarum ist es doch eigenartig, dass die x2900xt sehr gute technische daten hat, diese aber nicht ausspielen kann. sind daran wirklich nur die treiber schuld?
Die_Chriele
21.05.2007, 22:02
Naja, ich finde die Daten gar nicht so super toll.
Ich meine die Karte ist unter Volllast über 51 DB laut. Und die frisst 230Watt. Und ist sie denn so viel besser als eine 8800gtx?
Ich denke, dass wir mal auf die x2900xt mit einem 1GB Speicher warten sollten. Und dann gucken wir uns mal die Testergebnisse an. Wenn die dann immernoch sche*** sind, und es auch keine neuen Treiber gibt, dann können die ihre Karten gerne behalten.
Grüße, Christoph.
Powered by vBulletin® Version 4.2.5 Copyright ©2025 Adduco Digital e.K. und vBulletin Solutions, Inc. Alle Rechte vorbehalten.