Hier mal was von einem Hersteller:
http://www.hisdigital.com/html/product_ov.php?id=304
Takte sind leider nicht erwähnt
dafür das es sich um einen 80nm statt angenommen 65nm GPU handelt
Druckbare Version
Hier mal was von einem Hersteller:
http://www.hisdigital.com/html/product_ov.php?id=304
Takte sind leider nicht erwähnt
dafür das es sich um einen 80nm statt angenommen 65nm GPU handelt
Hehe. Dumm gelaufen für His. Das NDA ist noch nicht gefallen. Die haben die Seite ganz schnell wieder offline genommen, aber hier nochmal der Inhalt für alle die, die's verpasst haben.
http://img478.imageshack.us/img478/4903/his1as5.jpg
http://img384.imageshack.us/img384/6908/his2zs1.jpg
http://img483.imageshack.us/img483/8017/his3va6.jpg
Das Spiel, dass dabei ist, soll übrigens HL² Ep2 sein.
Zum Preis steht da leider nichts, aber angeblich soll einem Shop in Holland vor einiger Zeit ein ähnliches Malheur passiert sein und der soll die Karte für 380 EUR zur Vorbestellung angeboten haben.
Valve Black Box=
HL² Ep2+Team Fortress2+Portal
ehhhh leutz mal beabsichtigt dass der speicher von der karte völlig im ar*** is ?????????????? in manchen benchs is die xtx sogar noch langsamer als die xt wegen dem kapputten ram was vorallem der grund dafür ist dass die bis september/november(bis wann auch immer) verschoben wird .
wenn man sich die daten ansieht (150% mehr streaming-prozessoren, 30% mehr ram etc. als gtx ) kann man sich doch die THEORETISCHE leistung ausdenken.
un glaubt ihr wirklich dass die sich soviel zeit lassen, unter so einem druck von seiten nvidia stehen, un dann das ganze so vermurksen ? also ich persönlich glaube das kaum. denke die haben schon noch ihr ass im ermle..xtx(ati)+barcelona(amd) sag ich nur :twisted:
nein, ich achte mind seit der letzten rechtschreibreform nich mehr auf groß/kleinschreibung :D
Was meinst du mit kaputtem Ram?
Und die Anzahl der Streamingprozessoren ist ziemlich irrelevant. Es kommt auch darauf an, wie hoch die getaktet sind. ATis sind viel langsamer getaktet, als die von nVidia. Also brauchen die auch mehr Einheiten um die gleiche Leistung zu vollbringen.
Des Weiteren unterscheiden sich die Shader auch noch in diversen anderen Faktoren, die sie unterschiedlich Effizient machen.
Du kannst also nicht die reinen Zahlenwerte vergleichen.
PS: Gewöhne dir trotzdem an die Groß- und Kleinschreibung zu beachten. Di hat sich ja durch die neue Rechtschreibreform nicht geändert. Also bitte.
So. Nun haben die Jungs von CB auch ihen Test der HD 2900 T reigegeben.
Sieht nicht besonders gut aus. Besonders, wenn man etwas höhere AA und AF Settings verwendet versagt der R600 total. Der G80 bricht dort weit weniger ein als der R600 und liefert zudem noch eine bessere Bildqualität, ist dabei leiser und verbraucht weniger Strom.
Es spricht nicht wirklich viel für die 2900 XT. Wirklich schade für ATi/AMD.
PS:
Was an dem Artikel auch ganz schön ist, dass ist der erste Teil in dem die Technik erklärt wird. Der ist wirklich umfassend und man bekommt einen guten Einblick in die Technik, die dahinter steckt.
Da muss ich nochmal fragen, und zwar doof:
Ab wann kann man die ATI/AMD DX10 Karte(n) im Laden um diie Ecke erwerben?
NOXON war schneller, *schnief
hab genau diesen artikel auchgelesen und ich muß sagen nach mehr als nem halben jahr ist das echt enttäuschend für ATI/AMD da werden wohl weiterhin rote zahlen geschrieben, wenn man bedenkt das die Karte nich annähernd an die GTX kommt trotzt der enorm hohen taktraten und der hohen speicheranbindung (512 satt 368bit) auch die Bildquali scheint nich gerade berauschend zu sein, einziger pluspunkt meiner meinung nach ist das der Hardware support für D3D11 da ist. Nur wer braucht ihn jetzt schoin wenn nich mal D3D10 richtig im schwung ist?!
naja meie meinung ein paar euros mehr bezahlen und bei der 8800GTX zugreifen!!! Bin voll auf zufrieden mit dieser Karte!!!
gretz Dapalme
Sehe ich ganz genauso.
Warum die eine Tessellation-Einheit eingebaut haben ist mir auch nicht ganz klar, obwohl es daran liegen könnte, dass der Xenos diese Einheit auch schon hat und sich ATi dachte: "Ach was solls. Packen wir die auch noch rein."
Trotzdem kann ich mir denken, dass die den Chip nur unnötig größer, teurer und stromhungriger macht.
Mich würde auch einmal interessieren, was ATi so ein Chip in der Produktion kostet. Ich wette, dass der G80 deutlich billiger ist und ATi bei Weitem nicht so viel Gewinn machen wird, wie nVidia.
Worüber ich aber am Meisten enttäuscht bin, dass ist das schlechte Abschneiden bei hohen Qualitätseinstellungen. Das sinkt die Performance ja total in den Keller, während es sich beim G80 noch in Grenzen hält. Bei 4xAA und 8xAF bleiben dot nur noch ~40% der Leistung übrig, während der G80 noch ~60% bietet.
Ich dachte eigentlich, dass der hohe Speicherdurchsatz hier helfen würde, aber dem scheint wohl nicht so zu sein. Außerdem scheint das AF nicht so gut zu sein, wie beim G80.
Ich bin auch mal auf wetere DX10 Benchmarks gespannt. Dort sollen ja angeblich die Stärken des R600 liegen. Bei DX9 hätte er laut ATi in einigen Bereichen Nachteile sich in Dx10 aber als Vorteil erweisen würden. Zum Beispiel beim HDRR.
Die Geometry-Shader, die natürlich auch nur in DX10 Titeln zum Einsatz kommen, sollten auch erheblich besser sein, als beim G80. Es mag also sein dass der R600 bei echten DX10 Spielen wirklich besser ist, aber momentan hat man einfach noch viel zu viel DX9 Spiele, sodass es wichtiger ist, dass man dort genügend Leistung hat.
Naja. Waten wir es aber noch einmal ein wenig ab, bis ATi finale Treiber herausbringt. CB meinte ja auch, dass sie während des Tests noch einen neuen Beta Treiber bekommen hätten und sich dadurch unter Oblivion die Performance deutlich verbessert habe.
Ich könnte mir vorstellen, dass man besonders beim Tweaken des Dispatch Processors noch einiges an ungenutzter Performance herausholen kann. Wunder erwarte ich dort aber auch nicht.
Verfügbar ist die Kate aber soweit ich weiß noch nicht. Eine wurde, glaube ich schon in einem Schweizer Shop gesichtet, aber ich weiß nicht mehr genau wo.
Zitat:
Zitat von noxon
Gibts denn da ein offizielles Datum für den release?
Gibt es sicherlich, aber ich hab's im Moment auch ncht im Kopf.
www.gidf.de sollte dir aber weiterhelfen können. :)
Topic Fix
Zitat:
Zitat von noxon
buh
Vergleich zwischen hd 2900 xt und anderen karten
http://www.chip.de/artikel/c1_artikel_26418453.html
nvidia hat weniger speicherinterface dafür mehr shader clock =)
Naja. So einfach lässt sich das heut zu Tage nicht mehr vergleichen. Die Chips unterscheiden sich so stark in ihren Architekturen, dass man Anhand solcher Werte kaum noch Aussagen treffen kann.
Die 320 Streamprozessoren zum Beispiel sind in Wirklichkeit nur 64 5-fach skalare Shader, die nur halb so hoch getaktet sind, wie die beim G80. 5*64 = 320 klingt natürlich besser, aber die wird der R600 nie wirklich ausnutzen. Davon bleiben eine Menge ungenutzt. Je nach Anwendung.
Während die Chips früher in ihren Prinzipien noch einigermaßen identisch waren geht nun jeder Hersteller seine eigenen Wege und versucht über unterschiedliche Fähigkeiten, Anordnungen und Aufteilungen der einzelnen Bauelemente die optimale Leistung zu erzielen.
Aus diesem Grund werden die Benchmarkergebnisse auch sehr stark von den Spielen abhängen. Einige kommen mit dem R600 deutlich besser klar als mit dem G80 und umgekehrt.
Nehmen wir Call of Duty 2. Nimmt man kein AA und kein AF liegt der 2900 XT auf Platz 1 und übertrift selbst die 8800 GTX um ein knappes %.
Aktiviert man aber nun 4xAA und 16xAF, dann liegt die 2900 XT nur noch auf Platz 9. Der Leistungsabfall ist dort doppelt so hoch wie beim G80. Damit ist der R600 sogar noch langsamer als eine X1900 XT.
Hier macht sich die unterschiedliche Vorgehensweise des R600 also schlecht bemerkbar. Hoffen wir mal, dass es stimmt und das es sich in DX10 Spielen zum Vorteil entwickelt.
Hab jetzt auch mal den CB Test zum R600 überflogen und bin natürlich etwas enttäuscht, ich glaube da hätte sich jeder etwas mehr erwartet.
Hoffentlich tut sich da Treibermäßig noch was oder Dx10 liegt der Karte mehr...
Jetzt bin ich wirklich gespannt wie es mit ATI/AMD weitergeht, sollte amd's K10 auch nicht aufschließen können dürfte es mit der Firma bergab gehen.
So langsam mache ich mir auch sorgen um AMD. Die haben zwar schon einige Male lange Verlustphasen duchgemacht, aber dieses Mal scheint es wohl etwas länger zu dauern.
Sie machten bereits Verluste und ich sehe auch nicht, wie sie in nächster Zeit gegen Intel und nVidia ankommen wollen.
Also leute ich weiß nich warum ihr hoft das beim R600 in DX10 noch mehr raus zu holen ist?! wenn man mal hier schaut:Zitat:
Zitat von Born_Brainless
KLICK MICH
Das sind eigentlich schon "DX10" benches, klar noch in der anfangs phase aber selbst hier liegt der R600 auch nich soweit vorn :( Und schaut mal genau bei der Variance Shadow Maps D3D10-Techdemo da liegt die Radeon HD 2900 XT stellenweise FPS technisch sogar weit hinter der GTS von Nvidia!!!
Also ok das Top model mit 1024MB GDDR4 haben wior noch nich gesehen, aber Nvidia wird bis dahin auch etwas anderes haben und ich denke dann spätestens dann wird es für ATI/AMD ganz eng werden weil die ein gutes halbes jahr auf holen müßen, hinzu kommt das sie nich nur die Performance steigern müßen sondern auch die Bild Quali verbessern müßen, wenn ich richtig gelesen habe ensteht doch etwas texturflimmern beim R600 was bei Nvidias G80 nich mehr vorhanden ist.
was ist bei den beiden Bildern von Call of Juarez anders? Die sehen für mich beide gleich aus, wobei das Gras sehr hässlich wirkt :?
Was ist der Unterschied von den beiden Screenshots???
Naja. Das ist EIN Spiel, dass da gebencht wurde. Daraus lässt sich nichts schlussfolgern und immerhin ist die 2900 XT da schon einmal besser als die GTS, welches ja das Gegenstück zur 2900 XT sein soll.Zitat:
Zitat von dapalme
Außerdem interessieren mich solche Benches recht wenig, wenn dort kein AA oder AF aktiviert wurde. Von daher warte ich noch auf weitere Benchmarks mit einem finalen Treiber.
Ach ja. Und diese Techdemo ist auch total überflüssig. Das hat nichts mit Spielen zu tun und wenn irgend ein Hobbyprogrammierer dort eine Demo schreibt und die nur auf einer 8800 GTX testet und optimiert sollte klar sein, dass die dort auch am Besten läuft.
Mich würde sowieso einmal interessieren, warum ich mit meiner GTS dort über 190 fps und übertaktet über 230 fps bei identischen Settings erreiche.
Naja. Wie auch immer. Ich warte also lieber erst einmal echte Benches von echten Spielen ab, die wahrscheinlich aber erst in 6-12 Monaten in ausreichender Anzahl vorliegen um über die DX10-Leistungsfähigkeit urteilen zu können.
@Robin:
Der Unterschied ist, dass das eine von einem G80 gezeichnet wurde und das andere vom R600. ;)
Ich werf hier ma was aktuelles in die Runde!
http://www.computerbase.de/news/trei...ibervergleich/
hmmm das war relativ aktuell, mit dem neuen treiber is die bild quali besser aber die performance sinkt wieder.Zitat:
Zitat von KitKat-Chunky
Also was auch immer AMD/ATI da gebastelt haben ist einfach nur sry aber lächerlich!!!
@Noxon, das mag zwar soweit richtig sein, aber es geht um DX10 und das liegt nunmal nur in dieser Form vor! Der R600 floppt meines achtens an allen ecken und kanten!!! Schon bei Gamestar gelesen wieviel SONE beim zocken auf deine ohren saußen?! Sage und schreibe 7,2 SONE im vergleich zu 1,0 SONE 8800Ultra is das echt hammer, meine anlage werde ich nich so laut aufdrehen das ich meinen PC nich mehr höre. Mein nachbar muß ja denken ich flieg mit nem Privatjet ausm Garten ^^
Also wie gesagt dafür das es sich um gut ein Halbes jahr Späteren Release handelt hätte da echt mehr bei raus kommen müßen!!!
Wenn du mal siehst wie der R600 bei eingeschaltetem AA und AF einbricht das kann nich sein das die Kart so dermaßen einbricht. Das sind ja manchmal gut und gerne 30-50% und das soll was heißen, schau der G80, den juckt das kaum waas du da machst.
Ih bin zwar Nvidia Anhänger, aber ih mache mir Sorgen um AMD weil die gehen ganz den Bach unter, weiß nich was die sich dabei gedacht haben ATI mit rüber zu holen, nur wegen einer CPU-GPU einheit *lol
Und dann ahb ich noch was für dich NOXON:
http://www.pcgameshardware.de/?menu=...&show=original
http://www.pcgameshardware.de/?menu=...&show=original
Quelle:
http://www.pcgameshardware.de/?article_id=601352
So in beiden fällen liegt die HD 2900XT wieder klar hinter der 8800GTS!!! Und das kriegst du niemals nur mit nem treiber hin so nen vorsprung!!!
auf PCGH ist der R600 mancjmal auch vor der GTS
ich meinte die beiden Screens die ich gerade gepostet hab, trotzdem scheint es nich gaerade ein kaufgrund zu sein wenn du dann noch son nen düsending im rechner hast. Also ich bin mal gespannt was da noch kommt, am anfang kann man eh nur spekulieren aber bisher bin ich echt enttäuscht, vom preis her könnte die GTS aber auch interessanter sein da die beiden karten kaum nen großen unterschied machen!!!Zitat:
Zitat von Ph1l1p
Also ich muss jetzt ganz ehrlich mal sagen mir war ATI irgendwie immer lieber. Ich bin zwar auch nicht so ein Super Pro was Hardware angeht aber trotzdem wirkt es auf mich auch etwas... na ja enttäuschend was man bis jetzt von der HD2900XT sehen konnte.
Das lange warten hat da ja mal gar nichts gebracht. Ich frag mich jetzt ob das durch die Übername durch AMD passiert ist. Vielleicht hätte die Karte schon lange draußen sein sollen doch durch die ganze Sache hat sich das alles verschoben.
Also wenn sich das nicht bald bessert werde ich wohl umsteigen. Aber im Moment guck ich mir das noch an bis zu meinem neuen PC ist es ja noch was Zeit.
@TIEfighter Das meiste am R600 hat ja noch ATI gemacht
Aber ich sehs so: 1 Glübirnen braucht rund den selben Strom wie die die R600 mehr 8)
werd mir aber eine GTS zulegen(wenn billiger)
Hoffe dass ich richtig geFIXED hab :?:
Was erzählst du mir das. Ich behaupte ja nichts anderes. BeitragZitat:
Zitat von dapalme
Das Einzige, was ich noch zu bedenken gebe ist die Zuverlässigkeit der DX10 Benches und die Aktualität des Treibers. Es kann sich in den Bereichen durchaus noch etwas tun und die 2900 XT könnte zumindest mit der GTS gleichziehen und eventuell sogar überholen.
Wir sehen ja, was für Unterschiede die Treiber ausmachen können, wenn wir uns die Ergebnisse vom 8.37.4.2 ansehen. Da wird momentan also noch ein Mittelweg zwischen Leistung und Bildqualität gesucht. Wir werden abwarten müssen um zu sehen, wie gut die Karte letztendlich wirklich ist.
Ohne finale Treiber würde ich die Karte jedenfalls noch nicht als Flop abtun.
Naja ich hoffe das die neue ATI-Karte trotzdem gekauft wird. Auch wenn ich NVIDIA Jünger bin. Aber Konkurrenz belebt nun einmal das Geschäft.
Naja da ich meine Wii nun verkaufen werde da sie leider ein Fehlkauf war, werde ich mir die HD 2900 XT wohl noch diesen Monat zulegen.
Auch wenn sie in den test nicht immer an die 88ter ran reichte, hatte sie immer doppelt so viel leistung wie meine X1950 pro ^^ und naja das geht schon in ordnung, Treiber holen noch viel raus und vorallem...ich brauche ja auch endlich ne DX 10 karte ;)
Guckst du hier.Zitat:
Zitat von Martin80
Zitat:
Zitat von noxon
Danke noxon, dann wiirds ja nun wirklich ernst.
Bin auf kommende Vergleiche gespannt.
Aber gab es nich schon lange einen Treiber der die R600ter unterstützte?! Also sie hätten da einiges anders machen können wenn sie schon nen halbes jahr später als Nvidia ihre karten auf denm markt schmeißen, wenn ich das richtig gelesen habe basteln die schon seid 2003 an der DX10 sprich R600ter serie. Da hätte wenigstens ein Finaler Treiber für die Karten bereit stehen können. Nvidia war da ja auch nich anders, aber die hatten sie wenigstens soweit optimiert das FPS technisch kaum etwas mehr raus kam. Ledeglich die Bugs mußten im nachhinein raus genommen werden oder sehe ich das falsch?!Zitat:
Zitat von noxon
Und meinst du das man mit nem anderen Treiber soviel mehrleistung erwarten kann?! Ich glaub eher weniger, jedenfalls hab ich das so noch nie gesehen, aber es soll ja immer was neues geben ^^
Ich denke das die HD 2900XTX mit 1024MB GDDR4 einiges reißen kann auch durch den 60nm fertigungsprozess. Aber bis dato hat Nvidia unter garantie auch so was in der richtung entwickelt und holt wieder einmal auf.
Was ich hoffe ist nur, das AMD jetzt wieder richtig fuß fassen kann um noch am Markt bestehen zu können, allein der Stromverbrauch der HD2900XT und der sagenhaft laute Lüfter sind ein absolutes "nich kauf" argument :(
Naja. Ich denke da rechnen die auch noch die Entwicklung des Xenos für die Xbox360 mit ein. Das ist ja praktisch die Vorstufe zum R600 gewesen.Zitat:
Zitat von dapalme
Einen Treiber kann man erst fertigstellen, wenn die Karte fertig ist. Wir wissen ja nicht, was ATi in letzter Zeit noch alles so an der Karte geändert hat. Der Releasetermin wurde ja nicht umsonst verschoben.Zitat:
Da hätte wenigstens ein Finaler Treiber für die Karten bereit stehen können.
nVidia hat ja für Vista zum Beispiel immer noch keine vernünftigen Treiber. Der besitzt noch nciht einmal einen richtigen SLI support und auch sonst funktioniert dort alles mehr schlecht als recht.Zitat:
Nvidia war da ja auch nich anders, aber die hatten sie wenigstens soweit optimiert das FPS technisch kaum etwas mehr raus kam. Ledeglich die Bugs mußten im nachhinein raus genommen werden oder sehe ich das falsch?!
Es kommt drauf an, was die dort noch für Optimierungen vornimmt. Wir sehen ja, dass durch den neuen Treiber, der einige Optimierungen enthielt, bei Oblivion die Framerate um 172% angestiegen ist. Der Unterschied zwischen 15 fps und 41 fps ist schon gewaltig. Dafür nehme ich auch eine etwas schlechtere Bildqualität in Kauf.Zitat:
Und meinst du das man mit nem anderen Treiber soviel mehrleistung erwarten kann?!
Meistens sehe ich de Qualitätsunterschiede sowieso nur im direkten Vergleich auf Screenshots.
Also wer bei den 8800tern ein SLI sys aufbaut ist selber schuld, die haben soviel power das man das schnomal nicht brauch bis jetzt zumindest nicht ;) Und alles andere funtzte bei mir jedenfalls einwandfrei, die Games die ich zocke laufen eigentlich auch alle! Und das meinesachtens auch sehr gut!!!Zitat:
Zitat von noxon
Also das kommt für mich garnicht in frage, da kann ich ja z.B. einfach ne auflösung von 1600x1200 nehmen ohne AA und AF und habe dann auch mehr FPS, wenn sollte alles gleichgestellt sein und ich zocke generel in 1280x1024 (mehr macht mein moni nich :() plus AA und AF auf höchster Stufe!!!Zitat:
Zitat von noxon
Mitdem vergleich auf Screens gebe ich dir recht, aber ich habe den unterschied zwischen meiner alten 7900GT und der 8800GTX gemerkt, die BildQuali is eindeutig besser! Dafür brauchte ich nich wirklich nene Screenshot. Ich liebe Grafik über alles, je schöner und realer desto besser, flimmern usw kann ich da net gebrauchen! ;)Zitat:
Zitat von noxon
Das schönste was ich bisher gesehen habe is:
http://crysis.4thdimension.info/modu...p=getit&lid=56
Also wenn ich das später mal auf meinem Rechner sehen sollte dann sag ich, so langsam bin ich zufrieden mit der Grafik ;)
Crytek macht das schon *gg
EDTI:
TOPIC FIX ^^
also laut Benchmarks von Noxon´s Post aus dem DX10 Thread (siehe den Link zu Tomshardware) ist die HD2900XT fürn ar***... sollen da noch bessere kommen? Die 8600GS hat ja besser abgeschnitten... wie seht ihr das?
erstmal hallo FOOFI mein schnuckel, ^^Zitat:
Zitat von foofi
also so wie ich das sehe ist die HD2900XT vorerst das Topmodel von AMD/ATI später soll ja dann die HD2900XTX folgen, aber jeder Benchbericht sieht anders aus. Aber meines achtens nich wirklich gut für AMD/ATI
Das ist alles keine Entschuldigung dafür, dass nVidia keine Treiber dafür bereit stellt. Die Leute haben teures Geld dafür bezahlt, dass sie ein SLI Verbund nutzen können und nun schaft es nVidia nicht dafür einen passenden Treiber zu schreiben und das obwohl die Karte und vista schon seit Ewigkeiten auf dem Markt sind.Zitat:
Zitat von dapalme
Ich sage ja nicht, dass man ohne AA und ohne AF zocken soll, aber ich finde zum Beispiel, das man bei allem über 4xAA kaum noch Unterschiede ausmachen kann. 16xAA oder sowas ist definitiv übertrieben. CSAA wäre noch vertretbar, aber alles darüber ist verschenkte Performance.Zitat:
Also das kommt für mich garnicht in frage, da kann ich ja z.B. einfach ne auflösung von 1600x1200 nehmen ohne AA und AF und habe dann auch mehr FPS, wenn sollte alles gleichgestellt sein und ich zocke generel in 1280x1024 (mehr macht mein moni nich :() plus AA und AF auf höchster Stufe!!!
Und beim AF kann man ruhig die optimierenden Algorithmen aktivieren, wie ich finde. Ob das AF nun winkelunabhängig ist oder nicht bemerkt man kaum. Erst recht nicht bei einem schnellen Ego-Shooter, bei dem man auf ganz andere Dinge achtet.
Ich habe lieber eine geringfügig und kaum spürbare Verschlechterung der Bildqualität und kann dafür höhere Details beim Spiel verwenden, als auf niedrigeren Details spielen zu müssen bei denen das Bild absolut perfekt aussieht.
//EDIT:
So ist es.Zitat:
aber jeder Benchbericht sieht anders aus. Aber meines achtens nich wirklich gut für AMD/ATI
Und wie ich ja schon erwähnt habe erreicht die 2900 XT mit dem 8.37.4.2 Treiber das Niveau einer 8800 Ultra in Oblivion bei 1280x1024 mit 4xAAA und 16xAF. Auch in allen anderen Spielen liegt sie immer zwischen GTS und GTX.
Treibermäßig kann sich daalso noch einiges tun.
NOXON
wie ich eben mit bekommen habe gibt es ja ab heut oder Morgen ne DX10 Demo (Lost Planet) hier kann man ja dann die Performance zwischen R600 und G80 real messen nich das du wieder sagst das sei nix ganzes, klar is das ganze für Nvidia optimiert aber wie heißt es so schön, wer zuerst kommt malt zuerst ^^
Ich ware gerade 1 Woche im Urlaub. Sollte nicht am 15-16.05.2007 der r600 seinen Release haben?
Ich habe aber nichts davon gelesen. Ist der Chip jetzt raus und Karten zu kaufen?
Oh man, man ist eine Woche nicht da und fühlt sich wie von nem anderen Stern...
Außerdem ist der R600 ein richtiger Stromfresser im Vergleich zum G80. Dazu kommt noch, dass sie extrem laut ist. Das einzige Argument warum man sich die kaufen sollte ist ihr Preis. 340€ ist nicht wirklich teuer. Jedoch is die 8800gts von den Benchmarks her ja auch nichts schlechter als die 2900xt und braucht weniger strom und ist viel leiser. Ausßerdem sind alle Games für Nvidia optimiert.
Meiner meinung nach siehs schlecht aus für AMD/ATI
ääääh nochmal die Frage.
Ist der r600 jetzt draußen, oder nicht?
Zitat:
Zitat von Die_Chriele
Das Theater geht mir ehrlich gesagt auch ziemlich auf den Sack.
Keine Ahnung.
man kann den sogar schon kaufen:Zitat:
Zitat von Die_Chriele
http://geizhals.at/deutschland/?fs=2900XT&x=0&y=0&in=
Die 8800gtx kann man ja zum Beispiel im SLI-Verband laufen lassen.
Ich habe gerade gelesen, dass man mit dem r600 auch 8!!! Karten zusammen stecken kann.
http://www.golem.de/0701/49706.html
Wers braucht....
Grüße, Christoph.
http://hardware.thgweb.de/2007/05/14...600-directx10/
Naja wer sich ne Ati holt ist dann wohl selber schuld.
summa sumarum ist es doch eigenartig, dass die x2900xt sehr gute technische daten hat, diese aber nicht ausspielen kann. sind daran wirklich nur die treiber schuld?
Naja, ich finde die Daten gar nicht so super toll.
Ich meine die Karte ist unter Volllast über 51 DB laut. Und die frisst 230Watt. Und ist sie denn so viel besser als eine 8800gtx?
Ich denke, dass wir mal auf die x2900xt mit einem 1GB Speicher warten sollten. Und dann gucken wir uns mal die Testergebnisse an. Wenn die dann immernoch sche*** sind, und es auch keine neuen Treiber gibt, dann können die ihre Karten gerne behalten.
Grüße, Christoph.