24 cm passen bei dir nicht in's Gehäuse? Was hast du denn für ein Gehäuse?Zitat:
Zitat von DNA
//EDIT:
Ich sehe gerade, dass du ne EVGA Geforce 8800 GTX hast.
Die ist sogar 2 cm länger als die ATi Karte.
Druckbare Version
24 cm passen bei dir nicht in's Gehäuse? Was hast du denn für ein Gehäuse?Zitat:
Zitat von DNA
//EDIT:
Ich sehe gerade, dass du ne EVGA Geforce 8800 GTX hast.
Die ist sogar 2 cm länger als die ATi Karte.
ah! 24 cm sind zum Glück gerade richtig, auf dem Bild sah die Karte ziemlich lang aus, aber ok.Zitat:
Zitat von noxon
Naja. Foofi. Um so eine News möglichst dramatisch ausehen zu lassen wird natürlich immer der worst case gewählt.
Es gibt eine OEM Version, die 31 cm lang ist. Die normale Einzelhandelsversion ist allerdings "nur" 24 cm lang. Letztendlich wird sich das von Hersteller zu Hersteller sowieso immer um einige cm unterscheiden. Ist bei den 8800 Karten ja nicht anders. Da erreichen auch einige Karten die stolze Länge von 28 cm.
@Noxon, hast du mal so eine Designsache von NVidia gesehen, da ist ein extra Case für die Grafikkarten mit eigenem Nezteil, sodann ist dieses Gehäuse mit dem Hauptgehäuse, wo die restliche Hauptplantine ist, verbunden. Sieht heftig aus, also dort könnten a sodann längere und grössere Karten entwickelt werden... ich weiss nicht ob ich das schonmal bei ATi gesehen hab, aber auf einer NVidia Seite war das ganz sicher.
Also hier kommt was richtiges an infos rüber:
Allmählich fügen sich die Einzelheiten zu einem kompletten Bild. Es wird vier, vielleicht sogar fünf verschiedene Sorten von Grafikkarten mit dem neuen Chip von AMD / ATI geben. Ja, und es gibt UFOs ...
Wenn ATI tatsächlich die Über-Edition einer wassergekühlten Karte baut, dann könnten wir sogar von fünf Spielkarten reden. Aber bleiben wir erst einmal bei denen, die wir ganz klar bestätigen können.
Als Dragonshead wird die R600XTX gehandelt. Es ist eine Karte für OEM-Hersteller in der vollen Länge von 12,4 Zoll (31,5 cm) mit 1024 MB Speicher.
Die zweite Karte heißt Dragonshead 2. Sie läuft mit der gleichen Taktrate wie die R600XTX mit 12,4 Zoll. Sie ist aber nur 9,5 Zoll (24 cm) lang und braucht mit 240 Watt etwas weniger Strom. Sie hat ebenfalls 1024 MB Speicher an Bord sowie einen 512-Mbit-Speichercontroller. Sie kommt mit diesen speziellen Dual-6-Pin-Steckern, die wir schon bei der Geforce 8800 GTX bewundern durften.
Die dritte Karte hört auf den Codenamen Catseye. Sie ist mit dem R600XT-Chip bestückt und um 10 bis 15 Prozent langsamer getaktet als die R600XTX. Sie kommt mit 512 MB GDDR3-Speicher, ist 9,5 Zoll (in der metrischen Welt 24 cm) lang und besetzt zwei Steckplätze auf dem Motherboard. Sie saugt ebenfalls 240 Watt und hat auch diese speziellen Stecker. Sie dürfte voraussichtlich im April auf den Markt kommen. Die ersten drei Kartenvariationen verfügen über Dual-DVI und VIVO-Option.
Mit dem Codenamen UFO wurde die vierte R600-basierte Karte versehen, die wir bestätigen können. Die Taktrate ist kleiner als bei der R600XL-Version. Dual-DVI sowie TV-Out sind mit drin, aber kein VIVO (VideoInVideoOut). Sie ist neun Zoll lang (22,9 cm), und der Kühler benötigt zwei Slots. Sie verbraucht 180 Watt und hat einen 2x3-Pin-Stecker. Die Produktion soll im April anlaufen.
alles kopiert (hehe schreibfaul ^^) von:
http://de.theinquirer.net/2007/02/12...00_im_det.html
Eigentlich spricht mich sowieso nur das hier an:
Wunderbares Flakschiff :mrgreen: !! Mein absoluter Favorit, zur Zeit....Ich finde es sehr geil, dass die Karte "nur" 24 cm lang ist; die alten Karten(GeForce 7950 GX2, ATi X1950XTX) waren auch 24 cm lang!!Zitat:
Die zweite Karte heißt Dragonshead 2. Sie läuft mit der gleichen Taktrate wie die R600XTX mit 12,4 Zoll. Sie ist aber nur 9,5 Zoll (24 cm) lang und braucht mit 240 Watt etwas weniger Strom. Sie hat ebenfalls 1024 MB Speicher an Bord sowie einen 512-Mbit-Speichercontroller. Sie kommt mit diesen speziellen Dual-6-Pin-Steckern, die wir schon bei der Geforce 8800 GTX bewundern durften.
Vor allem ist die Karte damit kleiner als die 8800GTX (bis zu 28cm).
Wird Crysis eigentlich 1GB Speicher untersützen?, wurde schon was dazu gesagt?
Aber gerade für die Leute, die nicht so viel Geld ausgeben wollen, könnte die die R600XT interessant werden...
Nur wie soll ich das verstehen:
Die Karte brauch doch keine 2 PCIe Steckplätze....?Zitat:
...und besetzt zwei Steckplätze auf dem Motherboard.
Die Karte besetzt zwei Slots, keine zwei PCIe Steckplätze ;)Zitat:
Zitat von IkaruZ
der angeblich neue benchmark
http://www.pcgameshardware.de/screen...r600scores.jpg
also fals der stimmt,freue ich mich das ati so schlecht abschneidet:D.Nur 2000 Punkte unterschied LOL.Hammer!!
genau, kein sehr großer Unterschied.
wenn das kein Fake sein sollte, hat ATI ein Problem.
Ich glaube aber dass sich die Leistung der R600 noch verbessern wird mit entprechenden Treibern.
Einen großen Quantensprung wird man aber glaube ich nicht erleben.
Und wenn noch der Stromverbrauch stimmtn sollte LOL,dann bye bye ATI^^
2000 Punkte sind meiner Meinung nach nicht ohne und richtig interessant wirds sowieso erst bei der 06er version weil die ja exzessiven Gebrauch von Shadern macht.Zitat:
Zitat von DNA
Außerdem glaub ich sind das sowieso fakes
Na Dna bist wohl ein Nvidia Fanboy?
Oh, stimmt. Dann der Stromverbrauch :lol:
Ja,bin eher der Nvidia Fan^^,naja mal sehen villeicht wird ja doch noch was aus der R600,kann ich mir aber eigentlich nicht vorstellen weil bis jetzt derer benchmark schlecht war und es kann ja nicht sein das die alle gefaket sind...
Dann müssen wir einfach mal abwarten wie sich die R600 schlagen wird...
Also auf synthetische Benchmarks wie 3DMark würde ich nicht zählen.
Gerade jetzt bei den DX10 Karten unterscheiden sich beide Chip in vielerlei hinsicht. Der Eine setzt zum Beispiel auf viele Shader die wenig Rechenschritte auf einmal ausführen können während der andere auf wenig Shader setzt, die dafür viele Rechenschritt auf einmal durchführen können.
Die Unterschiede gibt es auch noch in vielen anderen Bereichen der Chiparchitektur und so ist es sehr schwer vorherzusagen, wie gut ein Spiel auf einer Karte läuft.
Das eine Spiel kommt vielleicht besser mit den vielen Shadern, die weniger berechnen zurecht, während ein anderes Spiel sehr stark von Shadern profitiert, die viele Rechenschritte auf einmal durchführen können.
Die Ergebnisse der Karten werden sehr stark von den Spielen abhängig sein, die getestet werden. Das wird nicht mehr so einfach übertragbar sein, wie unter DX9.
Es ist sehr schwer, wenn nicht sogar unmöglich, einen ausgewogenen Test zu schrieben, der beide Karten gleichberechtigt bewertet.
Letztendlich kommt es darauf an, wie die Spiele laufen werden und das auch bei hohen Qualitätseinstellungen.
Das ist ein anderer Punkt, warum mich die 3DMark Benchmarks nicht interessieren. Ich will doch wissen, wie die Performance bei 16x AF und 4x MSAA aussieht und darüber sagt der Benchmark gar nichts aus. Da kann ATi dank seines 512 Bit Interface und seiner erhöhten Speicherbandbreite vielleicht kräftig punkten.
Ich würde also abwarten, bis die ersten richtigen Spiele in den Einstellungen und in der Auflösung getestet wurden, die man gerne verwenden möchte.
Erst dann kann jeder für sich entscheiden, welche Karte für ihn die Beste ist.
Klingt ja alles schön, nur jetzt hast du mich total unsicher gemacht, ob ich warten soll oder ne 8800 nehmen soll :roll:
Heißt das, man sollte jetzt immer abwarten, bis die Spiele mit der Grafikkarte getestet wurden...und dann erst zuschlagen?
Warte einfach bis der R600 kommt, wenn dich dann die Leistung nicht überzeugt kannst du dir ja immer noch eine 8800 kaufen ;)Zitat:
Zitat von IkaruZ
So sehe ich das auch. Ich werde jetzt auch bis zum 8 März warten und mal sehn, was die Testberichte so sagen. Kaufen werde ich mir aber wahrscheinlich erst einmal eine 8800 GTS. Die wird nur halb so viel kosten und so viel schlechter wird sie auch nicht sein. Außerdem ist sie in ausreichender Menge verfügbar. Wer weiß, wie das beim R600 wird.Zitat:
Zitat von Born_Brainless
Dann zum Ende des Jahres werde ich aber auf den R680 Refresh-Chip wechseln und die 8800 GTS wieder verkaufen. Der Wertverfall dürfte dann noch nicht all zu hoch sein.
oder warte auf den G81 :lol:
http://www.hardware-infos.com/news.php?news=828
schaut euch das mal an da könnte ja was dran sein
Da halt ich nicht viel von.
1. Wie kann die XTX2 nur einen 256Bit Speicherinterface haben?
2. Warum sind die Low-End Karten nicht mit 64Bit angebunden?
Naja 128Bit sind ja ganz gut aber hab gedacht, die niedrigere Preisklasse is noch mit 64Bit angebunden :? .
ne geforce 7600 gs hat doch auch 128bit
also ich find das ok 64 währen a weng wenig
Das liegt daran, dass das ein CF System ist, dass aus zwei Chips besteht. Jeder Chip benötigt da seine eigene Speicheranbindung und da es ohnehin schon ein Mega-Problem war so viele Leitungen für ein 512 Bit Interface auf das PCB zu übertragen wird man das nicht verdoppeln können.Zitat:
Zitat von Adem67
Deswegen wird jeder Chip nur mit 256 Bit angebunden sein, womit letztendlich wieder so viel Leitungen verlegt werden müssen, wie bei einem einzigen 512 Bit Interface.
Was aber sehr interessant ist, das ist die Anzahl der shader. Die soll auf einmal von 64 auf 128 gestiegen sein? Na ich weiß nicht. Wenn das stimmt, dann sind die Shader sicherlich nicht 4-fach ausgelegt und wenn doch, dann wär der R600 dem G80 meilenweit voraus.
Hier die Benchmark Ergebnisse der r600.
Bin leider zu faul das alles zu kopieren, deshalb geht auf den link und lest selbst.
http://www.tweakpc.de/news/11048/ers...arks-des-r600/
GeForce 8900 GTX vs. ATI R600
Im März wird bekanntlich die neue DirectX10 Grafikkartengeneration von ATI erwartet. nVidia hat seine neuen Grafikkarten (GeForce 8) bereits seit einiger Zeit auf dem Markt, will aber offenbar nochmal nachlegen, um ATI jeglichen Wind aus den Segeln zu nehmen. Angeblich ist eine GeForce 8900 GTX mit 25% mehr Shader Einheiten geplant, das wären dann 160. Ob dieses Modell weiterhin auf dem in 90nm Technik gefertigten G80 Grafikchip basiert und ob es höher getaktet wird als eine GeForce 8800 GTX, ist noch Spekulation.
http://www.hartware.de/
ich halte den test für einen fake. und selbst wenn es ein richtiger test sein sollte, dann ist er nicht aussagekräftig, da nicht mit einem multicore getestet wurde, dann könnte die sache ganz anders aussehenZitat:
Zitat von Turnschuh
Sind das offizielle oder inoffizielle daten?
Wenn du weiter runterscrollt, wird dir dieses als Quelle angegeben:
http://www.dailytech.com/article.aspx?newsid=6138
ob das auch wirklich stimmt?
Neue R600 Spekulationen: AMD-Dokument aufgetaucht
Chilehardware.com hat ein geheimes internes AMD-Dokument aufgetrieben, aus dem sich weitere Informationen zum R600 herauslesen lassen. So sollen erste lauffähige Samples bereits seit Anfang Februar existieren, der offizielle Launch hingegen ist für Ende März geplant. WHQL-Treiber sollen am 14. März, also einen Tag vor der Cebit, erscheinen - ein Treiber-Debakel wie Nvidia mit dem G80 unter Vista will sich Ati anscheinend nicht liefern.
Nach derzeitigem Stand wird eine R600 Grafikkarte, ebenso wie eine 8800GTX, zwei zusätzliche Stromleitungen des Netzteils benötigen. Anders als die 8800GTX jedoch nicht zwei sechspolige, sondern einen sechs- und einen achtpoligen Anschluss. Die Länge der Retail-Karten wird mit 9,5 Zoll angegeben (was etwas über 24cm entspricht), die Länge der OEM-Karten mit 12" (etwas über 30cm). Weiterhin werden die OEM-Karten über zusätzliche Halterungen verfügen, um den Transport der Computer zum Kunden zu erleichtern. Alle R600 Karten unterstützen dem Dokument zufolge Crossfire.
Die Systemvoraussetzungen werden derzeit noch überarbeitet, nach derzeitigem Stand werden ein High-End Netzteil sowie eine gute Gehäuselüftung zwingende Voraussetzung für den Einsatz einer R600 sein.
http://www.pcgameshardware.de/?article_id=559603
pix
http://www.pcgameshardware.de/?menu=...mage_id=585448
haha also nach dem Nvidia seine 8800GTS/X schon lange draußen hat kann AMD/ATI ja das mundwerk groß aufreißen, immerhin wird Nvidia bis dato auch mal einen WHQL Treiber draußen haben und wird somit doch schneller sein als AMD/ATI! Außerdem wette ich mit euch das der kleine süße R600 nich lange an der Spitze bleiben wird, zumindest nich so lange wie es der G80 geschafft hat!Zitat:
Zitat von xeonsys
Die länge usw waren schon lange klar! Was auch witzig ist, der 6pol wird mit nem 6poligen stecker gekoppelt und der 8polige anschluß... lol mit entweder 2x 4pol...
oder1x 6pol (lol was das fehlen noch zwei oder?! ^^)
evtl 1x 8pol
greatz Dapalme
@dapalme der Finale WHQL Treiber von Nvidia ist schon da :wink:
hmm du meinst diesen von 3DGuru bzw Laptopvideo2go?!Zitat:
Zitat von DNA
diese wurden wieder raus genommen falls du es noch nicht mit bekommen hast :wink:
Da war irgenwas nich richtig an dem Treiber, ich will auh nicht wissen was daran falsch ist ^^
Oder meinst du für alle DX9 Karten?! Ich meinte jetzt Speziel die 8800GTX/S
@ DN@ kommst ne runde chatten ^^
Ich meine den HIER!!
genau der ist das schau selbst hier:
ähm... hmm... heut morgen stand da noch groß in rot geschrieben das der von Nvidia raus genommen werden sollte ^^ warte mal...
EDIT:
haben se scheinbar dann doch wieder frei gegeben was soll das denn?!
EDIT2:
der ist jetzt auch offiziel bei Nvidia zum Download freigeben:
http://www.nvidia.com/object/winvista_x64_100.65.html
ja das haben sie,frag mich net warum^^.Aber der funzt bis jetzt gut.Aber cod2 geht immer noch net mit AA 4x....
EDIT:Klar ist der offiziel :D
lass uns im chat weiter quatschen wir sind im falschen Thread ^^
sry Mods
BACK TO TOPIC ^^
R600 in das zweite Quartal 2007 verschoben
Tja. So wird das natürlich nie was mit dem R600. Die können ja nicht erwarten, dass man ewig auf den Chip wartet. Da müssen sie sich nicht wundern, wenn die Leute alle auf nVidia umsteigen.
gutes brauch ebend zeit, besser nen fertiges produkt als nvidia mit ihren vista treibern...^^
ausserdem ist 2tes quartal bald und auf cebit wird die karte vorgestellt, also leger bleiben, giebt sowieso noch kein dx10 spiel, wofür sich solche karten wirklich lohnen, ultra hq gaming ist natürlich ne ganz andere sache, finde diese kleine verschiebung aber nicht schlimm!
die news von gestern fand ich da eher spannender:
http://www.pcgameshardware.de/?article_id=559603
Was glaubst du warum die verschoben wird? weil gut ding zeit braucht ^^Zitat:
Zitat von pissdrunx1987
Hmm... das könnte doch glatt nen Duell zwischen G90 und R600 werden, mal sehen was so passiert *gg
Naja. Was mich stört ist, dass es schon seit Ewigkeiten verschoben wird.
Erst soll sie noch 2006 erscheinen, dann Anfang Januar, dann Anfang Februar, dann am 8 März, dann Ende März und jetzt Erst im Q2?
Und die letzten Verschiebungen immer mit der gleichen Begründung, dass man sicherstellen möchte, dass beim Start genügend Exemplare vorhanden sind. Dass das nicht wirklich der Grund ist, solte klar sein. Irgend etwas anderes läuft da schief.
Naja. soll mir egal sein. Ich hab jetzt meine 8800 GTS bestellt.
auf PCGH gibts ein paar neue Infos und Bilder ;)
http://www.pcgameshardware.de/?article_id=564620
Ein Monster diese OEM Version :twisted:
Naja so wie ich das sehe, musst du dir mal den Lüfter weg denken dann ist sie genau so groß wie ne 6800Zitat:
Zitat von Born_Brainless
Leider noch Top Secret: HIS zeigt (nur) der Presse „R600 HIS Grafikkarten“ im NDA Room auf der CeBIT 2007
Nur unter strengster Geheimhaltungspflicht und auch nur der Fachpresse gewährt Grafikkarten-Hersteller HIS einen ersten Einblick in die neue R600 Generation – Dazu feiert HIS auf der CeBIT sein 20jähriges Firmenjubiläum
ersten Vorgeschmack auf die HIS Grafikkarten der nächsten Generation mit AMDs neuem Grafikchip Radeon 600 können die Journalisten bereits auf der CeBIT 2007 in Hannover bekommen. Auf seinem Messestand in Halle 20, Stand C39 präsentiert der renommierte Grafikkarten-Hersteller Hightech Information System Limited (HIS) in einem abgeschlossenen und abgeschirmten „NDA-Raum“ (NDA = non-disclosure agreement) seine ersten R600-Modelle. „Wir planen eine R600 Live-Demo für Redakteure, die vorher eine Verschwiegenheitserklärung unterschrieben haben. Leider dürfen wir diese außergewöhnlich leistungsstarken Grafikkarten noch nicht frei in der Öffentlichkeit zeigen. Doch ich darf versprechen, ein Besuch des HIS CeBIT Standes lohnt sich in diesem Jahr besonders“, erläutert Peter Hirschfeld, Sales- und Marketing Direktor Europa bei der Hightech Information System, die auf der CeBIT ihr 20jähriges Firmenjubiläum feiert.
Vertreter der Presse, die an einem Besuch der R600 Live-Demo im „HIS NDA-Raum“ interessiert und bereit sind, eine Vertraulichkeitsvereinbarung zu unterschreiben, melden sich kurz bei der KoM AGENTUR (Kontakt s.u.) an. Auch noch einige kostenlose CeBIT Tages-Eintrittskarten sind bei der KoM AGENTUR erhältlich (nur solange der Vorrat reicht). Zudem zeigt HIS auf seinem Messestand die weltweit erste X1550 Dual DVI 1X PCI-E Grafikkarte mit “Multi Card Setup”, die in der Lage ist gleich sechs LCD Displays mit nur einem Motherboard zu unterstützen. Auch die neue Einsteigerkarte mit eigenem IceQ Kühlsystem, die HIS X1550 IceQ TURBO, wird auf der CeBIT 2007 vorgestellt.
http://www.pressebox.de/pressemeldun...xid-96574.html
8O 8O Also ich habe eine xFx 8800GTS X Tuned (die hochgezüchtete Version). und diese Langt mir im Moment vollkommen obwohl ich auch schon auf die bald laut Nvidia erscheinende 8900 GTX freue.
Aber wenn ich hier sehe das die R600 GPU gleich mal 200 Watt fristt wird mir da doch angst und bibberbange^^.muss sich dann wohl jeder ein Enermax W1000 zulegen^^.
28 Screenshots von Atis neuer R600-Techdemo mit Ruby und erste R600-Eindrücke (Update)
Auf der Cebit gelang es uns, 28 Screenshots von der neuen Ati-Technologie-Demo zu erstellen. Hinter verschlossenen Türen und unter Ausschluss der Presse werden R600-Systeme mit dieser Technologie-Demo vorgeführt. Die Demo benötigt ca. 680 MByte an Video-Speicher - 500 MByte werden alleine für Texturen reserviert. Außerdem nutzt die Demo soft particles und self-shadowing. Insgesamt kommen 375 Shaders zum Einsatz. Der Standard-Pixel-Shader nutzt dabei 430 Instruktionen.
Erster Eindruck zur R600: Die Karte sieht einer X1950 XTX sehr ähnlich und nutzt einen fast identischen Kühler. Das Board benötigt gleich zwei Stromanschlüsse, wobei einer den neuen PCI-E-Standard unterstützt. Zunächst wurde spekuliert, dass das PCB übermäßig lang ist - das kann ich nicht bestätigen.
Update:
Mittlerweile wurden wir gebeten, die Bilder der R600-Demo wieder zu entfernen - dieser Bitte sind wir natürlich umgehend nachgekommen. Sobald es etwas neues gibt, halten wir Sie natürlich auf dem Laufenden.
http://www.pcgameshardware.de/?article_id=571567
Atis DirectX10-Einsteiger- und Mittelklasse Karte-RV610 und RV630 gesichtet (15 Bilder online)
Hinter verschlossenen Türen ist es uns gelungen, als eines der ersten Magazine einen Blick auf die neuen Einsteiger- und Mittelklasse-Karten von Ati zu werfen. Ein Launch wird für Mitte April angepeilt. Besonders interessant ist Atis DX10-Karte RV630. Diese wird vermutlich für ca. 200 Euro in den Handel kommen und damit Nvidias Geforce 8600 GTS Konkurrenz machen. Die Bilder in unserer Galerie zeigen die RV630 mit und ohne Kühler. Bei der Karte ohne Kühler wird noch ein anderes Platinenlayout verwendet. Die finalen Taktraten stehen zum jetzigen Zeitpunkt noch nicht fest. Bilder einer R600 können wir Ihnen leider nicht zeigen, da entsprechende Karten mit Herstellerlogos voll geklebt sind und wir unsere Quellen geheim halten wollen.
pix
http://www.pcgameshardware.de/?menu=...e_id=%20594540
Während neue Grafikkarten auf der CeBIT mit der Lupe zu suchen sind, zeigen sich Kühler für nVidias G80 und ATis für April erwarteten R600 allerorts. Neben Arctic Cooling, Asus, MSI und Zalman stellt auch Thermaltake zwei neue Wasserkühler, die die beiden High-End-Chips vor dem Hitzetod bewahren, aus.
Neben dem eigentlichen Wasserkühler, der die Wärme des Kerns abführt, verfügt sowohl der TMG ND4 (G80), als auch der TMG AT4 (R600) über einen Radiallüfter, der die restlichen Komponenten mit Frischluft versorgt.
Galer
pix
http://www.computerbase.de/news/hard...ngen_g80_r600/
Cebit 2007: Gründe für Atis R600-Verspätung
Wie Sie sicherlich mitbekommen haben, gilt für Boardpartner strengste Geheimhaltung, was R600-Boards angeht. Doch warum hat Ati/AMD den Launch nach hinten verschoben? Wir haben bei den Kartenherstellern nachgefragt: Der wichtigste Grund ist demnach die schlechte Verfügbarkeit von GDDR4-Speicher - Samsung kann die hohe Nachfrage nicht befriedigen. Um einen Paper-Launch zu vermeiden, hat man sich dann anscheinend dazu entschlossen, den Launch zu verschieben. Es gibt auch Stimmen die sagen, dass es noch Treiberprobleme gibt und R600-Boards nicht auf allen Konfigurationen absolut stabil laufen. Wir bleiben für Sie natürlich am Ball.
Wir gehen davon aus, dass R600-Boards im Mai auf den Markt kommen werden.
http://www.pcgameshardware.de/?article_id=571760
8O :cry:
hm.. Also ich kann mir sehr schwer vorstellen, dass das hauptsächlich am Speicher liegt, für den X1950xt scheinen ja auch genug gddr4 Speicherchips vorhanden zu sein.
CeBIT: Alle R6xx-Chips von ATI gehen auf 65 Nanometer
Anfang Januar war bei AMD / ATI von einer grundsätzlichen Überarbeitung des Grafikchips R600 die Rede. Doch es steckte viel mehr dahinter.
Tatsächlich fasste die Firma richtig Mut, nahm nicht den Weg von R520/R580, und warf den R600 zum alten Eisen. Den R600 in 80 nm - so drang es jetzt nach außen - wird es nur in einer sehr begrenzten Menge von Chips geben.
AMD / ATI haben sich entschieden, ihre Probleme zu lösen, indem sie jeden verfügbaren Aufwand einsetzten, um querbeet auf 65 Nanometer umzusteigen, einschließlich dieses 720 Millionen Transistoren schweren Monsters. Das reduziert den Energieverbrauch drastisch und befähigt sie zugleich, den R600 mit 1 GHz oder sogar mehr zu takten. Die Massenproduktion des R600 wird in 65-Nanometer-Fertigung sein.
Das bedeutet wirklich viel. Obwohl AMD hinsichtlich des großen Schaukampfes G80 gegen R600 um sechs Monate zurück liegt, ist die Firma um sechs Monate voraus gegenüber NV55, zuvor bekannt als G81 und derzeit bekannt als G90 (oder eben NV55 in der Gegend von Satan Clara).
Wir haben mit einigen AMD-Leuten der oberen Ränge gesprochen, und sie haben dieses Gerücht bestätigt. Daher wird der R600, der in künftigen Tagen in den Ladenregalen liegen wird, in 65 nm sein und um ein Drittel weniger Energie verbrauchen als der 80-nm-Grafikprozessor.
http://de.theinquirer.net/2007/03/16...von_ati_g.html
CeBIT: MSI enthüllt DX10-Geheimnisse von AMD und Nvidia
PR-Leute von AMD erkundigten sich gestern bei Journalisten, ob es denn stimme, dass MSI die RV610- und RV630-Chips enthüllt hat. Wir können das jetzt mit einem klaren Ja beantworten.
Doch MSI hörte damit noch nicht auf. Die Firma zeigte ganz offen Nvidia Geforce 8600GT und 8500GT. Daher ist MSI der einzige Laden in diesem Häuserblock, der jede Grafikkarte zeigt, die in den Monaten April und Mai auf den Straßen angeboten wird.
Und damit hörte MSI immer noch nicht auf. Die Firmenvertreter zeigten G84M und G86M, also die mobilen Teile, und dazu noch AMDs Angebot für den breiten Markt, den RV630M. Es ist klar zu sehen, dass der G86M-Chip ganz anders aufgebaut ist als die Desktop-Version, während der G84M-Chip dem Desktop-Gegenstück verdächtig ähnlich sieht.
In diesem Beitrag zeigen wir die Desktop- und auch die mobilen Varianten sowohl von AMD als auch von ATI. Also bitte dranbleiben, es folgen eine Menge Bilder. Vorausschicken müssen wir noch, dass es sich hier nicht um Referenz-Designs handelt.
AMD RV610 HDMI
nett
http://de.theinquirer.net/2007/03/17...x10geheim.html
Und was bedeutet das ansonsten noch für uns, außer ne billigere Stromrechnung und höher Übertaktungsmöglichkeiten ??
Möglicherweise wird auch die Die-Größe verkleinert wodurch auf einem Waver mehrere Chips hergestellt werden können. Das kann auch zu kleineres Preisen führen.
Crossfire-Physik: bis zu 10 Mal schneller als CPU?
AMD demonstrierte auf der Cebit eine Physik-Demo auf Basis von Havok FX. Havok FX ist eine neue Version der Physikengine der Firma Havok, die eine Beschleunigung von Effektephysik durch Grafikkarten erlaubt. Das erste Spiel mit Havok FX wird nach bisherigem Kenntnisstand Hellgate: London sein, das im Juni erwartet wird. Nvidia und AMD unterstützen mit ihren Multi-Grafiklösungen Havok FX.
Die Physikdemo von AMD zeigte eine Szene, bei der unterschiedliche Türme aus Mauersteinen aufgebaut werden, die dann von einer Kugel zum Einsturz gebracht werden. Die Szene wurde einmal per CPU berechnet, einmal per Crossfire offenbar mit zwei X1900 XTX auf einem RD580X-Mainboard. Leider konnten wir nicht herausfinden, welche Hardware genau verwendet wurde. Auf dem PC, bei dem die CPU die Physik berechnete, lagen die Fps nur bei 3-10. Auf dem anderen PC mit Crossfire-Physik lief die Szene ungleich flüssiger ab mit Fps zwischen 40 und 100. Die Leistungsunterschiede sind aufgrund der dürftigen Informationen mit Vorsicht zu genießen.
http://www.pcgameshardware.de/?article_id=571782
R600: Exklusive Zusammenarbeit zwischen AMD und Valve?
http://www.pcgameshardware.de/?article_id=571781
Update: Ein kleines Detail der R600-Karten wollen wir Ihnen nicht vorenthalten: Die Karten nutzen bereits den neuen PCI-E-Stromanschluss. Allerdings kommt sowohl der neue, als auch der alte Stromanschluss auf den R600-Boards zum Vorschein. Siehe letztes Bild in unserer Galerie
http://www.pcgameshardware.de/?article_id=571589
da
http://www.pcgameshardware.de/?menu=...=595092&page=1
Ist doch sch**** , da braucht man wieder extra n Adapter :?Zitat:
Allerdings kommt sowohl der neue, als auch der alte Stromanschluss auf den R600-Boards zum Vorschein
Brauchst du nicht. Du kannst auch einen 6-Pol Stecker in die 8'er Buchse stecken.
Sind die anderen auf Masse??
oder der R600 läuft mit 6-Pol einfach langsamer
oder es kommt immer wenn du Windows startes der Fehler das die Graka zu wenig Strom bekommt :wink:
Es wird lediglich etwas mit Spannungsstabilisierung einer besseren Lastverteilung zu tun haben.
Genauso wie man eigentlich auch keinen 6 Pol PCIe Stecker braucht, sondern auch über einen Adapter an einen normalen 4 Pol Molex Stecker anschließen kann oder wie bei den Netzteilen ein 20-poliger Stecker auch in die 24 polige Buchse gesteckt werden kann oder ein 4 poliger P4 Stecker auch in eine 8 polige Buchse passt. :)
Möglich ist alles, aber die Netzteile können ihre Last besser verteilen, wenn sie zusätzliche Stromkreise zur Verfügung haben.
Wenn ich gerade nochmal doof in die Runde fragen darf:
Wann erscheinen die ersten Karten?
Neue Ruby-Demo als Youtube-Video
Screenshot aus dem Youtube-Video
Nachdem wir bereits etliche Details zu Atis neuer Grafikkartengeneration in Erfahrung bringen und auch schon ein paar Screenshots veröffentlichen konnten, die wir auf Bitten AMDs allerdings wieder entfernt haben, ist nun das Sahnehäubchen auf dem R600-Kuchen aufgetaucht.
Ein Youtube-Video einer neuen Ruby-Techdemo ist nun verfügbar. Aber schauen Sie selbst unter Links zum Thema. Mithilfe der Techcrunch-Webseite und dem Video-Lan-Client oder einem anderen Player, der flv-Dateien wiedergeben kann, ist es überdies möglich, das Video auch lokal von der eigenen Festplatte abzuspielen.
http://www.pcgameshardware.de/?article_id=571861
http://www.pcgameshardware.de/?menu=...mage_id=595126
fett
8O :D :mrgreen: :mrgreen: :mrgreen:
Auf der CeBIT 2007 zeigt Enermax erste Netzteile, die bereits die PCI Express 2.0-Spezifikation erfüllen. Mit diesem neuen Standard wird nicht nur die Geschwindigkeit verdoppelt, sondern auch die zulässige Leistungsaufnahme von Grafikkarten auf 300 Watt erhöht.
Hierfür wurde ein neuer Stromversorgungsstecker für Grafikkarten definiert, der für die 12V-Spannungsversorgung zusätzlich zu den bisherigen 3x2-Pin-Stecker einen weiteren Anschluss mit 4x2 Pins vorsieht. Das von Enermax ausgestellte Galaxy DXX 1000 CrossFire kann nicht nur mit 1000 Watt auftrumpfen, sondern weiß auch die neuen Grafikkarten mit Strom zu versorgen. Das Netzteil besitzt insgesamt fünf Kabel mit 3x2 Pins und könnte somit fünf klassische Grafikkarten betreiben, die jeweils eine 3x2-Pin-Stromversorgung für PCI Express for Graphics (PEG) vorsehen. Von diesen Steckern können zwei mit Hilfe einer 2x1-Pin-Leiste in einen PCI Express 2.0-Stecker umgewandelt werden. In dieser Konfiguration werden zwei PCI Express 2.0-Grafikkarten (2x 300 Watt) und ein PCI Express 1.0-Pixelbeschleuniger (1x 150 Watt) unterstützt.
Fire
Auch sonst kann sich das Netzteil sehen lassen. Das Netzteil kann bis zu 24 Laufwerke mit Strom versorgen. Außerdem bietet es fünf unabhängige 12-Volt-Rails und erfüllt damit die Spezifikation EPS12V 2.92, die Ende des Jahres von Intels Stoakley-Plattform (Xeon DP der nächsten Generation, Bensley-Nachfolger) benötigt wird. Das Netzteil bietet erstmalig eine extra Arbeitsspeicher-Stromversorgung für Systeme auf Basis der neuen Intel-Plattform. Diese zusätzliche 2x2-Pin-Stromversorgung (12 Volt) ist für Systeme mit 16 DIMM-Steckplätzen und einem Arbeitsspeicherausbau zw. 32 und 64 GB vorgesehen. Hier zeigt sich der Stromhunger der hitzköpfigen FB-DIMMs, die pro Modul bis zu 5 Watt verschlingen.
Enermax verspricht beim Galaxy DXX 1000 CrossFire eine Effizienz von 80 bis 85 Prozent im Lastbereich zw. 20 und 100 Prozent. Ein Modell mit 850 Watt Leistung ist ebenfalls angekündigt. Weitere Information hält das Datenblatt bereit.
PCI Express 2.0 wird unter anderem mit ATis kommender R600-Grafikkartengeneration (Radeon X2900/2800-Serie) Einzug halten. Intel wird hierfür im dritten Quartal 2007 den X38 (Bearlake-X) präsentieren. ATi hat den RD790 in der Hinterhand und nVidia soll mit dem laut Gerüchten für Ende Sommer geplanten nForce 7 auch nicht lange auf sich warten lassen. Bei SIS ist der Standard für 2008 auf der Roadmap.
http://www.computerbase.de/news/hard...teile_pcie_20/
also für mich sieht das aus wie ne normale Videosequenz aus irgendnem Game!!!Zitat:
Zitat von xeonsys
AMD feiert den R600 in Afrika
Es werden heiße Nächte in Tunesien sein. Die große Show zur Markteinführung einer neuen GPU-Generation findet vom 23. bis zum 25. April in der tunesischen Hauptstadt Tunis statt.
AMD wird zwei Tage lang die ganzen neuen Produktlinien von mobilen und Desktop-GPUs vorführen. Durch die gleichzeitige Vorstellung der Einsteiger-, Mainstream- und High-End-Versionen wird das Ereignis zur ersten Queerbeet-Markteinführung einer kompletten neuen Produktgeneration durch einen Grafikchip-Hersteller.
Die komplette Markteinführung heißt im übrigen auch Gaming, Video und Stream-Computing: Radeons, FireStreams und die Stream-Prozessoren.
Wir sind ziemlich sicher, dass AMD die R600-Chips aus der ursprünglichen Produktions-Charge zeigt - die aus der 80-nm-Fertigung. Der R600 ist ein 80-nm-Chip auf Grafikkarten mit GDDR3-Speicher. Unsere Quellen informieren uns jedoch weiterhin darüber, dass ein späterer - der "Produktions"-Chip - auf einem geschrumpften Die beruhen wird.
Ja, wir sprechen von einem 720-Millionen-Transistoren-Chip, der drüben bei TSMC in einem 65-nm-Herstellungsverfahren entsteht. Wann der 65-nm-Chip aus der Deckung kommen wird, bleibt noch abzuwarten.
http://de.theinquirer.net/2007/03/2..._in_afrika.html
weitere R600-Fotos aufgetaucht
Sowohl bei der VR-Zone als auch bei Tweaktown sind weitere R600-Fotos aufgetaucht. Die Bilder bei Tweaktown sind zum Teil unkenntlich gemacht, wohl um die Quellen aus denen die Karte stammt zu schützen.
Mit der Häufung von R600-Bildern in letzter Zeit scheint es nun eine Chance auf einen Launch in nicht allzu ferner Zukunft geben. Die Treiber sollen allerdings erst mit Catalyst 7.5 im Mai final werden, im April wird es nur Beta-Treiber geben.
Sollte sich die derzeitigen Gerüchte bewahrheiten wird der R600 erst nach der 8800 Ultra von Nvidia auf den Markt kommen - keine gute Startposition für AMD/Ati.
http://www.pcgameshardware.de/?article_id=572219
Cebit 2007: R6x-Generation mit dediziertem Videoprozessor
In der R600-Generation will AMD auf den Ati-Radeon-Chips auf eigene Videoprozessoren setzen.
Wie AMD auf einer Pressekonferenz auf der Cebit zeigte, setzt man bei den Chips der R(V)6x-Generation nicht mehr auf eine Videobeschleunigung über die Pixelshader. Stattdessen kommt eine spezialisierte Videoverarbeitungseinheit zum Einsatz.
Grund: Die kleineren Chips, welche über deutlich weniger Shadereinheiten verfügen als die Top-Modelle, wären wahrscheinlich mit der Darstellung mehrerer HD-Datenströme und gleichzeitigem Rendering von Vistas Aero-Glass-Oberfläche überfordert.
Dank des UVP (Universal Video Processor) soll jeder der neuen Chips in der Lage sein, problemlos HD-Video und Aero-Glass zugleich anzuzeigen.
http://www.pcgameshardware.de/?article_id=571980
VR-Zone testet R600 auf CeBIT
Auch wenn AMD auf der CeBIT eine große Geheimniskrämerei rund um den R600 veranstaltete, ist es unseren Kollegen von VR-Zone gelungen – im Gegensatz zum Rest der schreibenden Zunft – einen ersten Blick auf das kommende Flagschiff der Kalifornier zu werfen.
Aber nicht nur eine ausführliche Fotosession war dem asiatischen Online-Magazin vergönnt, auch ein 3DMark06-Durchlauf konnte still und heimlich durchgeführt werden. Antreten musste der R600 dabei gegen eine GeForce 8800 GTX. Als Prozessor kam ein Core 2 Extreme X6800 zum Einsatz.
Das erzielte Ergebnis ist eher ernüchternd. Während die GeForce 8800 GTX die obligatorischen 9500 Punkte in 1600x1200 an den Tag legte, war die X2900 XTX mit 9700 3DMarks nur marginal schneller und das bei einem Chiptakt von sage und schreibe 800 MHz.
Sicherlich sollte man das Ergebnis nicht zu sehr auf die Goldwaage legen, da der 3DMark06 nur einer unter vielen Benchmarks ist und nicht unbedingt die Performance von Spielen widerspiegelt. Hinzu kommt, dass sich die Treiber noch im Beta-Stadium befinden und somit noch Optimierungspotential vorhanden ist.
Weiter heißt es in dem Bericht auf VR-Zone, dass der 65nm Prozess bei TSMC wohl doch nicht so gut läuft, wie angenommen. Die Ausbeute der ersten R600 Wafer war offensichtlich relativ gering, was den Launch weiter verzögern könnte oder die Verfügbarkeit anfangs stark beschränkt. Von 20.000 Stück ist bis zum Launch die Rede, was vermutlich zu wenig ist, um den Markt zu befriedigen.
http://www.k-hardware.de/news.php?s=&news_id=6441
CeBIT : Retail R600XTX Pictured & Benchmarked]
http://www.vr-zone.com/?i=4830
[Water-Cooled X2900 XTX Card Pictured]
http://www.vr-zone.com/index.php?i=4854
Qimonda streicht GDDR4: Favorit nun GDDR5
GDDR4 biete gegenüber GDDR3 fast keine Neuerungen. Die Stromaufnahme des neuen Speichertyps konnte aber nicht so weit nach unten geschraubt werden, dass sie für Low-Voltage-Hardware interessant sein könnte. Feurle äußerte sich zu dem Thema mit dem passenden Statement: „It is not really a selling feature presently“. GDDR5 soll die Schwächen beheben. Gleichzeitig wird die Performance um etwa das Dreifache gegenüber dem heutigen, 800 MHz (DDR 1600) schnellen GDDR3-Speicher ansteigen. Außerdem wird es weitere neue Features geben, sagt Feurle voraus. Die Klassifizierung und entsprechende Spezifikationen für einen neuen Standard sollen von der JEDEC bereits im Sommer 2007 fertig gestellt werden. Erste Samples von GDDR5 will Qimonda Ende 2007 vorstellen, die Produktion soll 2008 starten.
http://www.computerbase.de/news/hard...favorit_gddr5/
Ist dir eigentlich bewusst, dass man News nicht einfach hier rein kopieren darf ? Schreib die lieber mal selber !Zitat:
Zitat von xeonsys
Falls du der aus dem Doom3-Forum bist, hier hab ich was:
Vegerich:
Zitat:
"Hallo lieber dummer hässlicher Xeonsys,
Wie du weißt hassen dich alle aus dem Doom3 Forum wie auch aus dem Quake 3 Forum (Quake 3 ist das beste Spiel !!!!).
Du bist einfach nur ein dummer Newsspammer,du hast in deinen Lesezeichen immer so schwule Newsseiten wie zB Stern.de oder so und wenn du mal was unsinniges oder dummes findest (genau sowas wie dich) dann kopierst du das in diverse Foren rein! Und das nicht nur in einen Post sondern in mehrere auf einmal!!!
Deshalb bitten wir dich,bringe dich und deine Familie um!"
omg wie kann man nur so dumm sein und sowas schreiben wie in dem zotat unten!!!!bringe dich und deine familie um...ist dir klar was das heißt?!?!
wie dumm muss man sein
da muss man ja gar nich mahr nachdenken
Mods, löscht das hier mal bitte und am besten banned den gleich mit :evil: :evil: also mit meinem die 3 Posts..
Wenn ich eins nicht abkann, sind es Leute die sowas nicht wahrnehmen oder nicht wahrnehmen können, was damit ausgedrückt wird!
Mein Gott....da werde ich regelrecht aggressiv!!
Das war nicht von mir, ich hab nur etwas zitiert.
Ob du aggressiv wirst, interessiert doch keine Sau ! :D
Ja und? Sowas gehört hier nicht hin! Ließ dir mal die Forenregeln durch! Es ist diskriminierend.Zitat:
Das war nicht von mir, ich hab nur etwas zitiert.
Und du warst ja dafür, ansonsten hättest du das nicht gepostet.Zitat:
Falls du der aus dem Doom3-Forum bist, hier hab ich was:
Jetzt beruhigt euch mal wieder.
Ich wollte xeonsys ohnehin schon einmal anschreiben, wegen seinen ganzen Newspostings. Das ist ja hier keine News-Seite, sondern ein Forum in dem es um Crysis geht.
Man kann ja ab und zu mal einen Link zu einer News posten und dazu selbst ein paar Worte verfassen, aber hier ständig nur Newsberichte von anderen Seiten zusammenzusuchen ist nicht das, was wir wollen.
Ich werde xeonsys deswegen auch noch einmal per PM ansprechen.
Bisher hatte ich nur noch keine Zeit/Lust dazu. ;)
Bin ich auch der Meinung ! Ihr werdet sonst noch richtig aggressiv. 8)
Es hat mich schon ein bisschen gernervt, weil ich selbst News schreibe in einem Forum und dann jemand einfach immer News hier ins Forum kopiert und ich mich förmlich "durchkämpfen" muss durch die ganzen Newsposts.
So nach dem Motto "The higher your postcount, the larger your penis".
:wink:
Und weil es eine Crysis-Seite ist, kriegen wir die neusten News auf der Startseite und wie du schon gesagt hast, ist das hier auch ein Crysis-Forum. Nur komplett ohne andere News wäre es auch langweiliger für einige, aber zu viele News belästigen andere. Aber er ist halt ein News-Spammer der gröbsten Sorte. :twisted:
WoW.
Glaubt ihr Hier ist was dran?
Demnach soll die HD 2900 XT (Sie soll jetzt nciht mehr X 2900 XT heißen) sage und schreibe 320 Streamprozessoren besitzen. Kann das wirklich sein?
Das wäre ja echt der Hammer. Vorrausgesetzt natürlich, dass die auch so leistungsfähig sind, wie die der G80. Es bringt ja nichts mehr zu haben, wenn sie nur halb so schnell getaktet sind.
wow @noxon aber mehr bedeutet auch erleichterung :D
Wenn die Infos wirklich direkt von Amd kommen, warum auch nicht?Zitat:
Zitat von noxon
Würde mich für Ati freuen (<---Fanboy :P )
Ach und noxon (oder ein anderer mod) könnte man den anderen r600 Thread schließen? Einer reicht.
http://www.computerbase.de/news/hard..._r600-familie/
das habe ich gerade gefunden!
zitat:...In Sachen Spieleperformance, welche eine türkische Internetseite mittels einer Crysis-Demo ermittelt haben will, stellt die Radeon HD 2900 XT die GeForce 8800 GTX in den Schatten...
sachen gibts. :roll:
Topic Fix
So.
Die Ersten haben schon gegen das NDA verstoßen und einen Benchmark durchsichern lassen.
2900 XT vs. 8800 GTS
hmm. also da die 2900 soweit ich weiss die highend karte werden soll, ist die aber ziemlich low, zumindest nach dem benchmark, immerhin ist die 8800 GTX / GTX 6 monate alt !!!Zitat:
Zitat von noxon
Nur in HL2 haben sich unterschiede von gut dem Doppelten an Punkten gezeigt...
Mal gucken. Getestet wurde aber auch XT und nicht die XTX
em das is noch net die richtige highend karte...es wird noch die hd 2900xtx geben mit 1gb arbeitsspeicher!!
Also die XTX lässt sich mit der GTX vegleichen und die hier getestete XT mit der GTS.
Mal ne kurze Frage. Weiß eigentlich jemand, wann die Karten jetzt released werden???
Gruß, Christoph.
mitte mai laut gerüchte, aber welches jahr, das weiß leider noch keiner :wink: :lol:Zitat:
Zitat von Die_Chriele
PS: hab gerade im netz gelesen das der neue AMD 50 % schneller sein soll als intel sein top produkt, wenn das mal nacher nicht genau so ausschaut wie bei der R600 & 8800, ich sags ja AMD & ATI geht noch pleite *gg* :wink: :lol:
back to topic
R650 gegen G90 - Wer macht das Rennen?
Sowohl Nvidia als auch Ati werden bald die 65 Nanometer-Fertigung einführen. Interessant ist dabei die Frage, welcher Chip schneller, effizienter und stabiler sein wird.
Nvidias G90 mit seiner stabilen Architektur und den wahrscheinlich höheren Taktraten? Oder doch Atis R650, der wahrscheinlich "nur" eine Weiterentwicklung des R600 sein wird, dessen thermische und energietechnischen Leistungsprobleme aber dank 65 Nanometer Produktion zum Grossteil behoben werden dürften?
Aktuell heißt es, dass beide Chips Ende dieses Jahres veröffentlicht werden sollen. Schaut man sich aber die Verzögerungen an, mit denen speziell Atis R600 in den letzten Monaten zu kämpfen hatte, so muss diese Meldung mit einer gewissen Skepsis betrachtet werden.
da bin ich ja mal gespannt :wink:
Du hast vergessen zu schreiben, dass die News von www.pcgameshardware.de ist ;)
Die News find ich übrigens völlig sinnlos, man sollte nicht zum spekulieren anfangen wenn es noch nichtmal der r600 released wurde...
ich kann mir gut vorstellen, dass die Jungs von PCGHW etwas mehr wissen, aber nichts sagen dürfen :D
hmhm jungs schafft den die 8800gtx im 3dmark06 nicht 10'000 punkte? dan hat die hd 2900xt die gtx ja überholt oder nicht? und finale treiber für den ati gibts ja noch net.. heisst also performance schub gibts weiter..Zitat:
Zitat von noxon
Zitat:
Zitat von EL_CUPE
hmm, die XT wurde mit keiner GTX getestet sonndern mit ner GTS,und war nichtmal 5 % schneller.
Die GTS schafft mit nen E6600 ca 10000, die GTX ca 12000 !!!
ich hab knapp 13000 allerdings nen übertakteten E6600 :wink:
ach, das ist eine reine Treiberangelegenheit...
sobald geniale Treiber rauskommen, könnte sich das Blatt wenden...
es giebt wieder neues zu der R600 XTX, leider nix gutes, sihet hier !!!
Neue R600-Benches: HD 2900 XTX bis zu 50% langsamer als 8800
Nachdem Dailytech bereits eine AMD HD 2900 XT mit einer 8800 GTS verglichen hat, wurde nun eine HD 2900 XTX mit einer simulierten 8800 Ultra von Nvidia verglichen dazu wurde eine 8800 GTX auf 650 MHz Core-Takt und 1 GHz Speichertakt übertaktet.. Das Ergebnis: die AMD-Karte liegt maximal knapp 50 Prozent hinter dieser 8800 "Ultra".
Zwar ist der Rückstand nur unter Company of Heroes so groß, die HD 2900 XTX kann aber auch in den anderen Benchmarks, die Dailytech gemacht hat, nicht gegen eine 8800 Ultra bestehen: In keinem der getesteten Spiele (Company of Heroes, Fear, Half Life 2: Episode 1 und Oblivion) schafft es die Karte, zur Konkurrenz von Nvidia aufzuschließen. Immerhin scheinen die Treiber für die HD 2900 XTX final zu sein, auf jeden Fall gibt Dailytech an, über solche Treiber für die Benchmarks zu Verfügen (Catalyst v8.361).
Dies ist vielleicht auch einer der Gründe, warum die XTX-Variante von AMD bislang immer abgestritten wurde - ist die Karte tatsächlich langsamer als die 8800 Ultra, kann AMD diese kaum als High-End-Modell am Markt positionieren.
quelle:pcgames-hardware
Topic Fix
Na ich weiß nicht, was ich von den Benches halten soll. In einigen Messungen ist die XTX langsamer als die XT und in den anderen ist sie kaum schneller.Zitat:
Zitat von paraphonatic
Irgendwie sieht das für mich so aus, als ob irgend etwas anderes die Leistung limitiert. Vielleicht wird der Prozessor noch zu stark beansprucht und deswegen giibt's keine besseren Frameraten.
Ich warte mal ab, bis es mehr Benchmarks gibt. Auf solche einzelnen Benches kann man sich nciht wirklich verlassen.
Ich erinnere nur mal an den Benchmark von vor ein paar Monaten, in dem der R600 einen riesigen Vorsprung gegenüber einer 8800 GTX hatte.
ich glaube die HD 2900XTX schneidet so schlecht ab:
1. wegen den (Beta-)Treibern
2. Gab es ja mal Probleme mit dem 1Gb Gddr4 Ram so dass sie schlechter war als die XT
nutzt natürlich Geforce aus und sagt die Ultra ist schneller
Meine Meinung != Eure Meinung
daher denkts euch wies am besten für euch ist :D
war doch klar dass da was im Bsch ist.. Glaube nicht dass die r600 wesentlich schneller als ne 8800 GTX oder ultra sein wird..
Niemand lässt seine produkte freiwillig auf den markt.. das wäre blödsinn weil marktanteile verloren gehen.. grade jetz wo auch die mittelklassekarten dx10 drauf haben seit 8600 GT/GTS..
Irgendwie scheint es da Probleme zu geben bei AMD..
Anders lässt sich das doch gar net erklären..