Hier mal was von einem Hersteller:
http://www.hisdigital.com/html/product_ov.php?id=304
Takte sind leider nicht erwähnt
dafür das es sich um einen 80nm statt angenommen 65nm GPU handelt
Druckbare Version
Hier mal was von einem Hersteller:
http://www.hisdigital.com/html/product_ov.php?id=304
Takte sind leider nicht erwähnt
dafür das es sich um einen 80nm statt angenommen 65nm GPU handelt
Hehe. Dumm gelaufen für His. Das NDA ist noch nicht gefallen. Die haben die Seite ganz schnell wieder offline genommen, aber hier nochmal der Inhalt für alle die, die's verpasst haben.
http://img478.imageshack.us/img478/4903/his1as5.jpg
http://img384.imageshack.us/img384/6908/his2zs1.jpg
http://img483.imageshack.us/img483/8017/his3va6.jpg
Das Spiel, dass dabei ist, soll übrigens HL² Ep2 sein.
Zum Preis steht da leider nichts, aber angeblich soll einem Shop in Holland vor einiger Zeit ein ähnliches Malheur passiert sein und der soll die Karte für 380 EUR zur Vorbestellung angeboten haben.
Valve Black Box=
HL² Ep2+Team Fortress2+Portal
ehhhh leutz mal beabsichtigt dass der speicher von der karte völlig im ar*** is ?????????????? in manchen benchs is die xtx sogar noch langsamer als die xt wegen dem kapputten ram was vorallem der grund dafür ist dass die bis september/november(bis wann auch immer) verschoben wird .
wenn man sich die daten ansieht (150% mehr streaming-prozessoren, 30% mehr ram etc. als gtx ) kann man sich doch die THEORETISCHE leistung ausdenken.
un glaubt ihr wirklich dass die sich soviel zeit lassen, unter so einem druck von seiten nvidia stehen, un dann das ganze so vermurksen ? also ich persönlich glaube das kaum. denke die haben schon noch ihr ass im ermle..xtx(ati)+barcelona(amd) sag ich nur :twisted:
nein, ich achte mind seit der letzten rechtschreibreform nich mehr auf groß/kleinschreibung :D
Was meinst du mit kaputtem Ram?
Und die Anzahl der Streamingprozessoren ist ziemlich irrelevant. Es kommt auch darauf an, wie hoch die getaktet sind. ATis sind viel langsamer getaktet, als die von nVidia. Also brauchen die auch mehr Einheiten um die gleiche Leistung zu vollbringen.
Des Weiteren unterscheiden sich die Shader auch noch in diversen anderen Faktoren, die sie unterschiedlich Effizient machen.
Du kannst also nicht die reinen Zahlenwerte vergleichen.
PS: Gewöhne dir trotzdem an die Groß- und Kleinschreibung zu beachten. Di hat sich ja durch die neue Rechtschreibreform nicht geändert. Also bitte.
So. Nun haben die Jungs von CB auch ihen Test der HD 2900 T reigegeben.
Sieht nicht besonders gut aus. Besonders, wenn man etwas höhere AA und AF Settings verwendet versagt der R600 total. Der G80 bricht dort weit weniger ein als der R600 und liefert zudem noch eine bessere Bildqualität, ist dabei leiser und verbraucht weniger Strom.
Es spricht nicht wirklich viel für die 2900 XT. Wirklich schade für ATi/AMD.
PS:
Was an dem Artikel auch ganz schön ist, dass ist der erste Teil in dem die Technik erklärt wird. Der ist wirklich umfassend und man bekommt einen guten Einblick in die Technik, die dahinter steckt.
Da muss ich nochmal fragen, und zwar doof:
Ab wann kann man die ATI/AMD DX10 Karte(n) im Laden um diie Ecke erwerben?
NOXON war schneller, *schnief
hab genau diesen artikel auchgelesen und ich muß sagen nach mehr als nem halben jahr ist das echt enttäuschend für ATI/AMD da werden wohl weiterhin rote zahlen geschrieben, wenn man bedenkt das die Karte nich annähernd an die GTX kommt trotzt der enorm hohen taktraten und der hohen speicheranbindung (512 satt 368bit) auch die Bildquali scheint nich gerade berauschend zu sein, einziger pluspunkt meiner meinung nach ist das der Hardware support für D3D11 da ist. Nur wer braucht ihn jetzt schoin wenn nich mal D3D10 richtig im schwung ist?!
naja meie meinung ein paar euros mehr bezahlen und bei der 8800GTX zugreifen!!! Bin voll auf zufrieden mit dieser Karte!!!
gretz Dapalme
Sehe ich ganz genauso.
Warum die eine Tessellation-Einheit eingebaut haben ist mir auch nicht ganz klar, obwohl es daran liegen könnte, dass der Xenos diese Einheit auch schon hat und sich ATi dachte: "Ach was solls. Packen wir die auch noch rein."
Trotzdem kann ich mir denken, dass die den Chip nur unnötig größer, teurer und stromhungriger macht.
Mich würde auch einmal interessieren, was ATi so ein Chip in der Produktion kostet. Ich wette, dass der G80 deutlich billiger ist und ATi bei Weitem nicht so viel Gewinn machen wird, wie nVidia.
Worüber ich aber am Meisten enttäuscht bin, dass ist das schlechte Abschneiden bei hohen Qualitätseinstellungen. Das sinkt die Performance ja total in den Keller, während es sich beim G80 noch in Grenzen hält. Bei 4xAA und 8xAF bleiben dot nur noch ~40% der Leistung übrig, während der G80 noch ~60% bietet.
Ich dachte eigentlich, dass der hohe Speicherdurchsatz hier helfen würde, aber dem scheint wohl nicht so zu sein. Außerdem scheint das AF nicht so gut zu sein, wie beim G80.
Ich bin auch mal auf wetere DX10 Benchmarks gespannt. Dort sollen ja angeblich die Stärken des R600 liegen. Bei DX9 hätte er laut ATi in einigen Bereichen Nachteile sich in Dx10 aber als Vorteil erweisen würden. Zum Beispiel beim HDRR.
Die Geometry-Shader, die natürlich auch nur in DX10 Titeln zum Einsatz kommen, sollten auch erheblich besser sein, als beim G80. Es mag also sein dass der R600 bei echten DX10 Spielen wirklich besser ist, aber momentan hat man einfach noch viel zu viel DX9 Spiele, sodass es wichtiger ist, dass man dort genügend Leistung hat.
Naja. Waten wir es aber noch einmal ein wenig ab, bis ATi finale Treiber herausbringt. CB meinte ja auch, dass sie während des Tests noch einen neuen Beta Treiber bekommen hätten und sich dadurch unter Oblivion die Performance deutlich verbessert habe.
Ich könnte mir vorstellen, dass man besonders beim Tweaken des Dispatch Processors noch einiges an ungenutzter Performance herausholen kann. Wunder erwarte ich dort aber auch nicht.
Verfügbar ist die Kate aber soweit ich weiß noch nicht. Eine wurde, glaube ich schon in einem Schweizer Shop gesichtet, aber ich weiß nicht mehr genau wo.
Zitat:
Zitat von noxon
Gibts denn da ein offizielles Datum für den release?