PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI RV770 Infos/Spekulationen



Seiten : 1 [2] 3 4

noxon
26.06.2008, 22:03
Entwicklung kostet Geld und woher hatte ATI bitteschön das Geld, um sowas zu verwirklichen?Geld kostet es immer. Die Frage ist, welche Investition sich eher auszahlt.


Ich denke, das mit dem zwei Chips on DIE oder on Package ist beim R700 eher noch Wunschdenken oder war zumindest so geplant, dann fehlten aber die finanziellen Mittel.Wie kommst du darauf, dass das überhaupt mehr Kosten verursachen würde? nVidia bastelt an einem 1,4 Mil. Transistor-Monster und hat mit jeder Menge Problemen bezüglich Größe, Verlustleistung, Blindströme und Strukturbreiten zu kämpfen, während ATi es geschaft hat (wahrscheinlich auch mittels AMDs Know How) einen kleinen aber denn noch effektiven Chip herzustellen, der sich dank einer neuen CF-Bridge einfach mit mehreren anderen Kernen koppeln lässt.
Warum muss das teurer sein? Es könnte sogar das Gegenteil der Fall sein. Wenn das mit den 45nm tatsächlich stimmt, dann sind die Chips nur noch halb so groß, wie die GT200'er und die Ausbeute steigt erheblich, wodurch die Chips wirklich günstig werden. Hinzu kommt, dass der Ausschuss aufgrund der geringeren Transistoranzahl geringer ausfallen dürfte.



Dass die HD4870 nur deshalb fast so schnell ist wie die GTX 280, verdankt sie den 800 Stream Prozessoren bzw. den 160 (5D) Alu Shadern und dem schnellen GDDR5 Speicher.Spielt das eine Rolle, warum sie so schnell ist? Das sie so schnell ist und trotzdem weniger negative Effekte aufweist zeigt doch, das ATi auf dem richtigen Weg ist.


BTW:
Es soll bereits ein "Hobby-Programmierer" geschaft haben die PhysX Engine jetzt schon auf einer 3800 zu beschleunigen.
PhysX-Beschleunigung auf ATi Radeon HD 3800? (http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juni/physx-beschleunigung_ati_radeon_hd_3800/)

Wenn der das kann, dann wird es wohl sicher nicht mehr lange dauern, bis es offiziell von ATi unterstützt wird. Theoretisch müsste ATi dann auch bei den Physikberechnungen nVidia davon ziehen mit seinen theoretischen 1,2 TFlops.

HunT
26.06.2008, 22:28
Wie kommst du darauf, dass das überhaupt mehr Kosten verursachen würde? nVidia bastelt an einem 1,4 Mil. Transistor-Monster und hat mit jeder Menge Problemen bezüglich Größe, Verlustleistung, Blindströme und Strukturbreiten zu kämpfen, während ATi es geschaft hat (wahrscheinlich auch mittels AMDs Know How) einen kleinen aber denn noch effektiven Chip herzustellen, der sich dank einer neuen CF-Bridge einfach mit mehreren anderen Kernen koppeln lässt.
Warum muss das teurer sein? Es könnte sogar das Gegenteil der Fall sein. Wenn das mit den 45nm tatsächlich stimmt, dann sind die Chips nur noch halb so groß, wie die GT200'er und die Ausbeute steigt erheblich, wodurch die Chips wirklich günstig werden. Hinzu kommt, dass der Ausschuss aufgrund der geringeren Transistoranzahl geringer ausfallen dürfte.

Wie kommst du darauf, dass ATI die HD4870X2 in 45nm baut? Soweit ich mitbekommen habe, ist davon der R800 betroffen, der vielleicht sogar in 40nm gebaut werden soll. Vom R700 in 45nm war nie die Rede.


Spielt das eine Rolle, warum sie so schnell ist? Das sie so schnell ist und trotzdem weniger negative Effekte aufweist zeigt doch, das ATi auf dem richtigen Weg ist.

Und ob das eine Rolle spielt! Vielleicht nicht für den Endverbraucher, aber für Interessierte ist umso wichtiger durch die gegnerische Architektur herauszufinden, wo die eigenen Fehler lagen.

Das einzige, was Nvidia beim GT200 falsch gemacht hat, war eben die Bauweise in 65nm. Der Chip an sich ist leistungsstärker als der RV770, denn man sollte sich nicht von Marketing verwirren lassen und denken, ATI GFLOPs = Nvidia GFLOPs. Und alle schreien sofort, yeah, ATI kanns besser, weil sie über 1 TFLOP erreichen...juhu. Totaller Quatsch! Schließlich sind Nvidia Alu Shader auch nicht gleich ATI Alu Shader.

Oder beurteilst du die Leistung einer Graka nur nach der Größe des VRams, so wie die meisten Laien das tun?

Nvidia hat eine super Karte mit der GTX 280 hingestellt. Fehler war nur die größere Fertigung in 65nm und der etwas hohe Preis.


BTW:
Es soll bereits ein "Hobby-Programmierer" geschaft haben die PhysX Engine jetzt schon auf einer 3800 zu beschleunigen.
PhysX-Beschleunigung auf ATi Radeon HD 3800? (http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juni/physx-beschleunigung_ati_radeon_hd_3800/)

Wenn der das kann, dann wird es wohl sicher nicht mehr lange dauern, bis es offiziell von ATi unterstützt wird. Theoretisch müsste ATi dann auch bei den Physikberechnungen nVidia davon ziehen mit seinen theoretischen 1,2 TFlops.

Tja, mal sehen wie Nvidia darauf reagiert? Mit einer Geldstrafe oder war das auch so geplant? Nvidia geht es wohl darum, dass soviele PhysiX unterstützen wie möglich, um Intel eins auszuwischen. Da kann sich Nvidia nur darüber freuen, dass auch ATI mit auf diesen Zug aufgesprungen ist.

noxon
26.06.2008, 22:44
Wie kommst du darauf, dass ATI die HD4870X2 in 45nm baut?Wie gesagt. Sind Gerüchte und ist nicht bestätigt.
R700 is a 45 nanometer chip (http://www.fudzilla.com/index.php?option=com_content&task=view&id=4348&Itemid=1)
R700 is indeed a multi core device (http://www.fudzilla.com/index.php?option=com_content&task=view&id=4327&Itemid=1)

Fudzilla ist natürlich nicht die zuverlässigste Quelle, aber ab und zu haben die auch recht. Ich kann mir das mit den 45nm gut vorstellen. Schließlilch haben die AMD zu ihrer Seite und die kennen sich mit dem Fertigungsprozess schon ganz gut aus.



Oder beurteilst du die Leistung einer Graka nur nach der Größe des VRams, so wie die meisten Laien das tun?Nö. Natürlich nicht und auch die TFlops sind natürlich vergleichbar, aber in Sachen Physik könnten die 800 Streamingprozessoren vs. 240 Shadereinheiten schon eine Rolle spielen. Ich denke, dass Physikberechnungen viel besser skaliert werden können, als Grafikberechnungen und wenn man das noch speziell an die 5D shader anpasst, dann kann ATi unter umständen schneller sein, aber das warten wir am Besten mal ab.

Sollte der R700 aber wirklich ein Chip mit zwei RV770 Kernen on DIE sein und über 1600 Streaming Prozessoren verfügen, dann steht wohl außer Frage, wer schneller rechnen kann.



Tja, mal sehen wie Nvidia darauf reagiert? Mit einer Geldstrafe oder war das auch so geplant? Nvidia geht es wohl darum, dass soviele PhysiX unterstützen wie möglich, um Intel eins auszuwischen. Da kann sich Nvidia nur darüber freuen, dass auch ATI mit auf diesen Zug aufgesprungen ist.Anscheinend ist nVidia ganz heiß darauf, dass ATi mitzieht. ansonsten hätte es die PhysX Engine auch recht schwer sich durchzusetzen.
Trotzdem bin ich etwas erstaunt, denn gerade der PhysX Support bringt nVidia im 3DMark ja giganische Werte ein. Auch wenn diese regelwidrig sind, so achten doch eine Menge User auf diesen Benchmark und kaufen danach ihre Grafikkarte.
nVidia gibt da also einen ganz schönen Vorteil im 3DMark auf nur um ihre Engine durchzudrücken. Vielleicht wissen sie aber auch, dass ihre Treiber niemals zugelassen werden und ihre 3DMark Ergebnisse als ungültig erklärt werden.

Mir soll es recht sein. ATi wird dann die Havok und die PhysX Engine unterstützen und an OpenCL beteiligen sie sich auch. Wer weiß. Vielleicht implementieren sie auch CUDA. So wie ich das verstanden habe geht das wohl mit der PhysX Implementierung mit einher.

HunT
26.06.2008, 23:01
Warten wir es ab! Natürlich können die 800 Stream Prozessoren mehr Leistung für Physik raushauen. Aber es handelt sich hierbei immernoch um 160 5D Shader. Dass diese gerade bei shaderlastigen Spielen wie Crysis genauso rechnen wie Nvidias 1D Shader, verteilt ATI's 5D Shader nicht gerade viele Vorteile.

Obwohl die HD4xxx mehr theoretische Rechenpower hat, ist sie dennoch nicht schneller als die GTX 280 mit ihren 933 GFLOPs. Was lernen wir daraus? Dass man sich auf theoretische Leistung nicht verlassen sollte.

noxon
27.06.2008, 04:33
Genau so ist es.
Die 5D Shader lassen sich selten optimal ausnutzen, weswegen bei ATi recht viel Rechenleistung ungenutzt bleibt. Physikberechnungen hingegen sind aber viel vorhersagbarer und simpler und lassen sich sicherlich perfekt auf die 5D Shader optimieren, wodurch ATi endlich das volle Potenzial aus ihren Shadern ziehen kann.

Zumindest stelle ich mir das so vor. Beweise habe ich dafür natürlich nicht, aber eigentlich müssten Physikberechnungen effizienter durchgeführt werden können als Grafikberechnungen.

Hans Payne
27.06.2008, 14:04
mal was anderes:

wie siehts eigentlich mit der nächsten generation von ati/nvidia aus?

nvidia hat gaub ich schon gesagt, dass der GT 200 der letzte highend chip ist (wollen in zukunft auf multi-gpu setzten)

wie siehts mit ati aus?

... denn wenn, wie ich denke, demnächst erst mal nichts wirklich p/l-mäßig gutes rauskommt steht dem kauf der 4850 nix mehr im weg :razz:

gruß

Dark9
27.06.2008, 23:08
wie schaut es aus mit dem stromverbrauch?

2x HD4870 im CF modus

2x HD4870x2 im CF modus

Monti
27.06.2008, 23:29
Jungs, nicht streiten. Sondern freuen ist angesagt! Wie wo und wann ist doch egal... wichtig ist nur, dass es Konkurrenz gibt und wir somit wieder nen schönen Preiskampf und gute Produkte erwarten können. Nix is schlimmer wie Monopole...

Dark9
28.06.2008, 01:32
kann mir jemand bitte meine vorrige frage beantworten????

Nixblicker
28.06.2008, 01:37
kann mir jemand bitte meine vorrige frage beantworten????

Hab da was gefunden
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/30/

Dark9
28.06.2008, 06:21
Hab da was gefunden
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/30/
cool.danke

M@rshall15
28.06.2008, 10:18
1GB Variante in Australien :lol: soll für ca. 233€ angeboten werden

http://www.pcgameshardware.de/aid,649315/News/Radeon_HD_4870_Erstes_Modell_mit_einem_GiByte_VRAM _in_australischem_Online-Shop_gesichtet/

Dark9
28.06.2008, 10:39
1GB Variante in Australien :lol: soll für ca. 233€ angeboten werden

http://www.pcgameshardware.de/aid,649315/News/Radeon_HD_4870_Erstes_Modell_mit_einem_GiByte_VRAM _in_australischem_Online-Shop_gesichtet/

danke,sehr sehr gute neuigkeit,mal schnell die beiden Hd4870 (512mb) abbestelle

View My Video (http://de.tinypic.com/player.php?v=2e2h3s5&s=3)

Nixblicker
28.06.2008, 10:46
Hab da mal was gefunden
http://de.youtube.com/watch?v=x2fS9covXBs

sieht net schlech aus ^^

M@rshall15
28.06.2008, 10:48
danke,sehr sehr gute neuigkeit,mal schnell die beiden Hd4870 (512mb) abbestelle

View My Video (http://de.tinypic.com/player.php?v=2e2h3s5&s=3)

würde ich eigentlich nicht machen weil ich glaube kaum das der 1gb Speicher voll ausgereizt wird. Bei der 8800GT war das auch der Fall.

Dein video geht nur 4 sek lang und da steht nur Crysis Wahrhead

CRYSISTENSE
28.06.2008, 10:57
würde ich eigentlich nicht machen weil ich glaube kaum das der 1gb Speicher voll ausgereizt wird. Bei der 8800GT war das auch der Fall.

Du darfst nicht vergessen, dass die GT nur 256bit hatte. Da die 4870 DDR5 hat, kann man das prinzipiell als 512bit betrachten. Deswegen wird die 1GB Version nochmal ordentlich Power bringen (bei hohen Auflösungen zumindest;))

Edit:
Fetter Kühler bei der 1GB http://www.technodiscount.com/webmarchand/produit.php?p_id=12026&paid=4&nid=4

M@rshall15
28.06.2008, 11:22
Du darfst nicht vergessen, dass die GT nur 256bit hatte. Da die 4870 DDR5 hat, kann man das prinzipiell als 512bit betrachten. Deswegen wird die 1GB Version nochmal ordentlich Power bringen (bei hohen Auflösungen zumindest;))

Edit:
Fetter Kühler bei der 1GB http://www.technodiscount.com/webmarchand/produit.php?p_id=12026&paid=4&nid=4

achso ja stimmt :lol: ich spiele eh nur auf 1280x1024 also brauch ich keine 1 GB Variante. Danke das du mich aufgeklärt hast :p

Bei deinem Link geht immer das Diagramm weg, musste ein Screenshotmachen xD

Tommi-lee
28.06.2008, 12:00
HIER BLICKT JA MAN GARNET MEHR DURCH :-DDD

hupss ^^

also wann soll die 1 GB variante in ger rauskommen??

brauche was für wenig geld mit geiler leistung :-P

HunT
28.06.2008, 12:04
Soviel zur großartigen HD4870X2 -> http://www.pcgameshardware.de/aid,649337/News/AMD_R700_Vermeintliche_Bilder_der_Radeon_HD_4870_X 2_aufgetaucht/

Ist zwar nur ein Gerüchte, aber wenns doch stimmt, dann war das mit dem gemeinsamen Zugriff auf den selben Speicher wohl nur Wunschdenken, oder aber erst beim R800 der Fall.

Abwarten, was noch kommt.

EDIT: So wie es aussieht, scheint AMD das Mikroruckler Problem via Treiber lösen zu wollen, nicht über die Hardware. Darum auch die Verschiebung der HD4870X2, obwohl diese ja schon fertig ist.

Dark9
28.06.2008, 13:48
würde ich eigentlich nicht machen weil ich glaube kaum das der 1gb Speicher voll ausgereizt wird. Bei der 8800GT war das auch der Fall.

Dein video geht nur 4 sek lang und da steht nur Crysis Wahrhead
ja,sollte ja so sein mit video ;-)

haben eigendlich 2x hd4870 (1gb) version im cf modus mehr leistung als eine HD4870x2 (1gb)??????

noxon
28.06.2008, 14:44
Ist zwar nur ein Gerüchte, aber wenns doch stimmt, dann war das mit dem gemeinsamen Zugriff auf den selben Speicher wohl nur Wunschdenken, oder aber erst beim R800 der Fall.Was verstehen die eigentlich unter R700?
Für mich ist das eine Chipbezeichnung. Wieso bezeichnen die zwei RV770 als R700? Ich denke, dass diese X2-Karte nichts mit dem R700 zu tun hat. Es ist einfach eine CF Version aus normalen RV770 Chips.

Der R700 wird meiner Meinung nach ein einzelner Chip sein, der zwei RV770 Kerne auf einem DIE aufweist und dann auch keinen PLX Chip mehr benötigt. Das ist der wirkliche R700.

Warum man immer eine Grafikkarte die aus zwei RV770 als R700 bezeichnet bleibt mir schleierhaft.

Pleezefragme
28.06.2008, 14:52
Gibts eigentlich schon maaße von den karten?? ich meine mich 1GB und GDDR5 sondern die läne..die sehen aus als wären sie minumum 10cm länger als ne 8800GT die jetzt schon nur knapp in mein gehäuse passt...



edit: Danke Jake Dunn udn mach mal bitte DX10!!!!!

Jake_Dunn
28.06.2008, 14:59
Pleezefragme die ist genau 24cm und 10cm Breit (PCB) :wink:

EDIT: oder meinst du die X2 ?




http://www.abload.de/img/uf0ray.jpg


Ein Vergleich mit anderen Karten

http://www.abload.de/img/od8rc5.jpg

Tommi-lee
28.06.2008, 15:02
das jetzt von ne 4870er?

Jake_Dunn
28.06.2008, 15:04
das jetzt von ne 4870er?

Ja von der HD4870 :)

Tommi-lee
28.06.2008, 15:07
omfg das ja richtig krass. und das für da geld. alter und das ist meine auflösung nice:-D


gibt es einen der die karte vllt schon in australien bestellt hat?

Pleezefragme
28.06.2008, 15:12
Jake Dunn hast du den test gemacht??? wenn ja mach mal bitte noch einen in DX10....
wenn der nicht von dir war dann schick mal den den link wo der test ist...


220taken für sone highenkarte....bin ich froh das ATI wieder was zu melden hat...nach meinem kurzen ausflug in die Nvidia welt (8800GT) wechsel ich wieder zu ATI in naher zukunft^^

Jake_Dunn
28.06.2008, 15:13
omfg das ja richtig krass. und das für da geld. alter und das ist meine auflösung nice:-D


gibt es einen der die karte vllt schon in australien bestellt hat?


Wie Australien ? Du meinst die 1Gb ?



Hier mt OC der Regler geht leider nur bis 790mhz, da muß man noch auf RT od. ATI-Tool warten :p

http://www.abload.de/img/p47vwefsr.jpg (http://www.abload.de/image.php?img=p47vwefsr.jpg)

Tommi-lee
28.06.2008, 15:14
deine?

ist das die 512 version?

HunT
28.06.2008, 15:15
Was verstehen die eigentlich unter R700?
Für mich ist das eine Chipbezeichnung. Wieso bezeichnen die zwei RV770 als R700? Ich denke, dass diese X2-Karte nichts mit dem R700 zu tun hat. Es ist einfach eine CF Version aus normalen RV770 Chips.

Der R700 wird meiner Meinung nach ein einzelner Chip sein, der zwei RV770 Kerne auf einem DIE aufweist und dann auch keinen PLX Chip mehr benötigt. Das ist der wirkliche R700.

Warum man immer eine Grafikkarte die aus zwei RV770 als R700 bezeichnet bleibt mir schleierhaft.

Mir ist es eher schleierhaft wie du auf diesen Gedanken mit zwei RV770 on DIE kommst? Der R700 wird von AMD selbst als DualGPU Lösung on PCB bezeichnet.

Warum sollte AMD eine Karte mit zwei Chips on PCB rausbringen und dann nochmal eine mit zwei Chips on DIE? Die würden sich doch selbst ins Knie schießen, weil dann keiner die Karte mit zwei Chips on PCB kaufen würde.

Jake_Dunn
28.06.2008, 15:15
Jake Dunn hast du den test gemacht??? wenn ja mach mal bitte noch einen in DX10....
wenn der nicht von dir war dann schick mal den den link wo der test ist...


220taken für sone highenkarte....bin ich froh das ATI wieder was zu melden hat...nach meinem kurzen ausflug in die Nvidia welt (8800GT) wechsel ich wieder zu ATI in naher zukunft^^

Ja hab ich gemacht, ich kann DX10 nacher machen :-D

Tommy Lee ja 512mb

M@rshall15
28.06.2008, 15:18
deine?

ist das die 512 version?

die 1 GB varinate hat noch niemand in Deutschland :D

Tommi-lee
28.06.2008, 15:19
die 1 GB varinate hat noch niemand in Deutschland :D

ne aber ich denke nicht das jeder seine hardware nur in deutschland kauft.

ist aber heftig was die kann und das mit 512 mb .. da bin ich dann ma auf die 1 GB variante gespannt. bringt in dem fall dann doch einiges!

M@rshall15
28.06.2008, 15:22
ne aber ich denke nicht das jeder seine hardware nur in deutschland kauft.

ist aber heftig was die kann und das mit 512 mb .. da bin ich dann ma auf die 1 GB variante gespannt. bringt in dem fall dann doch einiges!

bestimmt. Aber nur über 1280x1024 aber die wird bestimmt um die 5 fps noch raus kitzeln können :)

Jake_Dunn
28.06.2008, 15:23
ist aber heftig was die kann und das mit 512 mb .. da bin ich dann ma auf die 1 GB variante gespannt. bringt in dem fall dann doch einiges!

Bei 8xAA wird sich die 1gb schon absetzen können, aber ob das noch spiekbar ist in CRYSIS.

Könnte mir vorstellen das die 1Gb in AoC vorteile hat...mal sehn bin auf Testst gespannt :-D


Ich machmal DX10 jetzt...stay Tuned

Tommi-lee
28.06.2008, 15:25
Bei 8xAA wird sich die 1gb schon absetzen können, aber ob das noch spiekbar ist in CRYSIS.

Könnte mir vorstellen das die 1Gb in AoC vorteile hat...mal sehn bin auf Testst gespannt :-D


Ich machmal DX10 jetzt...stay Tuned

mache bitte nur ma 1680x1050 und dann 4 AA bei crysis und ner ultra conf auf direktx9. hast du deine graka übertaktet?

Pleezefragme
28.06.2008, 15:26
joa mach schnell den test!!!!

alter wenn die 512er schon gut ist dann kommt die 1GB variante locker auf 60frames glaub ich...(naja ich hoffe es trifft besser zu)^^

wo hast die geholt bei mir sind die alle noch nicht lieferbar

Tommi-lee
28.06.2008, 15:31
ma ganz lieb fragen wieviel schafft den ne GTX also G80 bei der auflösung?
die kostet ja auhc noch um die 220€.

M@rshall15
28.06.2008, 15:31
http://www.mindfactory.de/product_info.php/info/p0431208?pid=geizhals

207€ :D

noxon
28.06.2008, 15:35
Der R700 wird von AMD selbst als DualGPU Lösung on PCB bezeichnet.Hast du ne Quelle?
Normalerweise bekommt man vom Hersteller nämlich so gut wie gar keine Informationen.


Warum sollte AMD eine Karte mit zwei Chips on PCB rausbringen und dann nochmal eine mit zwei Chips on DIE? Die würden sich doch selbst ins Knie schießen, weil dann keiner die Karte mit zwei Chips on PCB kaufen würde.Eine günstige Zwei-Chip Lösung (2x RV770 On PCB) kommt sofort, während ich denke, dass sie irgendwann auch noch eine Ein-Chip Lösung herausbringen werden, die dann einige der CF Probleme lösen wird. Das kann aber noch ein Weilchen dauern und ich denke der Chip ist es, den alle als R700 bezeichnen.

Das Multicore GPUs on DIE oder on Package bald kommen werden, sollte klar sein und ich denke, dass es bei ATi ca. Anfang nächsten Jahres mit dem R700 der Fall sein wird.

Das ist meine persönliche Theorie. ;)

PIMP50
28.06.2008, 15:46
der r700 wird die 4870x2 werden!!!

Jake_Dunn
28.06.2008, 15:50
1680x1050 High DX10
http://www.abload.de/img/hiyhw3.jpg

1680x1050 Very High DX10
http://www.abload.de/img/vhhi2q.jpg

Jake_Dunn
28.06.2008, 15:54
mache bitte nur ma 1680x1050 und dann 4 AA bei crysis und ner ultra conf auf direktx9. hast du deine graka übertaktet?

Ultra Config hab ich nicht :???: DX9 High mit 4xAA würde gehn...

Tommi-lee
28.06.2008, 16:38
Ultra Config hab ich nicht :???: DX9 High mit 4xAA würde gehn...


da du ja die graka jetzt hast und vllt auch behalten wirst kannste dir ja ne conf ma runter laden. die von mster z.b. und dann ma testen, aber trotzdem danke für die ganzen test. sieht ja hammer genial aus. danke...die graka hat was druff!

hier das wäre die neuste von mster:

http://files.filefront.com/Mster+Config+v235exe/;10479960;/fileinfo.html

pilzbefall
28.06.2008, 16:44
@JakeDunn
ich habe deine Benches mal verglichen:
hätte nicht gedacht, daß vista so ne Bremse ist:
DX9 high gpu-bench: 47 fps
DX10 high gpu-bench: 43 fps. Waren doch dieselben Taktraten, @stock, oder?

PIMP50
28.06.2008, 16:48
das ist nicht vista das is dx10!!!

Jake_Dunn
28.06.2008, 16:52
da du ja die graka jetzt hast und vllt auch behalten wirst kannste dir ja ne conf ma runter laden. die von mster z.b. und dann ma testen, aber trotzdem danke für die ganzen test. sieht ja hammer genial aus. danke...die graka hat was druff!

hier das wäre die neuste von mster:

http://files.filefront.com/Mster+Config+v235exe/;10479960;/fileinfo.html

Ich warte ja schon auf Mster 3.0 :-D


@JakeDunn
ich habe deine Benches mal verglichen:
hätte nicht gedacht, daß vista so ne Bremse ist:
DX9 high gpu-bench: 47 fps
DX10 high gpu-bench: 43 fps. Waren doch dieselben Taktraten, @stock, oder?

DX10 ist langsamer als DX9 ist doch bekannt, ja war ohne OC :wink:

HunT
28.06.2008, 16:53
Hast du ne Quelle?
Normalerweise bekommt man vom Hersteller nämlich so gut wie gar keine Informationen.

Ey man, ich habe das mal irgendwo gelesen...werd mir doch nicht jede Quelle merken. Ich lese sowas und merke es mir. Aber ich merke mir bestimmt nicht die Quellen.


Eine günstige Zwei-Chip Lösung (2x RV770 On PCB) kommt sofort, während ich denke, dass sie irgendwann auch noch eine Ein-Chip Lösung herausbringen werden, die dann einige der CF Probleme lösen wird. Das kann aber noch ein Weilchen dauern und ich denke der Chip ist es, den alle als R700 bezeichnen.

Das Multicore GPUs on DIE oder on Package bald kommen werden, sollte klar sein und ich denke, dass es bei ATi ca. Anfang nächsten Jahres mit dem R700 der Fall sein wird.

Das ist meine persönliche Theorie. ;)

Der R700 ist die HD4870X2 mit zwei RV770 on PCB! Um Multicore on DIE oder on Package zu verwirklichen, braucht das viel Entwicklungsgeld und ATI hat dieses nicht.

Die Bezeichnung R700 ist nur Marketing und das ist meine persönliche Theorie.

Monti
28.06.2008, 16:56
http://www.pcgameshardware.de/aid,649337/News/AMD_R700_Vermeintliche_Bilder_der_Radeon_HD_4870_X 2_aufgetaucht/

Jake_Dunn
28.06.2008, 17:22
http://www.abload.de/thumb/eisydu.jpg (http://www.abload.de/image.php?img=eisydu.jpg)

28.06.2008 18:07:35 - Vista 64
Beginning Run #1 on Map-ice, Demo-autotest
DX9 1680x1050, AA=No AA, Vsync=Disabled, 64 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
================================================== ============
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 92.94s)
!TimeDemo Run 0 Finished.
Play Time: 52.53s, Average FPS: 38.07
Min FPS: 16.70 at frame 496, Max FPS: 49.53 at frame 1242
Average Tri/Sec: -7666548, Tri/Frame: -201363
Recorded/Played Tris ratio: 0.50
!TimeDemo Run 1 Finished.
Play Time: 49.95s, Average FPS: 40.04
Min FPS: 16.70 at frame 496, Max FPS: 49.53 at frame 1242
Average Tri/Sec: -8364971, Tri/Frame: -208907
Recorded/Played Tris ratio: 0.48
!TimeDemo Run 2 Finished.
Play Time: 49.96s, Average FPS: 40.03
Min FPS: 16.70 at frame 496, Max FPS: 49.78 at frame 1243
Average Tri/Sec: -8375549, Tri/Frame: -209206
Recorded/Played Tris ratio: 0.48
TimeDemo Play Ended, (3 Runs Performed)
================================================== ============

Completed All Tests

<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>

28.06.2008 18:07:35 - Vista 64

Run #1- DX9 1680x1050 AA=No AA, 64 bit test, Quality: High ~~ Overall Average FPS: 4003,5

noxon
28.06.2008, 17:45
Ey man, ich habe das mal irgendwo gelesen...werd mir doch nicht jede Quelle merken. Ich lese sowas und merke es mir. Aber ich merke mir bestimmt nicht die Quellen.Bleib mal locker. Wenn du sagst, dass AMD das offiziell behauptet, dann darf ich doch wohl fragen, wo du das gelesen hast.


Um Multicore on DIE oder on Package zu verwirklichen, braucht das viel Entwicklungsgeld und ATI hat dieses nicht.Du scheinst dich ja auszukennen.


Die Bezeichnung R700 ist nur Marketing und das ist meine persönliche Theorie.Marketing sind die internen Codebezeichnungen sicherlich nicht.
Ist aber auch völlig wurscht, ob der R700 oder R0815 heißt. Ich warte erst einmal ab, ob ATi in nächster Zukunft eine echte Dual Core GPU auf den Markt bringt, bevor ich mir eine X2 Karte mit separaten Chips kaufe, egal welchen Namen die hat oder nicht.

Monti
28.06.2008, 18:00
Der R700 wird meiner Meinung nach ein einzelner Chip sein, der zwei RV770 Kerne auf einem DIE aufweist und dann auch keinen PLX Chip mehr benötigt. Das ist der wirkliche R700.

Warum man immer eine Grafikkarte die aus zwei RV770 als R700 bezeichnet bleibt mir schleierhaft.

Falsch. Die HD4870X2 ist der RV700 und besteht aus zwei GPU (RV770) auf einem PCB (nicht wie bei der 9800GX2, welche zwei PCBs mit je einer GPU verbaut hat). RV700 hat nix mit Marketing zu tun, das sind einfach intern Codenamen, den den Verkäufer (durschnittlich) eh nicht interessieren, bzw. die er nicht kennt, denn die karte heißt dann "HD4870X2". RV700 ist nunmal nur eine interne Bezeichnung für "2xRV770".

Das ist Fakt, da gibts nix zu diskutieren.

HunT
28.06.2008, 18:51
Falsch. Die HD4870X2 ist der RV700 und besteht aus zwei GPU (RV770) auf einem PCB (nicht wie bei der 9800GX2, welche zwei PCBs mit je einer GPU verbaut hat). RV700 hat nix mit Marketing zu tun, das sind einfach intern Codenamen, den den Verkäufer (durschnittlich) eh nicht interessieren, bzw. die er nicht kennt, denn die karte heißt dann "HD4870X2". RV700 ist nunmal nur eine interne Bezeichnung für "2xRV770".

Das ist Fakt, da gibts nix zu diskutieren.

Offenbar sind Leute wie noxon anderer Meinung. Ich teile sie mit dir.

M@rshall15
28.06.2008, 18:59
ist geil das ihr euch um den Namen vom Chip streitet :lol:

Hamers
28.06.2008, 19:02
ist geil das ihr euch um den Namen vom Chip streitet :lol:

Daran merkt man, dass ATI euch grade alle übernimmt:razz:
Selbst Siberian Tiger wird sich eine ATI Karte kaufen, er weiß es nur noch nicht;)

Btt:

Ich freu mich schon wie verrückt auf Weihnachten, Crysis wird dann wohl endlich auf High gut zu zocken sein:D

Mfg

M@rshall15
28.06.2008, 19:04
lol Ati hat diese Generation einfach die Krone auf.Ich bin kein Fan von ATI und auch nicht von Nvidia :-D das ist ja kein Fußballverein:razz:

pilzbefall
28.06.2008, 19:16
http://www.abload.de/thumb/eisydu.jpg (http://www.abload.de/image.php?img=eisydu.jpg)

28.06.2008 18:07:35 - Vista 64
Beginning Run #1 on Map-ice, Demo-autotest
DX9 1680x1050, AA=No AA, Vsync=Disabled, 64 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
================================================== ============
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 92.94s)
!TimeDemo Run 0 Finished.
Play Time: 52.53s, Average FPS: 38.07
Min FPS: 16.70 at frame 496, Max FPS: 49.53 at frame 1242
Average Tri/Sec: -7666548, Tri/Frame: -201363
Recorded/Played Tris ratio: 0.50
!TimeDemo Run 1 Finished.
Play Time: 49.95s, Average FPS: 40.04
Min FPS: 16.70 at frame 496, Max FPS: 49.53 at frame 1242
Average Tri/Sec: -8364971, Tri/Frame: -208907
Recorded/Played Tris ratio: 0.48
!TimeDemo Run 2 Finished.
Play Time: 49.96s, Average FPS: 40.03
Min FPS: 16.70 at frame 496, Max FPS: 49.78 at frame 1243
Average Tri/Sec: -8375549, Tri/Frame: -209206
Recorded/Played Tris ratio: 0.48
TimeDemo Play Ended, (3 Runs Performed)
================================================== ============

Completed All Tests

<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>

28.06.2008 18:07:35 - Vista 64

Run #1- DX9 1680x1050 AA=No AA, 64 bit test, Quality: High ~~ Overall Average FPS: 4003,5
Danke für den Test! Und das ganze mit default Taktraten?? Ich kriege mit dem System in meiner Sig in dem Test lumpige 33,75fps nach dem 2. Durchlauf. Die Karte (1GB-Version) is gekauft:grin:

Jake_Dunn
28.06.2008, 19:37
Danke für den Test! Und das ganze mit default Taktraten?? Ich kriege mit dem System in meiner Sig in dem Test lumpige 33,75fps nach dem 2. Durchlauf. Die Karte (1GB-Version) is gekauft:grin:

Ja mit default Takt ,ich kann sowieso nicht richtig OC, da es noch kein gescheites Tool gibt und im CCC geht fast nichts nur ca. 3-5% :(

Man kann über ein Biosflash das ding hochziehn, aber ich warte lieber auf Riva Tuner oder ATI-Tool :-D

Nixblicker
28.06.2008, 19:40
Ich hab mal ne frage zu den neuen Grafikkarten von ATI.
Crysis ist ja Partner von Nvidia, heißt das den das die Karten schlechter
ausfallen bei Crysis ?

Hamers
28.06.2008, 19:48
Du hast ja die Benchmarkes gesehen! Die ATI ist ein wenig schlechter als die Nvidea GTX 280, aber das ist bei allen Spielen und normaler Auflösung so! Ich kann da keine besonderen Abweichungen bei Crysis erkennen, außer das die fps nur knapp im spielbaren Bereich liegen, aber das ist bei Nvidea auch nicht anders;)

Also eine besondere Optimierung auf Nvidea scheint wohl nicht der Fall zu sein:)

Mfg

Jake_Dunn
28.06.2008, 19:53
Du hast ja die Benchmarkes gesehen! Die ATI ist ein wenig schlechter als die Nvidea GTX 280, aber das ist bei allen Spielen und normaler Auflösung so! Ich kann da keine besonderen Abweichungen bei Crysis erkennen

Mfg

Kann ich bestättigen, ist/war bei der 3870 vs. 8800Gt daselbe :wink:

noxon
28.06.2008, 21:11
RV700 hat nix mit Marketing zu tun, das sind einfach intern Codenamen, den den Verkäufer (durschnittlich) eh nicht interessieren, bzw. die er nicht kennt, denn die karte heißt dann "HD4870X2".Sag ich doch. Siberian Tiger meinte, dass die Beizeichnung was mit Marketing zu tun haben.

Welche Codenamen die einzelnen Chips haben werden wissen wir sowieso nicht mit Sicherheit. Von daher bringt es auch nichts darüber zu reden.


RV700 ist nunmal nur eine interne Bezeichnung für "2xRV770".
Das ist Fakt, da gibts nix zu diskutieren.Du meinst du wohl eher den R700 und nicht den RV700. Aber wie gesagt. Über die Bezeichnungen brauchen wir uns gar nicht weiter streiten. Die sind zum Einen unwichtig und zum Anderen nicht offiziell bekannt gegeben.


Worauf ich jetzt warte ist auf eine Ankündigung oder glaubhafte Meldungen zur ersten Multicore GPU von ATi. Ich denke, dass das nicht mehr all zu lange dauern kann. ATi dürfte dank des Know Hows von AMD deutlich mehr Erfahrungen in dem Sektor haben als nVidia.
Und wenn man sieht, dass ATi beim aktuellen Chip weniger auf brachiale Leistung, dafür aber mehr auf einen kleineren Chip gesetzt hat, dann liegt die Vermutung nahe, dass sie noch mit diesem Kern versuchen Multicore GPUs herstellen zu wollen und nicht noch bis zur nächsten Generation warten wollen.
Auch das nur 256 Bit breite Speicherinterface deutet stark darauf hin und der Ringbus, den ATi verwendet bietet sich auch hervoragend zur gemeinsamen Nutzung mehrerer Kerne an.
Ich halte die Wahrscheinlichkeit jedenfalls für sehr hoch, dass ATi mit diesem Kern noch eine Dual Core GPU on DIE herausbringen wird.

Naja. Das ist zumindest meine Hoffnung. Wenn ich mir dann Anfang nächsten Jahres eine neue Karte holen werde, dann hoffe ich, dass bereits mehr zu dem Thema bekannt ist.

Dark9
28.06.2008, 21:41
Catalyst-Hotfix soll Leistung der HD48x0-Serie steigern
Radeon HD48x0 Catalyst-Hotfix zur Verbesserung der Performance
Kaum ist AMDs HD4850 auf dem Markt,
bringt der Hersteller auch schon einen treiber für die neue Grafikkarten-Generation.
Dieser ist sowohl für die Radeon HD4850 als auch die noch nicht erhältliche HD4870 geeignet.
Der Hotfix soll die Gesamt-Performance und die Stabilität der beiden Karten steigern.
Im Lieferumfang des Downloads ist neben dem Display-Treiber auch das Catalyst Control Center enthalten.
Der Hotfix ist jeweils in einer 64- und 32-Bit Version für Windows Vista bzw. XP erhältlich.

Download: Radeon HD48x0 Hotfix Windows XP (32- und 64-Bit) (https://a248.e.akamai.net/f/674/9206/0/www2.ati.com/drivers/hotfix/hotfix_xp32-64_dd_ccc_hd4800series_64899.exe)

Download: Radeon HD48x0 Hotfix Windows Vista (32- und 64-Bit) (https://a248.e.akamai.net/f/674/9206/0/www2.ati.com/drivers/hotfix/hotfix_vista32-64_dd_ccc_hd4800series_64906.exe)

HunT
28.06.2008, 22:11
Worauf ich jetzt warte ist auf eine Ankündigung oder glaubhafte Meldungen zur ersten Multicore GPU von ATi. Ich denke, dass das nicht mehr all zu lange dauern kann. ATi dürfte dank des Know Hows von AMD deutlich mehr Erfahrungen in dem Sektor haben als nVidia.
Und wenn man sieht, dass ATi beim aktuellen Chip weniger auf brachiale Leistung, dafür aber mehr auf einen kleineren Chip gesetzt hat, dann liegt die Vermutung nahe, dass sie noch mit diesem Kern versuchen Multicore GPUs herstellen zu wollen und nicht noch bis zur nächsten Generation warten wollen.
Auch das nur 256 Bit breite Speicherinterface deutet stark darauf hin und der Ringbus, den ATi verwendet bietet sich auch hervoragend zur gemeinsamen Nutzung mehrerer Kerne an.
Ich halte die Wahrscheinlichkeit jedenfalls für sehr hoch, dass ATi mit diesem Kern noch eine Dual Core GPU on DIE herausbringen wird.

Naja. Das ist zumindest meine Hoffnung. Wenn ich mir dann Anfang nächsten Jahres eine neue Karte holen werde, dann hoffe ich, dass bereits mehr zu dem Thema bekannt ist.

Genau, es ist deine Hoffnung, dass ATI sowas entwickelt. Mit anderen Worten, es gibt keinerlei Anhaltspunkte, die besagen, dass der R700 eine DualGPU on DIE ist. Doch ich sage dir, der R700 ist ein Marketing oder aber ein interne Bezeichnung für zwei GPUs on PCB! Warum hatte die 9800GX2 keinen solche Chipbezeichnung? Weil diese Karte aus zwei PCBs bestand und deshalb hatte man auch nur 2x G92.

Nein, mir scheint, also ob du den wesentlichen Unterschied zwischen einer GPU und CPU nicht zu kennen scheinst, sonst würdest du es dir nicht so einfach vorstellen und dich vor allem selbst nach dem Sinn dieser Lösung fragen. Soll jedoch nicht heißen, dass ich dich für dumm halte.

Die HD4870X2 wird genauso einen PLX Chip besitzen, zwei RV770 on DIE und dazu getrennte VRam Bausteine. Einzig via Treiber wird bei der HD4870X2 optimiert. Kürzlich ist auch eine Folie von AMD aufgetauscht, die ganz klar besagt, dass der HD4870X2 über einen PLX Chip verfügen wird. Zwar verbessert, aber es wird einen geben. Warum sollte man also einen PLX Chip verwenden, wenn beide GPUs on DIE sind? Macht doch keinen Sinn!

Dark9
29.06.2008, 04:32
weiss jemand wann der release von der hd4870 1gb ist?????


View My Video (http://de.tinypic.com/player.php?v=dr3swo&s=3)
View My Video (http://de.tinypic.com/player.php?v=fpcmjd&s=3)

Monti
29.06.2008, 05:13
Wird im Laufe des Juli erscheinen.

Nixblicker
29.06.2008, 09:20
Noch eine neue Graka von ATI ?
http://www.gamestar.de/hardware/news/grafikkarten/1946689/ati.html

Dark9
29.06.2008, 11:07
Noch eine neue Graka von ATI ?
http://www.gamestar.de/hardware/news/grafikkarten/1946689/ati.html

cool,bin aber leider kein fan von wasserkühlung

HunT
29.06.2008, 11:25
cool,bin aber leider kein fan von wasserkühlung

Warum das denn?

Dark9
29.06.2008, 11:41
Warum das denn?
erstens ist das noch nicht so weit verbreitet und zweitens
hab ich schiss,das ich mein system durch einen undichten schlauch schrotte :-D
drittens ist mein system erst 1 monat alt, nur noch ne neue grafikkarte dann erstmal ruhe mit aufrüsten, in 2 oder 3 jahren denk ich wieder ans aufrüsten.

pilzbefall
29.06.2008, 12:13
Nein, mir scheint, also ob du den wesentlichen Unterschied zwischen einer GPU und CPU nicht zu kennen scheinst, sonst würdest du es dir nicht so einfach vorstellen und dich vor allem selbst nach dem Sinn dieser Lösung fragen. Soll jedoch nicht heißen, dass ich dich für dumm halte.

sorry daß ich mich hier etwas einmische, aber für Dumm hälst du ihn zwar nicht, aber Recht behalten möchtest du schon gerne an Stellen, wo Noxon lediglich sich etwas wünscht oder etwas vermutet. Ich finde bei Noxon sehr angenehm, daß er viel weiß, aber es nicht nötig hat, einem sein Besserwissen aufs Butterbrot zu schmieren.

noxon
29.06.2008, 13:02
Danke für deinen Einwand, aber ich habe die Unterhaltung an diesem Punkt bewusst abgebrochen. Bringt ja nix.
Es wäre schön, wenn wir nun wieder zum Thema zurück kommen könnten und uns wieder über was Sinnvolles unterhalten.

Baggibox
29.06.2008, 14:38
Sorry aber ich hab mir den ganzen Thread kaum durchgelesen und bin bisschen verwirrt.

Was ist denn momentan die beste Grafikkarte und wann kommen die neuen raus ? (HD4850, GTX200)
Oder kann man die schon kaufen ?

Wie teuer werden sie ?

Könnt ihr ein paar Benchmarks zu den noch kommenden oder habenden Grakas posten ?

Ich will mir in den Monat eine neue kaufen und weiss noch nicht welche die beste ist.

paraphonatic
29.06.2008, 14:40
Sorry aber ich hab mir den ganzen Thread kaum durchgelesen und bin bisschen verwirrt.

Was ist denn momentan die beste Grafikkarte und wann kommen die neuen raus ? (HD4850, GTX200)
Oder kann man die schon kaufen ?

Wie teuer werden sie ?

Könnt ihr ein paar Benchmarks zu den noch kommenden oder habenden Grakas posten ?

Ich will mir in den Monat eine neue kaufen und weiss noch nicht welche die beste ist.


Die gibts schon seid ein paar wochen ja, zurzeit die NvidiaGTX280 "zwischen 450 und 700Euro",
auch wenn ATI fanboys das natürlich abstreiten :D

-Para

Baggibox
29.06.2008, 14:52
Da muss doch irgendein Haken geben, wenn die HD4850/70 so günstig sind aber gleichzeitig so gut wie die GTX200er sind !?

paraphonatic
29.06.2008, 14:58
Da muss doch irgendein Haken geben, wenn die HD4850/70 so günstig sind aber gleichzeitig so gut wie die GTX200er sind !?


Ja gibts es auch, es ist ATI :D

Ne spass Nvidia hat wohl nicht mit der hoehen performance gerechnet, und naja gleichschnell würde ich nicht unbedingt sagen die HD4870X2" oder wie die heißen soll mit 1024mb wird wohl gleichschnell sein, aber dafür sicher auch zwischen 400 und 600 euro kosten!



-Para

Baggibox
29.06.2008, 14:59
Kann ich mit der HD4850 alle Einstellungen bei Crysis auf Very High stellen ? (Ich zocke mit eine Auflösung von 1024x768 oder auch 1152x864)

Würde ich damit über der 30fps zone bleiben ?


Ach noch was:
Die 9800GX2 ist dann somit schlecher als die 4850 ?

paraphonatic
29.06.2008, 15:03
Kann ich mit der HD4850 alle Einstellungen bei Crysis auf Very High stellen ? (Ich zocke mit eine Auflösung von 1024x768 oder auch 1152x864)

Würde ich damit über der 30fps zone bleiben ?


Ach noch was:
Die 9800GX2 ist dann somit schlecher als die 4850 ?


"Lach"
Nein, die 9800GX2 ist schneller is sogar schneller als die 4870

Benches reich ich gleich nach!



-Para

Baggibox
29.06.2008, 15:04
"Lach"
Nein, die 9800GX2 ist schneller is sogar noch schneller als die 4870

Benches reich ich gleich nach!



-Para


joar danke, ist super nett.:-D

Ich hab bei Tomshardware nachgeschaut und dort die Benchs kaum verstanden bzw. gefunden.
Hoffe das du bessere findest.^^

paraphonatic
29.06.2008, 15:07
http://static.hardwareluxx.de/hardware/andreas/Artikel/4870/Bench_09.jpg



-Para

Baggibox
29.06.2008, 15:09
hhmmmm........

dann werde ich mir wohl die 4870 zu legen, weil die 4850 doch wenig kann.
Danke.


mfg. baggi

M@rshall15
29.06.2008, 15:21
hhmmmm........

dann werde ich mir wohl die 4870 zu legen, weil die 4850 doch wenig kann.
Danke.


mfg. baggi

Willkommen im Club :D

Jannez
29.06.2008, 17:22
dann werde ich mir wohl die 4870 zu legen, weil die 4850 doch wenig kann.

Das überlege ich auch ernsthaft, mir stellt sich nur eine Frage: Reicht mein 450 Watt-BeQuiet-Netzteil darfür aus (restliches Sys, siehe Sig)???:?:

schon mal "Danke!" im vorraus

pilzbefall
29.06.2008, 17:35
hhmmmm........

dann werde ich mir wohl die 4870 zu legen, weil die 4850 doch wenig kann.
Danke.


mfg. baggi
zur Performance der HD4870 kann ich dir folgendes sagen: meine Ultra @756 core/1890 Shader/2308 Ram bekommt in Crysis gpu-bench 1680x1050 msterQuality 41fps, die HD4780 @stock 47 fps. Deshalb verkloppe ich jetzt meine Ultra.

CRYSISTENSE
29.06.2008, 17:37
Das überlege ich auch ernsthaft, mir stellt sich nur eine Frage: Reicht mein 450 Watt-BeQuiet-Netzteil darfür aus (restliches Sys, siehe Sig)???:?:

schon mal "Danke!" im vorraus

Wie oft schreib ich das jetzt noch^^ Ich hab meine alte 8800GTX mit einem 350W-NT betrieben und es gab keine Probleme. Es war nichtmal ein Marken-NT, also reicht deines sicher für eine 4850/4870;)

@pilzbefall
Ich hab doch gleich gewusst, dass das nicht klappen konnte^^ Wie war das, ein Jahr bleibt sie mindestens drinn...:) Die 4870 ist natürlich für dich perfekt geeignet, weil man ja die Backplate für die RAMs nehmen kann, fehlt nur noch dein Zern. Werd mir jetzt dann auch einen holen;)

pilzbefall
29.06.2008, 17:42
@pilzbefall
Ich habs doch gleich gewusst, dass das nicht klappen konnte^^ Wie war das, ein Jahr bleibt sie mindestens drinn...:) Die 4870 ist natürlich für dich perfekt geeignet, weil man ja die Backplate für die RAMs nehmen kann, fehlt nur noch dein Zern. Werd mir jetzt dann auch einen holen;)
dein Postfach is übrigens dicht/voll, pm´s kommen nicht an. Mit so einem Preis/Leistungshammer hab ich halt nicht gerechnet. Und unter dem ebay-Publikum scheints genug Bescheuerte zu geben, die 230 Euro + für ne gebrauchte zahlen. Ich hoffe der Kühler wird 2-teilig sein und der Ausschnitt für den Zern reichen, dann brauch ich nix mehr dran zu sägen/fräsen/bohren und hab die Spawas/Rams direkt mitgekühlt über einen Miniwakühler, der momentan noch auf meiner Festpladde sitzt.

HunT
29.06.2008, 19:36
sorry daß ich mich hier etwas einmische, aber für Dumm hälst du ihn zwar nicht, aber Recht behalten möchtest du schon gerne an Stellen, wo Noxon lediglich sich etwas wünscht oder etwas vermutet. Ich finde bei Noxon sehr angenehm, daß er viel weiß, aber es nicht nötig hat, einem sein Besserwissen aufs Butterbrot zu schmieren.

Sorry, wenn ich vielleicht wie ein Klugscheißer daher kam, aber es ging bei der Diskussion lediglich darum, ob der R700 eine DualGPU on DIE wird oder nicht und ob dies auch wirklich Sinn macht bei GPU aufgrund ihrers parallelen Aufbaus. Das hat nix mit sich wünschen oder so zu tun.

Ich weiß, dass Noxon ne Menge weiß, allerdings sollte man auch vielleicht bereit sein, mit dem anderen über das Thema diskutieren und nicht gleich einfach sagen, ich brech die Diskussion ab, weils mir zu dumm wird.

Ist aber jetzt auch egal.

Baggibox
29.06.2008, 19:43
zur Performance der HD4870 kann ich dir folgendes sagen: meine Ultra @756 core/1890 Shader/2308 Ram bekommt in Crysis gpu-bench 1680x1050 msterQuality 41fps, die HD4780 @stock 47 fps. Deshalb verkloppe ich jetzt meine Ultra.

hmmm....

Da würde die HD4870 schon mit ca 20fps kämpfen müssen bei der Auflösung.


1.Sollte ich lieber auf die 1GB Speicher Variante warten ?
2.Wieviele GRafikkarten werden in die nächsten 2 Monate rauskommen ? Ist ein warten sinnvoll ?

CRYSISTENSE
29.06.2008, 20:46
1.Sollte ich lieber auf die 1GB Speicher Variante warten ?
2.Wieviele GRafikkarten werden in die nächsten 2 Monate rauskommen ? Ist ein warten sinnvoll ?

1. Ja
2. Kann man nur schwer einschätzen. Nvidia wird sicher bald kontern.

@pilzbefall
Habs extra für dich geleert;) Bin mal auf deine OC-Ergebnisse gespannt;)

pilzbefall
30.06.2008, 03:08
hmmm....

Da würde die HD4870 schon mit ca 20fps kämpfen müssen bei der Auflösung.


1.Sollte ich lieber auf die 1GB Speicher Variante warten ?
2.Wieviele GRafikkarten werden in die nächsten 2 Monate rauskommen ? Ist ein warten sinnvoll ?
auf computerbase gibts Benchmarks zur HD4780:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/33/#abschnitt_radeon_hd_4870_vorschau
Die 1GB-Version soll am 8.7. erscheinen, hab ich irgendwo gelesen.

Dark9
30.06.2008, 04:53
auf computerbase gibts Benchmarks zur HD4780:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/33/#abschnitt_radeon_hd_4870_vorschau
Die 1GB-Version soll am 8.7. erscheinen, hab ich irgendwo gelesen.

sehr interessant

M@rshall15
30.06.2008, 09:30
auf computerbase gibts Benchmarks zur HD4780:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/33/#abschnitt_radeon_hd_4870_vorschau
Die 1GB-Version soll am 8.7. erscheinen, hab ich irgendwo gelesen.

Die benchmarkes wurden vor 5 Tagen hier gepostet :lol:

EDIT:
http://www.pcgameshardware.de/aid,649413/News/Radeon_HD_4000_sind_Raytracing-tauglich/

was für eine überraschung :shock: Benutz ich zwar nicht aber egal ^^

noxon
30.06.2008, 12:42
Ich weiß gar nicht, ob ich das glauben soll.
Raytracing mit so hohen Bildqiederholraten und der guten Qualität? Das kommt mir doch sehr merkwürdig vor. Besonders das mit dem Transformers Trailer. Den kann man definitiv nicht in Echtzeit rendern. Es wäre natürlich schön, wenn es so wäre, aber das möchte ich erst einmal sehen, bevor ich es glaube.

M@rshall15
30.06.2008, 13:06
PC games macht eigentlich ATi bisschen schlechter als Nvidia hab ich mal gelesen. Vielleicht steckt wahrheit dahinter

HunT
30.06.2008, 13:10
PC games macht eigentlich ATi bisschen schlechter als Nvidia hab ich mal gelesen. Vielleicht steckt wahrheit dahinter

Wo haste das gelesen? Bestimmt von irgendwelchen beleidigten ATI Fanboys in irgendwelchen Foren, weil ihre ATI Karten nicht so gut sind, wie sie es gerne hätten und damit beziehe ich mich noch auf die HD2xxx und HD3xxx Serie.

CRYSISTENSE
30.06.2008, 13:11
PC games macht eigentlich ATi bisschen schlechter als Nvidia hab ich mal gelesen. Vielleicht steckt wahrheit dahinter

Ja, da ist definitiv was drann. Wurde im 4850 und 4870 Thread vom Luxx auch diskutiert.

PIMP50
30.06.2008, 13:31
es ist schon sehr lange bekannt das pcg pro nvidia ist!! also nix neues :D

Dark9
30.06.2008, 13:58
also bin jetzt unsicher, habe bei k&m nachgefragt und hier auszug aus der original email:

vielen Dank für Ihre E-Mail.
Die Artikel bleiben fuer Sie reserviert. Die 1GB Karten sind noch nicht im Sortiment und wir wissen aktuell nicht wann diese kommen werden. Daher muessten Sie mit einer recht langen Lieferzeit rechnen. Von der Leistung her, sollte eine 4870 1GB fuer aktuelle Spiele voellig ausreichen. Die X2 sind meist deutlich teurer und bringen selten viel mehr Leistung.


Sollten Sie noch Fragen haben, stehen wir Ihnen gerne zur Verfügung.



was sagt ihr dazu?

M@rshall15
30.06.2008, 14:17
Wo haste das gelesen? Bestimmt von irgendwelchen beleidigten ATI Fanboys in irgendwelchen Foren, weil ihre ATI Karten nicht so gut sind, wie sie es gerne hätten und damit beziehe ich mich noch auf die HD2xxx und HD3xxx Serie.


das war entwer hier ATIrv770 und bei geforce GT200 aufjedenfall hier in diesem crysis-Forum

@Dark9

guck am besten bei hardwareversand oder bei Geizhals.de vielleicht haben die da bisschen mehr ahnung :lol:

Baggibox
30.06.2008, 15:40
auf computerbase gibts Benchmarks zur HD4780:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/33/#abschnitt_radeon_hd_4870_vorschau
Die 1GB-Version soll am 8.7. erscheinen, hab ich irgendwo gelesen.


WOW. MIt soviel Frames hab ich nicht gerechnet.
Dann taugt die 512er doch. Ich warte auf die 1GB Version, vielleich kauf ich sie mir ja und die 512er würde dann im Preis einbisschen fallen.

HunT
30.06.2008, 21:55
Vermeintlicher Benchmark von zwei R700 im Crossfire X -> http://www.tgdaily.com/content/view/38171/135/

Ich muss aber hoffentlich nicht erwähnen, dass Benchmarkwerte von 3DMurks nicht sehr viel Aussagekraft haben, wie wir immer wieder feststellen müssen.

Desweiteren, lieber noxon, ist der R700 kein RV770 on DIE, sondern wie schon die HD3870X2 zwei Chips on PCB. :)


AMD’s team in Austin managed to use two R700 dual-GPU graphic cards (four RV770 chips) to get a score of X12515.

pilzbefall
30.06.2008, 22:06
WOW. MIt soviel Frames hab ich nicht gerechnet.
Dann taugt die 512er doch. Ich warte auf die 1GB Version, vielleich kauf ich sie mir ja und die 512er würde dann im Preis einbisschen fallen.
ja, die 512er scheint jedenfalls in Crysis so gut wie garnicht zu limitieren bis 19xx, very high und mehrfach aa/AF. Im Gegensatz z.B. zur 9800GTX. Ich denke aber an zukünftige Games, wenn ich auf die 1GB-Version lauere. Aber echt schade um meine Ultra, war mir gerade erst ans Herz gewachsen.....bis ich die Benchmarks von der HD4870 sah...

Monti
30.06.2008, 22:40
Wo haste das gelesen? Bestimmt von irgendwelchen beleidigten ATI Fanboys in irgendwelchen Foren, weil ihre ATI Karten nicht so gut sind, wie sie es gerne hätten und damit beziehe ich mich noch auf die HD2xxx und HD3xxx Serie.

Naja, das PCGH ein wenig "pro" nVidia ist, ist nichts Neues. Ist aber auch nicht schlimm, jede Seite/Printed hat so seine Lieblinge. Bei den 48xx Tests fällt nur auf, dass PCGH ein wenig von den anderen (negativ) abweicht, außerdem ist die 9800 GTX dort in hohen Auflösungen und AA/AF sehr stabil, was gar nicht sein kann, hatte die Karte ja selbst und gerade bei Crysis brach die Karte total ein (wurde mit neuen Treibern besser, aber nicht wirklich optimal... VRam Bug lässt grüßen).

Baggibox
01.07.2008, 00:38
ja, die 512er scheint jedenfalls in Crysis so gut wie garnicht zu limitieren bis 19xx, very high und mehrfach aa/AF. Im Gegensatz z.B. zur 9800GTX. Ich denke aber an zukünftige Games, wenn ich auf die 1GB-Version lauere. Aber echt schade um meine Ultra, war mir gerade erst ans Herz gewachsen.....bis ich die Benchmarks von der HD4870 sah...

Joar, das ist echt bitter.

Ich weiss nicht wie es vorher war, aber die Graka hersteller machen gerade eine "Revolution" durch. Falls alles klappt kommen schon wieder neue Top Grafikkarten raus.
Es ist nicht mehr so wie früher wo man eine Karte 2 Jahre lang in seinem Rechner haben kann.

Neue Games tag täglich, neue Ankündigung.
Die Grafik wächst rasant an, Raytracing von Intel bald..... usw.

Da fragt man sich echt mit welche Karte man sich übers Wasser halten kann.
Ich hoffe das die 4870 kein Griff ins Klo ist.;-)

M@rshall15
01.07.2008, 01:09
Joar, das ist echt bitter.

Ich weiss nicht wie es vorher war, aber die Graka hersteller machen gerade eine "Revolution" durch. Falls alles klappt kommen schon wieder neue Top Grafikkarten raus.
Es ist nicht mehr so wie früher wo man eine Karte 2 Jahre lang in seinem Rechner haben kann.

Neue Games tag täglich, neue Ankündigung.
Die Grafik wächst rasant an, Raytracing von Intel bald..... usw.

Da fragt man sich echt mit welche Karte man sich übers Wasser halten kann.
Ich hoffe das die 4870 kein Griff ins Klo ist.;-)

da höffst nicht nur du^^ aber ich bin zuversichtlich :D

Dark9
01.07.2008, 12:29
'Super RV770': AMDs Giftpille für die GeForce GTX 200

AMD verkauft seine neuen High-End-Grafikkarten Radeon HD 4850 und HD 4870 deutlich günstiger als die Konkurrenz von Nvidia. Deren jüngste GeForce GTX 260 und GTX 280 hat zwar in Sachen Leistung die Nase vorn, dafür muss der Kunde aber auch tief in die Tasche greifen.

Wie jetzt bekannt wurde, bietet der neue ATI RV770 Grafikprozessor, der das Herzstück der ATI Radeon HD 4800 Reihe bildet, jedoch noch Leistungsreserven. Diese können unter den richtigen Bedingungen dafür sorgen, dass er die enorme Leistungsfähigkeit der jüngsten High-End-Grafikkarten von Nvidia in den Schatten stellt - was natürlich extra kosten dürfte.

Wie der Hardware-Branchendienst unter Berufung auf informierte Quellen aus der Industrie berichtet, will AMD die Reserven nutzen, um zusammen mit seinen Partnern unter den Grafikkartenherstellern Nvidias neue Oberklasse anzugreifen. Der Codename des Vorhabens soll "Super RV770" lauten.

Den Angaben zufolge werden Grafikkarten in der "Super RV770" Konfiguration immer mit einer vorinstallierten Lösung für den Anschluss an eine Wasserkühlung und mit einem modifizierten BIOS daher kommen. Durch eine Freischaltung sollen GPU-Taktraten von bis zu 950 MHz und ein Speichertakt von bis zu 1,2 GHz möglich sein. Unter idealen Voraussetzungen soll sogar ein GPU-Takt von 1 GHz und mehr drin sein.

Durch die höhere Taktfrequenz steigt der Datendurchsatz an. So soll eine Bandbreite von 150 GB/s erreicht werden, womit der "Super RV770" die Nvidia GeForce GTX 200 Reihe übertreffen kann. Wer sich nun fragt, wann die ersten derartigen Grafiklösungen von AMDs Grafiksparte ATI auf den Markt kommen: es gibt sie bereits.

Der amerikanische Anbieter Diamond Multimedia bietet eine "Super RV770" bereits in Zusammenarbeit mit der Firma Smoothcreations an, die sich auf High-End-Systeme spezialisiert hat. Das Produkt hört auf den Namen ATI Radeon HD 4870 XOC Black Edition und soll das erste einer ganzen Reihe sein, da von anderen Herstellern ähnliches folgen soll.

Im Falle der Diamond Multimedia ATI Radeon HD 4870 XOC Black Edition arbeitet der Grafikprozessor mit 800 MHz, während der Speicher mit 1,1 GHz taktet. Dank einer speziellen BIOS-Version sollen mit der Karte auch Taktraten von jeweils 950 bzw. 1200 MHz möglich sein. Zum Preis gab es zunächst keine Angaben.


***FREUUUUUUUUUU*** SIND MAL GANZ GUTE NEWS FIND ICH !!!

HunT
01.07.2008, 14:04
Durch die höhere Taktfrequenz steigt der Datendurchsatz an. So soll eine Bandbreite von 150 GB/s erreicht werden, womit der "Super RV770" die Nvidia GeForce GTX 200 Reihe übertreffen kann.Einer aus dem Luxx Forum hat seine GTX 280 soweit übertaktet, dass sie 171GB/s erreicht hatte und das mit Luftkühlung! Man stelle sich mal vor, was man noch machen kann, wenn man ne Wakü nimmt! :shock:

1337_alpha
01.07.2008, 14:07
Einer aus dem Luxx Forum hat seine GTX 280 soweit übertaktet, dass sie 171GB/s erreicht hatte und das mit Luftkühlung! Man stelle sich mal vor, was man noch machen kann, wenn man ne Wakü nimmt! :shock:

Goil^^
Naja ich warte lieber und freu mich dann am release auf die 10er Reihe ^^
Gleich mit schönem vernickelten EK Kühler :)

Tommi-lee
01.07.2008, 14:11
hier glaube ich die quelle wo du das her hast

http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/uebertaktete_radeon_hd_4870_diamond/

Dark9
01.07.2008, 14:17
hier glaube ich die quelle wo du das her hast

http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/uebertaktete_radeon_hd_4870_diamond/


nee von da

http://winfuture.de/news,40501.html

Baggibox
01.07.2008, 17:30
Ich hab mir mal den Vantage Benchmark von "Jake_Dunn" und "Warpspeed" angeschaut.
Eine AMD/ATI HD4870 erreicht fast die Leistung von 2x 8800 Ultras im Sli Modus.

Jake_Dunn:
System:

CPU : XEON3350@3,2ghz
RAM : 4096mb@800mhz
Grafikkarte : HD 4870
System : VISTA 64bit SP1


Ergebnis: Gesamt: 9585

CPU Score: 13319
GPU Score: 8766

-------------------------------------------------------------------------------------------------------------------------

Warpspeed:
System:

CPU : Intel Quadcore Q6600 @ 3,0 Ghz (Overclocked)
RAM : 4 GB Geil (Black Dragon) 2x2GB 800MHZ
Grafikkarte : 2x NVIDIA 8800 Ultra - Standardtakt - 174.93 Treiber
System : Vista Ultimate 64Bit SP1

Ergebnis : 10155
Last updated: 03.05.2008 @ 17:07 Uhr

CPU Score: 10278
GPU Score: 10115

-------------------------------------------------------------------------------------------------------------------------

Kommentar:
Eins steht schonmal jetzt fest ! Ich werde mir definitiv die AMD HD4870 Graka kaufen.
Die Leistung ist für den Preis extrem enorm. Das ist sogar noch die 512Mb Karte.
Die 4870X2 kommt ja auch noch und die 1GB Variante.

Dark9
01.07.2008, 17:51
Ich hab mir mal den Vantage Benchmark von "Jake_Dunn" und "Warpspeed" angeschaut.
Eine AMD/ATI HD4870 erreicht fast die Leistung von 2x 8800 Ultras im Sli Modus.

Jake_Dunn:
System:

CPU : XEON3350@3,2ghz
RAM : 4096mb@800mhz
Grafikkarte : HD 4870
System : VISTA 64bit SP1

und bla bla bla bla .......
.
.
.





danke das du dir die zeit genommen hast, bin wirklich beeindruckt von ati
wie geht das mit spoiler????

noxon
02.07.2008, 08:49
Dann waren die Gerüchte damals ja gar nicht so falsch, die von einem Chiptakt von 1000 MHz gesprochen haben.
AMD attackiert Nvidia mit „Super RV770“ (http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/amd_nvidia_super_rv770/)

Tommi-lee
02.07.2008, 08:52
gerade bei computerbase gelsen^^

ich finde es klasse das sie es versuchen wollen mit den neuen Grakas von nvidia mitzuhalten oder zu übertrumpfen, aber leider ist jeder graka leider mit wassergekühlt -.-

schon kaum zu glauben das ne midrange karte dann solch ein highend dingen pakt :-P

noxon
02.07.2008, 09:05
Du musst das anders sehen.
Kaum zu glauben, dass die eine High End Karte so günstig anbieten. Ich bin wirklich etwas erstaunt, dass das P/L Verhältnis so gut ist. Das war bei den High End Modellen noch nie so. ATi könnte sicherlich noch etwas mehr für die KArten verlangen und wäre trotzdem noch konkurenzfähig.

CRYSISTENSE
02.07.2008, 09:06
Wenn AMD damit die GTX 280 attackieren will, dürfte die Karte auch nicht viel mehr kosten. Das Gute daran ist, dass man durch die WaKü ein völlig geräuschloses System haben "kann" und das zu einem relativ guten Preis. Ich frag mich nur, wo sich dann die 4870 1GB und die 4870x2 einordnen werden^^ Die Preise sind echt der Wahnsinn.

xeonsys
02.07.2008, 19:24
was ich wissen wollte wieviel ns hat der gddr 5 und was geht noch?

Wo bleibt die rubydemo?


Test: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI) (1/29)

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/

paraphonatic
05.07.2008, 09:35
*Hust Hust Hust* ;-)

AMD: R700 auch mit 1 GiByte GDDR3-Speicher und zwei RV770Pro

Der Videospeicher dieser Karten soll sich aber "nur" auf 1.024 MiByte belaufen. Auch soll nicht der teure GDDR5- sondern günstigerer GDDR3-Speicher zum Einsatz kommen. Inwiefern sich dies auf den Preis und die Namensgebung der Karten auswirken wird ist unklar.


Quelle: (http://www.pcgameshardware.de/aid,650173/News/AMD_R700_auch_mit_1_GiByte_GDDR3-Speicher_und_zwei_RV770Pro/)



-Para

noxon
05.07.2008, 13:35
Also 100% Aufpreis für 50% mehr Leistung ist schon recht heftig.
Zumindest mit den jetzigen Treibern schafft ATi es nicht die Spieleleistung im Durchschnitt um mehr als 50% anzuheben.

nVidia ist da mit 80% und mehr Leistungszuwachs durch eine zweite Karte deutlich besser. Ich hoffe mal, dass ATi das noch mittels Treiberupdates noch in den Griff bekommt und die Leistung besser skalieren kann.


Für Single Chip Lösung bietet ATi im Moment wirklich ein sehr gutes P/L Verhältnis, aber wer daran denkt einen SLI oder CF Verbund zu betreiben, der sollte im Moment wohl eher zu nVidia Karten greifen.

masterserial2
05.07.2008, 17:27
@ baggibox

es kommen noch diese versionen :

ati 4870 ,, 1gb ddr5 ca 250 euro

ati 4870x2 ,, 2gb ddr5 ca 430 euro

ati 4870x2 ,, 1gb ddr3 ca 380 euro

ati 4850x2 ,, 1 gb ddr3 ca 300 euro



mein fav. ist die 4870 x2 mit 2 gb ddr5 ,, wird auf jedenfall meine nächste karte ..

xeonsys
05.07.2008, 18:00
stimmt das ?

This Video card is equipped with GDDR-5 microcircuits from qimonda production with access time 0.5 ns

http://xtreview.com/addcomment-id-5655-view-HD-4870-preview.html

Fekl
06.07.2008, 00:34
Was denn da genau?
Die Crysis Benches?

Hab vorhin ma schnell gebenched. Die 4870 auf 790/4400 und hatte 25 FPS average im Crysis GPU Bench mit 1680*1050 und Very High

Dark9
06.07.2008, 00:59
AMD (http://xtreview.com/addcomment-id-5719-view-HD-4870-X2-for-499-dollars.html#) is interested in the fast appearance of the high end two-chip video card . The relationship of price and productivity could become strong competitive advantage. Finally, the GeForce GTX 280 is proposed for $649. AMD decided in the end of July to propose the standard version R700 with 2 X 1 Gb GDDR5 memory for $499. The video card frequencies are not refined. New PLX chip will support (http://xtreview.com/addcomment-id-5719-view-HD-4870-X2-for-499-dollars.html#) PCI express 2.0. The first r700 model will appear on July 15 this year . Simultaneously will begin the deliveries of separate RV770 video chips, which can be used for creating R700 versions with original design.

xeonsys
06.07.2008, 04:02
Was denn da genau?
Die Crysis Benches?

nein die 0.5ns :wink:

Counter233
06.07.2008, 10:14
Also 100% Aufpreis für 50% mehr Leistung ist schon recht heftig.
Zumindest mit den jetzigen Treibern schafft ATi es nicht die Spieleleistung im Durchschnitt um mehr als 50% anzuheben.

nVidia ist da mit 80% und mehr Leistungszuwachs durch eine zweite Karte deutlich besser. Ich hoffe mal, dass ATi das noch mittels Treiberupdates noch in den Griff bekommt und die Leistung besser skalieren kann.


Für Single Chip Lösung bietet ATi im Moment wirklich ein sehr gutes P/L Verhältnis, aber wer daran denkt einen SLI oder CF Verbund zu betreiben, der sollte im Moment wohl eher zu nVidia Karten greifen.


http://www.computerbase.de/artikel/h...e_gtx_260_sli/ (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/)

Habe mir genau das angeguckt, nachdem du auch geguckt hast und mir ist oft aufgefallen, dass die HD 4870 CF doppelt so schnell ist wie die Single Card...das heißt auch ein wenig schneller als SLI von der GTX 260...

Guck dir das mal an, war auch verwundert, da ich dachte, dass CF noch nicht so ausgereift ist ;)

noxon
06.07.2008, 12:09
Ähm.
Genau daher habe ich doch auch meine Informationen.

Guck dir das Performance Rating (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating) an. Das ist der Durchschnittswert aus allen Spielebenchmarks und die aussagekräftigste Grafik im ganzen Test. Sieh dir da mal die beiden Roten Balken an. Bei mir sind das immer nur um die 50%. Mal etwas mehr und mal weniger. Bei 1280x1024 ohne AA und AF sind sie sogar nur 30% schneller als eine einzelne Karte.

Wenn du dann mit der Maus über den nVidia Karten hoverst siehst du, dass die deutlich besser skalieren.


Vielleicht liegt es aber auch daran, dass ATi angeblich die Microruckler behoben haben soll. Da geht vielleicht ein wenig Leistung bei drauf. Dann stellt ich aber die Frage, was besser ist. 80% Leistungszuwachs mit Microruckler oder nur 50% ohne.

pilzbefall
08.07.2008, 01:58
Ähm.
Genau daher habe ich doch auch meine Informationen.

Guck dir das Performance Rating (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating) an. Das ist der Durchschnittswert aus allen Spielebenchmarks und die aussagekräftigste Grafik im ganzen Test. Sieh dir da mal die beiden Roten Balken an. Bei mir sind das immer nur um die 50%. Mal etwas mehr und mal weniger. Bei 1280x1024 ohne AA und AF sind sie sogar nur 30% schneller als eine einzelne Karte.

Wenn du dann mit der Maus über den nVidia Karten hoverst siehst du, dass die deutlich besser skalieren.


Vielleicht liegt es aber auch daran, dass ATi angeblich die Microruckler behoben haben soll. Da geht vielleicht ein wenig Leistung bei drauf. Dann stellt ich aber die Frage, was besser ist. 80% Leistungszuwachs mit Microruckler oder nur 50% ohne.
ich find´s merkwürdig plus schade, daß bisher niemand wirklich ernsthaft nachgeprüft hat, ob HD48XX in CF wirklich keine Microruckler mehr auftreten. Soweit ich weiß, bietet doch fraps die Möglichkeit, die frametimes mitloggen zu lassen bei Benchmarks, sodaß man das eindeutig feststellen könnte. Bei CoD4 oder Bioshock spielts sicher keine Rolle, aber für diese Games legt man sich auch nicht ne 2. Graka zu.

noxon
08.07.2008, 04:15
Ich frage mich auch, warum das keiner macht. Werte aufzeichnen, in's Spreadsheet einfügen, Diagramm erstellen und fertig ist die Sache.

HunT
08.07.2008, 09:58
Hmm, was mich interessieren würde...die HD4870X2 soll ja mit 2GB VRam kommen...ist da eigentlich nicht automatisch ein 64bit OS erforderlich, wenn z.B. auch noch 4GB Ram im Rechner hat?

Fusion145
08.07.2008, 10:42
Ja, das wird dann benötigt weil sonst nur ca. 2GB des Arbeitsspeichers genutzt werden könnten;-)

Dark9
08.07.2008, 11:59
wann kommt endlich die 4870 (1gb ddr5) raus????????

warpspeed
09.07.2008, 08:39
Nvidia unterstützt Portierung von PhysX auf Radeon-Grafikkarten

Seit kurzem stellt Nvidia für Grafikkarten mit GeForce GTX 280, GTX 260 und 9800 GTX einen Beta-Treiber bereit, der die GPU zur Berechnung von Physikeffekten in Spielen nutzt. Bisher unterstützt der Treiber das Nvidia-eigene Framework PhysX nur beim Grafik-Benchmark 3DMark Vantage und bei einer modifzierte Version von Unreal Tournament 3. Für Grafikkarten mit einem Radeon-Chip gab es bisher noch keine Physikunterstützung, auch wenn der Physik-Engine-Anbieter Havok und AMD vor einem Monat eine Zusammenarbeit auf diesem Gebiet vereinbart haben.
Anzeige

Dem Entwickler der modifizierten NGO-Grafiktreiber Eran Badit soll es nun gelungen sein, PhysX auch auf einer Radeon HD 3870 zu aktivieren. Da Nvidia PhysX bei Grafikkarten über die CUDA (Compute Unified Device Architecture) umsetzt, folgt daraus, dass sich auch andere mit CUDA entwickelte HPC-Anwendungen (High Performance Computing) auf GPUs von AMD ausführen lassen.

Inzwischen bekommt Badit für sein Vorhaben direkte Unterstützung von Nvidia und wurde in das Entwickler-Programm des Chipherstellers aufgenommen. Vor einem Jahr war das Verhältnis zwischen Nvidia und NGOHQ.com deutlich angespannter, als der GPU-Hersteller die nichtautorisierte Verbreitung von modifizierten Grafiktreibern rügte und den Stopp deren Entwicklung und Verbreitung forderte.

AMD gab bisher keinen Kommentar zur Portierung von PhysX auf Radeon-Grafikkarten ab. Im Unterschied zu den Mitbewerbern Intel (Havok) und Nvidia (PhysX) besitzt der Chiphersteller keine eigene Physik-Engine für 3D-Spiele. Ein firmenübergreifender Standard bei der Physikbeschleunigung wird erst mit DirectX 11 erwartet.

Das sind doch mal gute Nachrichten :D.

HunT
09.07.2008, 09:58
Super, bald haben wir 3 Standarts, wenn AMD auch noch ihren eigenen Mist verzapfen wollen! Ich freu mich schon auf die kommenden Inkompatiblitätsprobleme... :roll:

M@rshall15
09.07.2008, 17:09
hd4850x2 ?

http://www.pcgameshardware.de/aid,650652/News/HD_4850_X2_Auch_mit_2048_MiByte_Speicher/

xeonsys
10.07.2008, 17:49
Qimonda beschleunigt GDDR5 Produktion

Nachdem Qimonda im Mai mit der Massenproduktion von GDDR5-Speicher begonnen hatte und die Produkte in AMDs ATI Radeon HD 4800er Serie zum Einsatz kommen, plant man nun eine Ausweitung der Produktion.

Allerdings soll nicht nur die Produktion hochgefahren werden. Es sollen auch höhere Bandbreiten als die momentan üblichen 4.0 Gbps und 5.0 Gbps genutzt werden. In der nächsten Generation will man 6.4 Gbps erreichen - früher als noch im Jahr 2007 angedacht.


Auch bei den Speichergrößen werden aggressive Ziele gesetzt. So sollen die 512 MB Module bereits in drei Monaten durch die 1 GB Module beim Produktionsvolumen übertroffen werden. 2 GB Module sind für 2010 geplant.

Erfreuliches bahnt sich auch beim Stromverbrauch an, da man die momentane Spannungsversorgung von momentan 1,5 V schrittweise auf 1,2 V und dann 1,0 V reduzieren will.

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1215707337


das wird allso erst ab 2010 mit den 2GB:lol:

Baggibox
10.07.2008, 18:06
Boah was will man denn mit 2GB ????:ugly: Apollo 13 wieder von vorn starten lassen ?^^

Oh man hoffentlich fallen bald die Preise von der 4870...:p

masterserial2
10.07.2008, 18:17
die 4870x2 kommt mit 1gb und 2gb ( ddr5 ) speicher .... also von daher muss man auf keinen fall bis 2010 warten .... 2 gb module ( davon kommt nicht nur eines auf ne grafikkarte ) das heist dann der grafik speicher in 2 jahren würde sich locker auf 4 gb oder 8 gb steigern ... was für die spiele auf Raytracing auch locker nötig haben werden ...


:smile:8)

Nixblicker
11.07.2008, 11:43
http://www.gamestar.de/hardware/news/grafikkarten/1947074/ati.html

*Kriegs geräusche* :D

Edit: http://de.youtube.com/watch?v=DYnXxI1UjxE&feature=user Das ein Test welche Grafikkarte schneller ist bei Crysis :)

Ich würde sagen Gleichstand

M@rshall15
11.07.2008, 11:52
http://www.gamestar.de/hardware/news/grafikkarten/1947074/ati.html

*Kriegs geräusche* :D

Edit: http://de.youtube.com/watch?v=DYnXxI1UjxE&feature=user Das ein Test welche Grafikkarte schneller ist bei Crysis :)

Ich würde sagen Gleichstand

das Wird sich aber diesmal bestimmt im preis zeigen :D die wird bestimmt so teuer wie die gtx280 :lol: ich kauf mir die hd4870 und dann später noch eine hab das gleiche davon :lol:

HunT
11.07.2008, 14:39
http://www.gamestar.de/hardware/news/grafikkarten/1947074/ati.html

*Kriegs geräusche* :D

Was will man auch erwarten? Zwei GPUs gegen eine GPU...logisch, dass die HD4870X2 schneller sein wird. Würde mich wundern, wenns nicht so wäre. :roll: Und im günstigen Preis der HD4870X2 erkläre ich mir auch die unausgegarene Hardware, die da auf uns zu kommen wird. Ich dachte, AMD will Geld verdienen...

Abgesehen davon hören sich 80% eher utopisch an, als realistisch. 50% ja, aber keine 80%, aber auch hier wird es von Spiel zu Spiel unterschiedlich sein.

Baggibox
11.07.2008, 15:36
PCGAMESHARDWARE:
Graka Test für Crysis (http://www.pcgameshardware.de/aid,650880/Test/Benchmark/Spielbarkeit_von_GT200_und_RV770_in_Crysis/&page=2)
HD3850, HD4870, GTX260, GTX280

Die HD4870 ist ja voll die Wunderwaffe.:-o:razz:
Jetzt wurde ich entgültig überzeugt !!

User Zitate:

Ich Finde die Leistung der HD4870 einfach nur genial, sie schlägt die GTX260 durchgehend

Ich zocke Crysis momentan mit zwei 4850ern auf 1680x1050, Very High, Dx10, ohne AA flüssig.

Also ich bin überrascht das die neuen Radeons sich so gut halten . http://www.pcgameshardware.de/community/smileys.test/enhanced/haeh.gif


Einfach Top die HD4870 von der P/L her http://www.pcgameshardware.de/community/smileys.test/enhanced/sm_B-).gif die schlägt sich sogar sehr gut im Nvidia vorzeige Game Nr. 1 http://www.pcgameshardware.de/community/smileys.test/enhanced/sm_B-P.gif
In 1680x1050, 2xAA/16xAF ist sogar gleichstand gegenüber der deutlich teureren GTX280 http://www.pcgameshardware.de/community/smileys.test/enhanced/sm_B-X.gif


AMD hat im zweiten Quartal verluste gemacht !
Die HD4000er Serie verkäuft sie aber gut, sagten sie.

Nixblicker
11.07.2008, 15:47
PCGAMESHARDWARE:
Graka Test für Crysis (http://www.pcgameshardware.de/aid,650880/Test/Benchmark/Spielbarkeit_von_GT200_und_RV770_in_Crysis/&page=2)
HD3850, HD4870, GTX260, GTX280

Die HD4870 ist ja voll die Wunderwaffe.:-o:razz:
Jetzt wurde ich entgültig überzeugt !!

Guter test :)

also da sieht man es das die 4870 es drauf hat ;) :)

Baggibox
11.07.2008, 16:00
http://www.abload.de/img/01_avg_crysis_1280_n9w2.png (http://www.abload.de/image.php?img=01_avg_crysis_1280_n9w2.png)

Die HD4870 schafft ja 41 Frams bei High Settings.
Glaubt ihr man ist noch auf der sicheren 30 Frames Seite, wenn man alles auf Very High stellt und das unter Windows Vista ?

Nixblicker
11.07.2008, 16:02
http://www.abload.de/img/01_avg_crysis_1280_n9w2.png[/IMG][/url]

Die HD4870 schafft ja 41 Frams bei High Settings.
Glaubt ihr man ist noch auf der sicheren 30 Frames Seite, wenn man alles auf Very High stellt und das unter Windows Vista ?

Ich denk mal mehr 20 - 25 fps ^^
Weil die GTX280 auch so um den dreh schafft. Aber abwarten auf gudde Treiber ;)

masterserial2
11.07.2008, 16:20
würd ich auch sagen ... ,,, erstmal abwarten bis die richtigen treiber dafür da sind die 8.7 sind ja nur beta .... . so wars auch anfangs bei meiner 3870 er ,,,, mit monatlichen treiber update ... an crysis gemessen hatte ich vom 8.2 - 8.6 treiber locker 30 % steigerung .... möchte wetten in 1 -2 monaten ist die 4870 auf 280 er level ...


und wenn erstmal die 4870 mit 1 gb speicher kommt oder die x2 mit 2gb .. dann kann nivida schonmal die schublade aufmachen und die nächste generation auf den tisch legen... weil mit der 260 er und 280er wird das dann nichts mehr seiden sie senken die preise auf ati level .... was ich aber nicht glauben kann -- :)

Nixblicker
11.07.2008, 16:23
möchte wetten in 1 -2 monaten ist die 4870 auf 280 er level ...

Das ist sie ja schon ^^

masterserial2
11.07.2008, 16:25
oder besser gesagt weit drüber ... :))
:razz:

masterserial2
11.07.2008, 16:33
http://www.abload.de/img/01_avg_crysis_1280_n9w2.png (http://www.abload.de/image.php?img=01_avg_crysis_1280_n9w2.png)

Die HD4870 schafft ja 41 Frams bei High Settings.
Glaubt ihr man ist noch auf der sicheren 30 Frames Seite, wenn man alles auf Very High stellt und das unter Windows Vista ?





also bei ati sind die treiber für vista viel besser als die für xp ... kann man immer ganz gut am changelog vom treiber sehn .. und benchmarks bestätigen das auch .... also ich hab keinen unterschied von der leistung ob xp oder vista .... manchmal sogar 1- 2 fps mehr als mit xp ....

Baggibox
11.07.2008, 16:49
Das ist sie ja schon ^^


Ne an die 280 kommt die nicht ran aber die 260 wurde schon übertrumpft !

Sir_Nitro
11.07.2008, 17:03
´stellt euch vor eine 4870 mit 1gb Gddr5 wird schneller als ne GTX280.
4870X2 GDDR5 2GB die geht ja porno :p

HunT
11.07.2008, 17:16
´stellt euch vor eine 4870 mit 1gb Gddr5 wird schneller als ne GTX280.
4870X2 GDDR5 2GB die geht ja porno :p

Wovon träumst du nachts? 8)

Baggibox
11.07.2008, 17:19
´stellt euch vor eine 4870 mit 1gb Gddr5 wird schneller als ne GTX280.
4870X2 GDDR5 2GB die geht ja porno :p


Das wird doch alles rocken !!!

2x 4870X2 in Crossfire. Da geht einen echt einer AB !!!:twisted:

noxon
12.07.2008, 01:43
Und im günstigen Preis der HD4870X2 erkläre ich mir auch die unausgegarene Hardware, die da auf uns zu kommen wird.Was musst du eigentlich immer auf ATi rumhacken? Du behauptest hier Dinge für die du absolut keine Anhaltspunkte hast.

Guck dir lieber mal deinen Liebling nVidia an, bevor du hier die ATi Karten niedriger Qualität bezichtigst.
Nvidia-Grafikchips mit Lebensdauerproblemen (http://www.heise.de/newsticker/Nvidia-Grafikchips-mit-Lebensdauerproblemen-Update--/meldung/110750)

Hamers
12.07.2008, 02:02
Wenn du doch eh nur zu meckern hast, dann kannst du doch gleich bitte in deinem NVidia Thread bleiben, ok?:-|

Außerdem willst du wohl nicht einsehen, dass ATI ein besseres P/L zur Zeit hat und versuchst deshalb ständig, dann mit sonen Sprüchen es wieder gleichzustellen bzw. ATI runterzureden:(

Bist du etwa ein schlechter Verlierer oder wie soll ich das verstehen?

Nur zu deiner Information:

Nvidia macht grad enorme Verluste(das wird sie natürlich gar nicht stören, da sie 20 Milliarden auf Vorrat haben:roll:), da ihre Produktionskosten deutlich höher sind als ihre Einnahmen(die GTX 260 liegt 100€ unter ihrer Vorstellung) und das hast du ATI zu verdanken;)

BTT:

Ich denke auch, dass die 4870 X2 die Bude rocken wird:)

Mfg

TheUnusual
12.07.2008, 02:32
@Spoiler: 100 Euro unter der eigentlichen Vorstellung? :shock:
Niedrige Herstellungskosten gute Leistung... Ich wünsche und hoffe dass ATI bzw. AMD wieder einmal schwarze Zahlen schreiben. Wir brauchen den Konkurrenzkampf.

ZaCXeeD
12.07.2008, 02:38
100 Euro unter der eigentlichen Vorstellung? :shock:
Kann man somit die Karten von ATI als innovativ bezeichnen?
Niedrige Herstellungskosten gute Leistung... Ich wünsche und hoffe dass ATI bzw. AMD wieder einmal schwarze Zahlen schreiben. Wir brauchen den Konkurrenzkampf.

lol kannst du nur rummeckern?

schonmal was zum thema geschrieben

BTT!

Also wie ich soweit auf den stand ist gibt es keine defenitiven Benches zu der HD4870X2 stimmt oder?

Die Frage ist muss ma da was anderen haben oder so vom motherboard her, damit man die benutzen kann?

TheUnusual
12.07.2008, 02:46
Also wie ich soweit auf den stand ist gibt es keine defenitiven Benches zu der HD3870X2 stimmt oder?

Die Frage ist muss ma da was anderen haben oder so vom motherboard her, damit man die benutzen kann?
Ich mecker nicht rum :roll: Fanboygelaber kann ich jedoch nicht ausstehen. Man darf schon eine Marke bevorzugen aber sollte trotzdem neutral bleiben.

Du meinst wohl die HD4870X2?
Wieso sollte man da was "anderes" haben? Bzw. was stellst du dir vor?

ZaCXeeD
12.07.2008, 02:49
Ich mecker nicht rum :roll:

Du meinst wohl die HD4870X2?
Wieso sollte man da was "anderes" haben? Bzw. was stellst du dir vor?

also habs editiert^^

ähm ja, ich weis nicht, was weis ich ein anderer motherboard chipsatz ich weis nicht, ich kann mir einfach nicht vorstellen, dass die karte alles plug und play hat und dann nicht irgendetwas besonderes braucht

Hamers
12.07.2008, 02:51
@Crysis2142

Nein es gibt noch keine Benches;)

Ich denke die 4870 wird weitesgehend mit dem aktuellen Hardware Stand kompatibel sein und mit deinem sowieso:D

Mfg

ZaCXeeD
12.07.2008, 02:53
@Crysis2142

Nein es gibt noch keine Benches;)

Ich denke die 4870 wird weitesgehend mit dem aktuellen Hardware Stand kompatibel sein und mit deinem sowieso:D

Mfg

Naja ich hab nicht vor ne ATI zu holen, ich find es nur interessant, wie die sich machen, mal schauen, auf Benches dann abwarten^^

masterserial2
12.07.2008, 08:48
hier ist alles über die 4870x2 zu lesen auch 3dmark vantage benchmark --
http://www.pcgameshardware.de/aid,651139/News/Folien_mit_Details_zur_HD_4870_X2_alias_R700/Spartan_aufgetaucht_Update_Taktraten_Leistungsaufn ahme_3DMark-Vantage-Werte/


das die lässt alles hinter sich ---- :razz: die x2 werd ich auf jeden fall nach release mein eigen nennen .... und falls der karte dann doch mal der saft ausgeht kommt einfach noch ne 2 te davon rein ... x4 crossfire .. damit ist sogar farcry2 und crysis auf maximalen details möglich wenn ati jetzt auch noch die PhysX auf den karten zum laufen bringen ist es vorbei mit nivida ... finde sowieso wer die 200 reihe gekauft hat ,, hat grossen fehler gemacht da das eh nur ein lückenfüller ist bis dezember oder januar .. weil da nivida auch erst x10.1 auf ihren karten bring ---- :)

und was x10.1 wirklich bring brauch ich ja hoffentlich seit Assassin's Creed keinen mehr zu erklären ...

LKrieger
12.07.2008, 12:57
Hier gehts nicht um NV sondern um ATI!!! Bleibt bei dem Thread bitte bie ATI. Is echt der Hammer - man bräuchte eigentlich nur die beiden Threadnamen umbenennen - und schon würde alles passen - LOL

Mfg LKrieger

Nixblicker
13.07.2008, 13:42
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/hd_4870_200_hd_4850_130_euro/

Irgendwann kann sich das ein Kiosk leisten :lol:

CRYSISTENSE
13.07.2008, 14:29
Es sieht so aus, als müsste man die 4870x2 unbedingt noch abwarten. Gut möglich, dass dann der Preis einer 4870 auf 150€ fällt.

Wird denn ein 8pin-Adapter bei der x2 mitgeliefert bzw. darf man einen verwenden? Extra dafür dann ein neues NT, wäre schon etwas übertrieben.

masterserial2
14.07.2008, 20:19
hier gibts die ersten offizellen benchmarks der 4870x2 : http://www.pcgameshardware.de/aid,651333/News/R700_Erste_Previews_zur_HD_4870_X2/

CRYSISTENSE
14.07.2008, 20:22
hier gibts die ersten offizellen benchmarks der 4870x2 : http://www.pcgameshardware.de/aid,651333/News/R700_Erste_Previews_zur_HD_4870_X2/

Danke, wirklich sehr informativ.

"Dort, wo CF funktioniert, skaliert es hervorragend mit über 80 bis fast 100 Prozent"

Das sind doch mal gute Nachrichten:D

masterserial2
14.07.2008, 21:19
was mich an der 4870x2 wirklich fertig macht ist das man damit rein theoretisch 8x crossfire mit 4 von den karten betreiben könnte obs was bringt is dahingestellt aber allein der gedanke daran macht mich wuschig :)

Killuminati91
15.07.2008, 10:34
gibts hier jemand der von 88gt auf 4870 umgestiegen is?
Müsste sehen ob sich die ~ 100€ lohnen.

noxon
15.07.2008, 11:22
Und weiter geht's.
ATi plant GPUs in 40 nm für das erste Quartal 2009 (http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/ati_gpus_40_quartal_2009/)

HunT
15.07.2008, 12:35
Und weiter geht's.
ATi plant GPUs in 40 nm für das erste Quartal 2009 (http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/ati_gpus_40_quartal_2009/)

Bis dahin dauerst ja noch und es gab ja auch Gerüchte, dass NV den GT300 in 40nm fertigen will...also einfach mal abwarten...man kommt ja garnicht mehr mit mit dem Grakakauf.

Einerseits ist Konkurenz gut wegen Fortschritt und günstigere Preise, andererseits aber schlecht, da man alle 3 Monate sich ne neue Graka kaufen kann. Ich wünschte, es gebe nochmals sowas wie den G80, somit hätte man 2 Jahre Ruhe! Beides ein Vorteil für Kunden...

PIMP50
15.07.2008, 13:33
sei doch ersmal froh das ati wieder ne super grafikkarte rausgebracht hat!!! Somit muss nvidia sich mal wieder anstrengen ne super graka zu machen und sich net ausruhen kann!!!

aba glaube das versteht dein nvidia gehirn nicht!!!!

HunT
15.07.2008, 13:35
sei doch ersmal froh das ati wieder ne super grafikkarte rausgebracht hat!!! Somit muss nvidia sich mal wieder anstrengen ne super graka zu machen und sich net ausruhen kann!!!

aba glaube das versteht dein nvidia gehirn nicht!!!!

Ich glaube, du verstehst nicht, worum es eigentlich geht...

warpspeed
15.07.2008, 13:41
Hier auch noch was bezüglich "Radeon 4870 X2 schlägt GeForce GTX-280"...
Ich weiss, schon bekannt aber mal aus anderer Quelle ;).

http://www.golem.de/0807/61054.html

PIMP50
15.07.2008, 13:43
doch..bei dir geht es immer nur um nividia xD kb mit dir zu diskutieren kommt eh nix vernüftiges bei raus...alle beiträge die du schreibs..egal hier oder im luxx is pro nvidia und kontra ati!!!! jeder!!!

Jeder profitiert von der hd48x0 serie..glaube nicht das man sons ne gtx280 für 350€ jetzt bekommen würde!!!

HunT
15.07.2008, 13:55
doch..bei dir geht es immer nur um nividia xD kb mit dir zu diskutieren kommt eh nix vernüftiges bei raus...alle beiträge die du schreibs..egal hier oder im luxx is pro nvidia und kontra ati!!!! jeder!!!

Machst du ja auch nicht anders mit ATI...zwei dumme, der einen nicht besser als der andere... :-D

noxon
15.07.2008, 13:59
doch..bei dir geht es immer nur um nividia xD kb mit dir zu diskutieren kommt eh nix vernüftiges bei raus...alle beiträge die du schreibs..Ich hab mir den Kommentar dazu schon verkniffen.
Ich wollte nur die News posten, das ATi jetzt auch bald auf den 40nm Prozess wechseln wird und ein paar Minuten später war sofort wieder ein Posting von ST da, dass nvidia auch wechseln werde.

Dabei tut es hier gar nichts zu Sache. Naja. Was solls. Bitte zettelt jetzt keinen Krieg an.


Ich werde jetzt sowieso erst einmal abwarten. Vielleicht kaufe ich mir bald ne 4870 zur Überbrückung bis der RV870 oder G300 erscheint. Diese Chips werden dann ja hoffentlich schon DX11 unterstützen. Von daher werde ich jetzt nicht mehr viel Geld für eine DX10 Karte ausgeben.
Noch kann ich meine 8800 GTS für 100 EUR verticken und für 200 EUR bekommt man schon eine 4870. Damit werde ich dann die nächsten Monate übestehen und dann wird bei den Nachfolgechips kräftig zugeschlagen.

Mal sehn, wer da das Rennen macht. am Wichtigsten ist mir neben der Geschwindigkeit eigentlich nur der Stromverbrauch im Idle Zustand. Da wird sich ja hoffentlich noch einiges tun.

HunT
15.07.2008, 14:25
Ich hab mir den Kommentar dazu schon verkniffen.
Ich wollte nur die News posten, das ATi jetzt auch bald auf den 40nm Prozess wechseln wird und ein paar Minuten später war sofort wieder ein Posting von ST da, dass nvidia auch wechseln werde.

Dabei tut es hier gar nichts zu Sache. Naja. Was solls. Bitte zettelt jetzt keinen Krieg an.


Ich werde jetzt sowieso erst einmal abwarten. Vielleicht kaufe ich mir bald ne 4870 zur Überbrückung bis der RV870 oder G300 erscheint. Diese Chips werden dann ja hoffentlich schon DX11 unterstützen. Von daher werde ich jetzt nicht mehr viel Geld für eine DX10 Karte ausgeben.
Noch kann ich meine 8800 GTS für 100 EUR verticken und für 200 EUR bekommt man schon eine 4870. Damit werde ich dann die nächsten Monate übestehen und dann wird bei den Nachfolgechips kräftig zugeschlagen.

Mal sehn, wer da das Rennen macht. am Wichtigsten ist mir neben der Geschwindigkeit eigentlich nur der Stromverbrauch im Idle Zustand. Da wird sich ja hoffentlich noch einiges tun.

Sorry noxon, wollte nur deine Euphorie etwas mildern...

CRYSISTENSE
15.07.2008, 15:19
Sorry noxon, wollte nur deine Euphorie etwas mildern...

Noxon kann man doch nicht als euphorisch bezeichnen^^ Und selbst wenn er es wäre, könnte ihm das keiner verübeln;) Da solltest du mal im Luxx schaun, wo täglich 20-30 Seiten zu einer Karte geschrieben werden.

Die 4870 soll bei 10% OC auch 10% mehr Leistung bringen. Wirklich beachtlich:shock:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/ati_radeon_hd_4870_limit/

Baggibox
22.07.2008, 02:49
juuhuhu PCgamesHardware hat sie nun auch bekommen !

Die 1GB Variante (HD4870X2)

http://www.pcgameshardware.de/aid,652739/News/AMD_Radeon_HD_4870_X2_im_PCGH-Testlabor_eingetroffen_-_Benchmark-Test_folgt/

CRYSISTENSE
22.07.2008, 07:06
Allerdings bewertet pcgh immer schlecht, wenn es um ATI-Karten geht. Also bitte nicht zu viel Wert auf diesen Test legen!

M@rshall15
22.07.2008, 07:13
Morgen <3 :D

Ich bin sehr gespannt wie die abgeht. Die wird bestimmt in very high 1.680x1.050 abgehn und vielleicht soger mit 2x oder 4x AA flüssig laufen :) Wenn nicht dann die 2 GB Variante!

Die News is ja schon paar stunden alt aber es sind immer noch keine Benchmarkes zu sehn O.o

cry4me
22.07.2008, 07:36
ein bekannter von mir hat sich 3stk gtx280er gekauft :)
und gleich dazu ein 1000 watt netzteil haha...

also mit seinem QXirgendwas und dem 3-way gts280 SLI gespann funktioniert crysis nun ziemlich gut *g*

M@rshall15
22.07.2008, 07:42
ein bekannter von mir hat sich 3stk gtx280er gekauft :)
und gleich dazu ein 1000 watt netzteil haha...

also mit seinem QXirgendwas und dem 3-way gts280 SLI gespann funktioniert crysis nun ziemlich gut *g*

lol flasches forum :D
Nvidia ein drunter^^

cry4me
22.07.2008, 08:31
wollts nur anbringen :)
ich fands so schön krank das sich jemand 3x 280gtx gleich am ersten tag kauft..
pro stk 508€ :)

paraphonatic
22.07.2008, 09:06
wollts nur anbringen :)
ich fands so schön krank das sich jemand 3x 280gtx gleich am ersten tag kauft..
pro stk 508€ :)


Davon gibts hier angeblich noch so einen ;-)


so nun aber btt, naja ich warte jetzt noch ne woche mit neuer hardware kaufen, vllt wird ja doch noch ne ATI Karte, prozessor kommt aufjedenfall nen Phenom 9950 rein auf nen Gigabyte 790FX DQ6 board da weiss ich das ich nix falsch mache,
mit Intel hatte ich die letze zeit nur stress...........


@Topic, ich hoffe PCGH macht schnell benches und wartet net wieder ne woche :x


-Para

cry4me
22.07.2008, 09:11
Davon gibts hier angeblich noch so einen ;-)


so nun aber btt, naja ich warte jetzt noch ne woche mit neuer hardware kaufen, vllt wird ja doch noch ne ATI Karte, prozessor kommt aufjedenfall nen Phenom 9950 rein auf nen Gigabyte 790FX DQ6 board da weiss ich das ich nix falsch mache,
mit Intel hatte ich die letze zeit nur stress...........


@Topic, ich hoffe PCGH macht schnell benches und wartet net wieder ne woche :x


-Para

Also mit Intel hatte ich wirklich noch NIE probleme.. Mit AMD/ATI hingegen schon oft genug.. auch wenns schon länger her is.
Ich freu mich das AMD/ATI mit der 4870 ein gutes teil gebaut hat, aber ich tendiere trotzdem eher zu Nvidia :)

Zur zeit hab ich wieder meine 8800gts G80 drinnen :(...
meine 9800GX2 war nicht wassertauglich musste ich merken *heul*

bin gespannt was Intel mit dem Labree(oder wie man das schreibt) landet

HunT
22.07.2008, 10:49
Allerdings bewertet pcgh immer schlecht, wenn es um ATI-Karten geht. Also bitte nicht zu viel Wert auf diesen Test legen!

So ein Schmarn! PCGH verwendet im Gegensatz zu Computerbase wenigstens aktuelle Treiber! Du willst mir doch nicht weis machen, dass du beispielsweise CB mehr glaubst als PCGH, oder? Naja egal...

CRYSISTENSE
22.07.2008, 11:04
So ein Schmarn! PCGH verwendet im Gegensatz zu Computerbase wenigstens aktuelle Treiber! Du willst mir doch nicht weis machen, dass du beispielsweise CB mehr glaubst als PCGH, oder? Naja egal...

Das wurde schön öfter "festgestellt". Immer bei diesen Tests schneiden die ATI-Karten besonders schlecht ab. (könnte höchstens sein, dass ich es mit CB verwechselt habe, muss ich nochmal nachlesen....)

HunT
22.07.2008, 11:17
Das wurde schön öfter "festgestellt". Immer bei diesen Tests schneiden die ATI-Karten besonders schlecht ab. (könnte höchstens sein, dass ich es mit CB verwechselt habe, muss ich nochmal nachlesen....)

Ironischerweise habe ich auch schonmal anderweitige Vorwürfe gegen PCGH gelesen. Und zwar wird PCGH vorgeworfen Anti Nvidia zu sein, wenn Nvidia Karten schlechter abschneiden, als es viele gerne hätten und andersrum.

Ich denke, PCGH wird nur von Fanboys eine Pro und Anti Politik vorgeworfen, ich dagegen vertraue dem PCGH Test jedenfalls mehr als dem von CB.

Steiner
22.07.2008, 11:40
Sehet her...http://hardware-infos.com/news.php?news=2234

Hammer 8O

400-500$...Bis Dezember ist die mit Sicherheit auf 200-300 geschrumpft . Dann weiss ich , welches meine nächste Grafikkarte wird :lol:

M@rshall15
22.07.2008, 11:48
Sehet her...http://hardware-infos.com/news.php?news=2234

Hammer 8O

400-500$...Bis Dezember ist die mit Sicherheit auf 200-300 geschrumpft . Dann weiss ich , welches meine nächste Grafikkarte wird :lol:

Glaube kaum das der preis so schnell sinkt. In 1 jahr glaube ich es mehr

CRYSISTENSE
22.07.2008, 11:56
Das sind wirklich gute Werte. Noch die neuen Karten von Nvidia abwarten und man bekommt die x2 vielleicht schon bald für 300€.

HunT
22.07.2008, 11:59
Das sind wirklich gute Werte. Noch die neuen Karten von Nvidia abwarten und man bekommt die x2 vielleicht schon bald für 300€.

Hoffentlich kommt der GT200b rechtzeitig. Der wird dann auch nicht mehr kosten, denn NV weiß, dass sie nicht höher gehen kann als die HD4870X2 kosten wird.

paraphonatic
22.07.2008, 12:01
Ich hoffe die X2 kostet nhet mehr wie 400€ dann kommt sie vllt doch in meine kiste, sonst wird es doch ne GTX 280 ;-)




-Para

CRYSISTENSE
22.07.2008, 12:03
Hoffentlich kommt der GT200b rechtzeitig. Der wird dann auch nicht mehr kosten, denn NV weiß, dass sie nicht höher gehen kann als die HD4870X2 kosten wird.

Mit dem GT200b muss Nvidia weit unter der x2 liegen, was den Preis angeht. Schließlich ist diese Reihe nur geringfügig schneller. Da der Gewinn größer sein soll, könnten sie es also höchstens mit extrem niedrigen Preisen probieren.

HunT
22.07.2008, 12:08
Mit dem GT200b muss Nvidia weit unter der x2 liegen, was den Preis angeht. Schließlich ist diese Reihe nur geringfügig schneller. Da der Gewinn größer sein soll, könnten sie es also höchstens mit extrem niedrigen Preisen probieren.

Na du weißt doch garnicht, wie schnell der GT200b sein wird. Was zählt sind sowieso die Min fps...

Heinz_Baer
22.07.2008, 12:48
Die Benches von Crysis sehen aber noch nicht so rosig aus. Natürlich liegt das am X2, die Treiber müssen noch optimiert werden, aber darauf würde ich auch warten. Wenn die Werte bei Crysis nämlich so bleiben, war es ein Griff ins Klo.

Klick (http://www.pcgameshardware.de/aid,651333/News/R700_Erste_Previews_zur_HD_4870_X2/&menu=browser&mode=article&image_id=854615&article_id=651333&page=2)

EDIT: Und wenn ich es mir richtig anseh, die 4870 ist im Crossfire bei Crysis ja schlechter als eine Einzelkarte. Und im Crossfire stecken die aktuellsten Treiber wohl drin. Damit dürfte sich bei der X2 ja auch nicht mehr viel ändern, oder?

CRYSISTENSE
22.07.2008, 13:08
Bei Crysis wird die x2 höchstens die gleichen fps haben, wie die GTX280. Das Spiele wurde schließlich mit Nvidia entwickelt. Bei anderen Spielen ist die x2 dafür fast doppelt so schnell, wie die 280. Wer Crysis unbedingt mit extremen settings spielen möchte, sollte momentan noch auf Nvidia setzen. Wird wohl mindestens noch eine Generation brauchen, bis die Ruckler ganz verschwunden sind:/

Nixblicker
22.07.2008, 13:27
Hmm mal ne frage
Würde CryTek mit ATI gearbeitet haben, würde die 4870X2 schneller sein
als die GTX280 bei Crysis oder ?

Steiner
22.07.2008, 13:29
Hmm mal ne frage
Würde CryTek mit ATI gearbeitet haben, würde die 4870X2 schneller sein
als die GTX280 bei Crysis oder ?
Ja , locker . Siehe hardware-infos.com ...

Crysis unterstützt nur kein CF , daher ist die x2 kaum schneller als eine einzelne 4870 .

Nixblicker
22.07.2008, 13:37
@ Steiner ok thx ;)

http://www.alternate.de/html/product/Grafikkarten_ATI_PCIe/PowerColor/HD4870/276921/?articleId=276921

Würg 8O

paraphonatic
22.07.2008, 13:40
@ Steiner ok thx ;)

http://www.alternate.de/html/product/Grafikkarten_ATI_PCIe/PowerColor/HD4870/276921/?articleId=276921

Würg 8O


Wieso würg ? ;-)

ein grund das Nvidia noch weiter runte rgeht mit den preiß *freu* :lol: ^^




-Para

Steiner
22.07.2008, 13:47
Tja die 4870 schlägt die GTX 260 mit links . Und das zu dem Preis ;)

Nixblicker
22.07.2008, 13:59
Wieso würg ? ;-)

ein grund das Nvidia noch weiter runte rgeht mit den preiß *freu* :lol: ^^




-Para

Würg heißt bei mir (Boaa, Hammer, heftig) :-o

paraphonatic
22.07.2008, 14:17
Tja die 4870 schlägt die GTX 260 mit links . Und das zu dem Preis ;)



öhm..

naja die GTX 260 kostet auch nurnoch 220 euro :P


-Para

Dark9
22.07.2008, 14:41
hab mir die 4870x2 bei k&m registriert, zwar wissen die den genauen release noch nicht, aber wenigstens hab es mir sichergestellt.

sobald sie habe gehts los mit zoggn

M@rshall15
22.07.2008, 15:00
Ich hab mir gerade im Katalog die Daten nochmal von GTX280 und HD4870 vergliechen. Die HD hat nur 256 bit und die gtx280 hat 512 bit, sonst hat ATI's Karte überall mehr aber trotzdem ist sie schlechter als die GTX280. Warum ist das soo? :lol::lol:

noxon
22.07.2008, 15:09
Ich hab mir gerade im Katalog die Daten nochmal von GTX280 und HD4870 vergliechen. Die HD hat nur 256 bit und die gtx280 hat 512 bit, sonst hat ATI's Karte überall mehr aber trotzdem ist sie schlechter als die GTX280. Warum ist das soo? :lol::lol:Du kannst die Daten nicht wirklich miteinander vergleichen, da ATi und nVidia ganz unterschiedliche Architekturen verwenden.

ATi hat zwar bis zu 800 Streaming Prozessoren und nVidia nur 240 Shadereinheiten, aber die 800 Prozessoren von ATi lassen sich nie perfekt auslasten, da sie immer zu fünft zu einem Shader zusammengefasst sind. Spezielle Shaderoperationen können die Leistung optimal nutzen, während Andere wiederum nur einen Teil der 5 Prozessoren ausnutzen kann. Da verpufft also jede Menge Leistung. Das hängt dann also immer vom Spiel ab und welche Operationen es verwendet. Auch die Qualität des treibers von ATi spielt eine wichtige Rolle dabei.

Ein weiterer Grund, warum nVidia mit so wenigen Shadern auskommt ist, dass sie ihre Shader deutlich schneller takten als ATi. Nehmen wir also mal an, dass bei ATi nur die Hälfte der Streamingprozessoren effektiv genutzt werden können, dann bleiben nur noch 400 Operationen pro Takt übrig. Da die Prozessoren bei ATi aber auch nur halb so hoch getatket sind wie die bei nVidia rechnen sie auch nur halb so schnell wie die nVidia Shader im gleichen Zeitraum.
Also stehen sich zum Schluss 200 Operationen den 240 Operationen von nVidia gegenüber, wobei dort natürlich auch noch Verlsute auftreten und nicht alle 240 Shader komplett genutzt werden können. Letztendlich rechnen dann doch beide Karten ungefähr gleich schnell.

Das Ganze ist natürlich nur eine ganz grobe Milchmädchenrechnung. In Wirklichkeit ist das alles viel viel komplexer, aber es zeigt, dass du die Daten nciht wirklich miteinander vergleichen kannst.

Beim Speicher muss man genau so aufpassen. 256 Bit heißt nicht unbedingt, dass ATi nur halb so schnell ist wie nVidia mit 512 bit, denn schließlich verwendet ATi GDDR5 Speicher der doppelt so schnell getaktet ist als der GDDR3 von nVidia. Das reißt einen Großteil der geringeren Busbreite wieder raus. Die Speicherbandbreite ist auch hier bei beiden Karten fast identisch hoch.

nVidia verwendet also günstigeren Speicher und eine teure Platine, die schlecht für Multi-GPU Lösungen geeignet ist, während ATi lieber den teureren Speicher verwendet, dafür aber die möglichkeit hat günstig Multi-GPU Platinen herstellen zu können. Jeder hat da seine eigene Strategie entwickelt und versucht den besten Weg zu finden um die Kosten gering zu halten und dabei die beste Leistung herauszuholen.

Naja. Alles in allem kann man die Daten also nicht wirklich vergleichen und jede Architektur hat ihre unterschiedlichen Stärken und Schwächen. Einige Spiele laufen auf den Karten besser und andere Spiele wiederum besser auf den anderen Karten.
Die eine Karte kommt mit AA besser klar als die Andere, welche wiederum besser mit hohen Auflösungen klar kommt und so weiter und so fort. Man muss immer einen ganz speziellen Fall betrachten, wenn man entscheiden will, welche Karte besser ist. eine allgemeingültige Aussage kann man heut zu Tage nicht mehr treffen. wer zum Beispiel auf 8xAA steht kommt um ATi nciht drum herum. Da ist die Karte unschlagbar.

Letztendlich würde ich mich immer nach den Benchmarks richten und dort auch nicht auf synthetische Benchmarks wie den 3D-Mark achten. Die sind genauso wie die technischen Daten relativ realitätsfremd und spiegeln nicht wirklich die tatsächliche Spieleleistung wieder.
Am Besten ist es, man betrachtet sich einen Mittelwert aus allen getesteten Spielen bei einer bestimmten Auflösung, die man haben möchte und vergleicht dann die Karten.

Ich interessiere mcih zum Beispiel nur für Benchmarks in 1680x1050 bei 4xAA und 16xAF. Also vergleiche ich auch nur das Performancerating (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating_qualitaet) bei 1600x1200 @ 4xaa und 16xAF an und entscheide danach, welche Karte für mich besser ist.

cry4me
22.07.2008, 15:13
muss noxon recht geben...
Was bringt dir ein 512bit speicherinterface wenn du sie nicht richtig verwendest?

Wäre ja das selbe wenn du einen 35cm pimmel hast und zu blöd bist ihn zu verwenden *G*.. da is jeder 12cm inhaber glücklicher +g+

naja, du weisst was ich meine :)

Daten hin oder her... das P/L ist bei der ATI 4850 und 4870 einfach um welten besser als bei der 280gtx..

bin momentan noch etwas unentschieden was ich mache.. schwanke zwischen ne 4870er und einer neuen 9800gx2 (meine ist ja quasi ins wasser gefallen *lol*)...
oder ich wart einfach noch bis zum winter, bis jetzt reicht meine 8800gts g80 noch problemlos für alle games (außer crysis hald *lol*)

M@rshall15
22.07.2008, 15:24
[....]

Ersmal ein goßes Danke für die Aufklärung :D

Auf die 3d-Marks hab ich auch nie drauf geguckt. Hab ja ein 17 Zoll Monitor desshalb guck ich mir nur Benches bei der Auflösung 1280x1024 an und vergleiche auch die Karten was jeder bestimmt macht. Nur dachte ich immer das ATi und Nvidia die gleichen Architekturen verwenden :D. Das war wohl falsch gedacht :D

Steiner
22.07.2008, 15:33
Ich hab mir gerade im Katalog die Daten nochmal von GTX280 und HD4870 vergliechen. Die HD hat nur 256 bit und die gtx280 hat 512 bit, sonst hat ATI's Karte überall mehr aber trotzdem ist sie schlechter als die GTX280. Warum ist das soo? :lol::lol:

Weil die GTX 280 viel teurer ist , und es die 4870 für 199€ gibt und besser als die teurere 260 ist . Ansonsten kann ich mich Noxon anschließen .

M@rshall15
22.07.2008, 16:13
In Alternate.de kostet die hd4870 nur noch 199€ O.o

TheUnusual
22.07.2008, 16:19
Die von Gigabyte kriegt man bei uns in der Schweiz schon ab 178 Euro.

Predator
22.07.2008, 16:21
WO?:D
ist die von Gigabyte gut oder besser die ASUS/HIS.............

TheUnusual
22.07.2008, 16:31
http://www.netchange-shop.ch/produkt.aspx?modul=Computer&cat1=Components&cat2=Graphics%20Cards&id=E080762

Sind manchmal nur andere Taktraten, aber die Retailkarten sollten keinen Unterschied haben ausser optisch.
Und die Gigabyte ist optisch.. naja =) Wenn wollten sie damit ansprechen..

paraphonatic
22.07.2008, 17:12
http://www.netchange-shop.ch/produkt.aspx?modul=Computer&cat1=Components&cat2=Graphics%20Cards&id=E080762

Sind manchmal nur andere Taktraten, aber die Retailkarten sollten keinen Unterschied haben ausser optisch.
Und die Gigabyte ist optisch.. naja =) Wenn wollten sie damit ansprechen..


Mich zb, ich finde die stylisch, genau wie die nvidia GTX 260 / 280, das weib hat doch was ;-)


-Para

M@rshall15
22.07.2008, 17:14
Mich zb, ich finde die stylisch, genau wie die nvidia GTX 260 / 280, das weib hat doch was ;-)


-Para

Der pinke Hintergrund aber nich :D

Predator
22.07.2008, 17:30
Eine Table-Dancerin wäre doch hundert mal besser:D
ooder sowas in der Art hmmmmmmmmmm
jep der pinkige Hintergrund ist nicht so doll

Heinz_Baer
22.07.2008, 17:36
Hab mal ne Frage:
Wenn man sich bei Alternate mal die Bewertungen der 4870 durchließt, findet man einige, die sagen, dass sie Crysis auf 1280x1024 auf very high immer ruckelfrei spielen können, zum Teil hätten sie auch noch AA und AF an.
Wenn ich mir die Benches von Computerbase anschaue, bei der Auflösung 1280x1024 mit 1xAA und 1xAF, steht da 28,4 Frames. Lassen wir mal noch AA und AF weg, also sagen wir 30 Frames. Wenn man dann aber im Level Paradies Lost spielt, gehen bestimmt noch mal 10 Frames drauf und 20 Frames ist für mich nicht flüssig.

Also gibt´s für mich 3 Möglichkeiten:
1. Die Typen bei Alternate lügen
2. Die Tests von Computerbase sind unter schwereren Bedingungen durchgeführt
3. Schon rund 25 Frames im GPU Bench reichen, um das ganze Spiel flüssig zu spielen, weil sich Bench und die tatsächlichen Frames im Spiel unterscheiden.


Was stimmt?

M@rshall15
22.07.2008, 17:43
[...]

Ich nehme den Jocker :D
ne scherz

Das sind ja keine Mitarbeiter die das da schreiben, das sind ja Kunden wie du und ich. Oft wird das System nich gepostet und man weis nich wie schnell der PC ist. Wenn doch dann finden die meisten vielleicht das 20 fps total flüssig sind. Ich dachte auch zuerst das 18 fps flüsig sei :D

Fekl
22.07.2008, 18:11
Hier mal was dazu von mir, aber achtung - OC :D

http://www.abload.de/thumb/crybench_vhu1x.jpg (http://www.abload.de/image.php?img=crybench_vhu1x.jpg) http://www.abload.de/thumb/crybench_cpu_vh88t.jpg (http://www.abload.de/image.php?img=crybench_cpu_vh88t.jpg) http://www.abload.de/thumb/crybench_cpu_vh4aaxl7.jpg (http://www.abload.de/image.php?img=crybench_cpu_vh4aaxl7.jpg)

Mit Mster Config "Quality" sind es mehr FPS!
Also könnte 1280*1024 ohne AA/AF (1xAA/AF ist das gleiche!) klappen.

M@rshall15
22.07.2008, 18:33
lol nicht schlecht

HunT
22.07.2008, 18:41
Das geniale an Crysis ist ja, dass es auch mit 20fps spielbar ist!

Steiner
22.07.2008, 18:43
Das geniale an Crysis ist ja, dass es auch mit 20fps spielbar ist!
[/Ironie]

??????????

HunT
22.07.2008, 18:45
[/Ironie]

??????????

Mein voller Ernst! Ich sagte auch spielbar und nicht butterweich spielbar!

Flying_Dragon
22.07.2008, 18:50
Das geniale an Crysis ist ja, dass es auch mit 20fps spielbar ist!

er hat recht allerdings nur wenn du very high oder high specs hast! man merkt schon das es besser laufen könnte aber es läuft dennoch gut
wenn crysis 20fps ist das so als wenn ein anderes game 30-35 hat

Steiner
22.07.2008, 18:54
Naja . Kommt halt darauf an .

Dazu mal ne Frage :

Ich besitze Crysis bekannterweise nicht ( :razz: ) . Es gibt ja auch nen MP Part . Wie ist es da ? Wird dort auf den Servern viel gelaggt ? Zocken viele Leute MP ? Ich hab außerdem von einem Fun Server gelesen der hier im Forum bekannt ist , wird der aktiv genutzt?

Gruß

Heinz_Baer
22.07.2008, 20:09
Ich glaub, die Frage gehört in einen anderen Thread, aber über den MP denkt auch jeder anders. Außerdem musst du da die Einstellungen in der Regel runtersetzen, wenn du gut spielen willst.

Kann jemand noch was zu meiner Frage auf der vorigen Seite sagen?

Steiner
22.07.2008, 20:14
Heinz : Ich würde den Kunden lieber vertrauen als Benchmarks von i.welchen Seiten . Wer weiß, die sind bestechbar ^^

Fusion145
22.07.2008, 20:15
Ich glaub, die Frage gehört in einen anderen Thread, aber über den MP denkt auch jeder anders. Außerdem musst du da die Einstellungen in der Regel runtersetzen, wenn du gut spielen willst.

Kann jemand noch was zu meiner Frage auf der vorigen Seite sagen?

Also ich hab die 4870 erst letztens bei einem Freund eingebaut und getestet.
Und dort lief Crysis in 1280x1024 auf Very High komplett flüssig (AA hab ich nicht getestet)

P.S. Ich habe aber nur das erste Level gespielt aber dieses lief schon ziemlich flüssig nicht ein Ruckler.

ZaCXeeD
22.07.2008, 20:16
ne Frage, werden die HD4870X2 nicht richtig heis bei dem kühler?

weis net aber ich hab gehört bei der HD3870X2 oder so, soll angeblich beim vollast richtig warm geworden bei 100% lüftersteuerung

Fusion145
22.07.2008, 20:21
Also soweit ich weiß wird die 4870 schon extrem heiß.
Wenn die also kein Lüftungswunder da verbaut haben wird das schon sehr heiß werden

Siehe z.B hier: Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_msi_radeon_hd_4870_oc_overclocked/4/#abschnitt_sonstige_messungen)


Idle: ca.77°C
Last: ca.84°C

M@rshall15
22.07.2008, 20:24
im Bios kann man aber dem Kühler bisschen mehr power geben und es unter 60-70 Grad halten

ZaCXeeD
22.07.2008, 20:24
Also soweit ich weiß wird die 4870 schon extrem heiß.
Wenn die also kein Lüftungswunder da verbaut haben wird das schon sehr heiß werden

Siehe z.B hier: Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_msi_radeon_hd_4870_oc_overclocked/4/#abschnitt_sonstige_messungen)

jo unter vollast 84 grad, ist ja mal heftig und das mit 100% lüftergeschwindigkeit, da hat es glaub ich ein bisschen noch am feintuning noch daran zu arbeite

daran zu denken, wenn die im CF laufen, werden die ja noch wärmer oder?

Fekl
22.07.2008, 20:49
jo unter vollast 84 grad, ist ja mal heftig und das mit 100% lüftergeschwindigkeit, da hat es glaub ich ein bisschen noch am feintuning noch daran zu arbeite

Doch nicht bei 100%!! Die dreht da eher bei 26 oder 30% oder so... 100% ist startender Düsenjet und max um die 60° ... wozu gibts alternative Kühlmethoden?

ZaCXeeD
22.07.2008, 21:00
Doch nicht bei 100%!! Die dreht da eher bei 26 oder 30% oder so... 100% ist startender Düsenjet und max um die 60° ... wozu gibts alternative Kühlmethoden?

naja dazu steht da nicht wie viel die kühlleistung beträgt, weil ich hab mein GTXen 100% laufen und so ne temps, liegt wahrscheinlich wegen SLI

aber ich denk mir, dass bei CF auch dann der fall sein wird mit der hitze

noxon
22.07.2008, 22:33
jo unter vollast 84 grad, ist ja mal heftig und das mit 100% lüftergeschwindigkeit, da hat es glaub ich ein bisschen noch am feintuning noch daran zu arbeiteDann stimmt aber was mit deiner Gehäusebelüftung nicht.
Bei mir wird die Karte im Idle 77° warm und der Lüfter dreht nur mit 20% und ist deutlich leiser als der meiner alten 8800 GTS.
Unter Last steigt die Temp auf durchschnittlich 85° (das höchste was ich gesehen habe waren 88°) und der Lüfter beschleunigt nur geringfügig. Vielleicht auf 30 maximal 40%. Die Karte ist damit immer noch leiser als meine alte 8800 GTS.

Ich bin ehrlich gesagt sehr erstaunt darüber. Hatte eigentlich gedacht jetzt einen lauteren Rechner zu bekommen, aber er ist doch tatsächlich leiser geworden. Da kann ich mir meine geplante Wasserkühlung für über 500 EUR ja noch einmal sparen. So wie es läuft ist es mir schon leise genug und ich komme mit meinen bisherigen Lüftern aus.

HunT
22.07.2008, 22:57
77°C im IDLE??? :shock:

TheUnusual
22.07.2008, 23:04
Powerplay welches fehlt... Leider.

HunT
22.07.2008, 23:10
Powerplay welches fehl... Leider.

Ich mache mir auch keine großen Hoffnungen, dass es jemals funktionieren wird bei der HD48xx Serie...

TheUnusual
22.07.2008, 23:15
Sag sowas nicht -.-
Werde morgen wahrscheinlich die 4850 in den Händen halten.

HunT
22.07.2008, 23:17
Sag sowas nicht -.-
Werde morgen wahrscheinlich die 4850 in den Händen halten.

Ich spreche hier von der HD4870...

M@rshall15
22.07.2008, 23:40
Die Bilder (http://www.pcgameshardware.de/aid,652944/News/HD_4870_X2_im_PCGH-Testlabor_eingetroffen_-_Update_zu_den_Benchmark-Tests/&menu=browser&mode=article&image_id=861778&article_id=652944&page=1) zu der HD4870x2 sind eingetroffen. Das ding ist ein Monster O.o

Nixblicker
22.07.2008, 23:44
Die Bilder (http://www.pcgameshardware.de/aid,652944/News/HD_4870_X2_im_PCGH-Testlabor_eingetroffen_-_Update_zu_den_Benchmark-Tests/&menu=browser&mode=article&image_id=861778&article_id=652944&page=1) zu der HD4870x2 sind eingetroffen. Das ding ist ein Monster O.o


Ganz schön groß für die Leistung 8)

Zamamee
22.07.2008, 23:47
die hätten neben das bild ein Zollstock etc legen sollen. wenn die länger als die 3870X2 ist muss ich an meinem Gehäuse was sägen ^^

Edit: ah, im Bericht stehts ja, 26,7 x 9,8 x 3,7 cm...

M@rshall15
22.07.2008, 23:50
naja da neben liegt nur eine hd4870 und eine hd4850 glaub ich. Die wird aber bestimmt so groß wie eine 3870x2 sein. Die muss ja noch in ein PC passen :p

TheUnusual
23.07.2008, 00:48
Ich spreche hier von der HD4870...

Ich mache mir auch keine großen Hoffnungen, dass es jemals funktionieren wird bei der HD48xx Serie...

Ein schwarzes PCB tut auch einer ATI mal gut.

HunT
23.07.2008, 01:04
Ein schwarzes PCB tut auch einer ATI mal gut.

Zweideutig zu verstehen, wie?

noxon
23.07.2008, 04:10
77°C im IDLE??? :shock:Tja. ATi ist wohl der Meinung , dass ein dauerhafter Betrieb bei Temepraturen bis 80° für den Chip nicht schädlich ist und bei meiner 8800 GTS, die auch immer so heiß war hat das auch keine Probleme bereitet.
In sofern ist es schon OK, dass der Lüfter nur mit 20% dreht. Was habe ich von 60° im Idle, wenn der Lüfter auf 50% geht?


Powerplay welches fehl... Leider.Naja. Noch ist nicht aller Tage Abend. Warten wir erst einmal auf vernünftige Treiber.

cry4me
23.07.2008, 08:14
Tja. ATi ist wohl der Meinung , dass ein dauerhafter Betrieb bei Temepraturen bis 80° für den Chip nicht schädlich ist und bei meiner 8800 GTS, die auch immer so heiß war hat das auch keine Probleme bereitet.
In sofern ist es schon OK, dass der Lüfter nur mit 20% dreht. Was habe ich von 60° im Idle, wenn der Lüfter auf 50% geht?

Naja. Noch ist nicht aller Tage Abend. Warten wir erst einmal auf vernünftige Treiber.

Gut das es alternative Kühler gibt :)
Abwarten wann die sachen von Gainward kommen...
Gainward hat bei Nvidia auch schon immer weitr vorne mitgespielt und hatte immer bessere kühler verbaut als die anderen.