Also ich hatte in meinem alten Rechner eines mit 350W (auch noname) und konnte damit eine 8800GTX betreiben. Die braucht sicher mehr, als die 4870. Sollte also zienmlich sicher reichen.
Druckbare Version
@ Crysistense
Mit dem Stromverbrauch wäre ich mir nicht so sicher:
http://www.pcgameshardware.de/aid,64...-Check/&page=4
Wenn du eine 8800GTX aber mit nem 350er NT betrieben hast, dann sollten 450 Watt für eine 4870 eigentlich reichen. (Hoffe ich zumindest, hab nämlich auch ein 450er von Be-Quiet :-D)
wo ist die techdemo von ati's ruby als video?
Man sollte nicht vergessen, dass die Karten ohne den Hotfix getestet wurden. Denn mit dem 8.6 ohne Hotfix funktioniet der 2D Modus noch nicht, deshalb taktet die Karte nicht runter. Mit dem Hotfix verbraucht die HD4850 zB im Idle nur 11Watt (natürlich nur die Karte, nicht das gesamte System).
...also der test von pcgames is ja mal voll fürn *****!
testen die ab 1680x1050, veryhigh + 4AA aufwärts ^^
klar hab ich ein neues crossfire board mit dazubestellt wäre ja voll fürn ***** mitm 650er satz zu fahren...
hier die tests im Überblick...
http://anandtech.com/video/showdoc.aspx?i=3341
http://arstechnica.com/reviews/hardw...ies-review.ars
http://www.bjorn3d.com/read.php?cID=1301
http://www.elitebastards.com/cms/ind...=584&Itemid=31
http://www.extremetech.com/article2/...2321634,00.asp
http://www.hexus.net/content/item.php?item=13972
http://www.hothardware.com/Articles/...Has%5FArrived/
http://www.pcper.com/article.php?aid=581
http://www.computerbase.de/artikel/h...50_cf_hd_4870/
ma eine frage kann ich mein board eig nutzen für eine ati 4870?
Bin mal gespannt, wie heiß die Karte wird. Habe da schon so ein paar negative Sachen gehört und der Lüfter soll unter Last nicht gerade leiser sein als die GTX 280.
genau leistung ist alles je mehr fps desto besser... von mir aus kann eine Cobra (dampfhammer) neben mir plätteln hauptsache ich kann auf guter auflösung zoggn... das ist ja genau so ein thema wie mit dem stromfressern... :ugly: sollen doch einfach ihre pc auslassen dan gibts keine gehörschäden wegen einen lauten lüfter und keine zusätzlichen stromkosten BASTA
lol ich hätte nicht so gerne ein lauten Lüfter, wo ich mit der Angst Leben muss das die Nachbarn gleich vor der Tür stehn :-o
mir isses schnuppe,bin ja seit geburt hörgeschädigt,also kanns ruhig laut sein
Lol, wenn die Graka laut ist, dann dreh ich einfach den Sound lauter und gut iss:D
Seit meine Graka einen Lüfterausfall hatte(Garantie abgelaufen), hab ich das Gehäuse offen und einen Radiator Lüfter am laufen;):razz: Die kann gerne so laut sein, wie sie es braucht;)
Mfg
Also mir is Silent wichtig
Da bekommt man doch sonst Ohren Krebs oO
Meine Radi Lüfter laufen nie schneller als 800 rpm wie hält man denn da bitte so nen dröhnenden Nvidia Dinger aus :shock:
nee sowas brauch ich nich :-D Ich stelle einfach im Bios den Kühler langsamer bis ich nichts mehr höre :D
ich dreh meinen woofer imma so laut, bis ich das rumsen, bzw alle geräusche am boden fühle :grin:
Also mein Behelfslüfter läuft mit Ultra silent 32 dBA :D:shock::lol:
Also ich mach mir nur sorgen um die Temperaturentwicklung;)
Mfg
http://i27.tinypic.com/2dln29z.jpg
goil,die will ham
:b2t::b2t::b2t::b2t::b2t::b2t:
Ich zitiere mal die GameStar:
QuelleZitat:
Auch nach stundenlangen Benchmarks dreht der Kühler nicht hörbar auf, stets bleibt es bei einem leichten Säuseln.
Besonders interessant ist auch der Test von Techreport:
http://www.abload.de/img/assassinscreedgzw.gif
http://www.abload.de/img/cod4-1920wh0.gif
http://www.abload.de/img/gridldu.gif
Link zum Test
Die Werte sind wirklich beeindruckend:shock:´
Zum Thema Lautstärke http://www.hardwarecanucks.com/forum...review-21.html
einfach geil, mal die benches der 4870x2 voller spannung abwarte
http://i32.tinypic.com/24yblfp.jpg
infos zum stromverbrauch: Doch nicht nur optisch gibt es deutliche Unterschiede, auch in Sachen Leistung und Stromverbrauch setzt sich die HD 4870 von der kleineren HD 4850 ab. Mit 160 Watt zieht das schnellste AMD-Modell unter Last fast 50 Watt mehr aus dem Netzteil als die HD 4850 (110 Watt), bleibt aber deutlich genügsamer als eine Geforce GTX 260 (183 Watt) oder gar eine GTX 280 (236 Watt). Zudem benötigt die HD 4870 zwei sechspolige Stromstecker -- die HD 4850 begnügt sich noch mit einem. Dass die HD 4870 den erhöhten Stromverbrauch gegenüber der 4850 nicht sinnlos verpulvert, zeigen die Benchmark-Ergebnisse.
Hab mal bei K&M geschaut, hier mal die preisliste und alle angaben zu den Grafikkarten verschiedener Marken
von MSI würd ich nicht nehmen, zu teuer
http://i29.tinypic.com/2gxfdec.jpg
http://i31.tinypic.com/vrvb5w.jpg
http://i30.tinypic.com/t8q7oz.jpg
Eins müsst ihr aber noch wissen !
Crysis ist ein Grafikkarten spiel und setzt mehr auf Nvidia GeForce GPU´s weil CryTek mit Nvidia gearbeitet haben...
mfg Nixblicker
würde eine hd4850 1280x1024 very high schaffen? mit durchgehn 30 fps oder so?:D
http://www.computerbase.de/artikel/h...schnitt_crysis
Nicht ganz ;)
und wie viel schafft die hd4870 auf 1024x1280 in crysis mit very high? schwanke noch zwischen den Karten und hab die benchmarkes noch nicht gesehn
In dem gleichen CB Benchmark steht doch auch eine Messung zur 4870.
Das sind natürlich alles nur Gerüchte, aber wie ich schon öfters gelesen habe wird eine 45nm Fertigung vermutet.
Entweder kommen zwei RV770 Kerne auf ein Die oder sie kommen in ein gemeinsames Gehäuse, genau so wie bei den CPUs. Einige vermuten sogar, dass es irgendwann Quad-Core R700 GPUs geben wird.
Durch den Shrink auf 45 nm wäre ein Kern um 30% kleiner als ein 55nm Chip und nur halb so groß, wie ein 65nm Chip. ATi hat bei der Entwicklung angeblich sehr großen Wert darauf gelegt mit möglichst wenig Transistoren auszukommen, was ihnen ja auch gelungen ist. Schließlich haben die 800 Streamprozessoren mit weniger als einer Mil. Transistoren realisieren können, während nVidia für ihre 240 komplexeren Shader ganze 1,4 Mil. Transistoren benötigt, aber auch das kleinere Speicherinterface bei ATi trägt zu der geringen Transistoranzahl bei.
Letztendlich sollen sie von Anfang an alles so geplant haben, dass es später möglich wird sehr billig viele Kerne produzieren zu können, die man dann auch mehrfach auf ein Die oder in ein Case verpacken kann.
Eine Stellungnahme seitens ATi gibt es selbstverständlich nicht. Damit halten sich die Hersteller ja immer extrem zurück. Es sind also alles nur Vermutungen, die ich aber (bis auf den QuadCore) für recht realistisch halte.
Besonders das der R700 aus zwei RV770 Cores in einem Gehäuse besteht und nicht aus zwei getrennten RV770 Chips sollte schon als ziemlich sicher gelten. Warum würde sonst der Chip eine andere Bezeichnung bekommen?
Das ist ja auch viel sinnvoller, da sich so die Cores gemeinsam den Ringbus und den Speichercontroller teilen können und sie so noch einmal eine Menge redundanter Transistoren einsparen können, die bei einer herkömmichen CF Lösung aus zwei getrennten Chips entstehen würden.
Genau, ATI zaubert, ohne jegliche finanzielle Mittel einfach so ne Revolutionskarte ala HD4870X2 mit zwei oder gar vier RV770 on DIE bzw. on Package...
Schön wäre es, klingt jedoch unwahrscheinlich.
Das muss ich mal jetzt sagen
RESPEKT ATI :)
Wenn AMD auch in die Pöte kommt dann hab ich wieder ein gutes gefühl
bei AMD und ATI :)
Gainward drops Nvidia exclusivity and preps Radeon HD 4800 cards
Muss man noch mehr sagen:D ATI is back
http://forums.vr-zone.com/showthread.php?t=293775
tja gainward is ja sowieso die beste firma :)
Bei mir müsste es dann aber ein anderer Lüfter sein. Hoffen wir auf eine 4870GLH
Was hast du gegen den Lüfter?
manche mögen das Rot nicht :D
Ich schon garnicht.
Scheint so, als ob ATI auch auf PhysiX eingesteigt. http://www.pcgameshardware.de/aid,64...och_mit_Physx/
Es wird enger für Havok und das ist gut so!
Aber wegen der Farbe des PCBs bzw. Lüfters ein Schnäppchen durch die Lappen gehen lassen? Ich weiß ja nicht ;)
4870 schlägt 9800GX2 (war eigentlich klar) und vernichtet gleichzeitig die eigene 3870x2 http://www.tomshardware.com/de/HD-48...te-240071.html
lol das ist Brutal schon langsam was ATI mit Nvidia anstellt :lol: Nvidia muss die preise runa setzte das ist verrückt :lol: ATI hat es aber verdient weil ich schon gezweifelt habe das da je noch was gutes kommen wird
nene.. ati bzw. amd soll ersmal wieder richtig auf die beine kommen... und dann kann nvidia wieda nen "G80" bringen :D
Warum nicht? Ich finde den Ansatz von ATi recht clever. Anstatt einen Mega-Chip zu basteln und diesen dann künstlich zu beschneiden produzieren sie einen günstigeren, einfacheren aber schwächeren Chip, den sie dafür in einem verbessertem CF Verbund laufen lassen können.
Anstatt zwei komplette Chips parallel laufen zu lassen, schalten sie nur die Kernkomponenten der Chips zusammen und diese teilen sich dann die globalen Dinge, wie das Speicherinterface.
ATi hat dank dieser Methode den Vorteil die Streamprozessoren sehr einfach vervielfachen zu können indem einfach mehrere Kerne verwendet werden, während nVidia immer nur die Chance hat von den maximal verfügbaren Shadern einige zu deaktivieren.
nVidia hat ja auch schon gesagt, dass der GT200 ihre letzte Single-Core GPU sein wird. Die nächsten werden auch Multi-Core GPUs sein und ATi ist in diesem Falle halt etwas schneller. Technisch sind sie das eigentlich schon immer gewesen. Sie schrumpften eher auf kleinere Strukturen. Bei der Implementierung der ersten DirectX10 Fähigkeiten und die Einfühung der Geometry Shader war ATi schneller als nVidia. Auch jetzt wieder mit DX 10.1 und der Tessalation Unit. Sie sind auch Vorreiter, was den GDDR5 Speicher betrifft und jetzt eben auch was Multi-Core GPUs angeht.
nVidia ist schon immer mehr auf Nummer sicher gegangen, während ATi die Entwicklung schneller vorangetrieben hat. Wirtschaftlich gesehen ist das vielleicht nicht immer sinnvoll gewesen, aber trotzdem können wir ATi dankbar sein, dass sie nVidia auf Trap halten.
Ich finde diese Entwicklung zwar auch gut, aber wie ich es eben sagte, Entwicklung kostet Geld und woher hatte ATI bitteschön das Geld, um sowas zu verwirklichen? Ich denke, das mit dem zwei Chips on DIE oder on Package ist beim R700 eher noch Wunschdenken oder war zumindest so geplant, dann fehlten aber die finanziellen Mittel. Ich könnte mir das jedoch beim R800 gut vorstellen, nachdem ATI wieder Gewinn einfahren konnte durch die HD4xxx Serie.
Und so technisch hinkt Nvidia auch nicht hinterher. Wer brachte denn zuerst SM 3.0 in eine Karte? Nvidia, denn ATI hat es damals nicht für nötig empfunden und jetzt das gleiche Spiel mit DX10.1, nur umgekehrt...
Technologisch war ATI schon immer besser oder sagen wir einfach - aktueller - als Nvidia. Allerdings ist Nvidia bei vielen auch deshalb so beliebt, weil sie im Gegensatz zu ATI nicht einfach nur andauernd neue Technologien rausbringen, sondern alte Technologien ausreizen, bevor man zum neuen übergeht und dadurch nochmals ordentlich Leistung bekommt. Sieht man ja wunderbar am GT200, der quasi das Maximum des G80 ist. Erreicht fast die Performance von 2x 8800GTX, aber so war es von den Nvidia-Ingenieuren auch geplant. Nicht mehr, nicht weniger.
Dass die HD4870 nur deshalb fast so schnell ist wie die GTX 280, verdankt sie den 800 Stream Prozessoren bzw. den 160 (5D) Alu Shadern und dem schnellen GDDR5 Speicher.
Das spielt im Endeffekt aber keine Rolle! Was wichtig ist, dass es wieder Konkurenz im Graka Markt gibt und somit werden beide Lager zu besseren und neuen Technologien angespornt.
Geld kostet es immer. Die Frage ist, welche Investition sich eher auszahlt.
Wie kommst du darauf, dass das überhaupt mehr Kosten verursachen würde? nVidia bastelt an einem 1,4 Mil. Transistor-Monster und hat mit jeder Menge Problemen bezüglich Größe, Verlustleistung, Blindströme und Strukturbreiten zu kämpfen, während ATi es geschaft hat (wahrscheinlich auch mittels AMDs Know How) einen kleinen aber denn noch effektiven Chip herzustellen, der sich dank einer neuen CF-Bridge einfach mit mehreren anderen Kernen koppeln lässt.Zitat:
Ich denke, das mit dem zwei Chips on DIE oder on Package ist beim R700 eher noch Wunschdenken oder war zumindest so geplant, dann fehlten aber die finanziellen Mittel.
Warum muss das teurer sein? Es könnte sogar das Gegenteil der Fall sein. Wenn das mit den 45nm tatsächlich stimmt, dann sind die Chips nur noch halb so groß, wie die GT200'er und die Ausbeute steigt erheblich, wodurch die Chips wirklich günstig werden. Hinzu kommt, dass der Ausschuss aufgrund der geringeren Transistoranzahl geringer ausfallen dürfte.
Spielt das eine Rolle, warum sie so schnell ist? Das sie so schnell ist und trotzdem weniger negative Effekte aufweist zeigt doch, das ATi auf dem richtigen Weg ist.Zitat:
Dass die HD4870 nur deshalb fast so schnell ist wie die GTX 280, verdankt sie den 800 Stream Prozessoren bzw. den 160 (5D) Alu Shadern und dem schnellen GDDR5 Speicher.
BTW:
Es soll bereits ein "Hobby-Programmierer" geschaft haben die PhysX Engine jetzt schon auf einer 3800 zu beschleunigen.
PhysX-Beschleunigung auf ATi Radeon HD 3800?
Wenn der das kann, dann wird es wohl sicher nicht mehr lange dauern, bis es offiziell von ATi unterstützt wird. Theoretisch müsste ATi dann auch bei den Physikberechnungen nVidia davon ziehen mit seinen theoretischen 1,2 TFlops.
Wie kommst du darauf, dass ATI die HD4870X2 in 45nm baut? Soweit ich mitbekommen habe, ist davon der R800 betroffen, der vielleicht sogar in 40nm gebaut werden soll. Vom R700 in 45nm war nie die Rede.
Und ob das eine Rolle spielt! Vielleicht nicht für den Endverbraucher, aber für Interessierte ist umso wichtiger durch die gegnerische Architektur herauszufinden, wo die eigenen Fehler lagen.Zitat:
Spielt das eine Rolle, warum sie so schnell ist? Das sie so schnell ist und trotzdem weniger negative Effekte aufweist zeigt doch, das ATi auf dem richtigen Weg ist.
Das einzige, was Nvidia beim GT200 falsch gemacht hat, war eben die Bauweise in 65nm. Der Chip an sich ist leistungsstärker als der RV770, denn man sollte sich nicht von Marketing verwirren lassen und denken, ATI GFLOPs = Nvidia GFLOPs. Und alle schreien sofort, yeah, ATI kanns besser, weil sie über 1 TFLOP erreichen...juhu. Totaller Quatsch! Schließlich sind Nvidia Alu Shader auch nicht gleich ATI Alu Shader.
Oder beurteilst du die Leistung einer Graka nur nach der Größe des VRams, so wie die meisten Laien das tun?
Nvidia hat eine super Karte mit der GTX 280 hingestellt. Fehler war nur die größere Fertigung in 65nm und der etwas hohe Preis.
Tja, mal sehen wie Nvidia darauf reagiert? Mit einer Geldstrafe oder war das auch so geplant? Nvidia geht es wohl darum, dass soviele PhysiX unterstützen wie möglich, um Intel eins auszuwischen. Da kann sich Nvidia nur darüber freuen, dass auch ATI mit auf diesen Zug aufgesprungen ist.Zitat:
BTW:
Es soll bereits ein "Hobby-Programmierer" geschaft haben die PhysX Engine jetzt schon auf einer 3800 zu beschleunigen.
PhysX-Beschleunigung auf ATi Radeon HD 3800?
Wenn der das kann, dann wird es wohl sicher nicht mehr lange dauern, bis es offiziell von ATi unterstützt wird. Theoretisch müsste ATi dann auch bei den Physikberechnungen nVidia davon ziehen mit seinen theoretischen 1,2 TFlops.
Wie gesagt. Sind Gerüchte und ist nicht bestätigt.
R700 is a 45 nanometer chip
R700 is indeed a multi core device
Fudzilla ist natürlich nicht die zuverlässigste Quelle, aber ab und zu haben die auch recht. Ich kann mir das mit den 45nm gut vorstellen. Schließlilch haben die AMD zu ihrer Seite und die kennen sich mit dem Fertigungsprozess schon ganz gut aus.
Nö. Natürlich nicht und auch die TFlops sind natürlich vergleichbar, aber in Sachen Physik könnten die 800 Streamingprozessoren vs. 240 Shadereinheiten schon eine Rolle spielen. Ich denke, dass Physikberechnungen viel besser skaliert werden können, als Grafikberechnungen und wenn man das noch speziell an die 5D shader anpasst, dann kann ATi unter umständen schneller sein, aber das warten wir am Besten mal ab.Zitat:
Oder beurteilst du die Leistung einer Graka nur nach der Größe des VRams, so wie die meisten Laien das tun?
Sollte der R700 aber wirklich ein Chip mit zwei RV770 Kernen on DIE sein und über 1600 Streaming Prozessoren verfügen, dann steht wohl außer Frage, wer schneller rechnen kann.
Anscheinend ist nVidia ganz heiß darauf, dass ATi mitzieht. ansonsten hätte es die PhysX Engine auch recht schwer sich durchzusetzen.Zitat:
Tja, mal sehen wie Nvidia darauf reagiert? Mit einer Geldstrafe oder war das auch so geplant? Nvidia geht es wohl darum, dass soviele PhysiX unterstützen wie möglich, um Intel eins auszuwischen. Da kann sich Nvidia nur darüber freuen, dass auch ATI mit auf diesen Zug aufgesprungen ist.
Trotzdem bin ich etwas erstaunt, denn gerade der PhysX Support bringt nVidia im 3DMark ja giganische Werte ein. Auch wenn diese regelwidrig sind, so achten doch eine Menge User auf diesen Benchmark und kaufen danach ihre Grafikkarte.
nVidia gibt da also einen ganz schönen Vorteil im 3DMark auf nur um ihre Engine durchzudrücken. Vielleicht wissen sie aber auch, dass ihre Treiber niemals zugelassen werden und ihre 3DMark Ergebnisse als ungültig erklärt werden.
Mir soll es recht sein. ATi wird dann die Havok und die PhysX Engine unterstützen und an OpenCL beteiligen sie sich auch. Wer weiß. Vielleicht implementieren sie auch CUDA. So wie ich das verstanden habe geht das wohl mit der PhysX Implementierung mit einher.
Warten wir es ab! Natürlich können die 800 Stream Prozessoren mehr Leistung für Physik raushauen. Aber es handelt sich hierbei immernoch um 160 5D Shader. Dass diese gerade bei shaderlastigen Spielen wie Crysis genauso rechnen wie Nvidias 1D Shader, verteilt ATI's 5D Shader nicht gerade viele Vorteile.
Obwohl die HD4xxx mehr theoretische Rechenpower hat, ist sie dennoch nicht schneller als die GTX 280 mit ihren 933 GFLOPs. Was lernen wir daraus? Dass man sich auf theoretische Leistung nicht verlassen sollte.
Genau so ist es.
Die 5D Shader lassen sich selten optimal ausnutzen, weswegen bei ATi recht viel Rechenleistung ungenutzt bleibt. Physikberechnungen hingegen sind aber viel vorhersagbarer und simpler und lassen sich sicherlich perfekt auf die 5D Shader optimieren, wodurch ATi endlich das volle Potenzial aus ihren Shadern ziehen kann.
Zumindest stelle ich mir das so vor. Beweise habe ich dafür natürlich nicht, aber eigentlich müssten Physikberechnungen effizienter durchgeführt werden können als Grafikberechnungen.
mal was anderes:
wie siehts eigentlich mit der nächsten generation von ati/nvidia aus?
nvidia hat gaub ich schon gesagt, dass der GT 200 der letzte highend chip ist (wollen in zukunft auf multi-gpu setzten)
wie siehts mit ati aus?
... denn wenn, wie ich denke, demnächst erst mal nichts wirklich p/l-mäßig gutes rauskommt steht dem kauf der 4850 nix mehr im weg :razz:
gruß
wie schaut es aus mit dem stromverbrauch?
2x HD4870 im CF modus
2x HD4870x2 im CF modus
Jungs, nicht streiten. Sondern freuen ist angesagt! Wie wo und wann ist doch egal... wichtig ist nur, dass es Konkurrenz gibt und wir somit wieder nen schönen Preiskampf und gute Produkte erwarten können. Nix is schlimmer wie Monopole...
kann mir jemand bitte meine vorrige frage beantworten????
Hab da was gefunden
http://www.computerbase.de/artikel/h...cf_hd_4870/30/
1GB Variante in Australien :lol: soll für ca. 233€ angeboten werden
http://www.pcgameshardware.de/aid,64...hop_gesichtet/
danke,sehr sehr gute neuigkeit,mal schnell die beiden Hd4870 (512mb) abbestelle
View My Video
Hab da mal was gefunden
http://de.youtube.com/watch?v=x2fS9covXBs
sieht net schlech aus ^^
Du darfst nicht vergessen, dass die GT nur 256bit hatte. Da die 4870 DDR5 hat, kann man das prinzipiell als 512bit betrachten. Deswegen wird die 1GB Version nochmal ordentlich Power bringen (bei hohen Auflösungen zumindest;))
Edit:
Fetter Kühler bei der 1GB http://www.technodiscount.com/webmar...6&paid=4&nid=4
HIER BLICKT JA MAN GARNET MEHR DURCH :-DDD
hupss ^^
also wann soll die 1 GB variante in ger rauskommen??
brauche was für wenig geld mit geiler leistung :-P
Soviel zur großartigen HD4870X2 -> http://www.pcgameshardware.de/aid,64...2_aufgetaucht/
Ist zwar nur ein Gerüchte, aber wenns doch stimmt, dann war das mit dem gemeinsamen Zugriff auf den selben Speicher wohl nur Wunschdenken, oder aber erst beim R800 der Fall.
Abwarten, was noch kommt.
EDIT: So wie es aussieht, scheint AMD das Mikroruckler Problem via Treiber lösen zu wollen, nicht über die Hardware. Darum auch die Verschiebung der HD4870X2, obwohl diese ja schon fertig ist.
Was verstehen die eigentlich unter R700?
Für mich ist das eine Chipbezeichnung. Wieso bezeichnen die zwei RV770 als R700? Ich denke, dass diese X2-Karte nichts mit dem R700 zu tun hat. Es ist einfach eine CF Version aus normalen RV770 Chips.
Der R700 wird meiner Meinung nach ein einzelner Chip sein, der zwei RV770 Kerne auf einem DIE aufweist und dann auch keinen PLX Chip mehr benötigt. Das ist der wirkliche R700.
Warum man immer eine Grafikkarte die aus zwei RV770 als R700 bezeichnet bleibt mir schleierhaft.
Gibts eigentlich schon maaße von den karten?? ich meine mich 1GB und GDDR5 sondern die läne..die sehen aus als wären sie minumum 10cm länger als ne 8800GT die jetzt schon nur knapp in mein gehäuse passt...
edit: Danke Jake Dunn udn mach mal bitte DX10!!!!!
Pleezefragme die ist genau 24cm und 10cm Breit (PCB) :wink:
EDIT: oder meinst du die X2 ?
http://www.abload.de/img/uf0ray.jpg
Ein Vergleich mit anderen Karten
http://www.abload.de/img/od8rc5.jpg
das jetzt von ne 4870er?
omfg das ja richtig krass. und das für da geld. alter und das ist meine auflösung nice:-D
gibt es einen der die karte vllt schon in australien bestellt hat?
Jake Dunn hast du den test gemacht??? wenn ja mach mal bitte noch einen in DX10....
wenn der nicht von dir war dann schick mal den den link wo der test ist...
220taken für sone highenkarte....bin ich froh das ATI wieder was zu melden hat...nach meinem kurzen ausflug in die Nvidia welt (8800GT) wechsel ich wieder zu ATI in naher zukunft^^
Wie Australien ? Du meinst die 1Gb ?
Hier mt OC der Regler geht leider nur bis 790mhz, da muß man noch auf RT od. ATI-Tool warten :p
http://www.abload.de/img/p47vwefsr.jpg
deine?
ist das die 512 version?
Mir ist es eher schleierhaft wie du auf diesen Gedanken mit zwei RV770 on DIE kommst? Der R700 wird von AMD selbst als DualGPU Lösung on PCB bezeichnet.
Warum sollte AMD eine Karte mit zwei Chips on PCB rausbringen und dann nochmal eine mit zwei Chips on DIE? Die würden sich doch selbst ins Knie schießen, weil dann keiner die Karte mit zwei Chips on PCB kaufen würde.
joa mach schnell den test!!!!
alter wenn die 512er schon gut ist dann kommt die 1GB variante locker auf 60frames glaub ich...(naja ich hoffe es trifft besser zu)^^
wo hast die geholt bei mir sind die alle noch nicht lieferbar
ma ganz lieb fragen wieviel schafft den ne GTX also G80 bei der auflösung?
die kostet ja auhc noch um die 220€.
Hast du ne Quelle?
Normalerweise bekommt man vom Hersteller nämlich so gut wie gar keine Informationen.
Eine günstige Zwei-Chip Lösung (2x RV770 On PCB) kommt sofort, während ich denke, dass sie irgendwann auch noch eine Ein-Chip Lösung herausbringen werden, die dann einige der CF Probleme lösen wird. Das kann aber noch ein Weilchen dauern und ich denke der Chip ist es, den alle als R700 bezeichnen.Zitat:
Warum sollte AMD eine Karte mit zwei Chips on PCB rausbringen und dann nochmal eine mit zwei Chips on DIE? Die würden sich doch selbst ins Knie schießen, weil dann keiner die Karte mit zwei Chips on PCB kaufen würde.
Das Multicore GPUs on DIE oder on Package bald kommen werden, sollte klar sein und ich denke, dass es bei ATi ca. Anfang nächsten Jahres mit dem R700 der Fall sein wird.
Das ist meine persönliche Theorie. ;)
der r700 wird die 4870x2 werden!!!
1680x1050 High DX10
http://www.abload.de/img/hiyhw3.jpg
1680x1050 Very High DX10
http://www.abload.de/img/vhhi2q.jpg
da du ja die graka jetzt hast und vllt auch behalten wirst kannste dir ja ne conf ma runter laden. die von mster z.b. und dann ma testen, aber trotzdem danke für die ganzen test. sieht ja hammer genial aus. danke...die graka hat was druff!
hier das wäre die neuste von mster:
http://files.filefront.com/Mster+Con.../fileinfo.html
@JakeDunn
ich habe deine Benches mal verglichen:
hätte nicht gedacht, daß vista so ne Bremse ist:
DX9 high gpu-bench: 47 fps
DX10 high gpu-bench: 43 fps. Waren doch dieselben Taktraten, @stock, oder?
das ist nicht vista das is dx10!!!
Ey man, ich habe das mal irgendwo gelesen...werd mir doch nicht jede Quelle merken. Ich lese sowas und merke es mir. Aber ich merke mir bestimmt nicht die Quellen.
Der R700 ist die HD4870X2 mit zwei RV770 on PCB! Um Multicore on DIE oder on Package zu verwirklichen, braucht das viel Entwicklungsgeld und ATI hat dieses nicht.Zitat:
Eine günstige Zwei-Chip Lösung (2x RV770 On PCB) kommt sofort, während ich denke, dass sie irgendwann auch noch eine Ein-Chip Lösung herausbringen werden, die dann einige der CF Probleme lösen wird. Das kann aber noch ein Weilchen dauern und ich denke der Chip ist es, den alle als R700 bezeichnen.
Das Multicore GPUs on DIE oder on Package bald kommen werden, sollte klar sein und ich denke, dass es bei ATi ca. Anfang nächsten Jahres mit dem R700 der Fall sein wird.
Das ist meine persönliche Theorie. ;)
Die Bezeichnung R700 ist nur Marketing und das ist meine persönliche Theorie.
http://www.abload.de/thumb/eisydu.jpg
28.06.2008 18:07:35 - Vista 64
Beginning Run #1 on Map-ice, Demo-autotest
DX9 1680x1050, AA=No AA, Vsync=Disabled, 64 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
================================================== ============
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 92.94s)
!TimeDemo Run 0 Finished.
Play Time: 52.53s, Average FPS: 38.07
Min FPS: 16.70 at frame 496, Max FPS: 49.53 at frame 1242
Average Tri/Sec: -7666548, Tri/Frame: -201363
Recorded/Played Tris ratio: 0.50
!TimeDemo Run 1 Finished.
Play Time: 49.95s, Average FPS: 40.04
Min FPS: 16.70 at frame 496, Max FPS: 49.53 at frame 1242
Average Tri/Sec: -8364971, Tri/Frame: -208907
Recorded/Played Tris ratio: 0.48
!TimeDemo Run 2 Finished.
Play Time: 49.96s, Average FPS: 40.03
Min FPS: 16.70 at frame 496, Max FPS: 49.78 at frame 1243
Average Tri/Sec: -8375549, Tri/Frame: -209206
Recorded/Played Tris ratio: 0.48
TimeDemo Play Ended, (3 Runs Performed)
================================================== ============
Completed All Tests
<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>
28.06.2008 18:07:35 - Vista 64
Run #1- DX9 1680x1050 AA=No AA, 64 bit test, Quality: High ~~ Overall Average FPS: 4003,5