Flight Simulator X mit 55MPixel 12240x5280
http://www.gametrailers.com/user-mov...40x5280/330102
Total krank, 24 Monitore mit einem Rechner zu betreiben ^^
Druckbare Version
Flight Simulator X mit 55MPixel 12240x5280
http://www.gametrailers.com/user-mov...40x5280/330102
Total krank, 24 Monitore mit einem Rechner zu betreiben ^^
PhysiX bringt nur Geld (dank der Lizenz) bei dem Hersteller in die Kiste mehr auch nicht! Die Technik gibt es nicht erst seit dem Nvidia sie mit eingeführt hat sondern schon etwas länger und es hat vorher kaum ein Spielentwickler interessiert ob es das gibt oder nicht. Jetzt wo Nvidia dieses unterstützt gibt es ein paar kleine Entwicklerstudios aber warum dann bitte nicht Crytek oder id software? Und es gibt noch einige Studios die diese Art von Realisierung der Physik in Spielen als eher unnütz finden und eigene Wege gehen die sehr gut umgesetzt werden können. Also schalte doch bitte erst einmal dein Gehirn ein und denke mal darüber nach warum sich bis heute nur sehr wenige Entwickler Studios darüber Gedanken gemacht haben PhysiX zu nutzen!? Alles Nvidia Fanboys habe ich den Eindruck und jetzt sagt nicht das das nicht stimmt. Die ganze Zeit dieses lästern über ATI. Ich finde ATI immer noch interessant und freue mich stets wenn sie mal was raus bringen, freuen würde mich es auch mal wenn sie Nvidia Parole bieten würden.
Wer lästert denn hier über ATI ? Ich bestimmt nicht.
Mein Gehirn ist gegenüber deinem aber immer an. ;)
Übrigens hab ich mir schon Gedanken darüber gemacht, könntest du Lesen wüsstest du das auch.
Ich hab selbst geschrieben das PhysX genausogut sterben könnte. Das PhysX bisher nicht oft verwendet wurde weiß jeder.
Dice ist zB. eine eine große Firma und arbeitet derzeit an Battlefield 3. Bei ihrem letzten Spiel "Mirros Edge" wurde Hardware-PhysX genial unterstützt. Die Chancen das zB. Dice in Zukunft auch PhysX einsetzen werden stehen nicht schlecht, wenn vllt auch nicht für BF3. Denn die Firma will ja auch möglichst viele Spiele verkaufen, die auf möglichst vielen Rechnern optimal laufen.
Warum Crytek kein PhysX nutzt ?
Deswegen:
Warum Valve kein PhysX nutzt:Zitat:
Cevat Yerli von Crytek erkennt ein anderes Problem. So müssten die Physikkarten schon ein besonderes Spielerlebnis ermöglichen, welches sich von dem unterscheidet, was auf normalen Rechnern möglich ist, damit es sich für Spieler lohnt, die Karten zu kaufen. Gleichzeitig müssten diese Spiele aber auch für die Mehrheit der Spieler verwendbar sein, die so eine Karte nicht besitzen. Crytek will aber das Gameplay nicht ändern, damit auch schwächere PCs gut funktionieren. Ausserdem habe man den Programmcode nun jahrelang optimiert, damit er sowohl ältere Prozessoren als auch Mehrkern-CPUs nutzen kann.
Beide Aussagen sind 2 Jahre alt.Zitat:
Der Marketingdirector von Valve, Doug Lombardi, sagte in einem Interview mit MaximumPC. dass Physik-Karten dass bekannte Henne-Ei-Problem hätten. Zwar könnten sie einige Vorteile bieten, würden aber so gut wie nicht verbaut, was seinerseits wieder dafür sorgt, dass kaum Spiele Unterstützung bieten. Daher gäbe es für Spieler keinen Grund, die Karten zu erwerben. Valve weiss zwar, dass Spieler gerne Physikberechnungen in Spielen haben, hat jedoch dafür die Source-Engine erweitert und diese Möglichkeiten bereits auf Singlecore-Prozessoren geboten. Heute habe man jedoch bereits wesentlich schnellere Dual- und Quadcores.
Eins steht jedenfalls fest: Physik über Grafikkarten ist wesentlich effizienter, das kannst du gern überall in Internet nachlesen.
Das einzige Problem ist, das nicht jeder die vorrausgesetzte Hardware dafür hat und das wird sich auch nicht ändern wenn ATI /AMD PhysX nicht unterstützen.
Eine Möglichkeit ist das die Spieleprogrammierer in Zukunft die Physik über die Computer Shader, welche mit DX11 eingeführt werden, und damit über die Grafikkarten berechnen lassen.
Allerdings müssten dazu viele Spieler DX11 besitzen, da sonst alle anderen auf dem trockenen sitzen, die nur DX 10 oder nur DX9 Hardware bestitzen.
Computer Shader sind die Zukunft.
User mit DX9 Hardware werden so oder so auf dem Trockenen sitzen, da diese werder CS noch PhysX unterstützt.
DX 10 ebenso, wenns nicht NVs von der 8er Serie aufwärts sind.
Und alle Hardware die in den nächsten Jahren gekauft wird, sollte auch DX 11 oder höher bieten, sodass es keinen Sinn ergibt auf der NV- eingenen Lösung zu beharren.
Gemeinsamen Standard wählen und fertig ist.
Dass Berechnungen über die GPU selbst in diesem Segment sinnvoll sind ist nicht abzustreiten,
aber Lizenzen von einem Hersteller zu kaufen, anstatt die allgemeine Lösung zu verfolgen ist nicht besonders intelligent
und Entwickler werden auch eher die Lösung unterstützen, die dann in Zukunft jedem zusteht und nicht durch Marketing oder sonst was beeinflusst wird.
Schon aber es wird sicherlich auch mind. 2 Jahre dauernt bis DX11-Only Titel erscheinen.
Alan Wake war das 1. Spiel das nur für DX10 angekündigt wurde und ist jetzt nach 2,5 Jahren immernoch in Arbeit. :roll:
Bis dahin wird die Physik weiterhin auf 4 und 8-Kern CPUs berechnet.
PhysX wird erstmal ein Nischenprodukt bleiben, falls sich nicht doch noch größere Firmen auf PhysX als optionales Feature setzen.
das gefählt mir garnicht mit den vielen bildschirmen
da hat man ja immer die räder im bild
sollen mal lieber einen bildschirm rausbringen der so ne auflösung hat (60-70zoll monitor^^)
und wie man im video sieht das ist ja quad-crossfirex mit 5870 x2 LOL
Leider ist ein 60-70 Zöller zum Spielen eher ungeignet.
Wie willst du auf dem Teil denn noch was erkennen? :aua:
achso aber auf 24 monitoren erkennst du was LOL?!
die menschheit is ja so krank ich bleib bei max 26 zoll und super performenc als 24monitoren die dann mir das bild versauen
http://img16.imageshack.us/img16/552...a8bbc71bb2.jpghttp://img16.imageshack.us/img16/826...ac5b53203d.jpghttp://img16.imageshack.us/img16/560...fa5d48c06d.jpg
Die HD5870 ist in Crysis bei 4AA ganz knapp hinter der Nvidia GTX 295 (DualKarte), nicht schlecht für eine Single-Karte. Ich geh mal davon aus das dies die 2 GB -Karte ist.
Kranker ****** o.O
Ich will gar nicht wissen mit was da NVidia zurück schlägt
Ohne wieder ein ATI vs Nvidia Krieg anfangen zu wollen aber Nvidia könnte auch nen Monster loslassen, wenn der Chip denn irgendwann mal fertig wird.
Schließlich hat damals schon die G80 Architektur seit der 8800 GTX Ende 2006 den Markt dominiert. Im G200-Chip sitzt im Prinzip auch nur ein erweiterter G80 Chip.
Entweder wird uns Nvidia alle mit dem G300 Chip extrem überraschen oder enttäuschen, wer weiß.
Möglich ist alles. Theoretsch sollte der G300 Chip 2,5mal so schnell sein wie der G200, da alleine die Anzahl der Shader mehr als verdoppelt wird von 240 auf 512 Shader. Zudem könnte Nvidia in manchen Situationen Vorteile erreichen, da der G300 Chip wohl auf ein 512Bit SI + GDDR5 setzt und damit theoretisch die doppelte Speicherbandbreite erreichen könnte wie die HD 5870, wodurch der G300 aber auch sehr teuer wird.
Vllt kommt aber alles ganz anders, wer weiß. ;)
Das dachte ich mir auch, wenn amd so gut vorlegt freu ich mich auf nvidia.
Ich finde es echt immer wieder lustig, da kommt mal eine gute Nachricht von AMD/ATis Grafikkarten und schon wird gleich wieder auf das Thema " Nvidia G300" gewechselt...
Also die Leistung des 5000er Chips wird finde ich immer beeindruckender, und was man noch bedenken muss ist das die Benchmark wahrscheinlich nicht mit einem voll optimierten Treiber gemacht wurden ;)
Ich denke mal das hängt einfach davon ab was man für Karten kauft.
Es gibt nun halt mal nur 2 große Firmen die fast immer zeitgleich neue Karten auf den Markt werfen und man deshalb immer vergleichen sollte.
Ich hab im Moment numal 2 übertaktete GTX 280 Karten im SLI, da ist mir der Sprung zu klein zur HD5870.
Aber es ist schön zu sehen das ATI eine sehr schnelle Karte auf den Markt wirft.
Denn Konkurenz belebt das Geschäft und senkt die Preise was beide Parteien betrifft.
Aber erst warte ich mal ab.
Eigene Bilder der DirectX 11 Grafikkarte
Man :( Ich will wissen was unter der Haube ist -.-
meinst das
Ist schon bekannt wieviel Watt das ziehen wird ?
Hab mir den Thread nicht ganz durchgelesen.
Die 5870/5850 soll Idle 27/27 Watt und unter Last 188/170 Watt verbrauchen ;)
Hier hast du nochmal eine Zusammenfassung was alles über die 5000er Serie bekannt ist:
http://www.computerbase.de/news/hard..._5000er_serie/
http://www.pcgameshardware.de/aid,69...fikkarte/News/
Die Karte kann noch so gut sein, werd trotzdem erstma warten bis Nvidia seine Karten inkl. Benchmarks vorstellt und erst dann entscheiden für welche ich mich entscheide.
Mfg Scaleo
dann kannse aber lange warten du fanboy :D
also die hd5870 geht mal echt ab...bin jetzt nur auf die preise gespannt!!!
Die HD5870 ist ja jetzt schon besser als die 4870X2. 8)
Boah wie das abgeht !
sogar besser als ne gtx 295 8)
Da wart ich dann lieber noch 2 - 3 Monate, bis dahin sind die Preise dann noch etwas gesunken und ich weiß ob die Ati Karte wirklich so der bringer ist :roll:
Falls dann nämlich Nvidia aufeinma nämlich ne "viel" bessere Karte launched werden die exakt gleichen Posts die hier schon sind, in dem GT300 Thread zu lesen sein ....
Mfg Scaleo
Meine damit nur das es meiner Meinung nach unklug ist, einfach die erste DX11 Karte zu kaufen die es auf dem Markt gibt, ohne auf den andere Anbieter zu warten :roll:
Mfg Scaleo
Das "Problem" liegt eher bei der Unnötigkeit der Karte, als bei dem nahenden Hammer von Nvidia und dem damit verbundenen Preisverfall, von dem man mal ausgehen kann.
Wie ich, haben hier viele eine GTX260 (oder eine ähnliche Karte) und damit kann man nunmal alles zocken, wenn man jetzt mal von Crysis absieht. Ich würde mir die Karte sofort kaufen, wenn es denn ein ebenbürtiges Spiel geben würde, aber das wird wohl noch etwas auf sich warten lassen. Die Leistung ist schon beeindruckend. Schön, dass AMD die Messlatte nach dem RV770 nochmal etwas höher legen kann.
Hätte ich das nötige Kleingeld, dann wäre sie natürlich gleich nach Release in meinem PC :D
5850: 299$
5870: 399$
5870X2: 449$
sind von ATI so rausgegeben, wie weit die Anbieten ala XFX oder Sapphire noch runtergehen ist denen überlassen.
Quellen siehe Hardwareluxx.de ;)
Crysis ? Also ich kann VH DX10 1440x900 und 38fps avg. daddeln Micha. :p ;)
Gruß
Noname
Die geleakten Benchmarks kann man vergessen. War doch schon immer so! Wartet doch einfach ab als euch gegenseitig zu zuspammen.
Naja, die 8000er Reihe von nvidia war damals auch die erste DX10 Karte, sie war Leistungtechnisch der Hit, warum soll AMD/ATI das nicht auch mit DX11 schaffen ;)
Aber ich werd mir auch frühstens (wenn überhaupt) Anfang 2010 ne DX11 Karte holen, denn wenn nvidia's Karten da sind fallen 1. die Preise von ATI, und 2. hat man auch ein komkreten vergleich :)
Auch wenn die Werte jetzt schon der Hammer sind :twisted:
Für alle, die das interessiert: Die Radeons 5xx0 werden per PowerPlay effektives Stromsparen beherrschen. Die 5870 beispielsweise wird von 850 MHz GPU und 1.200 MHz RAM (2.400 "MHz") unter 3D auf 157 MHz und 300 MHz (600 "MHz") unter 2D reduzieren können bei gleichzeitiger Spannungsabsenkung von 1,063V auf 0,95V.
Bis ich mir was neues kaufe ist sowohl etwas von der 5k reihe als auch von der gtx 300.er reihe entschieden. Also werde ich erst später mein fazit ziehen ;)
Das ist natürlich schon ein Argument8-)
Laut einiger Usermeinungen nimmt man die Ränder nicht/kaum wahr, wenn man es selber testen kann.
Du wiedersprichst dir selber.
Erst meckern über User meinungen und dann selber eine abgeben obwohl du so noch nie gespielt hast. SUPER :)
Im gegensatz zu dir haben die Leute gespielt und wissen wie es ist so zu spielen.
Blablabla langer Text kurzer Sinn, warte ab und probier selber.
Ich brauch nicht daran spielen, mir reichen die videos um zu sagen das es der größte schrott ever is, aber wer spass dran hat :p:wink:
Achso btw ;-)
Alle Daten der neuer ATI DirectX-11-Modelle
Lange wurde über ATIs anrollende DirectX-11-Grafikkarten spekuliert, nun tauchten endlich handfeste Informationen über das Innenleben auf. Ab dem 23. September 2009 verfügbar, soll die Radeon HD5870 vorerst das Flaggschiff der neuen Serie bilden. Dieser Bildermacher verfügt laut Informationen einer AMD-Präsentation 1.024 MB GDDR5-Grafikspeicher, die an ein 256 Bit großes Speicherinterface angebunden sind. Als Rechenleistung gibt AMD 2,72 TeraFLOPS an.
Ihr ofenfrischer Grafikchip arbeitet mit 850 MHz und herrscht über 1.600 Stream-Prozessoren. Preislich bewege sich die Karte nach ersten Informationen bei 400 US-Dollar, außerdem werde zeitgleich ein baugleiches Modell mit 2.048 statt 1.024 MB GDDR5-Speicher beim Händler landen - dafür müsst ihr mit 50 US-Dollar Aufpreis rechnen.
Als kleinere Schwester bietet sich die Radeon HD5850 an. Für 299 US-Dollar läuft die Grafikkarte mit 725 MHz GPU-Takt, 1.440 Stream-Prozessoren, 1.024 MB GDDR5-Speicher und effektiven 4 GHz Speichertakt vom Fließband. Auch hier scheint der Speicher über ein 256-Bit-Interface zu kommunizieren
Quelle: ATI forum.
MFG
Ovo
Hoffentlich tritt ATI Nvidia in den ***** :twisted:
Sry wenn ich das hier schreibe, aber ich göne es ATI :D
Kannst dir ja ne super Meinung bilden ohne mal gespielt zu haben 8-).
b2t Wieviel wären ca. 299 Dollar?
Danke.
Ich musste mich wegen dieser Äußerung schon als dumm betiteln lassen http://www.web-smilie.de/smilies/ugly_smilies/ugly.gif
Ich spiele mit dem Gedanken, mir die 5870 recht früh, vielleicht nach der ersten Woche, zu holen, da dann erfahrungsgemäß der erste Preisnachlass zu vermerken sein sollte. (Obwohl ja dieses Mal keine direkte neue Konkurenz da ist).
Mit der Bedingung, dass es zu Beginn nicht 399 Euro sind, sondern ~ 350.
Toll wäre natürlich, wenn gleich schon eine 2GB Variante dabei wäre, worauf ich aber denke ich vorerst verzichten muss.
Dazu noch mal die gleiche Platte wie ich sie schon habe und nen Blu- Ray- Combolaufwerk.
Danach sollte ich erstma für mind. ein Jahr Ruhe mit Hardware haben . . .
. . . obwohl ein CI Modul für meine TV- Karte und vielleicht noch ne extra Audiokarte und ein 5.1 - 7.1 Soundsysthem wären auch nicht verkehrt . . . :roll:
das find ich nicht besonders lustig
Zitat:
Mal was nettes zum anschauen :d
Da ich grade bei der Entwicklung eines WaKü für die 5870 bin, weiß ich das das PCB etwa 26,5cm lang ist
http://www.abload.de/thumb/hd58700013jzk.jpg
Dürfte also bei den meisten reinpassen.Zitat:
Sie hat mit Verkleidung 28cm ...und mit nem WaKü drauf exakt 26,5cm ;)
Wird es nicht Simon. >>>
;)Zitat:
Update 18. September 2009
http://images.gamestar.de/images/idg...83010/152x.jpg
Kurz war die neue Radeon für 319,99 Euro gelistet
Der erste Online-Händler hatte die ATI Radeon HD 5870 bereits in seinen Webshop aufgenommen, auch wenn die Karte noch nicht lieferbar war. Der niederländische Händler Salland gab einen Preis von 319,99 Euro an. Der US-Preis von 399 Dollar, bei dem meistens die Steuern fehlen, wäre damit ziemlich genau zum aktuellen Kurs umgerechnet. Inzwischen hat Salland nach Intervention von AMD die Karte allerdings wieder von seiner Seite entfernt.
http://www.gamestar.de/hardware/news...58965/ati.html
Gruß
Noname
Oh man, je näher es zur neuen Generation kommt, umso gespannter bin auf die Gegenseite, also dem GT300, der eh alles wegbumsen wird. Ich habe schließlich meine Seele an Nvidia verkauft! :twisted:
Naja noch wissen wir nichts.
Joar Dito.
Hatte noch nie ne ATI Graka, kA warum aber irgendwie bin ich auch nicht versucht es auszuprobieren.
Seit dem Nvidia - Laubsauger bin ich iwie Nvidia treu geblieben.
Eigentlich auch nie über ne ATI nachgedacht.
Hab auch nichts gegen ATI oder AMD, hatte Jahrelang Amd Cpus.
Mfg Scaleo
ich habe bei den jüngsten Benchmarks so etwas den Eindruck, daß die neue Ati nur in Games auftrumpfen kann, die auf aktuellen Karten eh schon sehr gut laufen. Also statt 70fps 120fps z.B.. In Games jedoch wie Stalker: CS, wo man Mehrleistung bräuchte, ist sie dann nur geringfügig besser als ne 4890 oder ne GTX285.
da scheint einer eine karte zu haben.
Bilder von Sapphire
http://www.pcgameshardware.de/aid,69...fikkarte/News/
Bei den Standardmodellen sollen nach den CCC- Angaben hier die Temperaturen schwer in Ordnung gehen.
74°C bei 95% Auslastung und 30% Lüfterdrehzahl.
Könnt hinkommen.
Vorallem bei meinem Lüfterkonzept. Vorne ein 120mm Lüfter davor, 2 Lufteinlässe in der Karte, die in dessen Richtung zeigen und hinten kommt die heiße Luft raus.
Bin mal gespannt.
Da kann ich nur hoffen, dass die Gerüchte zur Verschiebung des Verfügbarkeitsdatums auf den 10.10 nicht hinkommen.
MfG,
Jaco
Edit:
Noch ein paar TesselationBilder:
http://img193.imageshack.us/img193/1300/00003h.png http://img193.imageshack.us/img193/7955/00002i.png
http://img193.imageshack.us/img193/7131/00001z.png http://img193.imageshack.us/img193/1281/00000w.png
Holy Shit !! :eek2:
Ist euch klar was man alles mit Tesselation bald darstellen kann ohne Aufwand ?
Die Games werden nur so vor Details platzen !
Sieht nice aus, aber für Leute die schon ehh mind. GTX260² haben, lohnt es sich meiner Meinung noch nicht umzusteigen... Ausser man hat zuviel Geld und ehh alles :D
HD 5000-Filterqualität nur scheinbar besser
Zitat:
Nachdem wir berichteten, dass der anisotrope Filter der HD 5000-Serie offenbar perfekt winkelunabhängig arbeitet - die bereits sehr geringe Winkelabhängigkeit der HD 2000- bis HD 4000-Serie dürfte in der Praxis aber nicht von der besseren, kreisrunden Blume der HD 5000-Serie zu unterscheiden sein -, sickert von anderen Quellen inzwischen durch, dass das Hauptproblem leider nicht angegangen worden ist.
So liegen uns Informationen vor, wonach der Filter nach wie vor deutlich stärker als auf aktuellen Geforce-Karten flimmert, was auf Unterabtastung hindeutet. Dadurch spart ATI zwar Takte in den Textureinheiten und erzielt somit eine höhere Performance, die Bildqualität leidet allerdings darunter.
Ob wenigstens die Qualität mit deaktiviertem A.I. nun auch in anderen Einstellungen zur Verfügung steht, können wir noch nicht sicher sagen.
Jedenfalls darf man bereits jetzt enttäuscht sein, dass AMD nicht aus der Vergangenheit gelernt hat und dem Käufer einer High-End-Grafikkarte eine perfekte Bildqualität verwehrt, obwohl Leistung sowieso oft zur Genüge zur Verfügung steht.
Fast schon zynisch anmutet, dass mit deaktiviertem A.I. - und damit noch akzeptablem Filterverhalten - Crossfire nicht mehr arbeitet. Käufer von Multi-GPU-Systemen oder X2-Karten werden damit womöglich immer noch komplett ausgesperrt.
http://www.hardware-infos.com/news.php?news=3208
allso mittwoch um 6:01 MESZ wissen wir mehr.:smile:
Club3D und HIS karten.
Radeon HD 5870: Offenbar nur geringe Stückzahlen zum Start im Endkundenhandel
Quelle: http://www.pcgameshardware.de/aid,69...fikkarte/News/Zitat:
Zitat von pcgameshardware.de
Gigabyte und Sapphire karten
Und schon wieder sehe ich meine GTX260 als alt. :roll:
es ist ein Teufelskreislauf.
http://www.hausmaus.at/Erkrankungen3...n/image001.jpg
Test: ATi Radeon HD 5870
Ati Radeon HD 5870 im Test Radeon HD 5870: Die erste Direct-X-11-Grafikkarte im Benchmark-TestZitat:
Leistungsaufnahme
Funktionieren die Stromsparmechanismen auf der Radeon HD 5870 oder nicht? Die Temperaturen lassen es vermuten und wir können auch mit Blick auf die Leistungsaufnahme Entwarnung geben. So zieht die Radeon HD 5870 unter Windows gerade einmal 134 Watt aus der Leitung (gemeint ist der gesamte PC), womit ATi sich den zweiten platz hinter der Radeon HD 4670 erkämpft. Die Radeon HD 4890 ist mit 179 Watt um einiges hungriger.
Unter Last erreicht die Grafikkarte 331 Watt, was zwar kein gutes Ergebnis, aufgrund der Leistungswerte aber vorzeigbar relativ eine Verbesserung darstellt. Frei nach dem Porsche-911-Turbo-Slogan „Effizienz braucht Leistung“. Absolut ist die Leistungsaufnahme der Karte gegenüber dem Vorgänger dennoch erneut gestiegen.
http://www.computerbase.de/artikel/h...stungsaufnahme
Temperatur
Dank der neuen Stromsparmechanismen wird die RV870-GPU auf der Radeon HD 5870 nicht wärmer als 34 Grad Celsius, was ein neuer Bestwert in dieser Disziplin bedeutet. Den zweiten Platz belegt die deutlich langsamere GeForce GTS 250, die sich auf 39 Grad „erhitzt“. Unter Last funktionieren die Stromsparmechanismen dann nicht mehr, der Rechenkern wird mit 76 Grad Celsius aber dennoch nicht heiß. Auf der Chiprückseite messen wir maximal 56 Grad Celsius. An warmen Sommertagen sollte es also aufgrund der Reserven zu keinerlei Schwierigkeiten mit der Grafikkarte kommen.
http://www.computerbase.de/artikel/h...itt_temperatur
Lautstärke
Unter Windows hinterlässt das Kühlsystem der Radeon HD 5870 eine sehr gute Figur. Mehr als 43 Dezibel können wir nicht messen. Im Vergleich dazu agieren sowohl die Radeon HD 4890 als auch die GeForce GTX 285 um einiges lauter.
Unter Last dreht der Lüfter der neuen ATi-Karte leider hörbar auf und erzielt ein Ergebnis von 55,5 Dezibel. Damit platziert sich die Radeon HD 5870 genau im Mittelfeld des Testfeldes. Radeon HD 4890 sowie GeForce GTX 285 sind allerdings erneut lauter.
http://www.computerbase.de/artikel/h...tt_lautstaerke
Fazit
Die Radeon HD 5870 von ATi hat uns im Laufe dieses Tests insgesamt sehr gut gefallen, da ATi gut an den Kritikpunkten der vorherigen Generation gearbeitet hat. Die Performance erreicht zwar keine neuen Dimensionen, genügt aber eindeutig, der Karte das Prädikat „schnellsten Single-GPU-Grafikkarte auf dem Markt“ zu verleihen. Die Geschwindigkeit liegt in etwa auf dem Niveau einer Radeon HD 4870 X2, ohne jedoch die üblichen Multi-GPU-Nachteile mit sich zu bringen.
Sowohl in Sachen Leistung als auch bei der Bildqualität und den Features macht die Karte im Vergleich zur Vorgängergeneration einen gesunden Schritt nach vorne. Mit der DirectX-11-Unterstützung ist der Käufer darüber hinaus für die Zukunft gerüstet und die Leistungsaufnahme unter Windows kann sich ebenso (endlich!) sehen lassen.
Natürlich ist die Radeon HD 5870 nicht „die perfekte Grafikkarte“. So benötigt die neue Generation absolut unter Last erneut mehr elektrische Leistung als der Vorgänger, auch wenn die Effizienz gestiegen ist. Auch die anisotrope Filterung oder die immer noch hohe Lautstärke unter Last gehören zu den Aspekten, die in Zukunft noch eine Verbesserung erfahren können. Dennoch: Eine bessere High-End-Grafikkarte als die ATi Radeon HD 5870 gibt es derzeit im Handel nicht – unabhängig davon, wie viele GPUs eingesetzt werden.
Für etwa 350 Euro wird der 3D-Beschleuniger (ab heute) über die Ladentheke wandern, was ein angemessener Preis für die gezeigte Leistung ist. Schlussendlich fehlt allerdings noch der richtige Gegenpart in Form der G(T)300-GPU von Nvidia. Wenn dieser Chip erscheint, werden die Karte neu gemischt. Bis dahin hat ATi mit der Radeon HD 5870 und der Radeon HD 5850 (von der es bei uns demnächst eine kleine Performance-Preview geben wird, Verfügbarkeit erst in einigen Wochen für 229 Euro) aber klar die Nase vorn.
Positive EigenschaftenNegative Eigenschaften
- Derzeit schnellste Single-GPU-Karte
- Fast durchgängig AA/AF möglich
- Verbesserte anisotrope Filterung
- Super-Sampling-AA
- DirectX 11
- Niedrige Leistungsaufnahme unter Windows
- Leise unter Windows
http://www.computerbase.de/artikel/h...bschnitt_fazit
- Relativ laut unter Last
- Recht hohe Leistungsaufnahme unter Last
- Anisotrope Filterung könnte besser sein
noch ein testZitat:
http://www.pcgameshardware.de/aid,69...fikkarte/Test/
Radeon HD 5870: Fazit
Keine Frage: Die Krone ist wieder bei Ati. Die Radeon HD 5870 liefert eine erstklassige Performance ab, die frei von gravierenden Problemen ist - nahezu alle Kritikpunkte an den Vorgängern wurden beseitigt. Die Disziplin "Bilder pro Sekunde" absolviert die HD 5870 mit einem ansehnlichen Vorsprung von durchschnittlich 15 Prozent vor der Geforce GTX 285. In besonders shaderlastigen Fällen wie Crysis Warhead und Stalker: Clear Sky baut die HD 5870 ihren Vorsprung auf bis zu 30 Prozent aus - setzen Sie auf das aus Fps-Sicht nach wie vor sehr performante 8x MSAA, vergrößert sich der Abstand noch weiter. Ihre direkte Vorgängerin überholt die DX11-Radeon stellenweise um über 70 Prozent. Die Multi-GPU-Grafikkarten Geforce GTX 295 und Radeon HD 4870 X2 liegen in einigen Fällen (knapp) vor der HD 5870, gerade die Bildverteilung der X2 ist wegen des starken Mikroruckelns jedoch nicht mit der HD 5870 vergleichbar. Kurz: Die Radeon HD 5870 ist zurzeit klar die schnellste Single-GPU-Grafikkarte auf dem Markt und einer MGPU-Lösung jederzeit vorzuziehen. Positiv ist auch, dass die HD 5870 trotz ihrer Leistung sowohl leise als auch sparsam ist: Insbesondere die 2D-Lautheit (0,5 Sone) und Leistungsaufnahme (20 Watt in 2D und 130 Watt in 3D) sind hervorragend.
Noch viel mehr als mit ihrer Geschwindigkeit überzeugt die HD 5870 durch ihre einzigartigen Features: Während die Multi-Monitor-Technologie Eyefinity eher ein Schmankerl für gut betuchte PC-Nutzer ist und DirectX11 momentan nur auf dem Papier überzeugt, profitieren alle anderen von dem leicht verbesserten anisotropen Filter und dem grandiosen Super-Sampling-Anti-Aliasing (SGSSAA). Letzteres kostet zwar viele Bilder pro Sekunde, die übrigen werden jedoch hochwertiger denn je dargestellt.
http://www.pcgameshardware.de/aid,69.../Test/?page=18
Crysis Warhead (DirectX 10/ 64 Bit)
2.560 x 1.600
http://www.pcgameshardware.de/aid,69...e/Test/?page=9
Sehr schön. Die Karte erfüllt absolut alle Erwartungen und dabei fehlen ja noch die richtigen Treiber.
Hier noch ein Test http://www.tomshardware.com/de/radeo...l#xtor=RSS-122
Hier der Test von PCGamesHardware
Zitat:
Die Radeon HD 5870 liefert eine erstklassige Performance ab, die frei von gravierenden Problemen ist...
...mit einem ansehnlichen Vorsprung von durchschnittlich 15 Prozent vor der Geforce GTX 285.
In besonders shaderlastigen Fällen wie Crysis Warhead und Stalker: Clear Sky baut die HD 5870 ihren Vorsprung auf bis zu 30 Prozent aus
- setzen Sie auf das aus Fps-Sicht nach wie vor sehr performante 8x MSAA, vergrößert sich der Abstand noch weiter.
Kurz: Die Radeon HD 5870 ist zurzeit klar die schnellste Single-GPU-Grafikkarte auf dem Markt...
Hier ist auch nochmal ein komplettes Review (glaube nicht das es schon gepostet wurde):
http://www.guru3d.com/article/radeon...-review-test/1
Freue mich jedenfalls schon richtig auf die DX11 Karten :). Wenn die andere Fraktion noch mehr reist, dann werde ich wohl wieder umsteigen auf den neuen Chip...
Mfg LKrieger
Hoffe das wurde noch nicht gepostet ;).
Quelle: Heise.deZitat:
AMD stellt die Radeon-HD-5800-Serie offiziell vor und lüftet damit das Geheimnis der ersten zu DirectX 11 kompatiblen Grafikkarten. Die rund 350 Euro teure Radeon HD 5870 ist doppelt so schnell wie die Vorgängerkarte Radeon HD 4870, deutlich sparsamer im Desktop-Betrieb und kann in der sogenannten Eyefinity-Spezialversion bis zu sechs Displays parallel ansteuern. 100 Euro billiger ist die rund 10 Prozent langsamere Radeon HD 5850, die ebenfalls Ende September in den Händlerregalen stehen soll.
In den Spielen Crysis und Stalker Clear Sky ist die Radeon HD 5870 bis zu 60 Prozent flotter als Nvidias GeForce GTX 285 – die bis dato schnellste Single-GPU-Grafikkarte. Doch der Vorsprung der Radeon HD 5870 ist auch abhängig vom jeweiligen Spiel: In World in Conflict beträgt er beispielsweise lediglich 10 Prozent. Bei der Arcade-Flugsimulation HAWX, die besser auf GeForce-Grafikkarten läuft, ist die GTX 285 bei vierfachem Antialiasing und sechzehnfachem anisotropen Filter bis zur Auflösung 1920 × 1080 etwas schneller. An Nvidias Dual-GPU-Grafikkarte GeForce GTX 295 kommt die Radeon HD 5870 jedoch nur selten heran. Ausführliche Benchmarks finden sich in c’t 21/09.
In der theoretischen Rechenleistung ist die Radeon HD 5870 mit 2,7 Billionen Gleitkommaoperationen pro Sekunde (TFlops) bei einfacher Genauigkeit und 544 GFlops bei doppelter Genauigkeit mehr als doppelt so leistungsfähig wie eine Radeon HD 4870 (1,2 TFlops/240 GFlops) und überflügelt hier selbst bisherige Dual-GPU-Grafikkarten mit Leichtigkeit. Dafür sorgt der neue RV870-Grafikchip (40 nm), der aus 2,15 Milliarden Transistoren besteht und in dem insgesamt 1600 Shader-Rechenkerne arbeiten. Diese sind in 20 SIMD-Einheiten zu je 16 Recheneinheiten Ã* fünf Kernen angeordnet. Am SIMD-Layout hat AMD im Vergleich zur HD-4800er-Serie prinzipiell also nichts geändert, sondern lediglich die Anzahl der Einheiten verdoppelt. Die Shader-Rechenkerne arbeiten bei einigen Rechenoperationen effizienter als ihre Vorgänger und beherrschen auch die von der DirectX-11-Spezifikation geforderten bitweisen Operationen wie count, insert und extract, die beispielsweise bei Videobearbeitung und Kryptographie häufig vorkommen. Summen absoluter Differenzen sollen sich nun bis zu zwölfmal schneller berechnen lassen. Die billigere Radeon HD 5850 ist um zwei SIMD-Einheiten beschnitten und besitzt damit 160 Shader-Kerne und 8 Textureinheiten weniger. Auch Grafikchip und -Speicher laufen mit 725 beziehungsweise 1000 MHz etwas langsamer als bei der Radeon HD 5870 (850/1200 MHz).
Bei der Radeon HD 5870 ist an jede SIMD-Einheit wie schon bei der Radeon HD 4870 ein Cluster mit vier Textureinheiten (TMUs) gekoppelt, sodass insgesamt 80 davon zur Verfügung stehen. Texturen werden nun bis zu einer Kantenlänge von 16384 Pixeln unterstützt. Massiv verbessert hat AMD die anisotrope Texturfilterung: Diese arbeitet nun winkelunabhängig, liefert daher eine bessere Bildqualität und soll trotzdem so schnell sein wie der AF-Algorithmus der Vorgängerversion. Auch die Zahl der beispielsweise für die Kantenglättung wichtigen Rasterendstufen (ROPs) hat sich bei der Radeon HD 5870 auf 32 verdoppelt, sodass sich pro Takt nun 32 Pixel berechnen lassen. Durch einen zusätzlichen Readback-Pfad können die Textureinheiten nun direkt komprimierte Antialiasing-Farbwerte auslesen, was die Leistung beim Custom-Filter-Antialiasing laut AMD erhöhen soll. Im Treiber stellt AMD nun auch einen Schalter für Supersampling-Antialiasing zur Verfügung.
Der GDDR5-Speicher fasst im Referenzdesign 1 GByte an Daten und ist weiterhin über vier Speichercontroller mit insgesamt 256 Datenleitungen an den Grafikchip angebunden. Bei einer Taktfrequenz von 1200 MHz erreicht die Radeon HD 5870 einen rund ein Drittel höheren Datendurchsatz (153,6 GByte/s) im Vergleich zur Radeon HD 4870. Jeder Speichercontroller ist mit einem L2-Cache verbunden, dessen Kapazität auf je 128 KByte verdoppelt wurde. Die fest verdrahtete Tessellation-Einheit erfüllt in ihrer sechsten Generation die DirectX-11-Anforderungen. Mit ihr lassen sich die geometrischen Details von 3D-Objekten automatisch und ohne große Leistungseinbußen verfeinern. Dadurch steigt die Detailqualität bei Spielen, die dieses Feature unterstützen, enorm. Bei der Wiedergabe von Blu-ray-Videos entlastet die verbesserte UVD2-Videoeinheit weiterhin den Hauptprozessor und dekodiert bis zu zwei Videoströme für die Bild-in-Bild-Funktion. Neu ist nun, dass der zweite Strom auch im HD-Format 1080p vorliegen kann. Hinzugekommen ist laut AMD außerdem die Möglichkeit, TrueHD und DTS-HD als Bitstream auszugeben.
Beeindruckend ist die vergleichsweise geringe Leistungsaufnahme der neuen High-End-Grafikkarten. AMD spricht von rund 27 Watt im Leerlauf, was für beide vorgestellten Modelle gelten soll. Unser Testexemplar der Radeon HD 5870 verbrauchte gar nur 19 Watt – und damit nur rund ein Drittel einer Radeon HD 4870 und auch weniger als Nvidias GeForce GTX 285 (rund 30 Watt). Auch die Geräuschentwicklung ist mit 0,6 Sone gut. Beim Spielen zieht die Radeon HD 5870 durchschnittlich 119 Watt. Die Höchstbelastung lag in unseren Messungen bei 198 Watt; 10 Watt mehr als AMD als TDP-Wert angibt. Der mit zirka 2000 U/min drehende Lüfter ist dann mit 1,2 Sone auch aus dem geschlossenen Gehäuse noch wahrnehmbar. Nach einem längeren Furmark-Stabilitätstest kletterte der Wert sogar auf sehr störende 3,2 Sone. In der Praxis kommt das jedoch eher selten vor. Der Grafikchip erreichte während all unserer Tests nie mehr als 80 °C. Die 28 Zentimeter lange Karte wird durch zwei sechspolige Stromanschlüsse versorgt und belegt durch das umfangreiche Kühlsystem zwei Gehäusesteckplätze.
Bisher konnten Single-GPU-Grafikkarten zumeist nur zwei Bildschirme gleichzeitig ansteuern, auch wenn teilweise viel mehr Anschlüsse an der Slotblende verfügbar waren. Die Radeon HD 5870 bindet nun bis zu drei Displays mit maximal je 2560 × 1600 Bildpunkten an, die Eyefinity-Spezialversion sogar bis zu sechs via DisplayPort. Dabei kann man den Desktopinhalt auf die jeweiligen Monitore erweitern oder auch duplizieren. Was auf welchem Display ausgegeben wird, konfiguriert man im Catalyst-Treiber. So lassen sich auch Spiele in extrem hohen Auflösungen wie 5760 × 2160 darstellen. Rund 80 Titel zählt AMD auf, die zur Eyefinity-Technik kompatibel sind, unter anderem Call of Juarez 2, Fallout 3 und den Microsoft Flight Simulator X.
Mit Stalker: Call of Pripyat und Dirt 2 sollen noch in diesem Jahr Spiele erscheinen, die optionale DirectX-11-Effekte bieten. Das bereits erhältliche Echtzeit-Strategiespiel Battleforge zieht über ein offizielles Update Vorteile aus DirectX 11 und soll etwas schneller laufen. Mit Alien vs. Predator kündigt sich noch ein Top-Titel mit hochdetaillierten Charaktermodellen zum Anfang des nächsten Jahres an. Ob das Spiel auch in Deutschland verkauft wird, ist wegen der Gewaltdarstellung noch unklar. Der im kommenden Jahr erwartete Teil der Battlefield-Serie unterstützt DirectX 11 von Haus aus. Auch Dungeons and Dragons Online (Eberron Unlimited) sowie Lord of the Rings Online bringen einen DirectX-11-Renderpfad mit.
Die Radeon HD 5870 und 5850 sollen ab Ende September für 350 beziehungsweise 250 Euro erhältlich sein. Bereits im Oktober werden auch die ersten Mittelklassegrafikkarten (Radeon HD 5770) erwartet, die wohl für um die 150 Euro über die Ladentheken gehen. Auch ein High-End-Modell mit zwei Grafikchips, die Radeon HD 5870 X2, ist laut AMD in Planung und soll noch in diesem Jahr erscheinen. Vom Konkurrenten Nvidia ist zumindest in den nächsten Monaten keinerlei DirectX-11-fähige Grafik-Hardware zu erwarten.
Egal wie gut die 5000er Serie wird. Sie wird 100pro von GeForce geowned ;)
relativ dämlich finde ich es, daß in den meisten Tests
-nahezu immer dieselben Spiele gebencht werden
-auch solche darunter sind, die eh schon verdammt flüssig laufen mit aktueller Hardware. Die HL2 Episoden z.B. oder HAWX.
Muß ich wohl noch einige Wochen oder Monate warten, bis ein Käufer mal Arma2 testet.
Schauen wir erstmal bis Nvidia was gegen setzen kann und bis zum release der NV Karten kann es noch ne weile dauern, bis dahin hat sich ATI im Markt gut abgesetzt und selbst wenn NV dann mit ihrer Karte welche Leistungsstärker ist kommt, so muss sich ATI nicht fürchten. Ich finde es toll wenn ATI es nach langer Zeit mal wieder hin bekommt, immerhin belebt die Konkurrenz das Geschäft und wer weiß schon ob sich Nvidia gegen ATi behaupten kann wenn es um Anspielung von mehreren Bildschirmen geht?
Radeon HD 5870 mit DirectX 11
Zitat:
Fazit
Seit der Geforce 8800 GTX von 2006 hat uns keine Grafikkarte mehr so begeistert wie die Radeon HD 5870. Technisch überzeugt die Karte mit DirectX 11, dem tadellosen anisotropen Texturfilter und einem angenehm leisen Lüfter. Bei der reinen Spieleleistung überflügelt die Radeon HD 5870 eine Geforce GTX 285 je nach Spiel und Einstellung um bis zu 30 Prozent. Oft rechnet die Radeon HD 5870 sogar fast auf dem Niveau der Geforce GTX 295 mit zwei Grafikprozessoren, braucht dafür aber wesentlich weniger Strom. Angesichts des Preises von rund 350 Euro somit ein tolles Angebot für Besitzer ausreichend gefüllter Brieftaschen, zumal die auch das nötige Kleingeld für die Mehrschirm-Technik Eyefinity haben dürften. Bis zum Erscheinen der DirectX-11-Geforce wird Nvidia nur mit aggressiven Preissenkungen dagegenhalten können. Wir sind gespannt, was die günstigere Radeon HD 5850 leistet. Den Test lesen Sie auf GameStar.de und im nächsten Heft - da könnte der nächste Preis-Leistungs-Champ in den Startlöchern stehen. 1. Update
Gerade erreichte uns mit der 350 Euro teuren Sapphire Radeon HD 5870 die erste verkaufsfertige Herstellerkarte. Die Grafikkarte entspricht bis auf dem Sapphire-Aufkleber auf dem Kühlkörper dem Referenzdesign von AMD. Im Karton liegt ein Gutschein für das kommende Colin McRae Dirt 2, den AMD allen Partner anbieten will. Allerdings: Um den Coupon einzulösen, brauchen Sie einen Steam-Account. Darüber hinaus legt Sapphire die Vollversion von Battlestations Pacific und die üblichen Adapter bei. Den Wertungskasten haben wir auf die Sapphire-Karte angepasst.
http://www.gamestar.de/hardware/test...59135478927548
ist die HD 5870 ne Dual-Gpu.?
nein die kommt noch.
MSI shows its HD 5800 lineup
Powercolor comes up with six HD 5800 cards
Hier noch ein Review von Computerbase:
http://www.computerbase.de/artikel/h...itt_einleitung
34 Grad im Idle!!!!!!
der test von golem.de
Wie also das ist ne Single-GPU und fast so stark wie die 295GTX.? und da kann man auch 4-Way Crossfire machen (oder sind die zu breit.?) .?
Oha und kauf von Matrox Dualhead2Go bzw. Triplehead2Go erübrigt sich. wie geil ist das denn.? ;)
hm nunja für einige Zeit bin ich jetzt mal auf der Seite von ATi ;)
hardawareluxx test
eben gesehen
:shock:
das video zur demoZitat:
Mittlerweile hat AMD auch ein Video veröffentlicht, das die Ruby Real-Life-Demo zeigt. In dem folgenden Video sehen Sie ab 5:33, dass der modellierte Kopf in Echtzeit gerendert, beleuchtet und gedreht wird. Zum Einsatz kommt eine DirectX-11-Grafikkarte mit einer GPU, vermutlich eine Radeon HD 5870, die mittels Compute Shader die neue Ruby berechnet.
http://www.pcgameshardware.de/aid,69...fikkarte/News/
Hat schon jemand bestellt?