Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI 5000er Serie - Sammelthread
JamDeluxe
26.11.2008, 21:43
Die SuFu hat mir leider nich weitergeholfen deswegen mach ich ma auf.
http://www.radeon3d.org/index/ati_allgemein/november_2008/radeon_hd_5800_mit_directx_11_kommt_anfang_2009/
Die 5000er Serie soll im ersten Quartal 2009 kommen und bis zu 50% mehr Shader haben als die GTX 280.
Wenn es wirklich stimmt, und ATI wieder mit einem super P/L Verhältniss anrückt, wird Nvidia wieder einen Schlag zurücklegen müssen. Ma schaun wies sich entwickelt :)
Es gibt auch schon Bilder vom aussehen.
http://i114.photobucket.com/albums/n273/Wirmish/ATi5000Series.png (http://i114.photobucket.com/albums/n273/Wirmish/ATi5000Series.png)
Ich bin mal gespannt :D
1337_alpha
26.11.2008, 21:45
Die sehen irgendwie komisch aus....
Also die Pics sehen irgendwie wie Fakes aus....
JamDeluxe
26.11.2008, 21:47
Sind aber offiziell bestätigt. Ich fand die auch nen bisschen komisch aber es sind die richtigen Karten.
Nur die 5850 sieht ziemlich klein geraten aus, dafür das sie 4 GPU`s hat.
Sc|-|mid
26.11.2008, 21:51
Da bin ich ja mal gespannt! es wird ja schon seit dem r600er über multicore spekuliert :P, mal sehn obs diesmal zutrifft xD.
FLeshtized
26.11.2008, 22:11
Wie siehts mit der weiteren Leistung aus?
JamDeluxe
26.11.2008, 22:13
Müssen wir wohl auf weiter Infos von ATI warten, fest steht, die Karte wird neue Maßstäbe setzten. :)
Müssen wir wohl auf weiter Infos von ATI warten, fest steht, die Karte wird neue Maßstäbe setzten. :)
Na ja das dachte man damals vom GT200 auch.
Mal schauen, wie die Karten wirklich werden ^^
Mfg Scaleo
JamDeluxe
26.11.2008, 22:21
Der Unterschied ist, Nvidia brachte nich die Erwarteten Anforderungen, und ATI hat sie damals sogar überschritten!
Servitor
26.11.2008, 22:23
Die sind ja irgendwie voll hoch
statt lang oder breit ?
Sc|-|mid
26.11.2008, 22:46
Der Unterschied ist, Nvidia brachte nich die Erwarteten Anforderungen, und ATI hat sie damals sogar überschritten! Das gabs auch schon andersrum, da schenken die sich nichts ;).
Siehe,
Nvidea g80
Ati r600
JamDeluxe
26.11.2008, 23:01
Touche :D
Naja, time will tell.
Counter233
27.11.2008, 06:27
@Servitor: Guck mal genau hin...Die oberen 3 Karten sind gleich hoch, bloß ist die 5850 länger...die 5450 ist dafür ganz schön klein geraten :D
nuja so überrascht bin ich jetzt nicht davon...50% mehr shader als wie die 280...nuja bei dem jetztigen standionne man mehr rausbringen...
Was ich stark befürchte ist einfach, dass ATI wieder damit anfängt, den jetztigen Vorteil nutzt und lauter Karten macht, die einfach weniger Leistung bringen
Und dann kommt dann wieder Nvidia mit der ultra High end Karte...dann denke ich mal ist wieder schluß mit ATI...weil die zocker und hardwarefreaks immer das beste von allen haben will...mittlerweile shice egal von welcher Firma...
Ich bin da eher skeptisch bei der Sache...mal schauen was die offiziellen Tests zeigen...meiner Meinung nach die selbe Situation wie mit den neuen i7 prozessoren...erstmal die leute zeigen was die prozessoren können, aber das Endergebnis ist dann nur die Hälfte nach meiner Meinung...
Sind aber offiziell bestätigt. Ich fand die auch nen bisschen komisch aber es sind die richtigen Karten.
Nur die 5850 sieht ziemlich klein geraten aus, dafür das sie 4 GPU`s hat.
Quelle?:roll:
Die sind niemals echt..man sieht doch eindeutig, das es mit Photoshop gemacht wurde. Die 2 Stromstecker wurden einfach kopiert.
Die 5000er Serie soll im ersten Quartal 2009 kommen und bis zu 50% mehr Shader haben als die GTX 280.Naja. Das heißt aber nichts. Zum Einen sind nVidias Shader 1 fach und ATis Shader 5 fach skalar und zum Anderen hat nVidia seine Shader deutlich höher getaktet als ATi.
Anhand der reinen Shaderanzahl kann man also nicht viel ableiten.
1337_alpha
27.11.2008, 15:38
Fällt euch außerdem was bei den Karten auf? Die müssen gefaked sein oder es sind Wunderkarten die keine Wärme mehr produzieren ergo keinen Kühler brauchen
Na wem fällts auf?
SWZOCKER
27.11.2008, 15:39
Fällt euch außerdem was bei den Karten auf? Die müssen gefaked sein oder es sind Wunderkarten die keine Wärme mehr produzieren ergo keinen Kühler brauchen
Na wem fällts auf?
Vllt. brauchen die keinen eigenen Kühler:-? Mir ist das ja egal ich bleib bei GeForce:razz:
Schoeniaw(koq)
27.11.2008, 15:41
Fällt euch außerdem was bei den Karten auf? Die müssen gefaked sein oder es sind Wunderkarten die keine Wärme mehr produzieren ergo keinen Kühler brauchen
Na wem fällts auf?
Meinst du das ernst? Falls ja, hast du noch nie Bilder von Karten gesehen, die noch nicht draußensind?
Quelle?:roll:
Die sind niemals echt..man sieht doch eindeutig, das es mit Photoshop gemacht wurde. Die 2 Stromstecker wurden einfach kopiert.
Auf dem Bild steht sogar, das es nur nen Concept ist.
Also ist das nur ne Zeichnung.
Mfg Scaleo
1337_alpha
27.11.2008, 16:01
Das Concept sieht jedoch sehr unausgereift aus und überhaupt nicht glaubhaft
Die Chips können sie so auch nicht platzieren da man nicht genug Anpressdruck auf jeden einzelnen Chip ausüben könnte ohne dass sich die Karte bis ins unendliche durchbiegt
Ich will da erst einmal ne offizielle Bestätigung von ATI weil ich hab noch nie ein Konzept gesehen bei dem unten in der Ecke sowas wie Illuminati steht ....
Und ich hab sehr wohl schon Bilder von Karten gesehen die noch nicht draußen sind aber das sind dann meist RenderBilder aber nich sowad....
Sir.Simon
27.11.2008, 16:38
Lol, die eine hat 3 GPUS, die andere 2 GPUS, und die größte ATI Karte hat 4 GPUS, was sind das für Flaggschiffen??
QuadGPU´S ?
OMG !
NICE !!
M@rshall15
27.11.2008, 19:38
oh man dann will man sich ne hd4870 kaufen und dann kommt sowas. Aber die Bilder sind ectrem Fragwürdig genau wie die news
LOL, welch Bullshit! Wer das wirklich glaubt, dem ist nicht zu helfen.
Schon alleine der Blick auf die unterschiedliche DIE Größe verrät, dass das Fakebilder sind. Vielleicht mal einen Gang runterschalten in der Euphorie und die Sache etwas realistischer betrachten. Ich will nicht wissen, welchen Kühler man dort voraussetzen wird. Quad-Slot Kühler? :roll:
JamDeluxe
27.11.2008, 22:15
X2 Karten werden auch mit einem Kühler gekühlt. (HD 4870x2) und der gezeigte Aufbau ist nichtmal unrealistisch. Ich weis garnicht was ihr habt. Ihr glaubt nurnicht das sowas möglich ist, doch es hätte auch keiner gedacht das die 4000er Serie so krass wird...
CaptainAwesome
27.11.2008, 22:17
Hoffe das dadurch die Preise der HD4000er Reiher ordentlich sinken, dann hol ich mir vllt ne 2te HD4850 oder auch gleich eine aus der 5000er Reihe^^
M@rshall15
27.11.2008, 22:18
doch ich :D
aber 4 GPUS auf son ding? Die graka passt noch nichma ins gehäuse und wird wohl auch zu lang sein. Sieht aber auch nicht wie ne graka aus sondern wien fake.
pcfreak60
27.11.2008, 22:26
doch ich :D
aber 4 GPUS auf son ding? Die graka passt noch nochma ins gehäuse und wird wuhl auch zu lang sein. Sieht aber auch nicht wie ne graka aus sondern wie fake.
Ich denke auch das es eher ein fake ist..
4 gpus auf so einer Karte sehen schon sehr unglaubwürdig aus!
JamDeluxe
27.11.2008, 22:27
So unrealistisch sieht es nichma aus. 3 GPU`s sind halt kleiner, was Platz spart. Es gibt so einiges was mittlerweile möglich ist. Und es sind ja eh "noch" Konzepte.
pilzbefall
27.11.2008, 22:33
irgendwie sind keine Spiele in Sicht, die jetzt bald schon ne neue Graka-Generation nötig machen würden. Ich lasse mich aber gerne eines besseren belehren :) Multi-GPU kommt mir aber nich inne Kiste.
Baggibox
27.11.2008, 22:43
Nun ja, Crysis mit 16xQQFFSASAAA. ;-)
Damit dürfte man das glaub ich flüssig zocken können. ;-)
M@rshall15
27.11.2008, 22:53
Nun ja, Crysis mit 16xQQFFSASAAA. ;-)
Damit dürfte man das glaub ich flüssig zocken können. ;-)
mit 30 fps.. :D
Ich weiß garnicht das ihr alle habt, so unrealistisch ist das doch garnicht :p 4 kerne....
Aber es gibt absolut keinen Grund jetz meine GTS G92 zu verschrotten denn grafisch kommt bis Q3 2009 sowieso nix besseres als Crysis, aber warscheinlich werden die behinderten Entwickler mit ihren 5870er Karten alles flüssig programmieren und dann schlecht optimieren sodass man gezwungen ist sich eine bessere Karte zu kaufen :mad:
nuja ich denke mal nicht, dass es um die Menge der Kerne ankommt, sondern wie man am ende die Karte ins Gehäuse reinbringen will, deshalb sieht es so komisch aus ;-)
Für mich sehen die karten wie solche xtreme soundkarten aus :-D
Flying_Dragon
28.11.2008, 07:10
Für mich sehen die karten wie solche xtreme soundkarten aus :-D
/signed
finde ich genau so xD
sehen verdammt nach fakes aus!
Sehen für mich genauso wie fakes aus. Alle Teile die mehrmals vorkommen sehen Haargenau gleich aus:roll:
Auf dem Bild steht sogar, das es nur nen Concept ist.
Also ist das nur ne Zeichnung.
Mfg Scaleo
10 Zeichen
makkavelli
28.11.2008, 10:37
ich brauch eh keine graka... ich hab über meiner soundkarte ein bild von Chuck norris hängen auf dem er sagt: "mach mir 1000 fps"..... es funktioniert!
1337_alpha
28.11.2008, 12:39
Jam Deluxe
Ich weiß ja nicht wenn du das glaubst....
Wie gesagt bei der Anordnung der Chips könnte man nicht einmal einen Kühler installieren xD
Und die Chips ansich sind auch derbe Fake
Ich glaube kaum dass ATI mehrere Arten von DIE's einsetzt
Guckt euch die mal an
Der eine größer der andre kleiner
Also 100% Fake
edit: Außerdem fehlt übrigens der VITEC Chip auf der Grafikkarte und jeder weiß übrigens dass ATI bei den HIgh End Karten immer mindestens einen 8pin Anschluss benutzt und nicht nur 6 pin
Sir_Nitro
29.11.2008, 23:02
Und dass die Stromanschlüsse entweder wie bei der X2 in Richtung Solts gehen oder ,dass sie wie bei der 4850/4870 waagerecht weggehen.
Mir kommen auch die wenigen RamBausteine "spanisch" vor.
OT: Ich wusste gar nicht ,dass Iluminati auch die Finger bei ATI mitdrin haben..:roll:
Die SuFu hat mir leider nich weitergeholfen deswegen mach ich ma auf.
http://www.radeon3d.org/index/ati_allgemein/november_2008/radeon_hd_5800_mit_directx_11_kommt_anfang_2009/
Die 5000er Serie soll im ersten Quartal 2009 kommen und bis zu 50% mehr Shader haben als die GTX 280.
Wenn es wirklich stimmt, und ATI wieder mit einem super P/L Verhältniss anrückt, wird Nvidia wieder einen Schlag zurücklegen müssen. Ma schaun wies sich entwickelt :)
Es gibt auch schon Bilder vom aussehen.
http://i114.photobucket.com/albums/n273/Wirmish/ATi5000Series.png (http://i114.photobucket.com/albums/n273/Wirmish/ATi5000Series.png)
Ich bin mal gespannt :D
Die shader sind ****** egal ATI hatte schon immer mehr, dafür eben nicht so effiziente wie nvidia
außerdem ist sogar in dem bild nen wasserlogo wo steht konzept so werden die karten sicher nicht aussehen
außerdem ist sogar in dem bild nen wasserlogo wo steht konzept so werden die karten sicher nicht aussehen
Das Wasserlogo bedeutet, dass irgendein ATI-Fanboy sowas "gemalt" hat....und nach meiner meinung ganz schlecht 8-)
Wie gesagt....die Soundkarten von CREATIVE haben sogar mehr Style und sehen fast genauso aus:D
- Crysis2142
Gibt mal wieder News.. und diese sollten doch wohl die meisten ATI Jünger freuen, denn die HD5870! für 299 $. Ganz ehrlich, auch als NV Jünger... heftig!
Laut VR-Zone (http://vr-zone.com/articles/-rumour-amd-dx11-cypress-is-radeon-hd-5870--hd-5850/7469.html?doc=7469) hat AMD (http://www.gamestar.de/hardware/news/grafikkarten/1958489/ati.html#) seine Partner darüber informiert, dass die DirectX-11-Karten tatsächlich den vermuten Namen ATI Radeon (http://www.gamestar.de/hardware/news/grafikkarten/1958489/ati.html#) HD 5800 tragen werden.
Die Hauptpunkte der neuen Karten seien 1 GByte GDDR5-Speicher, ATI Eyefinity zum Anschluss von bis zu drei Monitoren gleichzeitig, ATI Stream, DirectCompute 5.0 und OpenCL, Accelerated Video Transcoding (AVT), Open GL 3.1, CrossfireX, Avivo HD, dynamisches Powermanagement mit Powerplay, 2x Duallink-DVI, Displayport und HDMI. Es handelt sich natürlich um PCI-Express-2.0-Karten.
Update 25. August 2009
Die türkische Webseite Donanimhaber (http://www.donanimhaber.com/ATi_HD_5870_GTX_285ten_daha_ucuz_olacak-15397.htm) meldet, dass die neue ATI Radeon (http://www.gamestar.de/hardware/news/grafikkarten/1958489/ati.html#) HD 5870 zu einem Preis von 299 US-Dollar in den Handel kommen soll und damit zumindest in den USA preislich gegen die Geforce (http://www.gamestar.de/hardware/news/grafikkarten/1958489/ati.html#) GTX 285 antreten würde. Die genaueren Spezifikationen sind immer noch unbekannt.
Während manche Webseiten davon ausgehen, die neue Radeon hätte doppelt so viele Shader wie die letzte Generation, vermuten andere 50 Prozent mehr. Die Vorstellung soll am 10. September stattfinden, in den Läden sollen die Karten aber erst am 22. September stehen – ebenfalls laut Gerüchten.
Quelle (http://www.gamestar.de/hardware/news/grafikkarten/1958489/ati.html)
Gruß
Noname
Zunächst muss man erstmal abwarten, was das Ding überhaupt leistet, bevor man in der Euphorie versinkt.
Baggibox
26.08.2009, 15:56
Bei dem Preis kack ich sogar auf NVIDIA !! :smoke:
Ich sag nur immer her damit !!
pcfreak60
26.08.2009, 16:48
Zunächst muss man erstmal abwarten, was das Ding überhaupt leistet, bevor man in der Euphorie versinkt.
Genau. Wenn das Ding doppelt so schnell ist wie ne GTX285, dann immer her damit :D
Bin mal gespannt ob ATI am Anfang wieder so Treiberpropleme hat, als bei der 4000 Reihe.
Schaue da bei noch etwas skeptisch entgegen.
Jake_Dunn
26.08.2009, 17:17
Genau. Wenn das Ding doppelt so schnell ist wie ne GTX285, dann immer her damit :D
Die HD5870 wird nicht doppelt so schnell wie die 285er ;-)
HD5870 ~ 2x 4870er Leistung
GT300 ~ 2x 285er Leistung
Die HD5870 wird nicht doppelt so schnell wie die 285er ;-)
HD5870 ~ 2x 4870er Leistung
GT300 ~ 2x 285er Leistung
Benchmarks ?
Einfach abwarten ....
Mfg Scaleo
Ovomaltine
26.08.2009, 17:26
Sollen sich ruhig noch zeit lassen, gibt ja atm nochnet mal ein game was ne GTX 285 oder ne 4890 auslastet und nun kommt mir net wieder mit doch crysis auf 3000x2500 und Ultra blabla
und 16x aa und af, sowas brauch kein mensch ;-) :D
Und ich denke das wird auch noch ne weile dauern, da die meisten titel eh ne konsolen portirung werden!
MFG
Ovo
Wieso nicht?
Ich war immer zufrieden mit meinen ATI Grafikkarten.
Bei NVidia kann ich auch nicht meckern.
Naja auser das Nvidia mehr kostet aber dafür guten Service leistet (Treiber/Demos/Unterstützung von Software etc.
Jake_Dunn
26.08.2009, 18:43
Benchmarks ?
Einfach abwarten ....
Mfg Scaleo
Ein RV870 (HD5870 ?) macht wohl 18K im Vantage und eine GTX295 18,3K den Rest kann man sich ausmalen.
Derzeit stehen 1600SPs, 80TMUs, 32ROPs, für den RV870 im Raum, zum Vergleich RV770 (HD4870) 800SPs, 40TMUs, 16ROPs :wink:
Hehe ich weiß schon wohin das führt.
Die 5870 schaft bei Crysis 40 fps auf Very High und die GT300 43 fps.
Und natürlich kaufen sich alle die GT300 xD.
Hoffe ATI macht was an ihren Treibern.
PS. War nur ein beispiel also nichts beknacktes denken ^^
@OWNED:
So wirds werden :D
Nochmal an alle.. es gibt noch keine "Leistungsbemerkungen" seitens ATI. Quellen ? Nein na wie denn auch ;)
Es gibt nur die seitens NV, dass der GT300 bis zu 110% schneller als der GT200 wird, nicht mehr und nicht weniger.
Gruß
Noname
Jake_Dunn
26.08.2009, 19:02
Hehe ich weiß schon wohin das führt.
Die 5870 schaft bei Crysis 40 fps auf Very High und die GT300 43 fps.
Um mal bei deinem "Beispiel" zu bleiben würde ich für den G(T)300 schon ~52-55fps sagen*
Man sollte aber nicht vegessen dabei das der G(T)300 später kommt und deutlich teurer wird.
Sowas wie beim GT200 wird sich NV nicht nochmal erlauben :wink:
*spekulatius
JamDeluxe
26.08.2009, 19:08
Die HD5870 wird nicht doppelt so schnell wie die 285er ;-)
HD5870 ~ 2x 4870er Leistung
GT300 ~ 2x 285er Leistung
Die HD5870 wird nicht "nur" soviel Leistung haben wie 2x 4870. Sonst könnt ich mir auch ne 4870 x2 kaufen.
Ich persönlich rechne mit der Leistung von 3x 4870.
Das mit dem GT300 kann so stimmen doch warte ich erstma Test Ergebnisse ab.
Die Ati Karte is für mich aber einfach interessater da sie einfach genug Leistung hat und der Preis gut is.
Hehe ich weiß schon wohin das führt.
Die 5870 schaft bei Crysis 40 fps auf Very High und die GT300 43 fps.
Und natürlich kaufen sich alle die GT300 xD.
Hoffe ATI macht was an ihren Treibern.
PS. War nur ein beispiel also nichts beknacktes denken ^^
Ich denke aber auch das es so wird^^
LKrieger
26.08.2009, 19:20
Um mal bei deinem "Beispiel" zu bleiben würde ich für den G(T)300 schon ~52-55fps sagen*
Man sollte aber nicht vegessen dabei das der G(T)300 später kommt und deutlich teurer wird.
Sowas wie beim GT200 wird sich NV nicht nochmal erlauben :wink:
*spekulatius
So pauschal kannst du keine fps werte angeben! Bei 1680x1050 einer 285 und einem Core i7 ist jetzt schon die 52 fps Marke zu schaffen. Bei dem G300 Chip rechne ich mit wesentlich mehr!
Was AtI betrifft - bin mal gespannt was das teil so auf die Benchmarkwaage bringt. Werde hingegen trotzdem ein paar Euro mehr ausgeben und zu den Qualitativ hochwertigeren Karten von NV greifen (VORAUSGESETZT sollte es so bleiben!)
Ich bin nämlich ein Kunde der sich im vornherein keine favorisierten Firmen Bildet. Aber einer der für sein Geld lieber mal ne Karte hat die wirklich was taugt und dann auch in den GAME-Benches am besten abschneidet. So 0815 Sachen taugen mir nicht...
Bin ja mal gespannt ob ATI jetzt mal was gescheites auf den Markt schmeißt - ich meine mit vorraussichtlich 299 wäre das ein attraktiver Preis für eine H-End Karte. Nya kommt Zeit kommt Rat.
Mfg LKrieger
Jake_Dunn
26.08.2009, 19:21
Die HD5870 wird nicht "nur" soviel Leistung haben wie 2x 4870. Sonst könnt ich mir auch ne 4870 x2 kaufen.
Ich persönlich rechne mit der Leistung von 3x 4870.
Nein 3x4870 ist unmöglich! Eine X2 hat auch nicht 2x4870er Performance, da CF nicht zu 100% skaliert und plus Mikroruckler und teilweise inkompatiblitäten in einigen Games sowieso recht suboptimal ist ^^
Hier der aktuelle Stand der "Infos" zur Evergreen-Familie (HD5xxx)
http://www.xtremesystems.org/forums/showpost.php?p=3967152&postcount=174
So pauschal kannst du keine fps werte angeben! Bei 1680x1050 einer 285 und einem Core i7 ist jetzt schon die 52 fps Marke zu schaffen.
Das Beispiel von OWND und mir ist fiktiv, die Zahlen sind frei erfunden es sollte nur den möglichen Performanceabstand zeigen ;)
Jodasalz
26.08.2009, 19:23
Die HD5870 wird nicht "nur" soviel Leistung haben wie 2x 4870. Sonst könnt ich mir auch ne 4870 x2 kaufen.
Ich persönlich rechne mit der Leistung von 3x 4870.
Das mit dem GT300 kann so stimmen doch warte ich erstma Test Ergebnisse ab.
Die Ati Karte is für mich aber einfach interessater da sie einfach genug Leistung hat und der Preis gut is.
Ich denke aber auch das es so wird^^
naja 3 glaube ich weniger,... und dsa entscheidende ist dabei der Stromverbrauch, das ist der punkt der fie meisten von nem kauf einer x2 karte abhält egal ob NV oder ATI
wenn die 5870 bei gleichem verbrauch die doppelte leistung bringt wie eine 4870 ist das schon ein riesen fortschritt!!
LKrieger
26.08.2009, 19:29
naja 3 glaube ich weniger,... und dsa entscheidende ist dabei der Stromverbrauch, das ist der punkt der fie meisten von nem kauf einer x2 karte abhält egal ob NV oder ATI
wenn die 5870 bei gleichem verbrauch die doppelte leistung bringt wie eine 4870 ist das schon ein riesen fortschritt!!
Ganz ehrlich - wenn ich ne High end Karte haben möchte - oder mir sogar ein Ultra-End Gespann reinhäng - dann ist mir der Verbrauch recht egal!
Ist genauso wie ein Lamborghini Fahrer der sich über die Spritkosten beschwert... Angemessene Leistung bekommt man nur bei passenden Verbrauch. Bekomm auch keinen 500 ps Motor mit 2 Liter/100Km - häng ne 0 ran ;).
Mfg LKrieger
pcfreak60
26.08.2009, 19:33
Hier der aktuelle Stand der "Infos" zur Evergreen-Familie (HD5xxx)
http://www.xtremesystems.org/forums/showpost.php?p=3967152&postcount=174
Wie daraus zu lesen ist wird sie knapp langsamer sein als die GTX295.
Jake_Dunn
27.08.2009, 19:50
More Detailes about ATI Eyefinity Technology
ATI Eyefinity technology is something pretty cool that will be available the upcoming Radeon HD 5800 series. It allows you to extend your game view across 3 displays like the Matrox TripleHead2Go except that it gonna be much more powerful. That's over 12 megapixels at 2560 x 1600 resolution for the ultimate gaming experience. It is ideal for flight sim, racing games, role paying games, real-time strategy, first-person shooter and even multimedia apps. So how powerful exactly this card is?
This card sports a 2nd gen TeraScale engine that delivers more than 2 teraFLOPS of processing power. With so much power pack inside, it supports a new anisotropic filtering method too. If one isn't enough, you can get up to 1.8X graphics performance boost by pairing them up. The launch is around the corner and reviews will start popping out by middle of September Stay tuned for more information.
http://vr-zone.com/articles/more-details-about-ati-eyefinity-technology/7518.html?doc=7518
Tig3r0023
28.08.2009, 13:34
http://www.pcgameshardware.de/aid,693773/Radeon-HD-5870-und-HD-5850-mit-Eyefinity-12-Megapixel-Surround-Gaming/Grafikkarte/News/
Nochmal auf Deutsch.
Hätt ich lieber nicht vor 2 Wochen ne 2. GTX285 gekauft ...
Wie daraus zu lesen ist wird sie knapp langsamer sein als die GTX295.
wo steht das denn???
hast dich wohl auf den bildchen verguckt und 5870 statt 4870 gelesen?:p
wo steht das denn???
hast dich wohl auf den bildchen verguckt und 5870 statt 4870 gelesen?:p
Nein das stimmt schon so ^^ Hab das auch schon mal gelesen ...
Weiß nur nimmer wo :X
Aber muss auch bedenken das die 295er ne 2x Chip Karte ist.
Mfg Scaleo
Nein das stimmt schon so ^^ Hab das auch schon mal gelesen ...
Weiß nur nimmer wo :X
Aber muss auch bedenken das die 295er ne 2x Chip Karte ist.
Mfg Scaleo
stimmt, nun die 5870 wird es auch in 4x karte geben mit bis zu 4gb.
von welcher grafikkarte redest du dann also? von der normalen 5870???
Eine genaue Modelbeschreibung gibts leider nicht ^^
Quelle (http://www.gamestar.de/hardware/news/grafikkarten/1958367/amd.html)
Aber wie sie schon schrieben, in Games kann das auch nochmal anders aussehen.
Mfg Scaleo
Man sollte bitte auch daran denken das dx11 Grafikkarten ihre Leistung erst in DX11 entfalten können. Die GTX295 bekommt durch dx11 Spiele auch ein leichten Performance-Schub aber es könnte sein das gerade bei DX11 Spielen die neuen Karten mehr Power bringen
Jake_Dunn
28.08.2009, 18:30
Die GTX295 bekommt durch dx11 Spiele auch ein leichten Performance-Schub
KLAR! :roll:
KLAR! :roll:
Willst du mich veräppeln? Wenn ja dann solltest du mal ein paar Tech-Artikel auf Computerbase oder Nvision lesen. Da steht es schwarz auf Weiss
KLAR! :roll:
Doch so siehts aus...
Die DX10 Karten werden von DX11 profitieren.
Ledeglich einige Features werden DX11 Karten vorbehalten sein, aber von der Programmierung und anderen Dingen, werden die DX10 Karten auch profitieren.
http://www.gamestar.de/hardware/praxis/1956743/directx_11.html
Mfg Scaleo
Radeon-HD-58x0: Realistische Spezifikationen und Bilder der DirectX11-Grafikkarten
Die DirectX-11-Generation, eine gute Quelle für Gerüchte und Fehlinformationen. Nun sind allerdings relativ realistische Spezifikationen und Bilder der neuen Grafikkartengeneration AMDs aufgetaucht.
Es gibt neue Informationen und Bilder über AMDs neue Grafikkartengeneration: Alienbabeltech.com will die Spezifikationen für die Radeon HD 5870 und 5850 in Erfahrung gebracht haben. Neben den bereits bekannten Features wie ATI Eyefinity, mit der Sie bis zu drei Monitore mit einer Auflösung von bis zu 2.560 x 1.600 ansteuern können, sind nun angeblich auch die leistungsrelevanten Werte aufgetaucht. Diese muten bereits relativ realistisch an.
Die Radeon HD 5870 soll, laut dem Bericht, über 2 Milliarden Transistoren auf einer Chip-Fläche von über 330 Quadratmillimetern vereinen und rund mit dem verbauten GDDR5-VRAM (256 Bit) eine Bandbreite von über 150 GByte pro Sekunde liefern. Dabei soll diese im 2D Modus mit 28 Watt und bei Volllast maximal 190 Watt benötigen. Folgende Spezifikationen sollen die HD 5850 und 5870 aufweisen:
Die Radeon HD 5850 und die HD 5870 sollen am 23. September für 299 respektive 399 US-Dollar an den Start gehen, die Radeon HD 5870 X2 soll in der zweiten Oktober-Hälfte folgen.
Zusätzlich zu den recht realistischen, aber noch nicht bestätigten Spezifikationen ist tweakers.net an neue Bilder einer angeblichen Radeon HD 5870 gekommen. Anhand der Länge der PCI-E-Kontakte haben wir eine Gesamtlänge von rund 26 Zentimetern gemessen - wir halten Sie auf dem Laufenden.
http://www.pcgameshardware.de/aid,694705/Radeon-HD-58x0-Realistische-Spezifikationen-und-Bilder-der-DirectX11-Grafikkarten/Grafikkarte/News/
ATI Radeon 5870 Six
Was wohl mal bereits als "Trillian" durch die Gerüchteküche geisterte, soll nun mit der ATI Radeon 5870 Six Wirklichkeit werden, an die bis zu sechs Monitore angeschlossen werden können. Mit den "normalen" ATI Radeon 5870 und ATI Radeon 5850 sollen immerhin bis zu drei Monitore möglich sein. Mehr dazu bei TechRadar UK.
Technologic will außerdem erfahren haben, dass dies durch Mini-DisplayPort-Anschlüsse realisiert werden soll.
HD5870 Crysis Benchmark Score
Chiphell will die ATI Radeon HD 5870 mit Crysis getestet haben: Link mit Google-Übersetzung
CPU: AMD Phenom II X4 955BE
Win 7 RTM Win 7 RTM
VGA:HD5870 1GB
Crysis 1900x1200 4AA+16AF DX10 Very High
min:30.**
avg:43.**
max:54.**
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1252587096
bilder der karte
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1252557501
Das Design der Graka gefällt mir übelst :-)
JamDeluxe
10.09.2009, 17:23
Das Design der Graka gefällt mir übelst :-)
Mir auch. Sieht schlicht aber elegant aus :)
Counter233
10.09.2009, 17:27
Ich hoffe doch ihr meint das ironisch...also ich finds nicht so geil :D
Ich kann nur sagen wie es mein Vater immer sagt: Einfach und doch geschmacklos :D
1337_alpha
10.09.2009, 17:29
Ich hoffe doch ihr meint das ironisch...also ich finds nicht so geil :D
Ich kann nur sagen wie es mein Vater immer sagt: Einfach und doch geschmacklos :D
Naja...
Besser als ein vollgebombtes Design im Teletubbi Style
Schlicht, edel und ein wenig ausgefallen
Hat was :)
Und wenn euch der Kühler nicht gefällt, dann macht halt einen anderen drauf ;)
Mich juckt das eh relativ wenig weil ich auf alle Karten einen Wakühler mache
Counter233
10.09.2009, 17:32
Naja mich juckts auch nicht, weil ich mir eh keine Graka holen werde...habe ja noch meine ultra starke 8600 mGT mit GDDR3...die pownt eh alles und reicht für die nächsten Generationen ;)
Bullet-time
10.09.2009, 17:32
Bin ich der Einzige hier, dem es um die Leistung geht? ;)
Find das Design zwar nicht wirklich top, aber da ich mir den scheiss sowieso nur einmal im Jahr anschaue juckt das wohl kaum :D.
chenjung
10.09.2009, 17:34
Geiles Lay, schlicht und gut, gefällt mir und würde sogar in mein Farbschema reinpassen ^^
habe ja noch meine ultra starke 8600 mGT mit GDDR3...die pownt eh alles und reicht für die nächsten Generationen ;)
LoL:lol::lol:
Bin ich der Einzige hier, dem es um die Leistung geht? ;)
nein
hmm ist das die neue tech demo?
http://translate.google.com/translate?hl=en&u=http%3A%2F%2Fpctuning.tyden.cz%2Fcomponent%2Fcon tent%2Farticle%2F1-aktualni-zpravy%2F14926-stripky-o-radeonech-hd5800
http://www.golem.de/0909/69741.html
Meine nächste Grafikkarte wird von ATI sein :)
Jake_Dunn
11.09.2009, 10:07
:twisted:8-)
http://www.abload.de/img/89134826fdqb.jpg (http://www.abload.de/image.php?img=89134826fdqb.jpg)
CRYSISTENSE
11.09.2009, 10:45
Die hier hat noch einen roten Streifen/Balken an der Seite
http://www.abload.de/img/2s0xnc2z3xn.jpg (http://www.abload.de/image.php?img=2s0xnc2z3xn.jpg)
Grafikkarten Wars ist unterwegs
Jake_Dunn
11.09.2009, 16:46
:-o
http://www.abload.de/img/58290002c8la.jpg (http://www.abload.de/image.php?img=58290002c8la.jpg)
Baggibox
11.09.2009, 19:15
naja was nütz mir eine Mega Auflösung, wenn die Spielgrafik nicht detailliert ausschaut ?
Aber ein Vorteil hat es, Downsampling.
Ist auch schon fast sicher, dass es bei mir eine solche wird.
Alien vs Predator soll jetzt auch DX 11 werden.
Hier mit Tessellation:
http://news.ati-forum.de/images/stories/Szymanski/News/2009/5850_Pressslides/5.jpg
http://news.ati-forum.de/images/stories/Szymanski/News/2009/5850_Pressslides/6.jpg
Hier (http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/683-hd58xx-entgueltige-spezifikationen-und-weitere-informationen) noch ein Artikel aus ati forum (http://news.ati-forum.de/).
http://news.ati-forum.de/images/stories/Szymanski/News/2009/5850_Pressslides/7.jpg
Video dazu. (http://www.youtube.com/watch?v=04dMyeMKHp4&eurl=http%3A%2F%2Fwww.pcgameshardware.de%2Faid%2C6 94920%2FVideo-Cry-Engine-3-fuer-PC-auf-Ati-Eyefinity-in-5760-x-1200%2FGrafikkarte%2FNews%2F&feature=player_embedded#t=16)
PCGamesHardware- Artikel (http://www.pcgameshardware.de/aid,694920/Video-Cry-Engine-3-fuer-PC-auf-Ati-Eyefinity-in-5760-x-1200/Grafikkarte/News/)
Unter anderem Flight Simulator auf 24 Monitoren
...
MfG,
Jaco
http://www.pcgameshardware.de/aid,694920/Video-Cry-Engine-3-fuer-PC-auf-Ati-Eyefinity-in-5760-x-1200/Grafikkarte/News/bildergalerie/?iid=1191320
Jake_Dunn
12.09.2009, 10:25
CE3 Demo DX11
http://www.youtube.com/watch?v=04dMyeMKHp4
Hab ich doch gerade gepostet und DX 11 haben die net :roll:
~ 23.09.2009 mit Verfügbarkeit
~ 23.09.2009 mit Verfügbarkeit
wow... :D die sind ja der hammer... meine 4870x2 geht schon ab... :D aber die schlagen alles...
Der Satz hier aus dem Golemartikel hat mich fast aus den Latschen gehauen:
"Wie Crytek-Manager Carl Jones sagte, habe man beim Testen von Eyefinity "Crysis:
Warhead" in 5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde mit
einer Grafikkarte gespielt. Das gibt auch einen Hinweis auf die Rechenleistung der
5800-Karten, obwohl dieses Versprechen schon sehr vollmundig klingt."
Da bin ich aber mal gespannt.
Kann doch stimmen ;-)... Respekt an ATI mit nur 27watt IDLE Verbrauch und nur 188W in Zocken für so eine Graka... Aber mich stört nur eins: Es verfügt kein PhysiX, was nur NVidia hat :(
Kann doch stimmen ;-)... Respekt an ATI mit nur 27watt IDLE Verbrauch und nur 188W in Zocken für so eine Graka... Aber mich stört nur eins: Es verfügt kein PhysiX, was nur NVidia hat :(
PhysiX ist quatsch und braucht auch kaum jemand, die PhysiX Geschichte hängt schon seit längeren in der Vergangenheit und wird niemals wirklich von Gamern angenommen. :roll:
Das mit der CE3 Demo und 60 Bildern pro Sekunde finde ich super, muss aber nicht heißen das die Engine 3 gegenüber der Engine 2 genau so Hardware hungrig wird! Crytek lernt scheinbar aus Fehlern und kommt mit der optimierten neuen CE3 besser/vertrauter zurecht. Klingt doch gut
PhysiX ist quatsch und braucht auch kaum jemand, die PhysiX Geschichte hängt schon seit längeren in der Vergangenheit und wird niemals wirklich von Gamern angenommen. :roll:
Das mit der CE3 Demo und 60 Bildern pro Sekunde finde ich super, muss aber nicht heißen das die Engine 3 gegenüber der Engine 2 genau so Hardware hungrig wird! Crytek lernt scheinbar aus Fehlern und kommt mit der optimierten neuen CE3 besser/vertrauter zurecht. Klingt doch gut
Kennst Batman: AA ? Es hat PhysiX und bittet dadurch ein paar nette features in Optik ;-)
Das mit der CE3 Demo und 60 Bildern pro Sekunde finde ich super, muss aber nicht heißen das die Engine 3 gegenüber der Engine 2 genau so Hardware hungrig wird!
So wie ich Jacos Beitrag lese, war es nicht die Cryengine 3, sondern Nummero 2. ;-)
PhysiX ? Das braucht kein Gamer. CryEngine macht es möglich 8)
Fusion145
12.09.2009, 14:48
Hier sind nochmal alle Details zur 5000er Serie von ATi zusammen gefasst:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/september/alle_details_atis_radeon_5000er_serie/
Nightspider
12.09.2009, 15:00
Der Satz hier aus dem Golemartikel hat mich fast aus den Latschen gehauen:
"Wie Crytek-Manager Carl Jones sagte, habe man beim Testen von Eyefinity "Crysis:
Warhead" in 5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde mit
einer Grafikkarte gespielt. Das gibt auch einen Hinweis auf die Rechenleistung der
5800-Karten, obwohl dieses Versprechen schon sehr vollmundig klingt."
Da bin ich aber mal gespannt.
Da wurde aber wenn dann ein abgespecktes Konsolenlevel der CryEngine 3 gezeigt.
Für Crysis 1 bräuchte man mit den oben genannten Einstellungen ca. die 6 fache Leistung der HD 4870 was technisch unmöglich ist.
Eine HD5870 kann nicht 6 mal so schnell sein.
Weil: nur doppelte Shaderzahl + fast gleiche Taktraten wie die HD4870.
Der RV870 Chip hat nur 330mm² wo soll da die 6 fache Leistung herauskommen ? :D:D :D
Durch Optimierung kommt es, das sagt selbst ATI, zu einer Steigerung von "nur" 150%.
Daher: HD5870 ist 2,5 mal so schnell wie die alte HD4870.
Für die oben gezeigte Szene wurde wenn dann mit 99% Wahrscheinlichkeit eine HD 5870 X2, also eine Dual-Grafikkarte verwendet. ;)
Naja und Nvidia bringt ihre Grafikkarten laut letzter Meldungen auch noch Ende des Jahres mit DX 11.
Wenn ihr nicht alle immer ATI kauft würde ich euch raten zu warten.
Wer weiß was Nvidia für ein Monter herausbringt.
Und ich sehe es auch so: PhysX ist geil. Hoffentlich lizensiert ATI PhysX auch noch.
Wer meint das man PhysX nicht braucht wegen der CryEngine 3 sollte vllt mal sein Hirn anschalten. Nichtmal die schnellsten QuadCores konnten die PhysX-Effekte flüssig darstellen. Dann kann auch eine Super Engine wie die CryEngine 3 nicht solch brutale, rechenaufwändige Phsik-Effekte produzieren, wie per PhysX über die Grafikkarte. ;)
Die Zukunft wird zeigen ob PhysX sterben, sich verändern (dank DX11) oder den Markt dominieren wird.
Daher: Abwarten 8)
Flight Simulator X mit 55MPixel 12240x5280
http://www.gametrailers.com/user-movie/ati-eyefinity-debut-at-12240x5280/330102
Total krank, 24 Monitore mit einem Rechner zu betreiben ^^
Und ich sehe es auch so: PhysX ist geil. Hoffentlich lizensiert ATI PhysX auch noch.
Wer meint das man PhysX nicht braucht wegen der CryEngine 3 sollte vllt mal sein Hirn anschalten. Nichtmal die schnellsten QuadCores konnten die PhysX-Effekte flüssig darstellen. Dann kann auch eine Super Engine wie die CryEngine 3 nicht solch brutale, rechenaufwändige Phsik-Effekte produzieren, wie per PhysX über die Grafikkarte. ;)
Die Zukunft wird zeigen ob PhysX sterben, sich verändern (dank DX11) oder den Markt dominieren wird.
Daher: Abwarten 8)
PhysiX bringt nur Geld (dank der Lizenz) bei dem Hersteller in die Kiste mehr auch nicht! Die Technik gibt es nicht erst seit dem Nvidia sie mit eingeführt hat sondern schon etwas länger und es hat vorher kaum ein Spielentwickler interessiert ob es das gibt oder nicht. Jetzt wo Nvidia dieses unterstützt gibt es ein paar kleine Entwicklerstudios aber warum dann bitte nicht Crytek oder id software? Und es gibt noch einige Studios die diese Art von Realisierung der Physik in Spielen als eher unnütz finden und eigene Wege gehen die sehr gut umgesetzt werden können. Also schalte doch bitte erst einmal dein Gehirn ein und denke mal darüber nach warum sich bis heute nur sehr wenige Entwickler Studios darüber Gedanken gemacht haben PhysiX zu nutzen!? Alles Nvidia Fanboys habe ich den Eindruck und jetzt sagt nicht das das nicht stimmt. Die ganze Zeit dieses lästern über ATI. Ich finde ATI immer noch interessant und freue mich stets wenn sie mal was raus bringen, freuen würde mich es auch mal wenn sie Nvidia Parole bieten würden.
Nightspider
12.09.2009, 16:09
PhysiX bringt nur Geld (dank der Lizenz) bei dem Hersteller in die Kiste mehr auch nicht! Die Technik gibt es nicht erst seit dem Nvidia sie mit eingeführt hat sondern schon etwas länger und es hat vorher kaum ein Spielentwickler interessiert ob es das gibt oder nicht. Jetzt wo Nvidia dieses unterstützt gibt es ein paar kleine Entwicklerstudios aber warum dann bitte nicht Crytek oder id software? Und es gibt noch einige Studios die diese Art von Realisierung der Physik in Spielen als eher unnütz finden und eigene Wege gehen die sehr gut umgesetzt werden können. Also schalte doch bitte erst einmal dein Gehirn ein und denke mal darüber nach warum sich bis heute nur sehr wenige Entwickler Studios darüber Gedanken gemacht haben PhysiX zu nutzen!? Alles Nvidia Fanboys habe ich den Eindruck und jetzt sagt nicht das das nicht stimmt. Die ganze Zeit dieses lästern über ATI. Ich finde ATI immer noch interessant und freue mich stets wenn sie mal was raus bringen, freuen würde mich es auch mal wenn sie Nvidia Parole bieten würden.
Wer lästert denn hier über ATI ? Ich bestimmt nicht.
Mein Gehirn ist gegenüber deinem aber immer an. ;)
Übrigens hab ich mir schon Gedanken darüber gemacht, könntest du Lesen wüsstest du das auch.
Ich hab selbst geschrieben das PhysX genausogut sterben könnte. Das PhysX bisher nicht oft verwendet wurde weiß jeder.
Dice ist zB. eine eine große Firma und arbeitet derzeit an Battlefield 3. Bei ihrem letzten Spiel "Mirros Edge" wurde Hardware-PhysX genial unterstützt. Die Chancen das zB. Dice in Zukunft auch PhysX einsetzen werden stehen nicht schlecht, wenn vllt auch nicht für BF3. Denn die Firma will ja auch möglichst viele Spiele verkaufen, die auf möglichst vielen Rechnern optimal laufen.
Warum Crytek kein PhysX nutzt ?
Deswegen:
Cevat Yerli von Crytek erkennt ein anderes Problem. So müssten die Physikkarten schon ein besonderes Spielerlebnis ermöglichen, welches sich von dem unterscheidet, was auf normalen Rechnern möglich ist, damit es sich für Spieler lohnt, die Karten zu kaufen. Gleichzeitig müssten diese Spiele aber auch für die Mehrheit der Spieler verwendbar sein, die so eine Karte nicht besitzen. Crytek will aber das Gameplay nicht ändern, damit auch schwächere PCs gut funktionieren. Ausserdem habe man den Programmcode nun jahrelang optimiert, damit er sowohl ältere Prozessoren als auch Mehrkern-CPUs nutzen kann.
Warum Valve kein PhysX nutzt:
Der Marketingdirector von Valve, Doug Lombardi, sagte in einem Interview mit MaximumPC. dass Physik-Karten dass bekannte Henne-Ei-Problem hätten. Zwar könnten sie einige Vorteile bieten, würden aber so gut wie nicht verbaut, was seinerseits wieder dafür sorgt, dass kaum Spiele Unterstützung bieten. Daher gäbe es für Spieler keinen Grund, die Karten zu erwerben. Valve weiss zwar, dass Spieler gerne Physikberechnungen in Spielen haben, hat jedoch dafür die Source-Engine erweitert und diese Möglichkeiten bereits auf Singlecore-Prozessoren geboten. Heute habe man jedoch bereits wesentlich schnellere Dual- und Quadcores.
Beide Aussagen sind 2 Jahre alt.
Eins steht jedenfalls fest: Physik über Grafikkarten ist wesentlich effizienter, das kannst du gern überall in Internet nachlesen.
Das einzige Problem ist, das nicht jeder die vorrausgesetzte Hardware dafür hat und das wird sich auch nicht ändern wenn ATI /AMD PhysX nicht unterstützen.
Eine Möglichkeit ist das die Spieleprogrammierer in Zukunft die Physik über die Computer Shader, welche mit DX11 eingeführt werden, und damit über die Grafikkarten berechnen lassen.
Allerdings müssten dazu viele Spieler DX11 besitzen, da sonst alle anderen auf dem trockenen sitzen, die nur DX 10 oder nur DX9 Hardware bestitzen.
Allerdings müssten dazu viele Spieler DX11 besitzen, da sonst alle anderen auf dem trockenen sitzen, die nur DX 10 oder nur DX9 Hardware bestitzen.
Computer Shader sind die Zukunft.
User mit DX9 Hardware werden so oder so auf dem Trockenen sitzen, da diese werder CS noch PhysX unterstützt.
DX 10 ebenso, wenns nicht NVs von der 8er Serie aufwärts sind.
Und alle Hardware die in den nächsten Jahren gekauft wird, sollte auch DX 11 oder höher bieten, sodass es keinen Sinn ergibt auf der NV- eingenen Lösung zu beharren.
Gemeinsamen Standard wählen und fertig ist.
Dass Berechnungen über die GPU selbst in diesem Segment sinnvoll sind ist nicht abzustreiten,
aber Lizenzen von einem Hersteller zu kaufen, anstatt die allgemeine Lösung zu verfolgen ist nicht besonders intelligent
und Entwickler werden auch eher die Lösung unterstützen, die dann in Zukunft jedem zusteht und nicht durch Marketing oder sonst was beeinflusst wird.
Nightspider
12.09.2009, 16:57
Schon aber es wird sicherlich auch mind. 2 Jahre dauernt bis DX11-Only Titel erscheinen.
Alan Wake war das 1. Spiel das nur für DX10 angekündigt wurde und ist jetzt nach 2,5 Jahren immernoch in Arbeit. :roll:
Bis dahin wird die Physik weiterhin auf 4 und 8-Kern CPUs berechnet.
PhysX wird erstmal ein Nischenprodukt bleiben, falls sich nicht doch noch größere Firmen auf PhysX als optionales Feature setzen.
Blue Dragon
12.09.2009, 17:45
das gefählt mir garnicht mit den vielen bildschirmen
da hat man ja immer die räder im bild
sollen mal lieber einen bildschirm rausbringen der so ne auflösung hat (60-70zoll monitor^^)
und wie man im video sieht das ist ja quad-crossfirex mit 5870 x2 LOL
Leider ist ein 60-70 Zöller zum Spielen eher ungeignet.
Wie willst du auf dem Teil denn noch was erkennen? :aua:
Blue Dragon
13.09.2009, 15:42
achso aber auf 24 monitoren erkennst du was LOL?!
die menschheit is ja so krank ich bleib bei max 26 zoll und super performenc als 24monitoren die dann mir das bild versauen
Nightspider
14.09.2009, 13:27
http://img16.imageshack.us/img16/5522/0909141959ee3a8bbc71bb2.jpghttp://img16.imageshack.us/img16/8263/0909141959969ac5b53203d.jpghttp://img16.imageshack.us/img16/560/09091419595bbfa5d48c06d.jpg
Die HD5870 ist in Crysis bei 4AA ganz knapp hinter der Nvidia GTX 295 (DualKarte), nicht schlecht für eine Single-Karte. Ich geh mal davon aus das dies die 2 GB -Karte ist.
1337_alpha
14.09.2009, 13:54
Kranker ****** o.O
Ich will gar nicht wissen mit was da NVidia zurück schlägt
Nightspider
14.09.2009, 14:21
Ohne wieder ein ATI vs Nvidia Krieg anfangen zu wollen aber Nvidia könnte auch nen Monster loslassen, wenn der Chip denn irgendwann mal fertig wird.
Schließlich hat damals schon die G80 Architektur seit der 8800 GTX Ende 2006 den Markt dominiert. Im G200-Chip sitzt im Prinzip auch nur ein erweiterter G80 Chip.
Entweder wird uns Nvidia alle mit dem G300 Chip extrem überraschen oder enttäuschen, wer weiß.
Möglich ist alles. Theoretsch sollte der G300 Chip 2,5mal so schnell sein wie der G200, da alleine die Anzahl der Shader mehr als verdoppelt wird von 240 auf 512 Shader. Zudem könnte Nvidia in manchen Situationen Vorteile erreichen, da der G300 Chip wohl auf ein 512Bit SI + GDDR5 setzt und damit theoretisch die doppelte Speicherbandbreite erreichen könnte wie die HD 5870, wodurch der G300 aber auch sehr teuer wird.
Vllt kommt aber alles ganz anders, wer weiß. ;)
Black_Death
14.09.2009, 14:28
Das dachte ich mir auch, wenn amd so gut vorlegt freu ich mich auf nvidia.
Fusion145
14.09.2009, 14:41
Ich finde es echt immer wieder lustig, da kommt mal eine gute Nachricht von AMD/ATis Grafikkarten und schon wird gleich wieder auf das Thema " Nvidia G300" gewechselt...
Also die Leistung des 5000er Chips wird finde ich immer beeindruckender, und was man noch bedenken muss ist das die Benchmark wahrscheinlich nicht mit einem voll optimierten Treiber gemacht wurden ;)
Nightspider
14.09.2009, 14:53
Ich finde es echt immer wieder lustig, da kommt mal eine gute Nachricht von AMD/ATis Grafikkarten und schon wird gleich wieder auf das Thema " Nvidia G300" gewechselt...
Also die Leistung des 5000er Chips wird finde ich immer beeindruckender, und was man noch bedenken muss ist das die Benchmark wahrscheinlich nicht mit einem voll optimierten Treiber gemacht wurden ;)
Ich denke mal das hängt einfach davon ab was man für Karten kauft.
Es gibt nun halt mal nur 2 große Firmen die fast immer zeitgleich neue Karten auf den Markt werfen und man deshalb immer vergleichen sollte.
Ich hab im Moment numal 2 übertaktete GTX 280 Karten im SLI, da ist mir der Sprung zu klein zur HD5870.
Aber es ist schön zu sehen das ATI eine sehr schnelle Karte auf den Markt wirft.
Denn Konkurenz belebt das Geschäft und senkt die Preise was beide Parteien betrifft.
Aber erst warte ich mal ab.
Eigene Bilder der DirectX 11 Grafikkarte
http://www.pcgameshardware.de/aid,695035/Ati-Radeon-HD-5870-Eigene-Bilder-der-DirectX-11-Grafikkarte/Grafikkarte/News/bildergalerie/?iid=1192616
1337_alpha
14.09.2009, 15:41
Man :( Ich will wissen was unter der Haube ist -.-
Nightspider
14.09.2009, 15:43
Man :( Ich will wissen was unter der Haube ist -.-
http://www.hardwareluxx.de/community/showpost.php?p=12868619&postcount=1021
meinst das
http://www.czechgamer.com/gallery.php?gallery=ano&nazev=pics/clanky/RobertVarga_14-09-2009-11-29-47_hd5870.jpg
Baggibox
14.09.2009, 15:54
Ist schon bekannt wieviel Watt das ziehen wird ?
Hab mir den Thread nicht ganz durchgelesen.
Fusion145
14.09.2009, 15:58
Die 5870/5850 soll Idle 27/27 Watt und unter Last 188/170 Watt verbrauchen ;)
Hier hast du nochmal eine Zusammenfassung was alles über die 5000er Serie bekannt ist:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/september/alle_details_atis_radeon_5000er_serie/
http://www.pcgameshardware.de/aid,694705/Ati-Radeon-HD-5870-und-HD-5850-Alle-Infos-und-Bilder-der-DirectX-11-Grafikkarten-Update-Bilder-Specs-und-erste-Benchmarks/Grafikkarte/News/
Baggibox
14.09.2009, 16:01
Die 5870/5850 soll Idle 27/27 Watt und unter Last 188/170 Watt verbrauchen ;)
:blink::eek2::ugly::shock:
Das ist ja mal echt ein dicker Sprung nach vorn von AMD !!
Erst jetzt wird mir klar, was die für ein Kampfhund auf dem Markt los lassen wollen.
Nightspider
14.09.2009, 18:55
http://img132.imageshack.us/img132/7322/sqt3yp.png
http://img16.imageshack.us/img16/7866/oho6qa.png
http://i32.tinypic.com/58it1.png
http://i28.tinypic.com/2gt16v5.png
Die Karte kann noch so gut sein, werd trotzdem erstma warten bis Nvidia seine Karten inkl. Benchmarks vorstellt und erst dann entscheiden für welche ich mich entscheide.
Mfg Scaleo
dann kannse aber lange warten du fanboy :D
also die hd5870 geht mal echt ab...bin jetzt nur auf die preise gespannt!!!
Baggibox
14.09.2009, 19:09
Die HD5870 ist ja jetzt schon besser als die 4870X2. 8)
Boah wie das abgeht !
sogar besser als ne gtx 295 8)
dann kannse aber lange warten du fanboy :D
also die hd5870 geht mal echt ab...bin jetzt nur auf die preise gespannt!!!
Da wart ich dann lieber noch 2 - 3 Monate, bis dahin sind die Preise dann noch etwas gesunken und ich weiß ob die Ati Karte wirklich so der bringer ist :roll:
Falls dann nämlich Nvidia aufeinma nämlich ne "viel" bessere Karte launched werden die exakt gleichen Posts die hier schon sind, in dem GT300 Thread zu lesen sein ....
Mfg Scaleo
Nightspider
14.09.2009, 19:58
http://i32.tinypic.com/wj9ru9.png
sogar besser als ne gtx 295 8)
Wäre jetzt auch das mindeste was ich erwartet hätte.
1337_alpha
14.09.2009, 20:06
Da wart ich dann lieber noch 2 - 3 Monate, bis dahin sind die Preise dann noch etwas gesunken und ich weiß ob die Ati Karte wirklich so der bringer ist :roll:
Falls dann nämlich Nvidia aufeinma nämlich ne "viel" bessere Karte launched werden die exakt gleichen Posts die hier schon sind, in dem GT300 Thread zu lesen sein ....
Mfg Scaleo
Man kann immer 2-3 Monate warten
Und 2-3 Monate drauf hat dann wieder ATI eine X2
Dann wart mal schön :roll:
Nightspider
14.09.2009, 20:10
Man kann immer 2-3 Monate warten
Und 2-3 Monate drauf hat dann wieder ATI eine X2
Dann wart mal schön :roll:
Die X2 soll nicht im März sondern noch dieses Jahr kommen. Wahrscheinlich November- Dezember.
Meine damit nur das es meiner Meinung nach unklug ist, einfach die erste DX11 Karte zu kaufen die es auf dem Markt gibt, ohne auf den andere Anbieter zu warten :roll:
Mfg Scaleo
CRYSISTENSE
14.09.2009, 20:18
Das "Problem" liegt eher bei der Unnötigkeit der Karte, als bei dem nahenden Hammer von Nvidia und dem damit verbundenen Preisverfall, von dem man mal ausgehen kann.
Wie ich, haben hier viele eine GTX260 (oder eine ähnliche Karte) und damit kann man nunmal alles zocken, wenn man jetzt mal von Crysis absieht. Ich würde mir die Karte sofort kaufen, wenn es denn ein ebenbürtiges Spiel geben würde, aber das wird wohl noch etwas auf sich warten lassen. Die Leistung ist schon beeindruckend. Schön, dass AMD die Messlatte nach dem RV770 nochmal etwas höher legen kann.
Hätte ich das nötige Kleingeld, dann wäre sie natürlich gleich nach Release in meinem PC :D
Nightspider
14.09.2009, 20:20
Das "Problem" liegt eher bei der Unnötigkeit der Karte, als bei dem nahenden Hammer von Nvidia und dem damit verbundenen Preisverfall, von dem man mal ausgehen kann.
Wie ich, haben hier viele eine GTX260 (oder eine ähnliche Karte) und damit kann man nunmal alles zocken, wenn man jetzt mal von Crysis absieht. Ich würde mir die Karte sofort kaufen, wenn es denn ein ebenbürtiges Spiel geben würde, aber das wird wohl noch etwas auf sich warten lassen. Die Leistung ist schon beeindruckend. Schön, dass AMD die Messlatte nach dem RV770 nochmal etwas höher legen kann.
Hätte ich das nötige Kleingeld, dann wäre sie natürlich gleich nach Release in meinem PC :D
Man kann mit einer GTX 260 kein Crysis spielen ?
Komisch... ich frag mich was ich damals mit meiner 8800 GTX gespielt habe. :roll:
CRYSISTENSE
14.09.2009, 20:28
Man kann mit einer GTX 260 kein Crysis spielen ?
Nein, nicht mit max. Details und über 30fps auf einem 24" Bildschirm.
dann kannse aber lange warten du fanboy :D
also die hd5870 geht mal echt ab...bin jetzt nur auf die preise gespannt!!!
5850: 299$
5870: 399$
5870X2: 449$
sind von ATI so rausgegeben, wie weit die Anbieten ala XFX oder Sapphire noch runtergehen ist denen überlassen.
Quellen siehe Hardwareluxx.de ;)
Wie ich, haben hier viele eine GTX260 (oder eine ähnliche Karte) und damit kann man nunmal alles zocken, wenn man jetzt mal von Crysis absieht. Ich würde mir die Karte sofort kaufen, wenn es denn ein ebenbürtiges Spiel geben würde, aber das wird wohl noch etwas auf sich warten lassen. Die Leistung ist schon beeindruckend. Schön, dass AMD die Messlatte nach dem RV770 nochmal etwas höher legen kann.
Crysis ? Also ich kann VH DX10 1440x900 und 38fps avg. daddeln Micha. :p ;)
Gruß
Noname
CRYSISTENSE
14.09.2009, 20:50
Crysis ? Also ich kann VH DX10 1440x900 und 38fps avg. daddeln Micha. :p ;)
Ich nicht. Hatte kurzzeitig mal eine GTX280 und einen 19" zum testen und da lief das natürlich wunderbar, aber jetzt mit 1920x1200 eben nichtmehr.
Wie ich schon sagte, die GTX260 reicht "eigentlich" noch aus.
Steigt hier jemand sofort um?
Die geleakten Benchmarks kann man vergessen. War doch schon immer so! Wartet doch einfach ab als euch gegenseitig zu zuspammen.
Meine damit nur das es meiner Meinung nach unklug ist, einfach die erste DX11 Karte zu kaufen die es auf dem Markt gibt, ohne auf den andere Anbieter zu warten :roll:
Mfg Scaleo
Naja, die 8000er Reihe von nvidia war damals auch die erste DX10 Karte, sie war Leistungtechnisch der Hit, warum soll AMD/ATI das nicht auch mit DX11 schaffen ;)
Aber ich werd mir auch frühstens (wenn überhaupt) Anfang 2010 ne DX11 Karte holen, denn wenn nvidia's Karten da sind fallen 1. die Preise von ATI, und 2. hat man auch ein komkreten vergleich :)
Auch wenn die Werte jetzt schon der Hammer sind :twisted:
Nightspider
14.09.2009, 23:50
Für alle, die das interessiert: Die Radeons 5xx0 werden per PowerPlay effektives Stromsparen beherrschen. Die 5870 beispielsweise wird von 850 MHz GPU und 1.200 MHz RAM (2.400 "MHz") unter 3D auf 157 MHz und 300 MHz (600 "MHz") unter 2D reduzieren können bei gleichzeitiger Spannungsabsenkung von 1,063V auf 0,95V.
Bis ich mir was neues kaufe ist sowohl etwas von der 5k reihe als auch von der gtx 300.er reihe entschieden. Also werde ich erst später mein fazit ziehen ;)
CRYSISTENSE
15.09.2009, 06:25
http://www.youtube.com/watch?v=-DLuUwFhS8E
Das ist natürlich schon ein Argument8-)
Ovomaltine
15.09.2009, 06:40
Das ist natürlich schon ein Argument8-)
Das schaut so derbst hässlich aus mit den rändern, also ich bekomme da augenkrebs wenn ich so zocken sollte :-(
CRYSISTENSE
15.09.2009, 07:20
Laut einiger Usermeinungen nimmt man die Ränder nicht/kaum wahr, wenn man es selber testen kann.
Ovomaltine
15.09.2009, 08:12
Laut einiger Usermeinungen nimmt man die Ränder nicht/kaum wahr, wenn man es selber testen kann.
Wayne usermeinungen, es sieht einfach schei.... aus mir macht da zocken keinen spass, aber wer es brauch :p:wink:
MFG
Ovo
Wayne usermeinungen, es sieht einfach schei.... aus mir macht da zocken keinen spass, aber wer es brauch :p:wink:
MFG
Ovo
Du wiedersprichst dir selber.
Erst meckern über User meinungen und dann selber eine abgeben obwohl du so noch nie gespielt hast. SUPER :)
Im gegensatz zu dir haben die Leute gespielt und wissen wie es ist so zu spielen.
Blablabla langer Text kurzer Sinn, warte ab und probier selber.
Ovomaltine
15.09.2009, 10:15
Du wiedersprichst dir selber.
Erst meckern über User meinungen und dann selber eine abgeben obwohl du so noch nie gespielt hast. SUPER :)
Im gegensatz zu dir haben die Leute gespielt und wissen wie es ist so zu spielen.
Blablabla langer Text kurzer Sinn, warte ab und probier selber.
Ich brauch nicht daran spielen, mir reichen die videos um zu sagen das es der größte schrott ever is, aber wer spass dran hat :p:wink:
Achso btw ;-)
Alle Daten der neuer ATI DirectX-11-Modelle
Lange wurde über ATIs anrollende DirectX-11-Grafikkarten spekuliert, nun tauchten endlich handfeste Informationen über das Innenleben auf. Ab dem 23. September 2009 verfügbar, soll die Radeon HD5870 vorerst das Flaggschiff der neuen Serie bilden. Dieser Bildermacher verfügt laut Informationen einer AMD-Präsentation 1.024 MB GDDR5-Grafikspeicher, die an ein 256 Bit großes Speicherinterface angebunden sind. Als Rechenleistung gibt AMD 2,72 TeraFLOPS an.
Ihr ofenfrischer Grafikchip arbeitet mit 850 MHz und herrscht über 1.600 Stream-Prozessoren. Preislich bewege sich die Karte nach ersten Informationen bei 400 US-Dollar, außerdem werde zeitgleich ein baugleiches Modell mit 2.048 statt 1.024 MB GDDR5-Speicher beim Händler landen - dafür müsst ihr mit 50 US-Dollar Aufpreis rechnen.
Als kleinere Schwester bietet sich die Radeon HD5850 an. Für 299 US-Dollar läuft die Grafikkarte mit 725 MHz GPU-Takt, 1.440 Stream-Prozessoren, 1.024 MB GDDR5-Speicher und effektiven 4 GHz Speichertakt vom Fließband. Auch hier scheint der Speicher über ein 256-Bit-Interface zu kommunizieren
Quelle: ATI forum. (http://www.games-news.de/go/atis_grafikkarten_alle_daten_der_directx_11_modell e_pc/686155/atis_grafikkarten_alle_daten_der_directx_11_modell e_pc.html?url=%2F)
MFG
Ovo
Hoffentlich tritt ATI Nvidia in den ***** :twisted:
Sry wenn ich das hier schreibe, aber ich göne es ATI :D
Wayne usermeinungen, es sieht einfach schei.... aus mir macht da zocken keinen spass, aber wer es brauch :p:wink:
MFG
Ovo
Die Ränder werden irgendwann unsichtbar.
Glaub mir, das Gefühl ist Atemberaubend mit 3 Monitoren ;-).
Ovomaltine
15.09.2009, 14:32
Die Ränder werden irgendwann unsichtbar.
Glaub mir, das Gefühl ist Atemberaubend mit 3 Monitoren ;-).
Für dich vllt ja, wie gesagt ich komme dadrauf garnet klar, aba naja wers brauch.....
Ich hoffe die karten sind nun auch echt next woche verfügbar ;-)
MFG
Ovo
Kannst dir ja ne super Meinung bilden ohne mal gespielt zu haben 8-).
b2t Wieviel wären ca. 299 Dollar?
b2t Wieviel wären ca. 299 Dollar?
204,93€
Mich stören so Ränder aber auch gewaltig... :???:
Aber es gibt ja auch Monitore die übergangslose Ränder haben :D
Radeon 5870 X2 TDP is 376W (http://www.fudzilla.com/content/view/15499/1/)
http://www.fudzilla.com/
Nightspider
15.09.2009, 16:25
Radeon 5870 X2 TDP is 376W (http://www.fudzilla.com/content/view/15499/1/)
fuzilla schreibt Schwachsinn.
Die haben einfach den Stromverbrauch von zwei HD5870 addiert.
fuzilla schreibt Schwachsinn.
Die haben einfach den Stromverbrauch von zwei HD5870 addiert.
Danke.
Ich musste mich wegen dieser Äußerung (http://www.gamestar.de/index.cfm?pid=398&pk=1958967&sortorder=asc&fp=2#liststart) schon als dumm betiteln lassen http://www.web-smilie.de/smilies/ugly_smilies/ugly.gif
Ich spiele mit dem Gedanken, mir die 5870 recht früh, vielleicht nach der ersten Woche, zu holen, da dann erfahrungsgemäß der erste Preisnachlass zu vermerken sein sollte. (Obwohl ja dieses Mal keine direkte neue Konkurenz da ist).
Mit der Bedingung, dass es zu Beginn nicht 399 Euro sind, sondern ~ 350.
Toll wäre natürlich, wenn gleich schon eine 2GB Variante dabei wäre, worauf ich aber denke ich vorerst verzichten muss.
Dazu noch mal die gleiche Platte (http://www.alternate.de/html/product/Festplatten_3,5_Zoll_SATA/Western_Digital/WD3200AAKS_320_GB/192267/?tn=HARDWARE&l1=Festplatten&l2=SATA&l3=3%2C5+Zoll) wie ich sie schon habe und nen Blu- Ray- Combolaufwerk (http://www.alternate.de/html/product/Blu-ray_Combo_SATA/LG/CH08LS10/350346/?tn=HARDWARE&l1=Laufwerke&l2=Blu-ray&l3=Blu-ray+Combo).
Danach sollte ich erstma für mind. ein Jahr Ruhe mit Hardware haben . . .
. . . obwohl ein CI Modul für meine TV- Karte und vielleicht noch ne extra Audiokarte und ein 5.1 - 7.1 Soundsysthem wären auch nicht verkehrt . . . :roll:
http://www.youtube.com/watch?v=FR45ja_fNzU
Blue Dragon
17.09.2009, 13:27
das find ich nicht besonders lustig
CRYSISTENSE
17.09.2009, 18:48
Mal was nettes zum anschauen :d
Da ich grade bei der Entwicklung eines WaKü für die 5870 bin, weiß ich das das PCB etwa 26,5cm lang ist
http://www.abload.de/thumb/hd58700013jzk.jpg (http://www.abload.de/image.php?img=hd58700013jzk.jpg)
Sie hat mit Verkleidung 28cm ...und mit nem WaKü drauf exakt 26,5cm ;)
Dürfte also bei den meisten reinpassen.
1337_alpha
18.09.2009, 12:12
Wieviel wären ca. 299 Dollar?
299$ = 299€
Das wird immer eigentlich 1:1 umgerechnet ;)
299$ = 299€
Das wird immer eigentlich 1:1 umgerechnet ;)
Wird es nicht Simon. >>>
Update 18. September 2009
http://images.gamestar.de/images/idgwpgsgp/bdb/2083010/152x.jpg (http://javascript<b></b>:MM_Image(10,2083010,1958965,'EL_12532559045272584 724781',398);)
Kurz war die neue Radeon für 319,99 Euro gelistet
Der erste Online-Händler hatte die ATI Radeon HD 5870 bereits in seinen Webshop aufgenommen, auch wenn die Karte noch nicht lieferbar war. Der niederländische Händler Salland (http://www.salland.eu/) gab einen Preis von 319,99 Euro an. Der US-Preis von 399 Dollar, bei dem meistens die Steuern fehlen, wäre damit ziemlich genau zum aktuellen Kurs umgerechnet. Inzwischen hat Salland nach Intervention von AMD (http://crysis.4thdimension.info/forum/#) die Karte allerdings wieder von seiner Seite entfernt.
http://www.gamestar.de/hardware/news/grafikkarten/1958965/ati.html
;)
Gruß
Noname
Oh man, je näher es zur neuen Generation kommt, umso gespannter bin auf die Gegenseite, also dem GT300, der eh alles wegbumsen wird. Ich habe schließlich meine Seele an Nvidia verkauft! :twisted:
Baggibox
18.09.2009, 17:17
Naja noch wissen wir nichts.
Oh man, je näher es zur neuen Generation kommt, umso gespannter bin auf die Gegenseite, also dem GT300, der eh alles wegbumsen wird. Ich habe schließlich meine Seele an Nvidia verkauft! :twisted:
Joar Dito.
Hatte noch nie ne ATI Graka, kA warum aber irgendwie bin ich auch nicht versucht es auszuprobieren.
Seit dem Nvidia - Laubsauger bin ich iwie Nvidia treu geblieben.
Eigentlich auch nie über ne ATI nachgedacht.
Hab auch nichts gegen ATI oder AMD, hatte Jahrelang Amd Cpus.
Mfg Scaleo
Saphire Radeon HD 5870 und HD 5850 abgelichtet (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13105-saphire-radeon-hd-5870-und-hd5850-abgelichtet.html)
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13105-saphire-radeon-hd-5870-und-hd5850-abgelichtet.html
http://www.gdm.or.jp/voices_index.html#2009091702
pilzbefall
18.09.2009, 17:53
ich habe bei den jüngsten Benchmarks so etwas den Eindruck, daß die neue Ati nur in Games auftrumpfen kann, die auf aktuellen Karten eh schon sehr gut laufen. Also statt 70fps 120fps z.B.. In Games jedoch wie Stalker: CS, wo man Mehrleistung bräuchte, ist sie dann nur geringfügig besser als ne 4890 oder ne GTX285.
da scheint einer eine karte zu haben.
http://www.xtremesystems.org/forums/showthread.php?p=4021740#post4021740
Bilder von Sapphire
http://www.pcgameshardware.de/aid,695452/Ati-Radeon-HD-5870/HD-5850-Bilder-von-Sapphire-Modellen-aufgetaucht/Grafikkarte/News/
Bei den Standardmodellen sollen nach den CCC- Angaben hier die Temperaturen schwer in Ordnung gehen.
74°C bei 95% Auslastung und 30% Lüfterdrehzahl. (http://gathering.tweakers.net/forum/view_message/32587278)
Könnt hinkommen.
Vorallem bei meinem Lüfterkonzept. Vorne ein 120mm Lüfter davor, 2 Lufteinlässe in der Karte, die in dessen Richtung zeigen und hinten kommt die heiße Luft raus.
Bin mal gespannt.
Da kann ich nur hoffen, dass die Gerüchte zur Verschiebung (http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/september/neue_informationen_atis_radeon-5000-serie/) des Verfügbarkeitsdatums auf den 10.10 nicht hinkommen.
MfG,
Jaco
Edit:
Noch ein paar TesselationBilder:
http://img193.imageshack.us/img193/1300/00003h.png http://img193.imageshack.us/img193/7955/00002i.png
http://img193.imageshack.us/img193/7131/00001z.png http://img193.imageshack.us/img193/1281/00000w.png
Baggibox
20.09.2009, 15:12
Holy Shit !! :eek2:
Ist euch klar was man alles mit Tesselation bald darstellen kann ohne Aufwand ?
Die Games werden nur so vor Details platzen !
Sieht nice aus, aber für Leute die schon ehh mind. GTX260² haben, lohnt es sich meiner Meinung noch nicht umzusteigen... Ausser man hat zuviel Geld und ehh alles :D
M@rshall15
20.09.2009, 17:17
Sieht nice aus, aber für Leute die schon ehh mind. GTX260² haben, lohnt es sich meiner Meinung noch nicht umzusteigen... Ausser man hat zuviel Geld und ehh alles :D
Hab auch erst ne 4870 dieses Jahr bekommen. Die nächste Graka wird spätenstens wohl die 7870 sein oder eine von Nvidia :P.
Vielleicht auch früher wenn ich meine eigene Kohle verdiene xD
HD 5000-Filterqualität nur scheinbar besser
Nachdem wir berichteten, dass der anisotrope Filter der HD 5000-Serie offenbar perfekt winkelunabhängig arbeitet (http://www.hardware-infos.com/news.php?news=3198) - die bereits sehr geringe Winkelabhängigkeit der HD 2000- bis HD 4000-Serie dürfte in der Praxis aber nicht von der besseren, kreisrunden Blume der HD 5000-Serie zu unterscheiden sein -, sickert von anderen Quellen inzwischen durch, dass das Hauptproblem leider nicht angegangen worden ist.
So liegen uns Informationen vor, wonach der Filter nach wie vor deutlich stärker als auf aktuellen Geforce-Karten flimmert, was auf Unterabtastung hindeutet. Dadurch spart ATI zwar Takte in den Textureinheiten und erzielt somit eine höhere Performance, die Bildqualität leidet allerdings darunter.
Ob wenigstens die Qualität mit deaktiviertem A.I. nun auch in anderen Einstellungen zur Verfügung steht, können wir noch nicht sicher sagen.
Jedenfalls darf man bereits jetzt enttäuscht sein, dass AMD nicht aus der Vergangenheit gelernt hat und dem Käufer einer High-End-Grafikkarte eine perfekte Bildqualität verwehrt, obwohl Leistung sowieso oft zur Genüge zur Verfügung steht.
Fast schon zynisch anmutet, dass mit deaktiviertem A.I. - und damit noch akzeptablem Filterverhalten - Crossfire nicht mehr arbeitet. Käufer von Multi-GPU-Systemen oder X2-Karten werden damit womöglich immer noch komplett ausgesperrt.
http://www.hardware-infos.com/news.php?news=3208
allso mittwoch um 6:01 MESZ wissen wir mehr.:smile:
Club3D und HIS karten.
http://www.hardwareluxx.de/community/showthread.php?t=642430&page=88
Fusion145
22.09.2009, 14:37
Radeon HD 5870: Offenbar nur geringe Stückzahlen zum Start im Endkundenhandel
Medienberichte zufolge arbeiten Dell und AMD bei der Radeon HD 5870 eng zusammen. So eng, dass womöglich nur ein Bruchteil der Erstmenge in den Endkundenmarkt kommt.(Mario Riemann, 22.09.2009)
AMD scheint anlässlich der bald erscheinenden neuen Grafikkartengeneration einen größeren Deal mit Dell abgeschlossen zu haben. Hexus.net berichtet (http://channel.hexus.net/content/item.php?item=20337) über eine Übereinkunft, die vorsieht, dass der Großteil der hergestellten Radeon-HD-5870-Grafikkarten direkt an Dell geliefert werden. Diese wollen, pünktlich zum Windows-7-Launch, eine neue Desktop-PC-Serie anbieten. Angeblich sollen nur zehn Prozent der hergestellten 5800-Grafikkarten für den Endkundenmarkt gedacht sein.
Des Weiteren will man erfahren haben, dass das erste von TSMC gelieferte Kontingent an Grafikchips 50.000 bis 100.000 Stück umfasst. Das Verhältnis zwischen hergestellten Radeon HD 5870 und 5850 soll 4:1 betragen. Quelle: http://www.pcgameshardware.de/aid,695636/Radeon-HD-5870-Offenbar-nur-geringe-Stueckzahlen-zum-Start-im-Endkundenhandel/Grafikkarte/News/
Gigabyte und Sapphire karten
http://www.hardwareluxx.de/community/showpost.php?p=12925784&postcount=2252
Baggibox
22.09.2009, 17:22
Und schon wieder sehe ich meine GTX260 als alt. :roll:
es ist ein Teufelskreislauf.
http://www.hausmaus.at/Erkrankungen3-Dateien/image001.jpg
Und schon wieder sehe ich meine GTX260 als alt. :roll:
es ist ein Teufelskreislauf.
http://www.hausmaus.at/Erkrankungen3-Dateien/image001.jpg
so ist das.:-)
Test: ATi Radeon HD 5870
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/
Leistungsaufnahme
Funktionieren die Stromsparmechanismen auf der Radeon HD 5870 oder nicht? Die Temperaturen lassen es vermuten und wir können auch mit Blick auf die Leistungsaufnahme Entwarnung geben. So zieht die Radeon HD 5870 unter Windows gerade einmal 134 Watt aus der Leitung (gemeint ist der gesamte PC), womit ATi sich den zweiten platz hinter der Radeon HD 4670 erkämpft. Die Radeon HD 4890 ist mit 179 Watt um einiges hungriger.
Unter Last erreicht die Grafikkarte 331 Watt, was zwar kein gutes Ergebnis, aufgrund der Leistungswerte aber vorzeigbar relativ eine Verbesserung darstellt. Frei nach dem Porsche-911-Turbo-Slogan „Effizienz braucht Leistung“. Absolut ist die Leistungsaufnahme der Karte gegenüber dem Vorgänger dennoch erneut gestiegen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/26/#abschnitt_leistungsaufnahme
Temperatur
Dank der neuen Stromsparmechanismen wird die RV870-GPU auf der Radeon HD 5870 nicht wärmer als 34 Grad Celsius, was ein neuer Bestwert in dieser Disziplin bedeutet. Den zweiten Platz belegt die deutlich langsamere GeForce GTS 250, die sich auf 39 Grad „erhitzt“. Unter Last funktionieren die Stromsparmechanismen dann nicht mehr, der Rechenkern wird mit 76 Grad Celsius aber dennoch nicht heiß. Auf der Chiprückseite messen wir maximal 56 Grad Celsius. An warmen Sommertagen sollte es also aufgrund der Reserven zu keinerlei Schwierigkeiten mit der Grafikkarte kommen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/25/#abschnitt_temperatur
Lautstärke
Unter Windows hinterlässt das Kühlsystem der Radeon HD 5870 eine sehr gute Figur. Mehr als 43 Dezibel können wir nicht messen. Im Vergleich dazu agieren sowohl die Radeon HD 4890 als auch die GeForce GTX 285 um einiges lauter.
Unter Last dreht der Lüfter der neuen ATi-Karte leider hörbar auf und erzielt ein Ergebnis von 55,5 Dezibel. Damit platziert sich die Radeon HD 5870 genau im Mittelfeld des Testfeldes. Radeon HD 4890 sowie GeForce GTX 285 sind allerdings erneut lauter.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/24/#abschnitt_lautstaerke
Fazit
Die Radeon HD 5870 von ATi hat uns im Laufe dieses Tests insgesamt sehr gut gefallen, da ATi gut an den Kritikpunkten der vorherigen Generation gearbeitet hat. Die Performance erreicht zwar keine neuen Dimensionen, genügt aber eindeutig, der Karte das Prädikat „schnellsten Single-GPU-Grafikkarte auf dem Markt“ zu verleihen. Die Geschwindigkeit liegt in etwa auf dem Niveau einer Radeon HD 4870 X2, ohne jedoch die üblichen Multi-GPU-Nachteile mit sich zu bringen.
Sowohl in Sachen Leistung als auch bei der Bildqualität und den Features macht die Karte im Vergleich zur Vorgängergeneration einen gesunden Schritt nach vorne. Mit der DirectX-11-Unterstützung ist der Käufer darüber hinaus für die Zukunft gerüstet und die Leistungsaufnahme unter Windows kann sich ebenso (endlich!) sehen lassen.
Natürlich ist die Radeon HD 5870 nicht „die perfekte Grafikkarte“. So benötigt die neue Generation absolut unter Last erneut mehr elektrische Leistung als der Vorgänger, auch wenn die Effizienz gestiegen ist. Auch die anisotrope Filterung oder die immer noch hohe Lautstärke unter Last gehören zu den Aspekten, die in Zukunft noch eine Verbesserung erfahren können. Dennoch: Eine bessere High-End-Grafikkarte als die ATi Radeon HD 5870 gibt es derzeit im Handel nicht – unabhängig davon, wie viele GPUs eingesetzt werden.
Für etwa 350 Euro wird der 3D-Beschleuniger (ab heute) über die Ladentheke wandern, was ein angemessener Preis für die gezeigte Leistung ist. Schlussendlich fehlt allerdings noch der richtige Gegenpart in Form der G(T)300-GPU von Nvidia. Wenn dieser Chip erscheint, werden die Karte neu gemischt. Bis dahin hat ATi mit der Radeon HD 5870 und der Radeon HD 5850 (von der es bei uns demnächst eine kleine Performance-Preview geben wird, Verfügbarkeit erst in einigen Wochen für 229 Euro) aber klar die Nase vorn.
Positive Eigenschaften
Derzeit schnellste Single-GPU-Karte
Fast durchgängig AA/AF möglich
Verbesserte anisotrope Filterung
Super-Sampling-AA
DirectX 11
Niedrige Leistungsaufnahme unter Windows
Leise unter WindowsNegative Eigenschaften
Relativ laut unter Last
Recht hohe Leistungsaufnahme unter Last
Anisotrope Filterung könnte besser seinhttp://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/29/#abschnitt_fazit
Ati Radeon HD 5870 im Test Radeon HD 5870: Die erste Direct-X-11-Grafikkarte im Benchmark-Test
http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/
Radeon HD 5870: Fazit
Keine Frage: Die Krone ist wieder bei Ati. Die Radeon HD 5870 liefert eine erstklassige Performance ab, die frei von gravierenden Problemen ist - nahezu alle Kritikpunkte an den Vorgängern wurden beseitigt. Die Disziplin "Bilder pro Sekunde" absolviert die HD 5870 mit einem ansehnlichen Vorsprung von durchschnittlich 15 Prozent vor der Geforce GTX 285. In besonders shaderlastigen Fällen wie Crysis Warhead und Stalker: Clear Sky baut die HD 5870 ihren Vorsprung auf bis zu 30 Prozent aus - setzen Sie auf das aus Fps-Sicht nach wie vor sehr performante 8x MSAA, vergrößert sich der Abstand noch weiter. Ihre direkte Vorgängerin überholt die DX11-Radeon stellenweise um über 70 Prozent. Die Multi-GPU-Grafikkarten Geforce GTX 295 und Radeon HD 4870 X2 liegen in einigen Fällen (knapp) vor der HD 5870, gerade die Bildverteilung der X2 ist wegen des starken Mikroruckelns jedoch nicht mit der HD 5870 vergleichbar. Kurz: Die Radeon HD 5870 ist zurzeit klar die schnellste Single-GPU-Grafikkarte auf dem Markt und einer MGPU-Lösung jederzeit (http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=18#) vorzuziehen. Positiv ist auch, dass die HD 5870 trotz ihrer Leistung (http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=18#) sowohl leise als auch sparsam ist: Insbesondere die 2D-Lautheit (0,5 Sone) und Leistungsaufnahme (20 Watt in 2D und 130 Watt in 3D) sind hervorragend.
Noch viel mehr als mit ihrer Geschwindigkeit überzeugt die HD 5870 durch ihre einzigartigen Features: Während die Multi-Monitor-Technologie Eyefinity (http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/695279) eher ein Schmankerl für gut betuchte PC-Nutzer ist und DirectX11 momentan nur auf dem Papier überzeugt, profitieren alle anderen von dem leicht verbesserten anisotropen Filter und dem grandiosen Super-Sampling-Anti-Aliasing (SGSSAA). Letzteres kostet zwar viele Bilder pro Sekunde, die übrigen werden jedoch hochwertiger denn je dargestellt.
http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=18
Crysis Warhead (DirectX 10/ 64 Bit)
2.560 x 1.600
http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=9
noch ein test
http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870//
CRYSISTENSE
23.09.2009, 05:59
Sehr schön. Die Karte erfüllt absolut alle Erwartungen und dabei fehlen ja noch die richtigen Treiber.
Hier noch ein Test http://www.tomshardware.com/de/radeon-hd-5870,testberichte-240410.html#xtor=RSS-122
Hier der Test von PCGamesHardware (http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=18)
Die Radeon HD 5870 liefert eine erstklassige Performance ab, die frei von gravierenden Problemen ist...
...mit einem ansehnlichen Vorsprung von durchschnittlich 15 Prozent vor der Geforce GTX 285.
In besonders shaderlastigen Fällen wie Crysis Warhead und Stalker: Clear Sky baut die HD 5870 ihren Vorsprung auf bis zu 30 Prozent aus
- setzen Sie auf das aus Fps-Sicht nach wie vor sehr performante 8x MSAA, vergrößert sich der Abstand noch weiter.
Kurz: Die Radeon HD 5870 ist zurzeit klar die schnellste Single-GPU-Grafikkarte auf dem Markt...
LKrieger
23.09.2009, 07:57
Hier ist auch nochmal ein komplettes Review (glaube nicht das es schon gepostet wurde):
http://www.guru3d.com/article/radeon-hd-5870-review-test/1
Freue mich jedenfalls schon richtig auf die DX11 Karten :). Wenn die andere Fraktion noch mehr reist, dann werde ich wohl wieder umsteigen auf den neuen Chip...
Mfg LKrieger
warpspeed
23.09.2009, 11:54
Hoffe das wurde noch nicht gepostet ;).
AMD stellt die Radeon-HD-5800-Serie offiziell vor und lüftet damit das Geheimnis der ersten zu DirectX 11 kompatiblen Grafikkarten. Die rund 350 Euro teure Radeon HD 5870 ist doppelt so schnell wie die Vorgängerkarte Radeon HD 4870, deutlich sparsamer im Desktop-Betrieb und kann in der sogenannten Eyefinity-Spezialversion bis zu sechs Displays parallel ansteuern. 100 Euro billiger ist die rund 10 Prozent langsamere Radeon HD 5850, die ebenfalls Ende September in den Händlerregalen stehen soll.
In den Spielen Crysis und Stalker Clear Sky ist die Radeon HD 5870 bis zu 60 Prozent flotter als Nvidias GeForce GTX 285 – die bis dato schnellste Single-GPU-Grafikkarte. Doch der Vorsprung der Radeon HD 5870 ist auch abhängig vom jeweiligen Spiel: In World in Conflict beträgt er beispielsweise lediglich 10 Prozent. Bei der Arcade-Flugsimulation HAWX, die besser auf GeForce-Grafikkarten läuft, ist die GTX 285 bei vierfachem Antialiasing und sechzehnfachem anisotropen Filter bis zur Auflösung 1920 × 1080 etwas schneller. An Nvidias Dual-GPU-Grafikkarte GeForce GTX 295 kommt die Radeon HD 5870 jedoch nur selten heran. Ausführliche Benchmarks finden sich in c’t 21/09.
In der theoretischen Rechenleistung ist die Radeon HD 5870 mit 2,7 Billionen Gleitkommaoperationen pro Sekunde (TFlops) bei einfacher Genauigkeit und 544 GFlops bei doppelter Genauigkeit mehr als doppelt so leistungsfähig wie eine Radeon HD 4870 (1,2 TFlops/240 GFlops) und überflügelt hier selbst bisherige Dual-GPU-Grafikkarten mit Leichtigkeit. Dafür sorgt der neue RV870-Grafikchip (40 nm), der aus 2,15 Milliarden Transistoren besteht und in dem insgesamt 1600 Shader-Rechenkerne arbeiten. Diese sind in 20 SIMD-Einheiten zu je 16 Recheneinheiten Ã* fünf Kernen angeordnet. Am SIMD-Layout hat AMD im Vergleich zur HD-4800er-Serie prinzipiell also nichts geändert, sondern lediglich die Anzahl der Einheiten verdoppelt. Die Shader-Rechenkerne arbeiten bei einigen Rechenoperationen effizienter als ihre Vorgänger und beherrschen auch die von der DirectX-11-Spezifikation geforderten bitweisen Operationen wie count, insert und extract, die beispielsweise bei Videobearbeitung und Kryptographie häufig vorkommen. Summen absoluter Differenzen sollen sich nun bis zu zwölfmal schneller berechnen lassen. Die billigere Radeon HD 5850 ist um zwei SIMD-Einheiten beschnitten und besitzt damit 160 Shader-Kerne und 8 Textureinheiten weniger. Auch Grafikchip und -Speicher laufen mit 725 beziehungsweise 1000 MHz etwas langsamer als bei der Radeon HD 5870 (850/1200 MHz).
Bei der Radeon HD 5870 ist an jede SIMD-Einheit wie schon bei der Radeon HD 4870 ein Cluster mit vier Textureinheiten (TMUs) gekoppelt, sodass insgesamt 80 davon zur Verfügung stehen. Texturen werden nun bis zu einer Kantenlänge von 16384 Pixeln unterstützt. Massiv verbessert hat AMD die anisotrope Texturfilterung: Diese arbeitet nun winkelunabhängig, liefert daher eine bessere Bildqualität und soll trotzdem so schnell sein wie der AF-Algorithmus der Vorgängerversion. Auch die Zahl der beispielsweise für die Kantenglättung wichtigen Rasterendstufen (ROPs) hat sich bei der Radeon HD 5870 auf 32 verdoppelt, sodass sich pro Takt nun 32 Pixel berechnen lassen. Durch einen zusätzlichen Readback-Pfad können die Textureinheiten nun direkt komprimierte Antialiasing-Farbwerte auslesen, was die Leistung beim Custom-Filter-Antialiasing laut AMD erhöhen soll. Im Treiber stellt AMD nun auch einen Schalter für Supersampling-Antialiasing zur Verfügung.
Der GDDR5-Speicher fasst im Referenzdesign 1 GByte an Daten und ist weiterhin über vier Speichercontroller mit insgesamt 256 Datenleitungen an den Grafikchip angebunden. Bei einer Taktfrequenz von 1200 MHz erreicht die Radeon HD 5870 einen rund ein Drittel höheren Datendurchsatz (153,6 GByte/s) im Vergleich zur Radeon HD 4870. Jeder Speichercontroller ist mit einem L2-Cache verbunden, dessen Kapazität auf je 128 KByte verdoppelt wurde. Die fest verdrahtete Tessellation-Einheit erfüllt in ihrer sechsten Generation die DirectX-11-Anforderungen. Mit ihr lassen sich die geometrischen Details von 3D-Objekten automatisch und ohne große Leistungseinbußen verfeinern. Dadurch steigt die Detailqualität bei Spielen, die dieses Feature unterstützen, enorm. Bei der Wiedergabe von Blu-ray-Videos entlastet die verbesserte UVD2-Videoeinheit weiterhin den Hauptprozessor und dekodiert bis zu zwei Videoströme für die Bild-in-Bild-Funktion. Neu ist nun, dass der zweite Strom auch im HD-Format 1080p vorliegen kann. Hinzugekommen ist laut AMD außerdem die Möglichkeit, TrueHD und DTS-HD als Bitstream auszugeben.
Beeindruckend ist die vergleichsweise geringe Leistungsaufnahme der neuen High-End-Grafikkarten. AMD spricht von rund 27 Watt im Leerlauf, was für beide vorgestellten Modelle gelten soll. Unser Testexemplar der Radeon HD 5870 verbrauchte gar nur 19 Watt – und damit nur rund ein Drittel einer Radeon HD 4870 und auch weniger als Nvidias GeForce GTX 285 (rund 30 Watt). Auch die Geräuschentwicklung ist mit 0,6 Sone gut. Beim Spielen zieht die Radeon HD 5870 durchschnittlich 119 Watt. Die Höchstbelastung lag in unseren Messungen bei 198 Watt; 10 Watt mehr als AMD als TDP-Wert angibt. Der mit zirka 2000 U/min drehende Lüfter ist dann mit 1,2 Sone auch aus dem geschlossenen Gehäuse noch wahrnehmbar. Nach einem längeren Furmark-Stabilitätstest kletterte der Wert sogar auf sehr störende 3,2 Sone. In der Praxis kommt das jedoch eher selten vor. Der Grafikchip erreichte während all unserer Tests nie mehr als 80 °C. Die 28 Zentimeter lange Karte wird durch zwei sechspolige Stromanschlüsse versorgt und belegt durch das umfangreiche Kühlsystem zwei Gehäusesteckplätze.
Bisher konnten Single-GPU-Grafikkarten zumeist nur zwei Bildschirme gleichzeitig ansteuern, auch wenn teilweise viel mehr Anschlüsse an der Slotblende verfügbar waren. Die Radeon HD 5870 bindet nun bis zu drei Displays mit maximal je 2560 × 1600 Bildpunkten an, die Eyefinity-Spezialversion sogar bis zu sechs via DisplayPort. Dabei kann man den Desktopinhalt auf die jeweiligen Monitore erweitern oder auch duplizieren. Was auf welchem Display ausgegeben wird, konfiguriert man im Catalyst-Treiber. So lassen sich auch Spiele in extrem hohen Auflösungen wie 5760 × 2160 darstellen. Rund 80 Titel zählt AMD auf, die zur Eyefinity-Technik kompatibel sind, unter anderem Call of Juarez 2, Fallout 3 und den Microsoft Flight Simulator X.
Mit Stalker: Call of Pripyat und Dirt 2 sollen noch in diesem Jahr Spiele erscheinen, die optionale DirectX-11-Effekte bieten. Das bereits erhältliche Echtzeit-Strategiespiel Battleforge zieht über ein offizielles Update Vorteile aus DirectX 11 und soll etwas schneller laufen. Mit Alien vs. Predator kündigt sich noch ein Top-Titel mit hochdetaillierten Charaktermodellen zum Anfang des nächsten Jahres an. Ob das Spiel auch in Deutschland verkauft wird, ist wegen der Gewaltdarstellung noch unklar. Der im kommenden Jahr erwartete Teil der Battlefield-Serie unterstützt DirectX 11 von Haus aus. Auch Dungeons and Dragons Online (Eberron Unlimited) sowie Lord of the Rings Online bringen einen DirectX-11-Renderpfad mit.
Die Radeon HD 5870 und 5850 sollen ab Ende September für 350 beziehungsweise 250 Euro erhältlich sein. Bereits im Oktober werden auch die ersten Mittelklassegrafikkarten (Radeon HD 5770) erwartet, die wohl für um die 150 Euro über die Ladentheken gehen. Auch ein High-End-Modell mit zwei Grafikchips, die Radeon HD 5870 X2, ist laut AMD in Planung und soll noch in diesem Jahr erscheinen. Vom Konkurrenten Nvidia ist zumindest in den nächsten Monaten keinerlei DirectX-11-fähige Grafik-Hardware zu erwarten.
Quelle: Heise.de (http://www.heise.de/newsticker/Radeon-HD-5800-Die-ersten-DirectX-11-Grafikkarten-sind-da--/meldung/145716)
Egal wie gut die 5000er Serie wird. Sie wird 100pro von GeForce geowned ;)
pilzbefall
23.09.2009, 12:59
relativ dämlich finde ich es, daß in den meisten Tests
-nahezu immer dieselben Spiele gebencht werden
-auch solche darunter sind, die eh schon verdammt flüssig laufen mit aktueller Hardware. Die HL2 Episoden z.B. oder HAWX.
Muß ich wohl noch einige Wochen oder Monate warten, bis ein Käufer mal Arma2 testet.
chenjung
23.09.2009, 13:03
Egal wie gut die 5000er Serie wird. Sie wird 100pro von GeForce geowned ;)
Das glaube ich weniger ;)
Schauen wir erstmal bis Nvidia was gegen setzen kann und bis zum release der NV Karten kann es noch ne weile dauern, bis dahin hat sich ATI im Markt gut abgesetzt und selbst wenn NV dann mit ihrer Karte welche Leistungsstärker ist kommt, so muss sich ATI nicht fürchten. Ich finde es toll wenn ATI es nach langer Zeit mal wieder hin bekommt, immerhin belebt die Konkurrenz das Geschäft und wer weiß schon ob sich Nvidia gegen ATi behaupten kann wenn es um Anspielung von mehreren Bildschirmen geht?
Radeon HD 5870 mit DirectX 11
Fazit
Seit der Geforce 8800 GTX von 2006 hat uns keine Grafikkarte (http://www.gamestar.de/hardware/tests/grafikkarten/pcie/1959128/radeon_hd_5870_mit_directx_11_p4.html#) mehr so begeistert wie die Radeon HD 5870. Technisch überzeugt die Karte mit DirectX 11, dem tadellosen anisotropen Texturfilter und einem angenehm leisen Lüfter. Bei der reinen Spieleleistung überflügelt die Radeon HD 5870 eine Geforce GTX 285 je nach Spiel (http://www.gamestar.de/hardware/tests/grafikkarten/pcie/1959128/radeon_hd_5870_mit_directx_11_p4.html#) und Einstellung um bis zu 30 Prozent. Oft rechnet die Radeon HD 5870 sogar fast auf dem Niveau der Geforce GTX 295 mit zwei Grafikprozessoren, braucht dafür aber wesentlich weniger Strom. Angesichts des Preises von rund 350 Euro somit ein tolles Angebot für Besitzer ausreichend gefüllter Brieftaschen, zumal die auch das nötige Kleingeld für die Mehrschirm-Technik Eyefinity haben dürften. Bis zum Erscheinen der DirectX-11-Geforce wird Nvidia nur mit aggressiven Preissenkungen dagegenhalten können. Wir sind gespannt, was die günstigere Radeon HD 5850 leistet. Den Test lesen Sie auf GameStar.de und im nächsten Heft - da könnte der nächste Preis-Leistungs-Champ in den Startlöchern stehen. 1. Update
Gerade erreichte uns mit der 350 Euro teuren Sapphire Radeon HD 5870 die erste verkaufsfertige Herstellerkarte. Die Grafikkarte entspricht bis auf dem Sapphire-Aufkleber auf dem Kühlkörper dem Referenzdesign von AMD. Im Karton liegt ein Gutschein für das kommende Colin McRae Dirt 2 (http://www.gamestar.de/spiele/sport/44624/colin_mcrae_dirt_2.html), den AMD allen Partner anbieten will. Allerdings: Um den Coupon einzulösen, brauchen Sie einen Steam-Account. Darüber hinaus legt Sapphire die Vollversion von Battlestations Pacific (http://www.gamestar.de/spiele/action/44477/battlestations_pacific.html) und die üblichen Adapter bei. Den Wertungskasten haben wir auf die Sapphire-Karte angepasst.
http://www.gamestar.de/hardware/tests/grafikkarten/pcie/1959128/radeon_hd_5870_mit_directx_11_p4.html#EL_125353036 59135478927548
ist die HD 5870 ne Dual-Gpu.?
nein die kommt noch.
MSI shows its HD 5800 lineup
http://www.fudzilla.com/content/view/15645/34/Powercolor comes up with six HD 5800 cards
http://www.fudzilla.com/content/view/15638/1/
warpspeed
23.09.2009, 14:45
ist die HD 5870 ne Dual-Gpu.?
Nein. Eine Single.
pcfreak60
23.09.2009, 14:47
Hier noch ein Review von Computerbase:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/#abschnitt_einleitung
34 Grad im Idle!!!!!!
der test von golem.de
http://www.golem.de/0909/70001.html
Wie also das ist ne Single-GPU und fast so stark wie die 295GTX.? und da kann man auch 4-Way Crossfire machen (oder sind die zu breit.?) .?
warpspeed
23.09.2009, 14:57
Wie also das ist ne Single-GPU und fast so stark wie die 295GTX.? und da kann man auch 4-Way Crossfire machen (oder sind die zu breit.?) .?
1.) Ja 2.) Kein Plan ;).
Oha und kauf von Matrox Dualhead2Go bzw. Triplehead2Go erübrigt sich. wie geil ist das denn.? ;)
hm nunja für einige Zeit bin ich jetzt mal auf der Seite von ATi ;)
hardawareluxx test
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/13073-ati-radeon-hd-5870-the-game-has-changed.html
1337_alpha
23.09.2009, 15:06
Wie also das ist ne Single-GPU und fast so stark wie die 295GTX.? und da kann man auch 4-Way Crossfire machen (oder sind die zu breit.?) .?
"An bekannter Position befinden sich die beiden Anschlüsse für die CrossFire-Bridge. Bis zu vier Radeon-HD-5870-Grafikkarten können in einem System zusammengeschaltet werden."
Mittlerweile hat AMD auch ein Video veröffentlicht, das die Ruby Real-Life-Demo zeigt. In dem folgenden Video sehen Sie ab 5:33, dass der modellierte Kopf in Echtzeit gerendert, beleuchtet und gedreht wird. Zum Einsatz kommt eine DirectX-11-Grafikkarte mit einer GPU, vermutlich eine Radeon HD 5870, die mittels Compute Shader die neue Ruby berechnet.
http://www.pcgameshardware.de/aid,694879/Ruby-Real-Life-Demo-AMD-zeigt-neue-Qualitaet-von-Charakter-Renderings-in-Echtzeit-Video-Update/Grafikkarte/News/
das video zur demo
http://www.youtube.com/watch?v=G1C9cyCrDrs
CRYSISTENSE
23.09.2009, 15:10
Hat schon jemand bestellt?
DrunkenMonkey
23.09.2009, 15:13
Gefällt mir soweit vo technischen her sehr gut die Karte. Ob die, oder ein refresh mal meine alte 88GTX ablösen wird? ^^ Mal schauen :D
Find die vom Desig her aber absolut grottig ^^ Mal sehen ob da demnächst nen paar Karten kommen werden, die vom Refferenzdesign abrücken.
Naja, oder halt WaKü :D Mal sehen was da für schöne Kühler aufn markt kommen werden ^^ Auch wenn mein jetziger Kühler (http://www.watercool.de/cms/forumpics/gpu_x2_8800_1.jpg) vom Design her einfach nur geil aussieht!
Mittlerweile hat AMD auch ein Video veröffentlicht, das die Ruby Real-Life-Demo zeigt. In dem folgenden Video sehen Sie ab 5:33, dass der modellierte Kopf in Echtzeit gerendert, beleuchtet und gedreht wird. Zum Einsatz kommt eine DirectX-11-Grafikkarte mit einer GPU, vermutlich eine Radeon HD 5870, die mittels Compute Shader die neue Ruby berechnet.
http://www.pcgameshardware.de/aid,69...fikkarte/News/ (http://www.pcgameshardware.de/aid,694879/Ruby-Real-Life-Demo-AMD-zeigt-neue-Qualitaet-von-Charakter-Renderings-in-Echtzeit-Video-Update/Grafikkarte/News/)
vielleicht sollte man hier erwähnen das die Figur Ruby von AMD/ATI ist und es deshalb zu 100% nur eine AMD GPU sein kann:lol:
Baggibox
23.09.2009, 15:15
http://www.hardwareluxx.de/images/stories/galleries/reviews/Radeon5800/5870_DX11_06.jpg
Tesselation Vorführung (http://www.youtube.com/watch?v=HFp9RP49qr8&feature=player_embedded#t=141)
http://www.hardwareluxx.de/images/stories/galleries/reviews/Radeon5800/5870_DX11_22.jpg
Parallax Occlusion Map (POM) gibts doch bereits ;)
Parallax Occlusion Map (POM) gibts doch bereits ;)
Nochmal lesen und btw. ist POM stark verbesserungswürdig, besonders auf Entfernung.:-)
POM untersützt kein Anisotrophische Filterung und deswegen setzt POM nach 30 Virtuellen Metern aus.
hm achso ;)
gibts aber jetzt schon länger von ATI
--> ToyShop-Demo
Tig3r0023
23.09.2009, 15:37
Neues Vid
http://www.youtube.com/watch?v=G1C9cyCrDrs&feature=player_embedded#t=418
das hat xeonsys gerade eben gepostet ;)
Baggibox
23.09.2009, 15:43
DX10 war der Flop des Jahrhundert und Vista ebenfalls.
DX11 mit Windows 7 wird wieder das ordentliche Zugpferd sein !
Also diesmal bin ich echt überrascht was ATi da aufn Mark schmeißen wird. Niederiger Stromverbrauch + gute Performance. Aber wo sind die niedrigen Temperaturen beim Zocken ? Neja an meine GTX295 kommt se nochnicht ran, erstmal auf GT300 warten :D
Fusion145
23.09.2009, 16:11
DX10 war der Flop des Jahrhundert und Vista ebenfalls.
DX11 mit Windows 7 wird wieder das ordentliche Zugpferd sein !
Wieso Zugpferd? :roll:
DX11 ist komplett auf Vista lauffähig und wird dort auch als Update nachgereicht...
Also ich war ja schon von den 48xx beeindruckt, hohe Leistung zu fairen Preisen
Aber die 58xx schlägt ja mal alles, sehr hohe Leistung gepaart mit einer niedrigen Leistungsaufnahme im Idle (die 5870 verbraucht im Idle weniger als eine 9600GT) und gleichzeitig noch ein geringer Preis...
Wäre ich nicht gerade so knapp bei Kasse würde ich mir sofort eine bestellen^^
1337_alpha
23.09.2009, 16:21
Wieso Zugpferd? :roll:
DX11 ist komplett auf Vista lauffähig und wird dort auch als Update nachgereicht...
Also ich war ja schon von den 48xx beeindruckt, hohe Leistung zu fairen Preisen
Aber die 58xx schlägt ja mal alles, sehr hohe Leistung gepaart mit einer niedrigen Leistungsaufnahme im Idle (die 5870 verbraucht im Idle weniger als eine 9600GT) und gleichzeitig noch ein geringer Preis...
Wäre ich nicht gerade so knapp bei Kasse würde ich mir sofort eine bestellen^^
Du wilslt doch nicht etwa Vista als Zugpferd bezeichnen? :lol:
Ich habe mir gerade das Tech-Video mit den 24 Monitoren angesehen.? Wie soll das denn funktionieren.? da braucht man doch mehr HDMI bzw. DVI Slots.
Gibts da solche Verteiler .? :ugly::asia:
Fusion145
23.09.2009, 17:14
Es sollen noch HD5870 mit 6 Ausgängen kommen und da man bis zu 4 Grafikkarten einbauen kann, kann man auch 24 Monitor anschließen/ansteuern (da 4x6=24^^) ;)
olol 6 ausgänge O.o
geiles ding
mein 1000.er post :lol:
6 Dvi Ausgänge ?
Na ja wer auf ne 3 Slot Graka steht, gerne.
Denke mal ehr das das über Y-Kabel oder Adapter laufen wird, ähnlich wie Matrox nur das die Teile mitgeliefert werden or so.
Weil 6 Ausgänge brauchen ne menge Platz.
Mfg Scaleo
jop 6 ausgänge höchstens bei Dual-GPU Karten und da dann wahrscheinlich 4x DVI & 2x HDMI or so ;) (TV out nicht zu vergessen)
Fusion145
23.09.2009, 17:22
Also ich denke es werden 6x HDMI Ausgänge werden und dafür reicht der Platz jetzt auch schon (wenn man die DVI Ausgänge weg lässt) ;)
Nein, wenn 6 Ausgänge nur bei Dual/3Slot Grafikkarten funktionieren würden dann wären 24 Monitore mit reinen Grafikarten Ausgängen nicht zu realisieren (1 Ausgang = 1 Monitor)...
Und über Y-Kabel kann es gar nicht funktionieren da jeder Monitor ein anderen Teil des gesamt Bildes anzeigen muss und das funktioniert nur wenn jeder Monitor mit einem eigenen Ausgang angesteuert wird...
Es sind 6 MiniDisplayports mit normaler 2- Slot- Bauweise.
Edit:
http://news.ati-forum.de/images/stories/Szymanski/News/2009/5850_Pressslides/3.jpg
http://media.bestofmicro.com/0/P/224233/original/Eyefinity%20Edition.jpg
Und bestellt wird erst in ein paar Tagen.
Wahrscheinlich bei Conrad, denn die liefern für den "Onlinepreis" umsonst in die nächstgelegene Filliale.
Dann mach ich noch Sammelbestellung und vielleicht ist dann auch noch Rabatt drinne.
MfG,
Jaco
Ich bin als Nvidia Teufel echt beeindruckt, wie sehr ATI aufholen konnte. Jetzt fehlt nur noch der GT300, der mindestens 25% schneller ist als die HD5870 und ich bin zufrieden. :lol:
darauf warte ich auch noch. dann wird bestellt ;)
JamDeluxe
23.09.2009, 17:44
Selbst wenn die Nvidia Karten so Proll sind:
1. Der Preis wird min. 1/3 höher ausfallen.
2. Soviel Leistung wird in den nächsten 2 Jahren nicht benötigt.
Und jetzt hört mal auf immer diese Fanboy Posts über Nvidia zu schreiben das ist langsam wirklich ein wenig nervig.
nunja stimmt 4-way crossfire wäre im moment sinnvoller ;)
ich hab ja auch 12 ungebrauchte Monitore bei meinem Vater zu Hause stehen. ;)
eyefinity testen hehe
edit: wie haben die das dann eigentlich mit dem Hiperspace geregelt.? (ohne eyefinity) http://www.youtube.com/watch?v=aV_nVxCU9F4
Fusion145
23.09.2009, 18:06
Ich bin als Nvidia Teufel echt beeindruckt, wie sehr ATI aufholen konnte. Jetzt fehlt nur noch der GT300, der mindestens 25% schneller ist als die HD5870 und ich bin zufrieden. :lol:
Bis der GT300 raus kommt wird ATi schon einen Refresh der Karten planen bzw. kurz nach Release des GT300 veröffentlichen^^ :lol:
Naja es steht ja noch in den Sternen wann der GT300 raus kommt, also sollte man sich jetzt entscheiden ob man eine HD5870/50 kaufen möchte. Wenn man sich eine kaufen will sollte man allerdings ca. 2 Wochen warten bis sich die Preise ein bisschen angeglichen haben (wenn es auch nur ein paar € sein werden) ;)
Jungs...lasst ATi die Sachen rausbringen und nicht mit den NV Zeug hierher kommen...
ATi vs. NV ist schon lang out nach meiner Meinung...
Also lasst einfach die Posts sein und einfach abwarten...
ATi macht deren Sachen und NV ihre eigenen...fertig...
:b2t:!
Baggibox
23.09.2009, 19:16
Wieso Zugpferd? :roll:
DX11 ist komplett auf Vista lauffähig und wird dort auch als Update nachgereicht...
Du kannst ja ruhig auf Vista setzen wenn du Games zockst...
Das Betriebssystem ging total nach hinten los und ist einfach nur nervig.
------------------
Mir ist es egal ob die GT300 5% oder so besser wird als die ATI.
Meine Nächste Grafikkarte ist von ATI, weil ihre Leistung einfach enorm ist.
Da brauch ich nicht auf die Karte von NVIDIA zu warten.
Auf PhysX kann ich auch verzichten.^^
JamDeluxe
23.09.2009, 19:19
Vista war ein Fehlschlag, hat MS sogat selber zugegeben.
Alleine die Leistung die es braucht... kein Wunder das Crysis auf DX10 nur so schlecht lief^^
Warscheinlich hatte die schon jemand gepostet aber kann mir jemand die Daten der 5850 geben mit Prei wenn möglich?
Das soll nähmlich meine nächste Karte werden. Danke im vorraus ;)
Fusion145
23.09.2009, 19:23
Du kannst ja ruhig auf Vista setzen wenn du Games zockst...
Das Betriebssystem ging total nach hinten los und ist einfach nur nervig.
Es ging mir nur darum das DX11 kein Kaufgrund für Win7 ist wie damals DX10 für Vista, da DX11 für mehr als ein Betriebssystem raus kommt...
Und ich hab nie behauptet das ich auf Vista setzen würde oder das Vista gut wäre :roll:
hab einiges über sie gelesen und finde '' WOha''... ATI hat ihren job gut gemacht:
Viel Leistung + kein großer Stromverbracuh + Temp. nicht zu hoch + nicht laut = Erfolgreich
... Aber ich wart lieber auf HD6xxx oder GTX400 damit ich endlich supersprung von GTX260² spüren würde...
AMD führt Dual-GPU-Grafikkarte der 5800-Serie vor
Zwei Grafikkarten der neuen DirectX-11-Generation von AMD gelten seit gestern als offiziell eingeführt: die ATI Radeon HD 5870, die wir bereits einem umfangreichen Test unterzogen haben und die Radeon HD 5850. Nach bisherigem Kenntnisstand sollen zum Jahresende (November oder Dezember) Grafikkarten mit zwei solcher Cypress-GPUs folgen - der Codename für dieses Projekt lautet Hemlock. Die Kollegen von vr-zone.com gelangten nun offenbar in den Genuss einer Demonstration seitens AMD, wobei eine Hemlock-Grafikkarte erstmals im Betrieb vorgeführt wurde. Dabei kam eine Tech-Demo des kommenden DirectX-11-Spiels Alien vs Predator zum Einsatz, welches im ersten Quartal 2010 erscheinen soll. Der Titel soll mit Features wie Character Tessellation, Detail Tessellation auf Umgebungsoberflächen, High-Definition Ambient Occlusion (HDAO) und anderen Neuerungen von DirectX-11 aufwarten können, womit er sich ideal zur Präsentation der kommenden Dual-GPU-Karte von AMD eignete. Die Frameraten während der Tech-Demo sollen laut der Kollegen sehr viel versprechend ausgefallen sein, doch leider werden hierbei keine genauen Werte genannt. Jedoch konnte man während der Vorführung einige Fotos des Systems machen, wobei man allerdings auf eine Handy-Kamera zurückgreifen musste, womit keine hochwertigen Bilder möglich waren.
Ansonsten konnte man noch in Erfahrung bringen, dass die Hemlock-Grafikkarte etwas länger sei als die HD 5870, was natürlich zu erwarten war. Man vermutet eine Länge von etwa 12 Zoll, also ein wenig länger als 30 cm. Weiterhin soll es voraussichtlich zwei Hemlock-Versionen geben, deren Produktnamen noch unbekannt sind, aber sehr wahrscheinlich Radeon HD 5870 X2 und HD 5850 X2 lauten werden. Wie die auf den Bildern schwer zu entziffernden Eintragungen im Treiber-Menü (CCC) des Demo-Systems verraten, taktete die GPU des Hemlock-Modells mit 725 MHz und der 1 GB große GDDR5-Speicher mit 1000 MHz. Somit könne man darauf schließen, dass hier eine „HD 5850 X2“ verwendet wurde. Allerdings muss man darauf hinweisen, dass derzeit weder Taktraten noch andere Details als endgültig bestätigt gelten und sich jederzeit ändern könnten.
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13153-amd-fuehrt-dual-gpu-grafikkarte-der-5800-serie-vor.html
Sapphire feilt an Radeon HD 5870 Vapor-X
Modell samt Custom-Design auf. So soll AMD-Board-Partner Sapphire bereits in den letzten Vorbereitungen seiner neusten Vapor-X-Karte stecken. Wie man es von der Produktreihe gewohnt ist, legt man auch hier vor allem Wert auf eine leise und effiziente Kühlung. So kommt auch auf der Sapphire Radeon HD 5870 Vapor-X eine Eigenkreation zum Einsatz. Sicherlich wird man auch hier etwas an der Taktschraube drehen. Ob man mittels leichter Spannungserhöhung die 1,00-GHz-Marke durchbricht, bleibt noch abzuwarten. Sapphire selbst machte jedenfalls noch keine Aussagen zu den Taktraten. Auch eine Verdoppelung des GDDR5-Speichs ist ebenfalls denkbar. Die erste ATI Radeon HD 5870, welche sich nicht an die Standard-Vorgaben von AMD hält, könnte bereits in den nächsten Wochen in den Läden stehen.[/url]
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13154-sapphire-feilt-an-radeon-hd-5870-vapor-x.html
Baggibox
24.09.2009, 15:28
Oh Gott die sprengen ein Dynamit nach dem anderen ! :eek2:
Mal noch Bilder zu xeonsys Post. ;)
http://www.hardwareluxx.de/images/stories/newsbilder/astegmueller/2009/techpowerup_sapphire_hd5870_vapor_x-02.jpg
http://www.hardwareluxx.de/images/stories/newsbilder/astegmueller/2009/techpowerup_sapphire_hd5870_vapor_x-03.jpg
Ich glaube das wird was feines^^
Gruß
Noname
Blue Dragon
24.09.2009, 17:43
Mal noch Bilder zu xeonsys Post. ;)
Ich glaube das wird was feines^^
Gruß
Noname
[/left]
yep das bild hab ich auch heut schon gesehen
ich find das design viel geiler
aber nvidia mhhhh ja ich bin auch so n nerviger freak^^
aber ich sag mal so ati is gar nicht mal so schlecht und ich bin stark am grübeln überzuwechseln
allso ich warte mal ab.:smile:
eFFeCTiVe
24.09.2009, 18:02
@ Bild aus Noname sein Post: Watt n Monsta:shock:
Bin irgendwie am grübeln, ob mein nächster Highend-PC mal ne AMD-ATi-Kombi werden soll... Hab mit meinem ersten AMD-Prozzi eigentlich recht gute Erfahrungen gemacht. Und die 5000er-Karten sind ja offensichtlich nix Schlechtes:D
Mal noch Bilder zu xeonsys Post. ;)
Das sieht ja sogar relativ Edel aus :)
Ich kann auch bisher nur zustimmen das ich nie Probleme mit ATI hatte (auch nicht mit NVidia) Ich glaube mal das mein nächster PC auch ein AMD ATI Gespann wird. Es läuft halt zurzeit so gut bei denen.
Ich bezahl jedenfalls keine 100€ mehr für 10% mehr Leistung.
ach du schei*e so ein ding kommt FIX in meinen Rechner und zwar 4x
JamDeluxe
24.09.2009, 18:18
Ich bezahl jedenfalls keine 100€ mehr für 10% mehr Leistung.
Ich hätte auch bei AMD bleiben sollen.... i7 is nach 6 Monaten kaputt gegangen und dafür hab ich soviel Kohle verplempert :(
Ich werde mir jedenfalls die 5850 holen denn die reicht von der Leistung her bestimmt. Sollte mal Not am Mann sein werde ich mir die vielleicht im CF holen. Sollte ja langsam mal ordentlich funktionieren :)
gibts das irgendwie mehr leistung, wenn man ne CPU von AMD und ne Graka von ATI hat.?
Ich würde mir nämlich nen Six-Core von Intel und die Graka(s) von ATI holen
Ouha. ATI sprengt ja alles zurzeit. Neja mal gucken wie Nvidia abgeht. Das kennen wir ja alle. Erst kam die berühmte 3 XXX Serie von ATI raus war auch ein flop und dann kam Nvidia mit ihren 8 bzw 9 serie. Obwohl die 9ner serie auch ein flop war :D
Fusion145
24.09.2009, 18:24
gibts das irgendwie mehr leistung, wenn man ne CPU von AMD und ne Graka von ATI hat.?
Ich würde mir nämlich nen Six-Core von Intel und die Graka(s) von ATI holen
Nein, gibt keine Mehrleistung wenn man AMD mit ATi zusammenbaut ;)
Wir kennen auch die Geschichte von dem G80 und der HD2xxx Serie von ATi, dort war der Spätzünder deutlich langsamer...
Der GT300 von Nvidia steht jetzt sowieso schon von der Leistung her fest (wenn sie ihn demnächst raus bringen wollen), also hat Nvidia etwa mit der Leistung von ATis neuen Grafikkarte gerechnet oder sie haben halt Pech gehabt, denn jetzt können sie nicht mehr viel machen/verändern...
Blue Dragon
24.09.2009, 19:56
Nein, gibt keine Mehrleistung wenn man AMD mit ATi zusammenbaut ;)
Wir kennen auch die Geschichte von dem G80 und der HD2xxx Serie von ATi, dort war der Spätzünder deutlich langsamer...
Der GT300 von Nvidia steht jetzt sowieso schon von der Leistung her fest (wenn sie ihn demnächst raus bringen wollen), also hat Nvidia etwa mit der Leistung von ATis neuen Grafikkarte gerechnet oder sie haben halt Pech gehabt, denn jetzt können sie nicht mehr viel machen/verändern...
außer nen gozzila aufs monster lassen ^^
JamDeluxe
24.09.2009, 20:04
Der Nvidia wird denke ich besser.
Aber der Preis wird auch dementsprechend hoch da wird Nvidia einfach abkacken.
Wenn ich schon sehe wie krass die 5870 ist und dann NUR 350€... das is echt krass. Aber ich gönns ATI.
Aber der Preis wird auch dementsprechend hoch da wird Nvidia einfach abkacken.
Und woher willste des wiederum wissen ?
Die würden sich ja selbst in Knie schießen, wenn die ihre Karten dann für 500€ or so anbieten würden ....
Mfg Scaleo
JamDeluxe
24.09.2009, 20:20
Ich vermute es einfach mal. War bisher ja eigentlich immer so. Wenn sie die abziehen wollen müssen sie einfach bessere Karten machen und das geht in den Preis.
Wie gesagt ich vermute es einfach mal.
Ich vermute es einfach mal. War bisher ja eigentlich immer so. Wenn sie die abziehen wollen müssen sie einfach bessere Karten machen und das geht in den Preis.
Wie gesagt ich vermute es einfach mal.
Da hat er recht. Bis jetzt hatte ATI die Preis spritze vorne.
Blue Dragon
24.09.2009, 20:31
ich will auch dringen mal wiessen wie teuer die nvidias werden und ob die 5870 wirklich nur so billig rauskommen wird
JamDeluxe
24.09.2009, 20:34
http://www4.hardwareversand.de/_/articledetail.jsp?aid=28690&agid=1004
Das ist eine der günstigeren versionen der Rest kostet um die 350€
Die 5850 kostet um die 250€
Powered by vBulletin® Version 4.2.5 Copyright ©2025 Adduco Digital e.K. und vBulletin Solutions, Inc. Alle Rechte vorbehalten.