370€ :wink:
Druckbare Version
EVGA ist am besten. Ob sich der Aufpreis lohnt, muss jeder selber wissen.
Meine noname GTX280 lief mit 740/2600 völlig stabil.
Ich würde mir keine von Werk auf übertaktete holen, der Aufpreis lohnt sich überhaupt nicht für die minimale Mehrleistung.Hol dir eine normale und übertakte sie selber falls du willst
Hi ich hab gestern abend ein wenig meine gtx 260 in den popo getreten und bin erstaun was die für eine leistung hat. Hab Crysis auf 1680x1050 auf mster preformence config nd 16xQAA auf benchmark_gpu 1 getestet und das kam bei raus:
05.09.2008 00:10:17 - Vista 64
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX10 1680x1050, AA=16xQ, Vsync=Disabled, 64 bit test, FullScreen
Demo Loops=4, Time Of Day= 9
Global Game Quality: Custom
Custom Quality Values:
VolumetricEffects=High
Texture=High
ObjectDetail=High
Sound=VeryHigh
Shadows=High
Water=VeryHigh
Physics=VeryHigh
Particles=High
Shading=High
PostProcessing=High
GameEffects=High
================================================== ============
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 103.22s, Average FPS: 19.38
Min FPS: 0.00 at frame 1028, Max FPS: 31.41 at frame 979
Average Tri/Sec: -16139550, Tri/Frame: -832962
Recorded/Played Tris ratio: -1.10
!TimeDemo Run 1 Finished.
Play Time: 93.42s, Average FPS: 21.41
Min FPS: 0.00 at frame 1028, Max FPS: 31.41 at frame 979
Average Tri/Sec: -17520954, Tri/Frame: -818378
Recorded/Played Tris ratio: -1.12
!TimeDemo Run 2 Finished.
Play Time: 93.34s, Average FPS: 21.43
Min FPS: 0.00 at frame 1028, Max FPS: 31.41 at frame 979
Average Tri/Sec: -17532616, Tri/Frame: -818264
Recorded/Played Tris ratio: -1.12
!TimeDemo Run 3 Finished.
Play Time: 93.28s, Average FPS: 21.44
Min FPS: 0.00 at frame 1028, Max FPS: 31.41 at frame 979
Average Tri/Sec: -17567756, Tri/Frame: -819396
Recorded/Played Tris ratio: -1.12
TimeDemo Play Ended, (4 Runs Performed)
================================================== ============
<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>
05.09.2008 00:10:17 - Vista 64
Run #1- DX10 1680x1050 AA=16xQ, 64 bit test, Quality: Custom ~~ Overall Average FPS: 2142,6666666666666666666666667
Meine System Daten: Intel Q6600 @3ghz / 4gb 1066mhz ram / Gainward gtx 260 @ Gpu=630mhr Shader=1376 Ram=1080 / mobo Gigabyte Ep35-DS4 / 500gb sata 2
Ich möchte hier ja keinen Fanboy Krieg vom Zaun brechen aber
Erstens : 2 GTX280 von evga kosten ja um die 720€ die x2 gabs bei alternate für 330€ und ich glaube 2 X2 sind doch ein wenig schneller als deine EVGA usw oder?
Bei mir rennt das Teil wie Hölle und bei mein Q9450@3,6Ghz limitiert auch in 1280x1024 nachweisbar steht auch auf CB dick und fett dass sogar ein Qx9770 limitiert. Und der AMD ist nicht mal in den kühnsten Träumen der Fanboys schneller als ein QX. Und aproppos wo ist den dein toller Phenom abgeblieben? Ging er nicht so gut?
Und wenn du immer noch 1280x1024 nutzt ist dein Sli auch fürn Arsc* !
Rofl :grin: selten so gelacht, du bist mir ja nen Freak! Du kannst den 9950 Phenom ungetaktete mit dem Q9650 von der Leistung vergleichen! Wenn du mir nicht glaubst, geh auf Forumdeluxx da hat es einer getestet. Desweiteren ist der 9950 von AMD der Leistung ausreichend für zukünftige Spiele. Mehr braucht man nur fürs Benchen und das wars.
Falscher thread, ATI Suckz in diesen thread hier ;-) *gg*
Ne spass, naja is halt Geschmackssache, es werden halt eindeutig mehr Spiele für Nvidia Karten optimiert da kann jeder sagen was er will.....
Und ich seh es jetzt ja schon wieder erst die Sapphire HD 4870X2 Geschichte und nun hatte ich noch nen Phenom X4 auf 3000MHZ, jetzt bin ich halt wieder zu Intel gewechselt denn die AMD /ATI sachen naja..............
Und der Phenom hat mal sowas von keine Sonne gegen die Intel CPUS, brauche jetzt zum vista Ultimate 64 bit booten grade mal 18 sek nachdem ich den pc anmache, total krank die kiste, der AMD war müll dagegen, klingt hart is aba leider so........
Is halt wie Golf "AMD& ATI" oder Porsche Fahren "Intel&Nvidia" :D ;-)
Ich denke ich kann mir ein gutes urteil Bilden bzw erlauben denn ich hatte die letzen zwei Monate so ziemlich alles durch was Aktuelle High-End Hardware angeht, von AMD bis ATI bis überIntel bis hin zuNvidia;-)
-Para
@para, dir ist schon klar das du ein High-End Board hast und davor nur ein Middle-Ware? Das booten können beide gut und mit der richtigen Bios optimierung beide etwa auf gleicher Augenhöhe! Feintuning machts möglich. ;-)
Ich kann nix mehr Optimieren bei mir, guck dir meine werte in der signatur an, alles max und prime stabil, da geht nix mehr zu optimieren und im bios sieht es net anders aus @ optimierung glaub mir ;-)
PS: Ich hoffe Schatz ihr dad bekommt nächstes jahr kein schlag bei der Stromrechnung lol *bin unschuldig* :D
EDIT: Hatte doch auch nen Core²Duo E6600 Conroe, vor dem AMD Phenom, der hatte auch keine Sonne und war auch auf 3400MHZ Übertaktet, mein jetziges System bringt mich Persöhnlich net mal mehr aus dem staunen raus, kein witz.......bin mehr als überascht was da geht ;-)
*Vista rennt nun wie XP, als ob ich nen turbo knopf umgelegt habe lol*
-Para
ich meinte damit ja die Bootzeit, es hat nicht was mit der CPU zu tun sondern mehr was mit dem Board. Ist doch logisch, wenn du dir nen DFI Board kaufst dann kannst du es gut optimieren und kommst so schneller zu einerm guten Ergebniss als mit einem übersteuerten Asus Mainboard. Der Phenom 9950 gepaart mit nem richtigen Mainboar wird auf gleicher Augenhöhe sein wie deine Bootzeit
@ para ist geil das du einfach ma so wechselst. Schick mir ma einfach das AMD/ATI system, damit hast du einen kleinen Jungen im Ruhrpott glücklich :)
Sorry aber langsam macht sich in mir das Gefühl breit das du keine Ahnung hast:lol:, nur weil der Phenom 9950 in einigen Test mal schlecht hingetellt wird weil die Seite von Intel gesponsort wird oder die Leute einfach zu doof sind diesen richtig zu testen. Nenene, die 4870gx2 wird ja auch ganz oben angeprissen das sie super toll ist und führt sehr heufig die Benachmarkspitze an, doch du hast hier das gegenteilige beweisen wollen und machst jetzt die x2 schlecht. Nicht böse gemeint, aber wenn du nen nonprofi nen Ferrari hinstellst der dann das Auto an Baum fährt ist und der Profi damit umgehen kann ist auch nen unterschied. Ich sage immer Usertests mit Pic sind mehr wert wie ihrgendwelche zusammengestelte und total unglaubwürdige FPS Tabellen allá CP.
para tauscht doch jeden zweiten Tag seine Hardware, als er ATI und AMD hatte war alles gut, jetzt hat er Intel und Nvidia und plötzlich ist amd/ati schrott.Manche Leute wissen echt nicht was sie wollen, aber wenn man den ganzen Tag vorm PC hockt wüsste ich auch nicht was ich mit meiner Zeit anfangen würde:roll:
Der 9850 ist ca. auf q6600 Niveau und der 9950 auf Q9300.
http://www.pcgameshardware.de/aid,65..._im_PCGH-Test/
naja bleibe trotzdem bei AMD^^ hab noch intel dann AMD dannach wohl wieder Intel :D
******** Verdammte :cry:
Cheers :-D
Öhm... Ich hatte nie gesagt das ATI gut oder toll ist, wollte nur die Karte testen und bin zu dem entschluss gekommen das sie müll ist, habe genug über die Karte gepostet im ATI thread, der Prozessor @Phenom war ok jepp, hab nie das gegenteil behauptet hatte früher immer viel AMD nie probs gehabt, im gegensatz zu ATI, 3 Karten und 3X müll"9700 / 9800Pro und jetzt die X2, aber es ist kein vergleich zum Intel, zur X2 kann ich nur aus meinen Tests sprechen und da war die karte der letze dreck, hier nochmal ein Bench.
Nun sag du mir die Ergebnisse sind gut dann lauf ich nackt durchs Dorf lol, da hatte ich mit einer GTX 260 mehr.........
Zitat von paraphonatic http://crysis.4thdimension.info/foru...s/viewpost.gif
Sapphire HD 4870X2 Bench.
Alles high 1280x1024 Ohne AA ohne AF
Min FPS: 25.63 at frame 137, Max FPS: 69.27 at frame 1667
Average Tri/Sec: 47466736, Tri/Frame: 952161
Recorded/Played Tris ratio: 0.96
TimeDemo Play Ended, (3 Runs Performed)
================================================== ============
Completed All Tests
<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>
27.08.2008 14:23:32 -
Run #1- DX9 1280x1024 AA=No AA, 32 bit test, Quality: Custom ~~ Overall Average FPS: 4974
EDIT: Habe jetzt nochmal mit der GTX 280 gebencht
ALL HIGH 1280x1024
Min FPS: 42.51, Max FPS: 95.62, Average FPS: 62.34
Jetzt vergleich die mal mit der X2 lol dann wisst ihr wieso ich die Karte ******* finde, was die X2 max hat, habe ich mit der Single GTX280 Ave :D ;-)
Und das ist eine GTX 280, kein SLI Bench
-Para
Jup sehe ich auch so, den test von para sollte man als zukünftiger Käufer einer X2 einfach mal nicht beachten. Wer nen WS 17" hat der sollte sich diese Karte nicht kaufen, eigenlich auch kein SLI verbund! Ist in meinen Augen quatsch und in der Sinn gebenden Verwändung einer SLI, Crossfire oder eben Dual GPU Karte sollte man einen ab 22" TFT haben. Alles darunter ist dann schon unnötiges Geld ausgeben. Jedem dem meine Aussage egal ist, soll es halt machen wie er will. Aber dann nicht wundern das die Karten so ihr volles Volumen nicht wiederspiegeln können.
Schonmal gefragt warum die Karten langsamer sind? Das hat was mit den Qualitätseinstellungen im Treiber zu tun, nicht die die du auf der Oberfläsche in den Registern findest und einstellen kannst sondern die vorgegebenen die den Treiber optimieren. ATI Karten bieten ja auch ein sauberes Bild als die von Nvidia. Es gibt ich glaube auf PCGames oder so nen Register Auszug über die gemoddeten Einstellungen von einer ATI für Nvidia und die Nvidia läuft gleich auch viel langsamer! So schnelligkit hin oder her, das ist wie beim Sch**** vergleich. Die Bechmarks sind nicht enstscheident, 3D Mark kann mir nicht zeigen wie gut oder schlecht meine Graka in Anno1602 oder eben in Crysis läuft. Benchmarks sind für extreme Ocer und mehr nicht
Was hast du eingentlich in 3Dmark 06 gehabt? Mit 2 GTXen und der X2?
Ich bin grade hin und weg ohne witz, Crysis läuft so sauber und butterweich da geht garnix mehr, hatte im MP mit dem Gigabyte mobo, AMD phenom und der GTX 280 immer so zwischen 25 und 50 frames, alles high und 1440x900, nun mit dem Intel, EVGA mobo und der GTX 280, habe ich zwischen 40 und 70 frames, das kann doch garnicht stimmen oder ?! ich bin grade echt nur am staunen, was grade abgeht mit meinem Rechner, jemand ne ahnung woran das liegen kann ?!
EIne GTX 280, 16000, mit der X2 hatte ich 16500, und GTX 280 SLI nochnet getestet!
-Para
Bei Top Rankings in Sysprofile hatte einer mit ner X2 und QX 28000 Points da kann doch was nicht stimmen??? Oo Ein Qx kann doch nie 12k ausmachen?
Eine antwort auf meine frage wär toll
Ich bin grade hin und weg ohne witz, Crysis läuft so sauber und butterweich da geht garnix mehr, hatte im MP mit dem Gigabyte mobo, AMD phenom und der GTX 280 immer so zwischen 25 und 50 frames, alles high und 1440x900, nun mit dem Intel, EVGA mobo und der GTX 280, habe ich zwischen 40 und 70 frames, das kann doch garnicht stimmen oder ?! ich bin grade echt nur am staunen, was grade abgeht mit meinem Rechner, jemand ne ahnung woran das liegen kann ?!
-Para
ne ich mein das 2142^^ xD
ob du mich meintest^^
ne also ich denke mal bei der GT200 ist das AA und FSAA net so performancelastig^^
ist bei mir genauso wenn ich 16xQAA mache, hab ich nur 7-8 Frames weniger, bringen tuts aber, nach meiner meinung wenig ab nen 22 Zoller
- Crysis2142
Das liegt auch daran, dass Nvidia an diesen Settings etwas verändert hat. Man bekommt eigentlich nicht die Optik, die man bei 8xAA "erwartet". Es steht vielleicht 8xAA dort, aber in Wirklichkeit ist es vielleicht 4xAA.
Es gibt einen Test dazu, aber ich hab den Link nichtmehr und die mods haben diesen SPAM-Teil leider gelöscht.
Jo ich habe es grade gemerkt....
CPU 3500MHZ
all high 1280x1024 Min, 41,56. Ave 62.87 frames,Max 94,83
CPU 3800MHZ
all high 1280x1024 Min, 44,12. Ave 65.62 frames,Max 98,44
CPU 4000MHZ
all high 1280x1024 Min, 46,29. Ave 68.74 frames,Max 104.21
Das is echt mal Krank, komme aus dem staunen net mehr raus :lol::lol:;-)
Alle ergebnisse mit einer GTX280, rest Signatur ;-)
-Para
lol solche benches erreiche ich bei 1680x1050 auf very high^^
naja, ich hab auch mehr getaktet, aber ich denke soviel wiederum auch net^^
da sieht man, dass man, nach meiner meinung nur eine karte braucht für nen 19 zoller
- Crysis2142
EDIT: verguckt, sollt echt pennen gehen^^
jo das stimmt^^
na also....
ich find die werte ok, wenn das soweit ales richtig verläuft^^
aber wie gesagt, für die leistung, bei nem 19 zoller, kann man sich, denk ich mal zufrieden geben
so noch ne andere Frage
Weis einer zufällig, wo man die GT200 Techdemo finden kann bzw. ob die überhaupt zum download bereit steht
- Crysis2142
Die Medusa ? ->http://www.nzone.com/object/nzone_medusa_home.html
ahhh da gibt's ja ein dl Link =)
Sry ich glaub ich Geh gleich pennen xD
Danke nochmals für den hinweis
Was denn hier los? :lol: Kaum einen Abend mal nicht da, verpasse ich 3-4 Seiten voller Spam. Naja, ich denke, CPU Limitierung hin oder her...ich bin nur der Meinung, wer einen Monitor unter 24 Zoll hat, braucht eigentlich keine HD4870X2.
Abgesehen davon, geht es hier in diesesm Thread einzig und alleine um die GTX 260/280 und um nichts anderes! Wenn ihr eine "Aber ATI ist schneller wie NV *heul*" oder "ATI ist ******* *heul*" Diskussion machen wollt, dann bitte in einem anderen Thread.
Es muss jeder für sich entscheiden, was er bevorzugt und ich gehöre zu den Leuten, die jeglichen MultiGPU Problemen aus dem Weg gehen, mögen diese noch so schnell sein.
@ Crysis 2142 oder anderen EVGA 280GTX Besitzer
War bei dir der 8 Pin Adapter dabei?
das ging schnell.. danke :-)
Wann kommen die neuen Karten gleich wieder? Mitte 4.Quartal?
Mal wieder aus für ATI ?! Denn die GX2 ist im anmarsch, vllt schon nächsten monat :D ;-)
Geforce GTX 270, GTX 290 und GX2 im nächsten Monat
Weiteres koennt ihr hier nachlesen!
Quelle:
-Para
Oh man... jetzt nicht wieder ein "NVIDIA ist besser als ATI" geflame starten. Hier geht es um Infos und nicht darum welche Karte bzw. welcher Hersteller besser ist.
joa, mit behauptungen würde ich atm auch noch übervorsichtig sein. dann ist ma wieder namenlernen angesagt zudem :(
was ich auch ein wenig seltsam finde ist, dass es eine gtx260 gx2 geben wird und (bis anhin) keine gtx 280 oder 290gx2.
ob diese ganze palette nur nen übergang ist wieder, wäre meiner meinung nach auch miteinzubeziehen. denke da an des
bevorstehende (vor)weihnachtsgeschäft .. schaun' wir ma ..
Ist klar das dich der Preis bei deinem System nicht kümmert...aber das Forum ist nicht nur für dich da. Deshalb war dein Post überflüssig. Genau wie meiner der dir aber nur sagen soll, dass es Menschen gibt die das interessiert!! Sowie mich, bin meinem Geld ja nicht böse! Ich weiss nit ob es gut war mir meine GTX 260 zu kaufen. Ob ich damit erstmal hin komme mit den Games die so anstehen?!
rofl, lässt sich doch sowieso nicht vermeiden +g+
dafür gibts hier viel zu viele fanboys :)
ich für meinen teil kann mich da ausnehmen. ich hab bis vor etwa 2 monaten NUR Nvidia grafikkarten gehabt und bin jetzt zum ersten mal auf ati umgestiegen. Bin zwar ziemlich begeistert aber würd jetzt nicht sagen das ATI unbedingt das beste ist.
Nvidia und Ati haben beide ihr vor/nachteile
war klar das jetzt (wo die neuen Nvidias angekündigt wurden) gleich wieder "und wieder ein AUS für ATI" gesagt wird...
aber... dieses theoretische aus für ati wird sich Nvidia mal wieder sicher gut zahlen lassen... Was wird ne GX2 wohl kosten? vermutlich ein monatsgehalt von manchen...
Und auch wenn Nvidia wieder was vorlegt.. irgendwann wird auch Ati wieder was nachlegen.. und dann wieder nvidia.. dann wieder ati..
so gehts eben hin und her.. und das wird noch laaaaaaaaaaaaaaaaaaaaaaange so gehen +g+
und das is auch gut so
oh gott para -.-
Jetzt fängt das schon wieder an mit dem "ATI is kacke" :roll:
So ziemlich jeder schaut auf das P/L
Und nur weil du einer der wenigen bist deren die das nicht machen heißt es noch lange nicht dass ATI wegen dem abkackt
DIe meisten Käufer kaufen wegen gutem P/L
edit: Hab jetzt schon mein maximus 2 Formula bestellt und die GTX260@Wakü folgt bald :)
Edit by WarpSpeed: Keine Verkaufangebote -> Forumregeln beachten.
Nichtmal per PN? -.- Wann kommt denn dann endlich CryBay? *heul*
Edit by WarpSpeed: Zu CryBay, siehe hier -> Forum/Site Updates & Infos <-
jo,... das mit dem P/L war auch mein kaufgrund für die Ati 4870...
ich hatte die wahl
4870 ~196€ Brutto vs. GTX260 ~230€ Brutto
Sind zwar nur ca. 30€ unterschied, aber die 4870 is bekanntlich ja sogar schneller als die gtx260.. somit scheide die teure GTX260 schon mal aus.
dann
4870x2 ~402€
gtx280 ~380€
die 4870x2 ist schneller als die GTX280 (zumindest meistens. kommt auf den benchmark an lol)... klar gibts jetzt wieder die leute die sagen - kein wunder.. die 4870x2 hat ja auch 2 kerne..
interessiert mich das? nein, eiegntlich nicht. Tatsache ist das sie "kaum" mehr kostet aber trotzdem schneller ist.
Klar, wenn ich nicht aufs geld sehen muss nehm ich mir auch 3x GTX280... wieso auch nicht. Da weiss ich ja das ich keine probleme hab und trotzdem fette leistung bekommen. Aber so ist es nunmal nicht.. Wie "fast" jeder muss ich eben auch aufs geld sehen.. naja, müssen ist relativ.. immerhin hab ich mir nen mercedes gekauft *lol*...
trotzdem bin ich mir da zu geizig.. ich weiss ja sowieso das in 1-2 Monaten wieder ne neue grafikkarten generation kommt *g*
also warum soll ich jetzt TEUER das beste kaufen wenn ich in 1-2 monaten das selbe um die hälfte bekomme?
Und nur weil es dann nicht mehr das beste ist heisst es noch lange nicht das es zum alten eisen gehört...
daher - P/L ist den meisten wichtig!
so, nun wieder b2t
schön das Nvidia wieder was neues macht *G*
Ich hoffe mal das sie dieses mal nicht den GT200 so oft vergewaltigen wie den G92 und diesen dann ständig unter einem neuen namen verkaufen... natürlich mit "kaum" leistungszuwachs..
Schon "lustig" (oder eher traurig) aber da schreib ich, keine ATI vs. NVIDIA Posts mehr und trotzdem wird weitergmacht.
Ich will hier keine ATI vs. NVIDIA Diskussionen verbieten ABER dann bitte nicht im NVIDIA Infos/Spekulationen Thread. Ihr könnt gerne einen ATI vs. NVIDIA Thread erstellen (aber auch in einem solchen bitte sachlich bleiben!).
In diesem Sinn: :b2t:
Naja ähm ich glaub das lassen wir lieber da der Thread dann sowieso vollgespammt wird von Fanboys und das ist ja nicht Sinn und Zweck der Sache
Hab oben übrigens mal meinen Beitrag editiert ^^
Wäre schön wenn du ne antwort editieren könntest ^^
Edit by WarpSped: Habe ich gemacht :).
Ich bin ja gespannt, ob sich die neuen Karten von Nvidia gut verkaufen lassen. Mit einer GTX260 sollten eigentlich alle Spiele (inkl. FC2) gut laufen. Deswegen machen die neuen Karten NOCH keinen Sinn. Aber gut, dafür fallen die Preise:)
ich bin mal gespannt wann es wirklich ne grafikkarte mit EINER GPU gibt wo Crysis 100% flüssig läuft :)
mit Flüssig mein ich AVG 60~80fps :)
Wenn du mir erklärst, wie du das machen willst, da eine GPU heutzutage schon mehr als nur zwei Kerne hat, aber egal...
Topic: Dass NV mit der GX2 wieder die Leistungskrone zurück erobern will, ist klar und ich denke, dass werden sie auch schaffen. Nichts desto trotz habe ich kein Interesse an "unreifen" Produkten mit all ihren Nachteilen, die die Vorteile klar überwiegen.
Jap.
Ich denke auch das die GPUhersetller jetzt bald auf die Multicoreschiene aufspringen werden. Bei den CPU's hat es sich als extrem vorteilhaft erwiesen.
Natürlich auch nur wenn es von den Games supportet wird. Aber auch hier bin ich mir sicher das es bald "normal" ist das MulticoreGPU's supportet werden.
Trotzdem finde ich das sie langsam etwas aufpassen sollten.. Ich mein, die Ati4870x2 frisst bei Volllast satte ~250Watt... Und das ist doch wohl wirklich heftig oder? Soviel frisst bei einigen nichtmal der ganze PC..
Hier sollte man also wirklich etwas vordenken... immerhin wird auch der strom immer teurer :)
...
Sehr gespannt bin ich auch auf die Intel GPU die hoffentlich bald kommt... wenn intel so gut GPU's bauen kann wie CPU's - huiiiiiiiii!!! dann geht die post ab hehe
Oh man Leute, könnt ihr mir bitte erklären, wie ihr auf die Idee mit MultiCore GPU kommt? Habt ihr das aus dem CPU Lager entnommen? Wieso glauben einige hier, man könnte CPUs mit GPUs vergleichen? :roll:
@omega: Du hast dich offenbar nicht wirklich darüber informiert, dass auch die 8800GT aus 112 Kernen besteht. Shader Einheiten sind in diesem Falle die Kerne oder auch Prozessoren, wenn man so will.
oh man soll ich jetz auf eine gtx270 warten oder doch lieber die hd4870? Verdammt :(
aber ersma gucken wie die Karten abgehn :D
rofl
also die gtx270 gibts noch nicht..
und auf die 4870 brauchst nicht warten - gibts ja schon *g*
und das mit dem warten isimmer so ne sache.. wenn du immer auf die neuere generation wartest wirst du in 10 jahren noch immer keine neue haben :)
kommt ja sowieos alle 2-3 monate ne neue generation oder ne verbesserung raus *g*
Das is doch eh alles versückt, es gibt nichtmal spiele die die GTX 260 / 280 ausreitzen, wieso kommen jetzt schon iweder neue Karten ?! ich versteh die logik nicht so ganz, ich mein wer ne GTX280 hat wer kauft sich dann bitte eine GTX 290 ?! die vllt grad mal maximal 10 % schneller is wenn überhaupt..........
-Para
genau das meinte ich mit
aber das es kaum/keine spiele gibt die ne 260er oder 280er ausreizen stimmt nicht ganz.
Zum einen befinden wir uns hier in einem crysis forum +g+ - du weisst also was ich meine...
zum anderen.. derzeit sind die TFT's total am wachsen..
24"er kostetn nicht mehr viel.. um 250€ bekommst schon welche..
30"er und sogar 32"er sind im kommen und erfreuen sich natürlich zunehmender beliebtheit... und dafür braucht man dann eben ne 270er oder 290er *g*
oder 3x gtx290er ...wie man hald will...
die industrie lässt sich da schon immer wieder sachen einfallen damit man was neues "will"...
und den "penisfaktor" darfst du natürlich auch nicht vergessen
para provoziert doch nur... wie ein kleines, verspieltes Kind mit zu viel Geld (oder eben nicht zu viel, sondern nur falsch angelegt).
Zum Topic: Ich bin ebenfalls der Meinung, dass die "GX2" und "X2" und wie sie auch immer heißen mögen, aussterben werden. Funktioniert doch vorne und hinten nicht.
Und manchmal kommt es mir echt komisch vor:
Ich geb ja zu, dass ich nicht der Ultima-Nerd in sachen Hardware bin, aber wieso ist es so dass man (offenbar) in Zukunft die Grafik von CPUs (Larrabee) berechnen lässt (Raytracing - oder wie heißt das nochmal?) und die Dinge, die normalerweise CPUs berechnen jetzt auf einmal auf der Grafikkarte berechnet werden (Folding@Home etc.)?
Is doch echt paradox! Is ja so als ob ich mit nem Traktor auf der Autobahn fahre und mit nem Lamborghini Murciélago den Acker umackere!
Achso, dann entschuldige ich mich natürlich für meine vorherigen Posts.
Ich dachte das wäre das selbe wie mit den CPUs.
na wenigstens weiss para was ich mit meinem post sagen wollte *G*
war ja nicht gemeint gemeint.. aber is hald lustig wenn jemand (vermutlich hardware freak) mit einem total-highend-system meint das es voll fürn hugo is wieder neue grakas rauszubringen :)
Glaub nicht alles, was man dir erzählt. Es ist schon ein Unterschied zwischen Kernen und Streamprozessoren vorhanden.
Nach Siberian Tigers Logik sind CPUs auch schon seit Jahrzehnten Mehrkern CPUs. Alle arbeiten in einer gewissen weise parallel. Das heißt nicht, dass man es als Mehrkern Chip betrachten kann.
Genau so kann man eine GPU nicht als Mehrkern Chip betrachten, bloß weil er parallel arbeitende Recheneinheiten hat. Mehrkern heißt hier ganz speziell, dass mehrere voll funktionsfähige Recheneinheiten parallel laufen, die auch autonom funktionieren, ganz im Gegensatz zu den Streamprozessoren, ROPs, TMUs und was sonst noch alles in den GPUs ist. Die sind einzeln für sich nicht funktionsfähig.
Sie können auch nicht von dem Programmierer speziell angesprochen werden, während bei echten Mehrkern Chips der Zugriff auf spezielle Kerne möglich ist.
Nach deiner Erklärung müsste man dann aber fragen, warum die GPU Entwickler nicht schon lange MultiGPUs bauen, anstatt diese Dual GPU on PCB Lösung zu nehmen. Bei dir klingt das so ziemlich einfach, als könne man mit den GPUs dasselbe anstellen wie man es mit den CPUs schon gemacht hat, nur macht das keiner der beiden "Großen". Und nach meiner Logik sind GPUs schon seit Jahrzehnten Mehrkern Chips und nicht CPUs.
Wie gesagt. Als Kern wird für gewöhnlich ein autonom funktionierender Bestandteil eines Chips bezeichnet. Der mag sich vielleicht noch den Cache mit anderen Kernen teilen, aber grundsätzlich läuft er für sich gesehen auch einzeln.
GPUs sind so bisher nicht ausgelegt, was bei der hohen Transistoranzahl und der hohen Verlustwärme auch kein Wunder ist.
Es ist verdammt schwer die Wärme von einer GPU abzutransportieren, die 2 Milliarden oder mehr Transistoren hat. Bei den bisherigen Techniken sind die Leckströme viel zu hoch, als das man damit mehrere GPUs in ein Package packen könnte. Wir sind ja jetzt schon am Ende der Fahnenstange angekommen, was den Abtransport der Verlustwärme angeht.
Hauptsächlich wird es also fertigungstechnische Gründe haben, warum es bisher keine Multicore GPUs gegeben hat. Im CPU Bereich hingegen sieht es ja etwas anders aus. Die Strukturbreiten sind dort schon immer deutlich kleiner gewesen als bei den GPUs (meine 8800 GTS wurde noch in 90nm gefertigt, während mein gleichzeitig erworbener E6600 schon in 65 nm gefertigt wurde). CPUs waren immer schon deutlich besser zu kühlen, da sie auch nciht so komplex waren wie GPUs und dort war es auch kein Problem mehrere Kerne in ein Package oder auf ein Die zu packen.
GPUs haben erst in den letzten Jahren extrem aufgeholt, was geringere Strukturbreiten angeht und jetzt werden auch hier Multicore GPUs möglich sein.
Das ist jetzt mal meine Vermutung, warum es so lange gedauert hat, bis es echte Multicore GPUs gab und man bisher nur auf mehrere GPUs auf einem PCB gesetzt hat. Genau weiß ich es natürlich auch nicht, warum und wie sich die Hersteller entscheiden ihre Chips zu entwickeln.
280GTX für 258€:
http://web.hoh.de/hoh/(S(y31c4w550kkkiy45pib52355))/default.aspx?IT=74414&CT=6855&TY=2&ST=1
Wenn der Link nicht funktioniert einfach auf www.hoh.de gehen und bei Produktsuche "Galaxy 280GTX" eingeben
Ich sag nur sogut wie gekauft :P
Ich hab mal eine bestellt. Der Shop ist sicher (laut den Testberichten). Könnte sich höchstens wieder um einen Tippfehler handeln, aber die Daten sind eigentlich mit einer "normalen" GTX280 völlig identisch.
Entweder die anderen Händler ziehen nach, oder die Karte ist sehr schnell ausverkauft^^
Trifft sich gut, gerade jetzt wo FC2 kommt *freu*
"Leider gab es hierzu einen Preisfehler bei der Übermittlung der Daten in unser Shopsystem. Wir können die Grafikkarte leider nicht zum ursprünglich angegebenen Preis beziehen. Aus diesem Grund mussten wir den Auftrag stornieren.
Als kleine Entschädigung möchten wir Ihnen den Artikel aber anstelle des vollen Preises von 357,90 für 349,- anbieten"
Ich hoffe, dass noch niemand bestellt hat. Naja, damit musste man rechnen8)
So und wieder mal ein kleines Hardware Update von meiner Seite aus
Ich bin jetzt stolzer Besitzer eine EVGA GTX 260
Ich denke am Freitag hab ich sie
Und dann fehlt nur noch der Aquagrafx :)
Der wird vernickelt
Ey hau mich weg ^^
Gerade eben kam meine EVGA GTX260 soweit alles gut
Nur jetzt kommt der Knaller :D
Der Garantieaufkleber der eigentlich über der einten Schraube sein sollte sitzt ein Stück nebendran und so kann ich die Schrauben alle lösen ohne die garantie zu verlieren und somit den Aufkleber zu beschädigen ^^
Hammer :D
Mein Aquagrafx kann kommen :aua: