Archiv verlassen und diese Seite im Standarddesign anzeigen : Grafikkarten (allgemeine Diskussion)
Na nun lass mich doch mal, ich mein ich bin gespannt was der R600 so bringt, aber ich muß sagfen ich bleib lieber Nvidia treu und ärger die AMDler bzw ATIler n bissl ^^
Hoffe nur es kommt zu einem Duell zwischen dem G81 und dem R600 weil das wäre fair...
jetzt bitte nich wieder anfangen zu diskutieren, das haten wir schon 8) [/b]
Kaktus79
02.02.2007, 18:01
Ich finde es generell gut wen man zwei Gleichwertige Kandidaten hat. Das macht es spannender. Wäre ja doof wen nur eine Marke klar vorne liegen würde in allen belangen.
Das ist das gleiche wie Intel und AMD. In der Hoffnung das mit dem K8L die Leistung wieder gleich zieht und man dann wieder als Kunden den Vorteil des Preiskampfes genießt.
Dieses spezielle Marken Fanboy gehabe finde ich albern. Sicher hat jeder seine Vorlieben, meine ist derzeit ATI, aber wen nVidia mehr fürs Geld bietet kommt eine nVidia Karte in den Rechner. Fertig.
So sehe ich das ja auch, aber bedenke das viele ATI Fanboys/girls den R600 mit der fast 4monate älteren 8800GTX gleich sezten wollen und ich finde das geht nich, deswegen fand ich das hier so amüsant zu lesen 8)
Also direkter Fan von Nvidia bezeichne ich mich auch nich, aber ich habe halt hier die besten erfahrungen gemacht und diese karten waren mir immer treu, ich habe in 4 jahren schon meine 11te oder 12te GraKa und da war nur eine ATI dabei, diese eine hatte im 2D betrieb so schlechte Bildquali das ich es nicht mehr wagen werde mir so eine in den rechner schieb. Gut eine sagt nich viel über alles aus, aber das hatte ich bei Nvidia bisher noch nie!
Kaktus79
02.02.2007, 18:16
11-12 Grafikkarten in 4 Jahren? Dann hattest du ja fast mehr Grafikkarten in dieser Zeit als ich in 14 Jahren Hardware Geschichte :lol:
Naja, bin auch kein Hardcore Gamer.
Hatte alles Mögliche an Karten. Von ATI über nVidia, 3Dfx, Zeng Labs (das dürfte kaum jemand kennen) ... alles kreuz und quer. Alle hatten ihre Vor und Nachteile.
Allerdings geht nichts über die damalige Voodoo1 oder 2! Damit konnte sich außer Power VR niemand messen. Aber egal, jedem das seine. Ich kann nicht behaupten das die eine oder andere Firma besser oder schlechter ist. Mal ist es so, mal so!
jepp so ist es, nur jeder macht so seine eigenen Erfahrungen, das einmal der die nase vorn hat oder auch mal der ist ganz klar.
Intel hat AMD ja auch ordenlich eingeheitzt mit ihren Core2Duo's allein aus diesem Preis-Leistungs verhältniss bin ich über auf Intel gegangen!
....
Was vor 4 jahren war kann ich dir nicht sagen da ich mich erst seid meinem ersten eigenen Rechner (vor 4jahren) intensiv mit Hardware usw auseinander setze, seid dem verfolge ich aber alles was ich kriegen kann und versuche es zu verstehen, ich denk das hab ich ganz gut drauf. Vor allem bin ich hier bei meinen Kollegen (auch schonmal in einem Forum aber nich so oft) schon gut gefragt wenn es um PC Komponenten geht und diese auch eingebaut oder in ein anderes Gehäuse rein sollen. Das macht es mir klar das ich nicht falsch liege und es doch gut gelernt habe damit umzugehen. Bin ich schon etwas stolz drauf ^^
EDIT:
jaaaa ich bin extrem Zocker und geil auf gute Grafik ^^
Kaktus79
02.02.2007, 18:33
Man könnte Gegen argumentieren das Intel aber auch 3 Jahre gebraucht hat um eine schnellere CPU als AMD zu präsentieren. :wink:
Und der Vorsprung von AMD könnte ende diesen Jahres schon vorbei sein. Das sollte man alles nicht auf die Goldwaage legen. Es wäre genauso falsch zu sagen, Der Intel Sockel ist Zukunftsträchtiger. Zwar bleibt der Sockel schon länger der gleiche, aber um die neuen CPUs zu nutzen braucht man trotzdem neue Boards.. Thema Spannungswandler und Chipsätze. Also eigentlich alles Humbug.
Ich seh das immer so.... wen ich was "jetzt" brauche.. dann such ich mir das Beste aus, egal von wem und gut ist.
Und nur weil man einmal ins Klo gegriffen hat kann man nicht sagen das alles davon schlecht ist. Andererseits kenne ich das von der Speicher Marke Kingston. In meinen 14 Jahren hatte ich nie so häufig Probleme mit Speichern wie damit, egal welche, egal auf welchen Boards.... zum verrückt werden. Verbaue bei niemanden mehr diese Dinger. Also schon richtig wen man dann empfindlich wirt.
Rechner zusammen zu bauen und zu beraten ist eigentlich nicht so schwer. Schwer wird es bei Sonderwünschen. Für einen Spielerechner gibt es quasi genügend Vorgaben und Vergleiche. Aber stell mal einen Spielerechner komplett für 600€ zusammen. Also mit Gehäuse und sämtlichen Laufwerken. Oder einen Office PC für weniger als 400€, und dieser soll auch noch absolut leise sein. Das sind Sachen die mir mittlerweile mehr Spaß machen.
genau diese sachen meine ich ja, letztens hat mir einer n budget von 800€ gegeben und ich sollte einen rechner zusammen zimmern der füe alles gut zu gebrauchen war... innerhalb einer woche (Montag - Freitag bedenke lieferzeit und arbeiten gehen) hatte er ihn komplett fertig und sauber zuhause stehen, leise und mit neuem Gehäuse etc!!! Er war voll zufrieden!
Wenn ich euch nen Tipp geben darf, bestellt net bei Ultraforce die sind von Pandaro und lest mal was da so abgeht einfach bei google eingeben!
*Also dafür das die vom fach sein sollten... statt 3-4tage lieferzeit hab ich 4-5wochen gewartet...*kopfschüttel ... da hab ich als "laie" also gegenüber dennen so derb grobe fehler gefunden das mir echt die galle hoch kam... ne WaKü und CPU Temps von mal eben 85° weil die Wärmeleitpaste (metall) net richtig verteilt wurde usw... warte immer noch auf meine GraKa die am Montag los geschickt wurde wegen baufehler (falscher wiedersatnd auf der 8800GTX)... die wollten die neue erst irgenwann nächste woche schicken... da hab ich nen aufstand gemacht!*
Also ich weiß das ich die nächsten Rechner wieder selbst zusammen bau... da weiß ich wenigstens das es läuft!
Und wie du eben schon geschrieben hast im moment ist es Intel und dann wieder AMD aber ich hab mich JETZT für intel entschieden.. der hat auch gut spielraum nach oben... von 2,4GHz auf 3,6GHz das reciht für die nächsten jahre...
Und die 8800GTX wird gegen die neue G81er ausgetauscht wenn es sich lohnt!
Der R600 wenn das so ein überflieger wird könnte dann evtl auch in meinem stecken, habe ja nich behauptet das AMD/ATI nur schlechte sachen macht :wink:
Andererseits kenne ich das von der Speicher Marke Kingston. In meinen 14 Jahren hatte ich nie so häufig Probleme mit Speichern wie damit, egal welche, egal auf welchen Boards.... zum verrückt werden. Verbaue bei niemanden mehr diese Dinger.
hmm und von denen wollt ich eigentlich rams kaufen demnaechst :?
Kaktus79
02.02.2007, 19:21
Ich wollte dir nichts Vorwerfen.... :wink:
Ich würde mir Jetzt auch eher einen Intel kaufen, zumindest für einen Spielerechner. Wer einen möglichst Sparsamen Rechner haben will bekommt einen X2 3800EE samt VIA Chipsatz. Diese Kombination schlägt derzeit fast alles in Sachen Stromsparen. Den die nVidia Chipsätze verbrauchen fast 30W mehr als ein VIA Chip. Das ist ne Menge. Auch funktioniert Cool&Quiet wesentlich Effektiver als Intels Pendant dazu.
Man muss einfach abwägen was man braucht, das ist alles.
Ich versteh nciht wie einem eine 8800GTX nicht reichen kann. Der G81 wird sicherlich nichts weiter als ein kleines Update sein mit vielleicht 10-15% Mehr Leistung. Und selbst wen der R600 Tatsächlich die gemunkelten und unter der Hand bestätigten 30-40% Mehrleistung (keine Garantie darauf, nur Gerüchte von verschiedenen Quellen) bietet, wäre ein tausch in meinen Augen einfach Sinnlos. Du hast einen 19" TFT mit einer Optimalen Auflösung von 1280x1024, da macht eine schnellere Karte gar keinen Sinn.
Ich selbst kaufe eigentlich alles nur noch bei Mindfactory. Da habe ich bisher den besten und schnellsten Liferservice gehabt. Auch auf Fragen wurde immer Promt geantwortet. Aber es gibt so viele gute Lieferanten. Mad-Moxx ist auch gut dabei. Alternate könnte ich erwürgen :evil:
Ansonsten habe ich noch ein paar Freunde über die ich Hardware beziehe.
Hardware ist ein schnelles Thema. Heute neu morgen .... naja..... :cry:
Ich bin Glücklich mit meinem System, es läuft alles so wie ich es will... Spiele sind Zweitrangig. Und der Hardware Hype um Crysis wird sich auch noch legen wen es raus ist. Ich denke nicht das die Anforderungen so exorbital werden. Das könnten sich die Entwickler gar nicht leisten. Wen die MAsse es nicht spielen könnte würden die einen herben Verlust einfahren. Und das Geld sitzt nicht locker genug als das jeder sich eine 330€ Grafikkarte kaufen kann, von der Restlichen Hardware ganz zu schweigen. Und auf den bisherigen Bildern und Videos (In Game) habe ich zwar geniale Grafik gesehen, aber wirklich viele DX10 Effekte gabs da nicht. KOmmt mir eher wie ein DX9 Spiel vor das hier und da mit ein paar schönen DX10 Effekten aufgewertet wurde. Da sieht Allen Wake deutlich besser aus. Bisher :wink:
@Hisoka
#Las dich nicht von meiner Aussage abschrecken. Ich hatte die Probleme hauptsächlich mit MSI Boards und es ist schon ne weile her. Nur kaufe ich sie seid dem einfach nicht mehr, schon gar nicht für Kunden. Meine Bevorzugten Marken sind hier: OCZ, Crucial, Corsair und für die Insider Mushkin! Damit hatte ich noch nie Probleme. Wobei OCZ mittlerweile ein par Probleme auf ein paar Probleme auf Asus Boards zu haben schein, ist aber eher die Ausnahme!
also ich bin nunmal Grafik geil und da die CPU jetzt unter DX10 entlastet wird und die GraKa da mehr rechenleistung bringen muß werd ich wohl oder übel umsteigen weil ich IMMER mit AA und AF spiele weil es einfach besser ausschaut 8)
Ob der R600 wirklich diese 30-40% mehr leistung hat liegt allein daran das er (wenn es so ist) mit GDDR4 bestückt ist! Da hat er wesentlich mehr an datenaustausch wie mit GDDR3 dazu kommt das der R600 ja gleich 1Gig davon besitzen soll, das sind nochmal mehr wie Nvidias G80...
Aber Nvidia hat da was gebastelt glaub ich...
Der R600 hat ja laut diverser aussagen 1x6pol und einmal 8pol anschluß richtig?!
Schonmal genau auf die G80 Platine geschaut... die hat 2x6pol anschluß ABER... wenn man genau hinschaut gibt es noch zwei weitere (ich sach das jetzt mal so) "löcher" worauf schließen läst das sich hier auch 1x6pol und 1x8pol drauf bauen läst ^^
Kaktus79
02.02.2007, 19:43
Oh, jetzt bin ich überfragt. Hab mir die Stromstecker nicht angesehen. Allerdings erzielt man Mehrleistung kaum noch mit einer höheren Speicherbandbreite und schon gar nicht mit mehr Grafikspeicher. Selbst derzeit gibt es kaum ein Spiel das mit 512MB etwas anfangen kann, das spielt erst eine Rolle ab Auflösungen von 1600x1200 und aufwärts, was kaum jemand verwendet und auf den meisten Monitoren auch gar nicht zu empfehlen ist.
Der R600 ist ja generell etwas anderes aufgebaut und die 30-40% sind noch nicht bestätigt, sondern nur Gerüchte. Realistisch rechne ich eher mit ca. 20%, bedingt auch durch die längere Enwicklungszeit. Wäre ja Peinlich wen der R600 nicht schneller wäre.
Das nVidia da was gebastetlt hat, erwarte das nicht, es stimmt nicht. nVidia bastelt erstmal daran die gewinnbringenden Karten auszubauen, und das sind nun mal die Einsteigerkarten für den OEM Bereich. Die High End Karten bringen keinen Gewinn sondern nur Prestige.
nVidia ist auch gar nicht in Zugzwang, sie haben ja fast 6 Monate Vorsprung und können sich etwas zurück lehnen. ATI muss was bringen, dann wird nVidia einfach mit leichten Verbesserungen Kontern. DDR4 wäre hier ein Thema für nVidia.
Aber erstmal abwarten. Sicher kann man nie wirklich sein.
deswegen mein ich ja das die platinen des G80 ausbaufähig sind! Wer weiß was die machen und Nvidia wird schon am nächsten chip arbeiten sonst gingen ja nich wieder so gerüchte um die nächste generation rum!
Der R600 wird denk ich doch durch seine Speicherbandbreite und die daraus resultierende Speicheranbindung mehr leistung raus holen. Vor allem taktet der GDDR4 höher als der GDDR3.
zu deiner Auflösung, alles läuft heutzutage darauf hinaus, HardcoreGamer wollen auch hohe Auflösung RIESEN bild etc.... Mein Monitor reicht mir auch nicht wirklich hätte da gern was größeres aber erstmal hab ich mir den PC gegönnt dann kommt später der neue 21" oder größere TFT :twisted:
So wie ich das gehört hab kommt der R600 am anfang nur mit GDDR3 raus und danach wirt auf GDDR4 umgerüstet.
21"? Mikrich bei den Karten ist 24"+ angesagt !
Kaktus79
02.02.2007, 19:59
Verrückter.
Das wäre mir das Geld nicht Wert. Da fahre ich lieber mit meiner Freundin in den Urlaub, geh ein paar mal mehr ins Theater oder tu sonst was. Aber jedem das seine. Irgendjemand muss die teuren Dinger ja kaufen :lol:
Die Gerüchte gehen immer und überall herum. Aber der "neue" Chip wird nur ein lauer Aufguss sein, so wie es bisher immer war. Was wirklich neues oder viel schnelleres wirst du nicht sehen. Nicht vor Ende diesen Jahres.
Und nochma. Ob z.B. die 8800GTX eine Speicherbandbreite von, wie jetzt, 86,4GB/sec hat oder 70GB/sec, würde in der Leistung so gut wie keinen Unterschied machen, da diese riesige Bandbreite gar nicht genutzt wird. Deshalb ist eine X1950XTX auch nicht viel schneller als eine X1900XTX, obwohl sich hier die Bandbreite um fast 15GB/sec unterscheidet, zugunsten der X1950XTX!
Wirt die volle Bandbreite von der 8800GTX auch mit DX10 nicht ausgelastet?
Wenn nein: Warum macht sich NV (oder ATI) dann soviel mühe immer größere Bandbreiten zu entwickeln?
Das verstehe ich nich!
Wegen den Monitoren:
Ich würde mir einen großen Monitor nicht nur zum Spielen holen.
Ich arbeite öfters mal mit Photoshop o.ä. , da ist eine schöne große Arbeitzfläche eig. immer sehr angebrecht.
Kaktus79
02.02.2007, 20:08
Dies Bandbreiten werden erst in sehr hohen Auflösungen mit hohem AA und FFA genutzt. Dann macht das Sinn. Aber dann muss man schon in Auflösungen Jenseits von 1280x 1024 spielen. Sinnvoller wäre hier 1600x1200 als Mindestmaß zu nehmen. Das ist ja auch der Knackpunkt beim Grafikspeicher allgemein. Was kaum jemand versteht ist, das 512MB Grafikspeicher bei 1280x1024 völlig Unnötig sind.
Sicher ist Speicherbandbreite wichtig und auch oft ein Knackpunkt in der Leistung, aber in den Gefilden in dem sich eine 8800GTX bewegt ist das halt nur in extremen Auflösungen interessant.....
Da gebe ich Cellux recht, die Bandbreiten sowie die menge der speicher werden immer größer und größer... wir reden hier von einer neuen architektur, die Speicher der heutigen GraKas (sprcih DX10) werden auch für die Streamprozessoren genutzt denke ich...
ich weiß nur soviel, das die GraKa jetzt anhand der Treiber durch DX10 selber entscheiden kann wieviel Ram für Shader oder auch für dies oder das genutzt wird... dazu kommt die Physik berechnung die auch teilweise auf die Grafikkarten ausgelegt wird... daher mehr Speicher für die Grafikkarten :wink:
Das wirkt sich bei DX9 nicht aus, das ist mir klar aber der R600 wird halt auch eine DX10 karte vn daher wird er auch unter DX9 eine beachtliche leistung erbringen durch eben des hohen Speicher ...
Kaktus79
02.02.2007, 20:29
Jetzt bin ich aber mal Neugierig... was glaubt ihr den was SM4 oder DX10 genau ist? ICh habe das gefühl das ihr das irgendwie falsch verstanden habt. Eigentlich ist DX10 nichts weiter als ein erweitertes DX9. Und zwar lediglich in der Form das Vertex und PixelShader nicht mehr getrennt sind und nun völig Frei zur Verfügung stehen. Durch den einfacheren Aufbau können Shader schlichtweg einfacher und Vielfältiger genutzt werden, mehr nicht. Das ist alles. Neue Effekte gibt es unter DX10 nicht, alles gabs schon unter DX9, nur das hier das Problem bestand das durch den komplexeren Aufbau der Shader die Effekte nicht gezeigt werden konnten, weil der Aufwand so viel Performance kostet das sich dann nix mehr auf dem Schirm getan hätte. Einen neuen Effekt gibt es schlichtweg nicht.
Zudem wird die Physikberechnung entweder auf den zweiten Core ausgelagert oder auf eine Separate Grafikkarte, ansonsten bleibt es da auch wie gehabt. Einen festen Standard gibts es noch nicht. Welcher der drei bisherigen Ansätze sich durchsetzen wird, ist noch offen.
Speicherbandbreite hin oder her, derzeit dürfte die reine Shaderleistung wichtiger sein, und Shader verbrauchen nicht viel Speicher da sie in Echtzeit eingefügt werden.
damals waren Vertex und pixelshader auch auf Hardware getrennt, erst durch die DX10 Architektur wurde das frei und nun ist es der GraKa möglich mehr für diesen oder jenen shader zu nutzen dazu gehört auch der Ram!!! damit sich das ganze prog treiber sowie hardware entscheiden können wieviel sie für was nutzen... eben diese nutzt auch der R600
Kaktus79
02.02.2007, 20:42
Der Ram ist schon immer frei Verfügbar und hat nichts mit der GPU direkt zu tun. Es ist lediglich ein Auslagerungsplatz... merh nicht.. und ist es jetzt mit DX10 auch nicht mehr. Oder was meinst du mit "damit sich das ganze prog treiber sowie hardware entscheiden können wieviel sie für was nutzen"
Das konnten die Treiber oder das Prog oder was auch immer schon seid der ersten Grafikkarte mit eigenem Speicher.
Nein die Vertex und Pixelshader waren damals festgelegt wie du selbst geschrieben hast und somit konnte keins eigenständig entscheiden wieviel Speicherplatz usw benutz werden kann... wie gesagt durch DX10 enstehen nich neue Effekte sondern bessere weil hier unabhängig Pixel und VertexShader berechnet werden können bzw zusammen.
wodurch sonst kann DX10 so hohe feine Partikel oder auch effkete in höherer anzahl schneller berechnen lassen als DX9.0c
lol ich glaub man kann den Thread Namen umbenennen wen ich so sehe über was hier gesprochen wird^^
Kaktus79
02.02.2007, 20:52
:lol:
Ok, warte, du verdrehst hier etwas.
Richtig, die Shader können jetzt frei verwendet werden, das Programm kann sagen welche Shaderberechnung es haben möchte und alle Shader können sich darauf einstellen.
Aber, das hat nichts aber rein gar nichts, mit dem Grafikspeicher zu tun. Das Bild das die Shader Bearbeiten liegt im Speicher, allerdings ist hier die Größe des Bildes und der Aufwand ausschlaggebend wie viel Speicher verwendet wird. Pro Bild gibts eine Rechnpipeline, diese Pipeline besteht aus viel mehr Rechenschritten als die Shader, die lediglich ein kleinen Teil darstellen. Diese können in keinsterweise sagen sie wollen so oder so viel Speicher haben, da sie innerhalb der Operation nur ein kleiner Teilbereich sind, wichtig, sicherlich, aber eben nur ein Schritt von vielen.
Kannst hier mal lesen, vielleciht drücken die es versändlicher aus: http://de.wikipedia.org/wiki/Shader#Verarbeitungskette
Selbst derzeit gibt es kaum ein Spiel das mit 512MB etwas anfangen kann,
- TES Oblivion
- Flight Simulator X
- Rainbow 6 Vegas
und alle anderen schlecht programmierten Spiele... (Gothic3)
Titel die bald kommen zählen wir mal auch dazu: Alan Wake, Bioshock S.T.A.L.K.E.R. Crysis u.A.
Kaktus79
02.02.2007, 21:05
Aber das alles erst ab Auflösungen jenseits von 1280x1024! Zumal in dieser speziellen Auflösung der Vorsprung bei den Karten Marginal bis kaum Vorhanden ist. Oder hast du Benchs die das Gegenteil zeigen? Mir sind keine bekannt, aber ich lasse mich gerne eines besseren belehren.
ich weiß schon was du meinst, aber dann sag mir warum beide unternehmen sowohl Nvidia wie auch AMD/ATI immer mehr Speicher auf eine GraKa packen, die gängiste auflösung ist heutzutage immer noch 1024x768 der trend geht aber in richtung 1280x1024 oder auch widescreen. Jedoch bringt laut deiner aussage der ganze speicherkram erst ab 1600x1200 etwas... warum sollten die also (sagen wir z.B.) 1Gig ram auf eine GraKa packen und dann auch noch gleich GDDR4?! Es hängt eingeutig mit der Physik berechnung etc zusammen... Nvidia entwickelt bzw hat schon eine art Quad-SLI (wird allem anschein nach auf der diesjähriegen Cebit vorgstellt) und hiermit können die ersten beiden GraKas oder auch die ersten 3 Grafiken berechenen und die 4te wird dazu genutzt um Physik teile im Spiel zu berechnen. Das ist deshalb so weil eine GraKa wesentlich mehr berechnen kann als eine CPU... Daher auch der Trend in richtung GPGPU!!! Also ein Prozessor mit CPU und GPU in einem. Ich habe mal gelesen das Nvidias G80 kurz davor ist um x86 befehle auszuführen, bei bestimmter Programmierung (edit: bzw. bestimmten vorraussetzungen) wäre es möglich, die Grafikkarte alleine ein komplexes 3D Programm zum erstellen von Grafiken berechnen zu lassen. allein durch die tatsache das die G80 Platinen 128 StreamPROZESSOREN besitzen mit jeweils 1,3GHz. Das ist nahe dran an einer CPU-GPU einheit! Es hieß sogar das Nvidia sich hier ein patent geben lassen sollte.
PS.: Das war keine chinesische seite ^^
Aber das alles erst ab Auflösungen jenseits von 1280x1024!
nicht wirklich, also nicht bei FSX und Rainbow 6 Vegas...
Und ich rede hier auch über kommende Spiele.
Kaufst du dir etwa im April eine 256 MB Karte um im laufe des Jahres dir eine 512 MB oder mehr zu kaufen?
PS.: Das war keine chinesische seite ^^
http://www.beareyes.com.cn/2/lib/200701/02/20070102054_2.htm
PS.: Das war keine chinesische seite ^^
http://www.beareyes.com.cn/2/lib/200701/02/20070102054_2.htm
ey na warte wenn ich dich kriege..... ^^
ich such mal die seite mom
also ich weiß nur das es mit Nvidias CUDA technologie zu tun hat die mit dem G80 mit drin ist
Ui.. langsam wird es schwierig.... *g*!
Wo fang ich an......
Speicher:
Sicher ist schnellerer Speicher wichtig, keine Frage, es geht mir auch mehr um die größe des Speichers der ungenutzt bleibt. Im ernst, es ist eher ein Marketing Trick als wirklich nützlich. Keiner würde heute einem Hersteller glauben das seine Karte eine High End Karte ist wen sie nur 256MB Speicher hätte. Es gibt ja auch eine X1600pro mit 512MB, was ja auch völlig Witzlos ist. Bei den super High End Karten ist es so, da diese für enorme Auflösungen gebaut werden und da auch der Speicher genutzt wird. Man geht einfach davon aus das der Hardcore Gamer Auflösungen ab 1600x1200 fährt, tun ja auch viele, aber eben nicht alle. Man wird demnächst sehen was ich meine, wen die 8800GTS mit 320MB auf den Markt kommt. Diese mit der aktuellen 640MB Version verglichen wird man erst Unterschiede in höheren Auflösungen sehen.
Die Speicherbandbreite an sich wirkt sich nur aus wen die GPU aus mitziehen kann. Und eine 8800GTX dürfte bei dieser Speicherbandbreite schon ziemlich ausgeschöpft sein. Einfach nur den Speichertakt zu erhöhen wird kaum etwas bringen wen man nicht parallel den GPU Takt mit erhöht. Das muss im Gleichgewicht sein. Ich habe meine X1900GT im Speichertakt höher als eine X1900XT, aber es bringt mir eigentlich nichts ob ich diesen mit 1400Mhz oder 1640Mhz laufen lasse, einfach weil die GPU nicht mehr mitkommt, so sieht es auch ähnlich bei der 8800GTX und 8800GTS aus.
Quad SLI!
Für was ist das den genau ausgelegt? Für 1280x1024? Bestimmt nicht. Es ist die Möglichkeit extrem hohe Auflösungen flüssig darzustellen, bei den Standard Auflösungen macht SLI kaum Sinn, da das System völlig unterfordert ist. Die Sache mit der Physik Berechnung auf einer Seperaten Grafikkarte ist noch ein wenig Zukunftsmusik und wird bisher nicht unterstützt. Wünschenswert wäre diese Lösung für High End Gamer sicherlich, da die wichtige Floting Point Berechnung bei einer Grafikkarte teilweise um da 20ig Fache höher ist als bei einer CPU die dafür schlichtweg nicht ausgelegt ist. Eine kleine zweite oder dritte Grafikkarte kölnnte diese Berechnung spielend übernehmen, richtig. Aber es hat sich noch nicht durchgesetzt. Abwarten. Ich hoffe es, den es hat mehr Vorteile als eine PhysikX Karte, die lediglich Effektphysik darstellen kann und keine echte Spielephysik, was in meinen Augen etwas erbärmlich ist.
So.. hab ich was vergessen? Das Thema wird immer größer :lol:
Achja.. das nVidias G80 GPU schon ziemlich einer CPU ähnelt ist bekannt.... aber das sagt kaum etwas über die Leistung aus. Nur das man Theoretisch die GPU als CPU verwenden könnte.. zumindest fast. Einige überhebliche Fachleute munkeln das nVidia ins CPU Geschäft will. Bedenkt man aber wie winzig die Reccourcen nVidias im Gegensatz zu AMD oder Intel sind, ziemlich unwahrscheinlich. ATI war für AMD auch nur ein etwas größerer Einkauf, der aber aus der Portotasche bezahlt wurde. :wink:
danke foofi... knutschaaaa....
so also ich habe dir denn link oben gepostet und das ist wirklich so das Nvidias G80 die Physik in Spielen übernehmen kann, das ist auchschon länger bekannt unter dem namen HAVOK richtig?!
Was meinst du wofür Havok ausgelegt ist, das sich die GPU nen teil davon schnappt und es mit berechnet!!! CRYSIS wird laut aussage von Jevat keine AGAIA PHYSIKS karten unterstützen bzw brauchen. Wenn ich das interview weiter richtig verfolgt habe wird die 2te oder dritte GraKa durch Cry Physik entwickelung genutzt! bzw kann dafür benutzt werden.
Wenn ich die möglichkeit hätte eine 8800GTX mit 256MB 512MB und auch 768MB zu testen würde schon auffallen auch bei "nur" 1240x1028 mit AA und AF auf höchste einstellungen und qualitätsstufe die unteren GraKas völligst brach liegen und der bench schlechter ausfällt!
EDIT:
hey foofi eine nachricht hast du vergessen... *grummel*
hier z.B. ein Interview mit Nvidia:
http://www.beat.de/~beatdownload/beat_0207_behind_the_news_nvidia_interview.pdf
bitte genau lesen 8)
Kaktus79
02.02.2007, 21:45
@foofi
Nein, ich würde mir bei einer High End Karte Sicherlich auch eine Grafikkarte mit 512MB anstatt 256MB kaufen, dann aber auch die entsprechenden Auflösungen und Einstellungen fahren, logisch. Es ist einfach nur die Frage ab wann macht es Sinn.
AA und FFA sind ja ebenfalls Speicherfresser. Wen ich in 1280x1024 8xAA und 16xFFA Aktiviere wird es sicher eng. Ich gehe aber von den üblichen Einstellungen aus: 4xAA und 8x FFA, da fallen die Unterschiede sehr gering aus. Gering sind bei mir 5%!
@dapalme
Die Hovak Physik Berechnung ist keine nVidia Erfindung sondern von einer eigenständigen Firma. Die Vorraussetzung um diese Engine zu unterstützen ist DX10 mit Unfinied Shader wie es auch der R600 haben wird. Hier was zum lesen: http://de.wikipedia.org/wiki/Havok
Man kann die neuen Shader auch als Physik Shader verwenden, das ist alles. Und das ist schon lange bekannt, also keine Besonderheit sondern einer der Grundvorrausetzungen für DX10 und das zusammen legen der Shader, da eine dritte Shader Unit dann doch ein bisschen viel des guten gewesen wäre.
Und zum Speicher.. warten wir ab wie die 8800GTS mit 320MB gegen die mit 640MB abschneiden wird. Ich Prophezeie dir das du in Auflösungen bis 1280x1024 keine großen Unterschiede sehen wirst. Damit meine ich wieder die 5%!
Ich sach doch nich das Nvidia HAVOK erfunden hat hallo ^^ ich sagte das es HAVOK gibt und die Graka das mit brechnen zu kann!
Aber ich sage dir das ich IMMER mit vollen auflösungen fahre 16xAA, 16xAF, 1240x1024 dazu im treiber auf Qualität eingestellt und Transparents AA Multi....
So und nun ist mein Speicher auf der GraKa auch gut ausgelastet...
siehe da, 768MB GDDR3 bringen doch mehr als alles was drunter liegt... du redest hier mit jemandem der Fanatisch auf geile Grafik ist... überleg doch mal wenn ich in 4jahren 12 Grafikkarten hatte... eine besser wie die andere, meinst du die hab ich mir alle zerschossen ^^
Ich muß das einfach alles hoch haben sonst macht mir das zocken kein spaß ^^ es gefällt mir dann nich wie da so treppen effeckte sind usw...
manche Spiele unterstützen kein HDR und AA gleichzeitig, dann mach ich das alles im Treiber hoch und gut ^^
Kaktus79
02.02.2007, 21:56
:lol: Ok.. ich hatte vergessen das ich hier jemanden mit einem Knall vor mir habe :lol: (Nicht böse gemeint)
So gesehen ja, ich gehe immer von normalen High End Spielern aus.
Für mich kam das so rüber als ob du meintest das Havok speziell was von nVidia ist. Habe ich falsch verstanden, sorry.
Ich bin seid über 30 Stunden auf den Beinen... *g*... da ist Konzentration ziemlich schwierig.
Naja.... ich würde auf die ganze Grafik verzichten wen mal wieder ein Spiel mit Intelligenz und super Story auf den Markt kommen würde. Da könnten wir gerne wieder bei 2D anfangen. Mir hängen die Sprüche von immer besserer Grafik langsam zum hals raus.
kann ich leider nich nich nach voll ziehen... für mich wird ein spiel dann interessant wenn die Grafik, die Story und die im Spiel intigrierte Physik gut sind...
CRYSIS!!!
dieses spiel hat es mir so dermassen angetan das ich nicht von los komme...
ich habe schonmal geschrieben das ich nicht mal nen gegner bräuchte wenn die Physik so gut sind wie sie in den Videos zu sehen sind...
warum?!
ganz einfach es würde mir spaß machen die ganze gegend klein zu machen und die ganze Physik im spiel zu testen! Ob da jetzt n typ is den ich umhauen muß oder nich ist mir egal... der steht mir in dm moment nur im weg... Shooter zocke ich echt nur gerne weil hier die Grafik am besten rüber kommt!!!
und dafür brauche ich nen High End Rechner mit wirklich guter Power... selbst wenn ich nächstes jahr nochmal aufrüste und Crysis dann nochmal zocke..
Jevat hatte mal gesagt CRYSIS wird in einem Jahr mir neuer Hardware noch besser aussehen... ich denke weil die heutige Hardware nicht genug Power hat um das ganze mit hohem AA und AF zu zocken! Dafür ist der Speicher der GraKa zu klein...
PS.: ich nehm dir das nich übel ^^ (wir klären das wie männer *lol)
und hau dich mal ne runde auf's ohr *gg
Kaktus79
02.02.2007, 22:10
Dann gehörst du aber einer seltenen Rasse an.
Grafik und Physik sind für mich absolut Zweitrangig. Wens gut aussieht, schön, aber ansonsten.... uninteressant. Ich bin von Crysis auch noch nicht überzeugt, mal sehen.
Ich bin auch kein Shooter Fan. Einziger Shooter den ich sehr häufig spiele ist BF 2142 wegen dem Mulitplayer Gemetzel. Ansonsten spiele ich eh fast gar nicht. Da mich das meiste langweilt.
Und ob ich in 1280x1024 4xAA und 8xFFA spiele oder das ganze in 8XAA und 16xFFA juckt mich nicht. Den Unterschied sehe ich nicht einmal. UNd ich kann dir auch Garantieren das es Ende des Jahres bessere Grafiknüller geben wird als Crysis :wink:
hmm wenn du da jetzt auf Alan Wake anspielen willst, die Grafik sieht gut aus, aber um alles voll zu sehen brauchst hier schon eine Quad CPU und das will ich mir dann nich leisten nur für ein spiel ^^
Es werden ja nichmal viele sachen von 2kernen unterstützt...
Achja was mir noch einfällt wegen dem vorhin angesprochenen SLI, das brauch kein mensch, da kommt n halbes jahr später ne GraKa raus die schneller ist und dann is mein SLI für'n *rsch...
Ich brauche nur eine GraKa mit genug power um mein Spiel in voller pracht zu sehen...
nen unterscheid zwischen 8xAA und 16xAA sieht man aber meiner meinung nach schon, allein an Wänden bzw kanten werden die treppen effekte deutlich und das mag ich nicht!
Kaktus79
02.02.2007, 22:21
Ich meine nicht nur Allen Wake. Warte es einfach ab und schau mal bei den Berichten auch auf die hinteren Seiten. Da sind noch ganz andere Dinger angekündigt wo Crysis einpacken kann. Diese werden nur nicht so Beworben. 8)
Wie jetzt... teuerste High End Karte kaufen aber kein Geld für einen Quadcore der demnächst günstiger ist als eine 8800GTS? He he... kaum zu glauben :twisted:
Also ich seh nicht mal einen Unterschied zwischen 4x und 6x AA (Adaptives eingeschalten) Lediglich bei Geländer oder Zäunen seh ich das minimal, aber ich schaue im Spiel einfach nicht so genau hin, den in der Regel bin ich so vom Geschehen eingenommen das mir keine Zeit für sowas bleibt.
Das mag beim ersten mal zocken sein, aber danach nehme ich alles noch genauer unter die lupe dann stört mich das schon wieder voll "wenn ich ne treppe sehe wo eigentlich keine ist" (ironie ^^)
DAs hat nix mit dem Geld zu tun, ist mir einfach noch nich nach, wenn kaum DualCores unterstützt weren warum dann schon auf vier kerne springen... :?: :!:
Und glaub mir, in der Spalte Ego Shooter wird CRYSIS nich einpacken müßen zumindest nich (wenn sie es denn schafen sollten) 2007
Kaktus79
02.02.2007, 22:34
Kaum Dualcore... hm.... Hier mal ein Test mit Spielen die KEIN Dualcore unterstützen. http://www.3dcenter.org/artikel/2006/11-20_a.php
Wir werden auf HWI in 2-3 Wochen ebenfalls mal einen Vergleich bringen mit etwas neueren Spielen wo Singelcore gegen Dualcore Verglichen wird. Im genauen ein Athlon 3200 vs. X2 3800 und ein Athlon 3800 vs. X2 4600!
sry bin bei pro7 kleben geblieben Galileo mit nem coolen beitrag, Ninja gegen EliteSoldat ^^
ähm... also ich werde mir mal eure beiträge dann anschauen! Viele sachen wurden ja auch per patch auf DualCore optimiert und vier kerne... nee muß nich die Perfomance steigt dadurch ja maximal auf 60-80% wenn das Programm dann auch wirklich drauf optimiert ist! Aber das gehört wieder in einen anderen thread ^^
sry bin bei pro7 kleben geblieben Galileo mit nem coolen beitrag, Ninja gegen EliteSoldat ^^
^^ das ist ziemlich genial...
sry bin bei pro7 kleben geblieben Galileo mit nem coolen beitrag, Ninja gegen EliteSoldat ^^
^^ das ist ziemlich genial...
Samma, hörst du mal auf hier rum zu Spammen! tztztz
Ich würde mir auch noch keinen QC holen.
Finde ich immo überdimensioniert. Viellleicht etwas für Leute die viel mit Render-Programmen arbeiten. Aber so für Normal'os is das nix.
sry bin bei pro7 kleben geblieben Galileo mit nem coolen beitrag, Ninja gegen EliteSoldat ^^
^^ das ist ziemlich genial...
find ich auch hast ne PM
@TOPIC
also da wir hier jetzt über GraKas diskutieren lassen wir die CPU's und alles andere mal wech... das artet wie üblich aus!!! ^^
greatz Dapalme
Okay, weiß schon jemand wann ungefähr der R700 (also nachfolger R600 :D) rauskommt?
ja nee is klar, wenn der R600 noch nichmal raus ist wird der R700 wohl morgen raus kommen wa ^^^
Also da kannst eher fragen wann der G90 raus kommt ^^
pissdrunx1987
03.02.2007, 00:54
@dapalme & cellux: bitte benutzt für eure gespräche bitte pm oder einen instant messenger, wie es foofi auch schon geschrieben hat, dies ist mein ernst, und soll wirklich die letzte warnung sein, ich kann serwohl zwischen sinnlosen gespamme und nützlichen comments unterscheiden :!:
also bitte, denkt wenigstens mal drüber nach, ich will nciht anfangen hier, die threads von müll zu bereinigen und posts zu löschen, dass ist nicht sinn und zweck dieses forums und der crysis community...
#letzte warnung#
falls ihr irgendwelche fragen habt, ich habe auch icq und msn, siehe mein profil, also bitte zusammenreissen in zukunft :wink:
also erstens hab ich hier nich rum gespamt weil ich kein bock auf ne sperre oder sonst was hab.
zweitens abe ich foofi schon gesagt, wenn was ist sagt es mir mit einer PM nich mitten im Thread *das ist schon eher spam und hat nix im Thread zu suchen!!! find ich...
Meine antwort galt Cellux und wie du siehst (hier geht es um Grafikkarten!!!) war die relativ sinnvoll weil was er gepostet hat war totaler blödsinn...
schieb es in nonsens oder so...
BACK TO TOPIC....!!!
greatz Daplame
Kaktus79
03.02.2007, 09:34
@CelluX
Also wen du irgendwas über einen R700 weißt, nur her damit :lol:
Im ernst, das wird noch lange dauern. Allerdings hoffe ich das man wie bei den CPUs mal auf den Gedanken kommt, das nicht jeder zu Hause ein Stromkraftwerk stehen hat. Der Verbrauch in dieser Hinsicht ist mittlerweile extrem. HAt man sich noch über die alten P4 Modelle und dessen verbrauch von bis zu 130W aufgeregt und rumgemotzt, interessiert es nur wenige das eine High End Karte derzeit genauso viel verbraucht. Aus dem Zusammenschlusses mit AMD hat ATI aber die Möglichkeit früher als nVidia auf 65nm umzusatteln. Da hier schlichtweg der Entwicklungskosten deutlich geringer ausfallen, weil AMD das ja schon hat. Langfristig seh ich eh schwarz für nVidia, was ich traurig finde, immerhin entwickelt Intel derzeit an eigenen Grafikkarten für den High End Bereich. Aber das wird noch ein paar Jahre dauern bis die kommen. NUr dann sieht es schlecht aus für nVidia wen diese sich ncihts einfallen lassen. Würde mich nicht wundern wen Intel dann völlig andere Wege geht um seine Grafikkarten zu bevorteilen.
Hier habt ihr noch ein paar neue Infos zur 8600 Serie, leider keine wirklich tollen: http://www.hardware-infos.com/news.php?news=810
hoi
da ich denke dasin nem halben jahr die x1950XT etwas veraltet ist hab ich mich nun doch umentschieden und will mir doch eine X8800 Karte kaufen .
( obwohl ich noch Win XP habe und mir die DX10 unterstüzung nichts bringt )
http://www.hardwareschotte.de/hardware/preise/proid_8037991/preis_GAINWARD+Bliss+8800GTS+471846200-8330
was denkt iher ?
kauf dir ne 8800 GTS aber 640
kauf dir ne 8800 GTS aber 640
meinst du 640mb RAM ?
gibs so eine für um die 300 Euro ?
€=
http://www.hardwareschotte.de/hardware/preise/proid_8034463/preis_GAINWARD+Bliss+8800GTS+471846200-8279
wie findet ihr die , die hat 640 mb
Die würde ich dir auch empfehlen.
Im Moment hat die GTS mit 640 MB so ziemlich das beste Preis/Leistungsverhältnis und die Gainward soll auch ganz gut sein.
In irgend einem Test in dem sie gegen eine andere 8800 GTS angetreten ist, war sie etwas leiser und sie wurde auch nicht so warm. Der Lüfter scheint also ganz gut zu sein.
Cool , dann weis ich jetzt welche ich mir holle
*signatur-ändern*
Edit :
Neue frage , wollt aber nich doppelt posten .
denkt ihr das Crysis PhysX Karten unterstüzen wird ?
^^ passt nicht hier rein und die Frage wurde schon beantwortet.
Crysis unterstützt keine Physikkarten.
Da ich bisher noch keine Erfahrungen mit SLI hatte oder haben wollte kenne ich mich hier nicht aus, also kurze frage, kann SLI auch auf einem Board laufen das für Crossfire ausgelegt ist?
habe das ABIT AW9D dieses ist für AMD/ATI's Crossfire ausgelegt.
Aber ich hatte mal irgenwo gelesen das SLI von Nvidia trotzdm gehen sollte.
Da ich zur zeit 2 8800GTX hier habe wollte ich es mal probieren, also beide GraKa's rein anschließen... SLI Brücke dran... Rechner starten...
Leider kann ich aber das SLI nirgends aktivieren. Also was muß ich machen?!
^^ soweit ich weiss geht das nicht - laut Hersteller. Ansonsten müsstest du mal nach einem BETA Bios googlen. Benutzung auf eigene Gefahr - keine Garantie ob das klappt.
So ich hätte mal ne kurze Frage
kann ich in meinem PC eine NVidia GeForce 7950GT mit 512MB und einem PCI-Anschluss (16x) reinstecken, wenn mein Netzteil 350Watt hat?
Ich weiß nicht genau wieviel Watt die Grafikkarte braucht/brauchen sollte.
:?: :?:
Wenn ja, kennt ihr eine Site, in der die Graka weniger als 250€ kostet?
Wenn ja, kennt ihr eine Site, in der die Graka weniger als 250€ kostet?
http://www.mindfactory.de/cgi-bin/MindStore.storefront/DE/Product/0023366? <-- beste angebot!
http://www.nubit.de/artikeldet.php?artnr=AR-1005365
http://www.norskit.com/norskit/default.asp?PageNo=DEFAULT&DeepLink=PD10000D%2CHardware%2CGRAKA%2DNVIC%2DGF79 50110032987%2C
aber mit deinem NT wird glaub etwas eng!
erstmal danke für den link
jetzt: was bedeutet "etwas eng" ???
was passiert, wenn das Netzteil zu schwach ist? (Ruckler, Abstürze... ???)
hab grad gelesen dass die Anforderung 350W ist, dass beudetet theoretisch, dass sie laufen könnte, was aber wenn der PC unter voller Belastung läuft? Außerdem, kriegt man den PC überhaupt mit nur EINEM laufenden Spiel zur vollen Belastung?? (ich mach meistens nicht mehr, geschweigedenn überhaupt etwas während des spielens)
wenn ich richtig liege takten sich die sachen dann automatisch runter und somit kommt es zu rucklern usw, ich weiß nich was die für ein system verwendet haben, normal gilt die angabe für ein komplettes sys! Ich mein kann sein das es reichen wird, aber die schreieb nie dabei wieviel A auf der 12V leitung usw liegen darauf kommt es nämlich auch an!!!
nochmal schnell die frage ob ich mein system mit nur einem laufenden spiel auf volle belastung bring (Auflösung meistens 1024x768x32) z.B. mit Battlefield 2 o.ä.
und jetz zur Graka:
mein Netzteil, so stehts im Handbuch, heißt "350Watt FORTRON" und mein Motherboard "ASUS MB M2N-TE Socket AM2 ATX". Müsste eigentlich drauf passen, oder ???, schließlich steckt gerade eine GeForce 7600GS drin, die auch auf einem PCI Steckplatz mit 16x steckt.
wie viel watt brauch n eine GF8800GTS ?
Jep das stimmt.DIe GTS verbraucht ca. 114 W bei volllast genau so wie die GTX.
Jep das stimmt.DIe GTS verbraucht ca. 114 W bei volllast genau so wie die GTX.
Naja Das sind Herstellerangaben. Den würde ich also nicht all zu viel glauben schenken.
Die GTX braucht übrigens schon mehr, als die GTS. 4 Ampere mehr auf der 12 Volt Leitung sind empfohlen. Die hat ja auch nicht umsonst 2 PCIe Stecker, anstatt nur einen, wie die GTS Karten.
Die GTS sind also ein wenig sparsamer und auch kühler, als die GTX Karten.
@noxon da steht ja auch ca. :wink: .Ja ich denke auch das die GTX mehr strom braucht,ist ja auch logisch da die ja 2 Steckplätze hat.
Da steht nicht, dass die GTX ca. so viel verbraucht wie die GTS, sondern dass die GTS ca. 114 Watt verbraucht und die GTX genauso viel. ;)
Ist aber auch nicht so wichtig.
Ich wollte halt nur sagen, dass die GTS etwas sparsamer ist als die GTX.
und was für ein Netzteil ?
reicht ein 350Watt aus ?
BoOgIeMaN
16.02.2007, 14:07
Lieber 450-500 Watt..
werden die netzteile eigendlich auch ma billiger ? :P
66 EUR -> http://www.alternate.de/html/shop/productDetails.html?artno=tn5m30&baseId=7942
^^ das habe ich selber - leise und Rechner läuft 1A nach 48 Stunden dauerbetrieb, nicht heiss geworden oder laut.
Beim Nezteil würd ich niemals im Leben sparen...
Die 8800GTS habe ich aber zurückgegeben und warte auf die neue G80 Generation oder besser.
is die karte mit dem netzteil gut gelaufen ?
und was für ein Netzteil ?
reicht ein 350Watt aus ?
GTS -> mindestens 400 Watt mit 26 A auf der 12 Volt Leitung.
GTX -> mindestens 450 Watt mit 30 A auf der 12 Volt Leitung.
^^ wunderbar, 1A wie gesagt 48 Stunden dauertest, zur hälfte unter volllast, mein arbeitszimmer, war am nächsten Tag etwas warm, aber der PC lief/läuft wunderbar.
das ist ja alles schön und gut, meine frage war eigentlich nur, wie man den PC auf Volllast bringt (reicht dafür schon EIN laufendes Spiel), ob eine GeForce 7950GT in einem Rechner mit einem 350W Netzteil läuft, und was passiert, wenn das Netzteil zu schwach für die jeweilige Graka (Abstürze, Ruckler... ???).
:?: :?: :?: Klar ist das niemanden von euch bis jetzt passiert (hoff ich mal :P ) , aber ihr habt doch bestimmt schon gehört was dann im PC abgeht, oder ???
Ich denke dass entweder der PC gar nicht an geht oder dass die Grafikkarte nicht richtig erkannt wird oder auch dass man zu wenig Leistung hat.
Sehr wichtig: Zu beachten ist einfach dass, wenn du keinen PCIe Stromstecker am jetzigen Nezteil hast, sodann zwei freie Stromkabel vom Nezteil direkt an die Grafikkarte per PCIe Adapter kommen. Nimm nicht ein Kabel per Y Adapter!! Nimm zwei direkt am PCIe Adapter.
^^ Noxon - ist doch ok so, oder was denkst du wegen den Kabeln? Also das war bei mir ganz fett auf der Anleitung mit roter schrift.
SORRY, WAR FALSCHER LINK, DIE IST ES:
Asus 512MB GeForce 7950GT PCIe
GeForce 7950 GT // Pixel-Pipelines: 24 // Chiptakt: 550MHz // Speichertakt: 1400MHz // PCIe
Anschlüsse
S-Video 1
Schnittstelle D-SUB (15 Pol) 2 mit Adapter
Schnittstelle DVI-I 2
Ausstattung
TV-Out Ja
Twin View Ja
Besonderheiten
Besonderheiten NVIDIA nView Display Technologie
HDTV
Digital Vibrance Control (DVC) 3.0
NVIDIA UltraShadow II Technologie
nVidia Intellisample 4.0
nVidia CineFX 4.0
ASUS VideoSecurity Online
Asus GameLiveShow
Asus GameFace Messenger
ASUSSplendid
OpenGL 2.0
NVIDIA SLI Technologie
HDCP
Technik
Grafikchipsatz nVidia GeForce 7950GT
Grafikkarten-Bus PCI Express x16
Grafikspeicher 512 MB
Grafikspeicherbus 256 Bit
Grafikspeichertyp DDR3
Punkttakt (RAMDAC) 400 MHz
Taktung Grafik-Chip 550 MHz
Taktung RAM 1400 MHz
Unterstützung DirectX 9.0
und was passiert, wenn das Netzteil zu schwach für die jeweilige Graka (Abstürze, Ruckler... ???).
Mir ist es vor ein paar Jahren mal passiert, dass ich ein Netzteil überlastet hatte, nachdem ich eine neue Graka eingebaut hatte.
Es lief zwar noch alles ganz gut, aber irgendwann habe ich dann durch Zufall bemerkt, dass auf meine 12 Volt Leitung jetzt 13,2 Volt anlagen. Das ist natürlich nicht gut für die Hardware und früher oder später hätte sicherlich eine meiner Komponenten dran glauben müssen.
^^ Noxon - ist doch ok so, oder was denkst du wegen den Kabeln? Also das war bei mir ganz fett auf der Anleitung mit roter schrift.
Optimalerweise sollte man natürlich immer getrennte Stromkreise verwenden. Wie genau das Netzteil aufgebaut ist unterscheidet sich aber von Modell zu Modell. Da muss man nachgucken, welche Leitungen zu einem Stromkreis gehören und von jeweils einem Stromkries schließt man eine Leitung an.
Sollte man nur ein ATX 1.3 Netzteil mit einer einzelnen 12 Volt Leitung haben ist das zwar nicht optimal, aber wenn diese genug Saft liefert ist das auch OK das über Y-Stecker anzuschließen.
Moderne Netzteile haben jetzt sogar schon vier 12 Volt Stromkreise. Zwei für die Graka, einen für die Festplatten und einen für's Mainboard. Das ist natürlich optimal. :)
Ok, das ist gut, aber was schlägst du mir jetzt vor, ohne ein neues Netzteil kaufen zu müssen???
Im Innenleben kenn ich mich mit dem aufrüsten net so aus.
Ok, Arbeitsspeicher geht ja noch, und eine neue Graka hätte ich mich auch getraut einzubauen, aber ein Netzteil,... nein, nein.
Was soll ich also aus deinem Satz schließen....... :?: :?:
thunderstorm
16.02.2007, 19:05
Hi,
Hab mal gegoogelt :wink:
Einbau eines Netzteils;
http://www.dirks-computerecke.de/einbau_netzteil.htm
Sieht schwiriger aus als es ist. :D
Ein Netzteil einzubauen ist das Einfachste, was man an einem Computer einbauen kann. Es gibt Heut zu Tage absolut keine Möglichkeit etwas falsch zu machen. Alle Stecker sind so ausgelegt, dass sie nur korrekt angeschlossen werden können und man keine Fehler machen kann.
Ich würde dir auf jeden Fall ein Neues Netzteil empfehlen. 350 Watt ist wirklich etwas dürftig, wenn du dir jetzt eine moderne Graka einbauen willst.
Ja das stimmt einfacher geht es wirklich nicht, allerdings ist der Standard mittlerweile etwas unübersichtlich, wegen der 24pol oder 20pol Mainboard stecker, läst sich aber leicht via adapter ändern läast, ich hab an meinem Board die möglickeit oben 2x 4pol anzustecken und dann 20pol oder 24pol... echt witzig was da so geht ^^
aber es ist echt leicht die lassen sich nur in einer richtung einbauen und man kann nix falsch machen!!!
Echt nett von euch die ganzen Tipps und so, natürlich auch der Link,
ich überlegs mir jetzt nochmal !!! :)
Aber was sagt ihr dann bitteschön dazu:
http://www.brunen-it-shop.de/shop/pc-system-athlon-64-5200-x2-am2-2048mb-ddr2-250gb-16x-dvd-brenner-512mb-geforce-7950gt-p-1943.html
wie ich sehe hat der PC auch nur 350W, oder gleicht sich das durch den Prozessor wieder aus ??? (k.a.)
Hm... also ich glaube dass die 350 nicht wirklich reichen und dass es unter vollast zu Problemen kommen wird.
Hol dir für knapp 70 EUR das von mir empfohlene NT und fertig - wenn du kein Geld für hast, dann spar ;)
Naja, nen neuen Rechner wollte ich eigentlich nicht.
Wenns mit der 7950GT nicht klappt, welche schlagt ihr mir vor, die die nächst-beste unter der 7950GT wäre und für die 350W ausreicht?
(z.B. 7900 oder andere???)
ABER: bitte keine Radeon, sehr schlechte Erfahrungen :evil:
warum wechselst du nicht das NT? Da kommst du so oder so nicht drum herum...
7900GT und 7950 GT sind gleiche Karten!
Ok, ihr habt ja recht, außerdem foofi, das von dir vorgeschlagene sieht wirklich gut aus. So viel ich weiß würde da sogar die 8800 laufen, die, glaube ich, 450W braucht.
Das mach ich...
Danke :P
Noch zur Info: Das von mir empfohlene NT von Coolermaster hat bei Toms Hardware (http://hardware.thgweb.de/2007/01/15/stresstest_netzteile_2007/page11.html) den 24 Stunden Dauerstresstest bestanden: http://hardware.thgweb.de/2007/01/15/stresstest_netzteile_2007/
http://www.hardwareschotte.de/hardware/preise/proid_8033780/preis_SAPPHIRE+Radeon+X1950XT+21097-00-xxR
auch wenn du Radeon nicht magst, nimm lieber diese hier die is besser ;)
wenn eine herkommt, dann schon mit 512MB
meine jetzige hat nämlich auch schon 256.
Eigentlich wollt ich mir die Neue noch vor Crysis kaufen, aber wenn jetzt erstma das Netzteil noch dazu muss.......
Ich hab nochma in meinen PC reingeschaut, 5 Kabel gehen vom Netzteil zu verschiedenen Stellen. Eines zum Kühler, und da sind keine Anschlüsse nur ein rotes kleines Kabel ohne stecker, wie macht man da ein Neues hin??? :?:
Eines zum Kühler, und da sind keine Anschlüsse nur ein rotes kleines Kabel ohne stecker, wie macht man da ein Neues hin??? :?:
gar nicht...
Wie gar nicht ????
Da muss doch eines hin oder?
Das ist einfach 1 kleines dünnes rotes Kabel das zum kleinen Kühler hin geht (das Ding, das sich dreht). Das geht vom Netzteil aus hin. Kann ich das einfach weg lassen??? :?
Das kannst du nicht verwenden, das würde ich in ruhe lassen.
Du brauchst ein Stromkabel mit drei kleinen Kabeln und davon zwei Stück!
Die beiden kommen sodann an den PCIe Adapter!
http://www.com-tra.de/img/p/06759_o.jpg
Hier ist ein Ausschnitt aus der Anleitung einer 7900GT:
http://img296.imageshack.us/img296/9103/dscn09870hpsy4.th.jpg (http://img296.imageshack.us/my.php?image=dscn09870hpsy4.jpg)
Ja, das hab ich kapiert, aber was ist mit dem roten Käbelchen. Ok, ich soll es in Ruhe lassen, aber wie denn, wenn es am Netzteil fest ist /raus kommt. Ich kanns ja schließlich nicht durchschneiden um es abzukriegen. Und rausreißen ist bestimmt auch nicht besser. :wink:
Ach so! Hm... ok, nicht richtig gelesen!
Da kannst du ja sodann einen Adapter dran machen.
Ich hab eine Idee:
Ich mach von meinem Innenleben im PC ein Foto, und daran zeig ich dir welches ich meine, ok?
Ich weiß nur nicht: Wie kann ich das Bild einfügen?
Ah, ich weiß was du gemeint hast foofi. Sry, ich meinte nicht den Kühler von der Graka sondern den kleinen Lüfter!!! :wink:
An den führt dieses Käbelchen hin.
@Robin lade das Bild HIER (http://imageshack.us/) hoch und poste den Link dann hier rein.
Ok, hier ist der Link:
http://img99.imageshack.us/my.php?image=pict0149ha1.jpg
Leider kann ich es nicht größer machen als so.
Ich habe das rote Kabel umringelt bis dorthin, wo es aufhört.
Jetzt könntet ihr mir bitte sagen, wie ich ein Kabel vom neuem Netzteil hin machen soll. Wie schon gesagt: Ich kanns ja nicht rausreißen oder abschneiden.... :lol: :lol: :lol:
Also was denkt ihr, was da für ein Kabel ran muss. Ich hab keine Ahnung, welches der Kabel vom neuen Netzteil da hin müssten.
Habt ihr auch so ein Kabel am Lüfter, wie es auf dem Bild zu sehen ist? Wenn ja, wie habt ihr das Kabel mit einem Anderen von einem neuen Netzteil ersetzt?
Das wäre dann auch meine letzte Frage!!! :wink: :lol:
wie gesagt, mach da einen Adapter dran, wo nur so ein Kabel raus kommt.
Sry, jetzt muss ich aber nochmal fragen.
Jetzt hab ich schon 3 PCs gesehen die eine 7950GT mit einem 350W NT haben. Und 1 PC mit einer 8800 GTS 640MB mit einem 400W NT.
Da stimmt doch was nicht! Und jetzt das Schärfste:
Einer hatte eine GeForce 7950GTX mit 512MB mit einem 300W Netzteil.
Also entweder spinn ich, oder braucht die Graka wirklich nicht mehr als 350W???
Wäre dies der Fall, könnte ich mir diese Graka gleich kaufen, und nicht erst ein neues Netzteil!
Also was ist jetzt los: REICHEN 350W für eine 7950GT???
Probier es doch aus! Wenns nicht geht, dann schickst du die Karte zurück oder kaufst dir ein vernünftiges Nezteil.
Und was passiert wenn es nicht geht? Die ist doch dann nicht etwa kaputt oder so??? Oder.....?
:?:
Und der Prozessor kann nicht irgendwie die NT-Leistung verbessern, oder so?
Kaputt geht nix, ausser du baust die Karte falsch ein oder nicht richtig.
Ok, wenn nichts kaputt geht, kann ichs ja dann mal versuchen ob es klappt. Das wundert mich aber, wenn doch die Graka mehr Strom braucht, als sie kriegt,... stimmt, dann ruckelts nur, kann das sein?
So, ich hatte an diese hier gedacht:
http://www.norskit.com/norskit/default.asp?PageNo=DEFAULT&DeepLink=QI10000D%2CHardware%2CGRAKA%2DNVIC%2DGF79 50110032983%2C
Foofi, was sagst du dazu? Oder kannst du mir einen Link zu einer besseren geben? Aber bitte nicht teurer.
Also die Karte ist sehr günstig! Bestell dir doch einfach noch das NT was ich empfohlen habe.
Wenn alles richtig läuft, wirst du durch ein Monitoring Tool feststellen können, da müsstest du uns mal deine Spannungswerte sagen. (wenn der PC an geht!)
Du redest jetzt davon, wenn die neue Karte schon drinnen stecken würde, oder?
Und wie/wo kann ich die Werte sehen (wenn er angeht ^^)
Wieso sollte er nicht angehen?
Durch ein Programm wie Everest. Nicht angehen: Wenn das NT nicht ausreicht.
Wie gesagt: Du brauchst zwei Kabel vom Nezteil zum PCIe stromadapter.
Ok, kriegt man solche Programme auch als Freeware?
Und apropos: wenn der PC überhaupt angeht, was passiert da genau, wenn er nicht mehr anspringt? Da geht nichts kaputt oder?
Man muss sich hier nicht doch immer wieder wiederholen! Der Noxon hat ausführlich erklärt was pasieren kann, wenn ein Nezteil nicht ausreicht...
Ok, ich seh schon ich strapazier eure Nerven. Schluss für heute!
Wirklich!
Nochma sorry, aber ich kenn mich mit aufrüsten von so größeren sachen nicht so aus wie ihr.
Ich hol mir die Graka, schau nach der Software (habt ihr vielleicht einen Link?) und geb euch dann Bericht. Ich frag mich nur wie ich feststelle, ob die angegebene Zahl die ich durch das Programm dann sehen werde, jetzt gut oder schlecht ist, also ob die komponenten kaputt gehen werden, oder nicht!
Robin du brauchst echt keine angst zu haben, da geht so nix kaputt, du hast 2x 4polige stecker, diese kommen auch an deine Festplatte oder auch DVD laufwerk!!!
So die Karte die du dir ausgesucht hast wird nun mit einem Adapter (dort passen 2 der 4poligen anschlüsse dran und am anderen ende hast du dann einen 6poligen anschluß!) ans netzteil gesteckt.
Wenn das netzteil zu schwach ist wirst du wahrscheinlich nicht die volle leistung der Grafikkarte entfalten können!!!
Die software die du brauchst findest du hier:
http://www.lavalys.com/products/download.php?ps=UE&lang=en
Vielen Dank, das war eigentlich das, was ich hören wollte, dass dann nur die Leistung nicht voll rauf geht.
Ok, danke für den Link :wink:
Ist das eigentlich Freeware, oder eine Demoversion?
Ist das eigentlich Freeware, oder eine Demoversion?
das ist shareware, soll heißen das du es unbegrentzt nutzen kannst nur manche sachen sind bzw werden nicht dargestellt, aber das reicht für dich schon so ;)
ok, das zeigt mir alles mögliche an, aber wo ist das Netzteil, oder das, was ich im auge behalten soll?
Centurio81
21.02.2007, 01:34
indem du auf die spannungen schaust..
Grade die 12 volt spannung ist wichtig weil diese Leitungen alle Steckkarten, die CPU und Grfaikkarte versorgen..
Fällt die irgendwann mal stark unter die 12 Volt, dann is was nich in ordnung und zieht ne menge leistung..das Netzteil is zu schwach..
Korrigiert mich, bin kein elektriker, aber das hört sich für mich logiscg an.. ;)
Korrigiert mich, bin kein elektriker, aber das hört sich für mich logiscg an.. ;)
Das stimmt so weit, allerdings ist es nicht unbedingt gegeben, dass die Spannung sinkt. Ein überlastetes Netzteil wird einfach instabil und die Spannungen machen was sie wollen. Ich habe wie gesagt einmal 13,2 Volt auf meiner 12 volt Leitung gemessen, als mein Netzteil überlastet war. Das ist natürlich nicht gut für die Komponenten. Ich kann froh sein, dass ich das bemerkt habe, bevor mir die Graka oder eine andere Karte abgeraucht ist,.
Im Übrigen wäre mit die Brandgefahr auch etwas zu hoch, wenn ich ein Netzteil immer unter 110%iger Last betreiben würde. Normalerweise sind die Netzteile zwar gut abgesichert und eine Sicherung sollte es eigentlich vorher abschalten aber man muss sein Glück ja nicht herausfordern.
Wer weiß, wie das bei billigen Netzteilen aussieht. Bei so etwas wird dann gerne immer gespart.
//EDIT:
Auf die schnelle habe ich nur das (http://www.teccentral.de/forum/sonstige-hardware-komponenten-f14/netzteile-geraten-brand-9064.html) gefunden. So wie es aussieht hat die PCPro mal Netzteile getestet und es sind schon recht viele dabei, die in Brand geraten sein sollen.
Ok, hab die 12V Leitung gefunden
das Problem:
Das Programm zeigt mir nicht die aktuelle Spannung an. es steht da: "Trial Version"
Und sie ist nur noch 29Tage verfügbar.
Also gut Leute: Ich hab den Adapter vom roten Kabel gefunden. Hab festgestellt, dass meine beiden Laufwerke mit meinem blauen LED-Licht, welches am Startknopf ist, verbunden sind. Zu Deutsch: Licht, und die beiden Laufwerke hängen zusammen an EINER Strecke vom NT aus. Ist das normal, dass eine Leitung drei Sachen versorgt.
Und nochwas: Kann es sein, dass nicht jede Graka einen extra Stromanschluss braucht? Hab an meiner nämlich kein Kabel gefunden, dass vom NT aus kommt.
@foofi und dapalme:
Also foofi, das NT kommt zuerst her (wie du gesagt hast :wink: )
An dapalme: das Programm zeigt mir zwar alles an, aber genau die 12V Leitung ist in dieser Demo nicht verfügbar.
Das bedeutet, dass wenn ich zuerst die Graka gekauft hätte, um zu probieren obs funktioniert, ich erst dieses 25€ teure Programm hätte kaufen müssen. Und das wäre ja schon fast der halbe Preis vom neuen NT. Und hätte dann der Test, ob mein altes NT funktioniert mit der neuen Graka, nicht geklappt, müsste ich mir das neue NT sowieso kaufen, UND ich hätte vorher nochmal 25€ für das Programm ausgegeben.
Und ich mein; man spart ja wo man kann, oder :lol: :lol: !!!
Hab an meiner nämlich kein Kabel gefunden, dass vom NT aus kommt.
Das ist ganz normal. Nicht jede Grfikkarte wird mit Strom versorgt, bis jetzt waren es alle Highend Karten der 6 und 7er Reihe bei NVidia.
Also die 6800 Ultra, 7800GT/GTX, 7900GT /GTX, 7950GT & 8800GTS
Die 8800GTX und 7950GX2 brauchen zwei PCIe Stromstecker - also 4 normale Stromkabel vom Nezteil am Adapter...!
Alle anderen NVidia Karten kommen mit dem Strom aus dem AGP bzw. PCIe Slot aus.
Nvidia bringt DirectX-10-Karten für AGP
Nividias AGP-Karte Geforce 7600 GS wird einen Nachfolger bekommen, der auf den besonders einfallsreichen Codenamen G84 AGP hört.
Damit zielt die Karte auf den AGP-Upgrade-Markt, da neue AGP-Systeme schon eine ganze Zeitlang nicht mehr zu kaufen sind. Es zeigt, wie bedeutend dieser "Altlasten"-Markt noch immer ist. Die Karte ist zur Einführung im April vorgesehen.
Frühe Vista-Umsteiger werden erfreut sein, da sie ihre gewohnten Nforce-2-Motherboards nebst Athlon-XP-Prozessoren oder einfach die gute alte Netburst-Pentium-4-Architektur behalten können.
Die Karten sollen um die 100 € kosten, was sich für eine AGP-Karte gar nicht so schlecht anhört. Die Version für den AGP-Slot wurde möglich, da die G84-Chips pinkompatibel mit Geforce 6600 und 7600 sind, so dass keine aufwendigen Modifikationen erforderlich waren.
Quelle:
http://de.theinquirer.net/2007/02/22/nvidia_bringt_directx10karten.html
Soviel mal zu AMD/ATI's R600 usw. Nvidia liegt im rennen um DX10 schon weit vorne, wir müßen halt nur mal schauen wie sich der G80 in DX10 schlägt, aber das Nvidia so schnell auch DX10 für AGP raus bringen will hätte ich nicht gedacht!
revofuzzy
22.02.2007, 17:01
Na dann hab ich ja doch noch ne Chance ein wenig länger mein System behalten zu können. Find ich mal OK. Würde gern ein paar Infos bezüglich der Leistungsfähigkeit bekommen...
Revo mein lieblingsschnkuckelbrother, Welcome @ Crysis-HQ schön dich zu lesen *gg
Tja also wegen der Leistung mußt du wohl noch geduld haben, denke mal das werden wir dann erst im April erfahren, aber das ist ja auch net mehr lang!
(bis dahin zocken wa mal ne runde PS3 ^^)
Revo mein lieblingsschnkuckelbrother, Welcome @ Crysis-HQ schön dich zu lesen *gg
das nenne ich ne herzhafte Begrüssung :D
Ich dachte ich wäre dein "lieblingsschnkuckelbrother" :(
@DaPalme hast du schon das gelesen: http://the-inquirer.com/default.aspx?article=37791
^^ ich sag nur GEIL! :D
revofuzzy
22.02.2007, 17:42
Ja des nenn ich mal nett :wink:
Schonmal is warten blöd...Aber PS3 zocken wa trotzdem...Achso erstmal: Hey @all
FOOFI du bist mein lieblingschnuckel, aber er ist halt mein "brother" *gg
Also auf der englischen seite war ich jetzt noch nich, weil ich lese erst auf deutsch und dann schau ich mal auf den englischen seiten. Da muß man dann überlegen und denken ^^ *lach
Aber zum Thema,
der G90 in 65nm wäre ne feine sache allein wegen des stromverbrauchs, vieleicht kommt man dann ja wieder mit ner High-End karte auf nur einen 6pol Stecker ^^ Weil das Sys hier frist mir irgendwann die haare vom Kopf :wink: Sollte dann noch 1Gig DDR4 ram drauf kommen und 512bit anbindung wäre das schon ein kleiner oder evtl großer rivale für den 4-5 Monate verspäteten R600 :wink:
aber den Preis will ich net wissen *gg
aber er ist halt mein "brother" *gg
ah! Dein Bruder ist auch hier :)
Na, dann - willkommen auf Crysis-HQ :)
Jack3443
22.02.2007, 21:32
Meint ihr der G84 AGP wird viel besser als der G71 (Performence) den die ist ja viel billiger als eine 7900gt. Das verwirrt mich irgendwie. Währe doch echt cool wenn die ungefähr die performence von ner 8800GTS hätte.
Meint ihr der G84 AGP wird viel besser als der G71 (Performence) den die ist ja viel billiger als eine 7900gt.
Neeee! Das denke ich eher nicht :D ist so ein 6600GT abklatsch...
hi leute bin neu hier. mal ne frage die schon 1000 mal gefragt wurde wird eine 8800er 640 reichen für 1280x1024 mit aa af und wie wichtig ist der vram bei crysis? werden vielleicht 320 reichen? auf 5 fps kommt es mir nicht an!
Centurio81
22.02.2007, 23:37
ich kann GTR II mit 1680x1050 auf 16QSSAA und 16AF mit Gamma korrigiertem AA mit ca 50 frames zocken.. ;)
beantwortet das deine frage? ;)
Und nein, 320 MB werden nicht reichen..! Die Karte wird total ausgebremst.
hi leute bin neu hier. mal ne frage die schon 1000 mal gefragt wurde wird eine 8800er 640 reichen für 1280x1024 mit aa af und wie wichtig ist der vram bei crysis? werden vielleicht 320 reichen? auf 5 fps kommt es mir nicht an!
Hi,
wie wir schon edem Neuling hier sagen: Keine Ahnung! Offizielle System Anforderungen sind noch nicht mitgeteilt worden, deshalb wollen wir nichts falsches sagen, nicht dass du dich im Nachhinein über unsere möglichen Tips ärgerst.
Wir wollen uns hier nicht wichtig machen wie andere Webseiten, wir möchten hier richtig beraten. Aber schonmal vorab: 320 MB VR wird sicherlich zu wenig sein.
Und für alle nochmals: Sich jetzt für CRYSIS eine Grafikkarte zu holen, ist der grösste Fehler, den ihr zur Zeit machen könnt. Wartet einfach doch mal ab, bis etwas mehr offizielle Infos da sind.
hi leute bin neu hier. mal ne frage die schon 1000 mal gefragt wurde wird eine 8800er 640 reichen für 1280x1024 mit aa af und wie wichtig ist der vram bei crysis? werden vielleicht 320 reichen? auf 5 fps kommt es mir nicht an!
Hi,
wie wir schon edem Neuling hier sagen: Keine Ahnung! Offizielle System Anforderungen sind noch nicht mitgeteilt worden, deshalb wollen wir nichts falsches sagen, nicht dass du dich im Nachhinein über unsere möglichen Tips ärgerst.
Wir wollen uns hier nicht wichtig machen wie andere Webseiten, wir möchten hier richtig beraten. Aber schonmal vorab: 320 MB VR wird sicherlich zu wenig sein.
Und für alle nochmals: Sich jetzt für CRYSIS eine Grafikkarte zu holen, ist der grösste Fehler, den ihr zur Zeit machen könnt. Wartet einfach doch mal ab, bis etwas mehr offizielle Infos da sind.
und wenn ihr euch nur für Crysis eine Karte hollen wollt dann wartet noch denn die Karten werden noch sehr viel billiger bis zum reales
@foofi, ich hab das NT, das du mir empfohlen hast, bestellt.
Muss ich beim Einbau irgendetwas Besonderes beachten, bis auf die Dinge, die ihr schon geschrieben habt?
:roll:
Ach ja, nochwas: braucht die GeForce 7950GT jetzt 2 oder 1 Stromstecker. 2,... oder? :?:
Ich würde das Nezteil ganz einfach anschliessen, wie beschrieben!
Ach ja, nochwas: braucht die GeForce 7950GT jetzt 2 oder 1 Stromstecker. 2,... oder? :?:
Einen PCIe Stromstecker - zwei PCIe Stromstecker braucht die 7950GX2
Sorry, ich weiß, das hört sich jetzt dumm an, aber ich hab schon mal versucht einen jetzigen Stecker raus zu ziehen. Irgendwie gings nicht. Muss man da wirklich so arg ziehen. Ich habs mit normaler Kraft probiert, da ging gar nichts. Muss man beim rausziehen irgendwie am Anschluss was runter drücken damit er raus geht oder so?
Guck mal genauer hin. Da müsste außen so eine Art Widerhaken dran sein. Drück einfach mal drauf und dann zieh den Stecker ab.
Samsung taktet GDDR4-Speicher auf 4 GHz
Samsung, bekannter Speicherhersteller für Grafikkarten, präsentierte auf der International Solid-State Circuits Conference (ISSCC) einen neuen Typ GDDR4, der bis zu 40 Prozent höher getaktet werden kann als bisher im Einsatz befindliche Speichertypen.
Die noch im Experimentierstadium befindlichen Chips haben eine Kapazität von 512 MB und benötigen für den stabilen Betrieb 2,1 Volt. Der Prototyp mit 2 GHz würde demnach als GDDR4 mit effektiven 4 GHz eine Bandbreite von bis zu 16 GB/s erlauben. In Fakten ausgedrückt würde dies bei aktuellen Grafikkarten mit einem Speicherinterface von 256 Bit den Datendurchsatz auf etwa 128 GB/s steigern. Dieser Wert entspricht etwa dem zweifachen Durchsatz aktueller Grafikkarten. Bei zukünftigen Grafikkarten, die zweifelsohne irgendwann mit einem 512-Bit-Interface auf den Markt kommen, würde sich die Durchsatzrate auf 256 GB/s nochmals verdoppeln.
Derzeit fertigt Samsung bereits GDDR4-Speicher mit effektiven 2,4 GHz, welcher selbst auf den neuesten Grafikkarten noch nicht zum Einsatz kommt. In der Warteschlange hat der Hersteller noch neueren, schnelleren Speicher, der bis zu effektiven 3,2 GHz erlaube. Die fertigen Prototypen mit 4 GHz erlauben Samsung, sich weiter voll auf GDDR4 zu konzentrieren, so dass GDDR5, der ursprünglich mit 3,5 GHz im Jahr 2008 starten sollte, vielleicht ein Stück in die Zukunft verlegt wurde.
Quelle:
http://www.computerbase.de/news/hardware/grafikkarten/2007/februar/samsung_gddr4-speicher_4_ghz/
Wow sag ich da nur, wäre das nich was feines eine der neuen High-End GraKas mit GDDR4 und 4GHz ^^ Was meint ihr was heutige Spiele abziehen und was Crysis da schon bringen kann ^^ Mal sehen wann das ganze auf einer GraKa zu finden sein wird 8)
@foofi:
Das NT ist einsame Spitze. Danke für den Tipp! Es läuft MEGALEISE und hat, *freu* 500W, die jetzt wirklich ausreichen. Ein superschönes Case kommt auch noch dazu. Naja, was erwarte ich, du hast es ja selber :wink: !
Thanks for this tip!!!!!
Kurze Frage: Kostet dieses NT jetzt eigentlich mehr Strom? Und sollte ich jetzt irgendwelche Einstellungen nochma machen, oder nimmt sich der PC selber so viel Strom wie er braucht?
nein, ganz im Gegenteil ist es Energie sparsamer als die meissten anderen Netzteile. Aber es verbraucht die Energie, die der Rechner benötigt.
Das bedeutet, dass ich nichts mehr einstellen muss irgendwie? Also läuft alles von alleine.
Wo willst du was einstellen?
Meinst du am Bios Cool´n Quiet oder was genau?
Ja, weiß nicht. Einfach so irgendwie was.
Jemand meint, dass vielleicht etwas kaputt geht im PC wegen dem neuen NT. Also deshalb, weil er so stark ist.
Deshalb hab ich gefragt, ob sich die Komponenten selber das nehmen was sie brauchen an Watt.
Klartext: Muss man was einstellen, wenn man ein neues NT eingebaut hat?
Muss man was einstellen, wenn man ein neues NT eingebaut hat?
Kaputt geht gar nix! Ich habe nichts eingestellt... !
Klartext: Muss man was einstellen, wenn man ein neues NT eingebaut hat?
Dieser jemand der dir da was erzählt hat soll sich mal nich ins hemd machen *gg
Da kann nix kaputt gehen, deine komponenten ziehen sich soviel strom wie sie brauchen, du kannst dir auch 1KW Netzteil rein bauen, dann brauchst es für das nächste mal nich neu kaufen. Wenn dein Rechner nur sagen 400W verbraucht dann hat er bei einem 1KW NT halt noch 600W Reserve *gg
Also wie gesagt mach dir keine sorgen da passiert garnichts, und einstellen läst sich auch nix!
Außer Cool'n Quit, das ist aber meist von Werk aus aktiviert so das du das nicht mehr machen mußt! Bei Cool'nQuit wird der rechner in eine art Stromsparmodus geschaltet, meinst du, du mußt dann direkt ein neues NT einbauen weil das NT zuviel Watt abgeben könnte ^^
Mann kann auch die Gehäuselüfter im BIOS mit weniger Volt versorgen das Spart auch strom, aber dann wird es im Gehäuse wärmer... alles blödsinn!!!
Also nochmal keine Sorge, selbst wenn du ein 1000W (1KW) Netzteil rein baust wird da nix passieren!!!!!!!
Greatz Dapalme
dapalme: Dieser jemand der dir da was erzählt hat soll sich mal nich ins hemd machen *gg
[sry, wusste nicht wie das "Zitat" funktioniert]
Also um genau zu sein dapalme, es war mein Freund. Der wohnt nur 5 Häuser weiter. Ich hoffe mit deinem *gg meinst du nicht irgendjemand anders....... :roll:
mir habt ihr es ja lang genung erzählt, oder :wink: :wink:
WOW da hab ich doch was tolles gelesen *gg
-----------------------------------------------------------------
Im Zuge der von NVIDIA veröffentlichten Quartalszahlen des Unternehmen, verriet Firmen-Chef Jen-Hsun Huang auch die Auslieferungszahlen von GeForce 8800-Grafikkarten. So soll man seit Oktober 2006 bereits rund 400.000 Stück ausgeliefert haben und damit ein gutes Stück vor AMDs neuen ATI-Produkten liegen.
NVIDIAs momemtaner Vorsprung wird im April mit neuen Mainstream- und Low-Cost-Varianten der GeForce 8800-Serie fortgesetzt. Außerdem gibt es Spekulationen bezüglich einer GeForce 8900, die dem R600 von AMD zum Start im März nochmal ordentlich einheizen soll.
Außerdem plant NVIDIA darüber hinaus noch G80-Modelle für den Notebook-Markt, die mit der neuen Intel-Plattform „Santa Rosa“ im März/April zu haben sein werden. Die GeForce 7-Modelle werden ebenfalls noch eine Weile im Portfolio bleiben, mindestens bis Ende 2007, so Huang.
quelle:
http://www.k-hardware.de/news.php?s=K884b49adb52426fb92e039a2ba932933&news_id=6281
-------------------------------------------------------------------------------------
Is das nich der Hammer, schon gut 400.000 8800ter ausgeliefert, und das beste das wahscheinlich die 8900 dann dem R600 einheizen wird ^^
Also ich glaub ich werde dann wirklich wieder umsteigen *schnief
@Dapalme juten Morjen Hübscher :) hab da auf VR-Zone aufgefangen, dass die 8800 AGP doch nicht erscheinen... http://www.vr-zone.com/?i=4704
Wäre auch seltsam, wenn die für AGP weiter Produzieren... die Boards und CPUs für AGP Karten sind ja doch nicht so weit wie die mit PCIe...
pissdrunx1987
01.03.2007, 16:01
PCIe 2.0 vorgeführt (http://www.pcgameshardware.de/?article_id=564040)
mmh, lohnt sich ja wirklich, noch zu warten, mit dem aufrüsten, hoffentlich kommen sehr bald gute boards mit dem neuen standart, wenn man schon neuen rechner zusammenstellt, kann man ja gleich auf den neuen standart setzen....
das ist übrigens der einzige Standart der SLi mit zwei verschiedenen Grafikkarten supportet, beim jetzigen geht das leider nicht :(
Jack3443
01.03.2007, 18:52
Frage: Profetieren DX9.0c Grakas auch vom DX10 oder ist da kein Support da?
Frage: Profetieren DX9.0c Grakas auch vom DX10 oder ist da kein Support da?
Nein da die Dx9 Karten kein Dx10 schaffen!
Jack3443
01.03.2007, 18:56
Frage: Profetieren DX9.0c Grakas auch vom DX10 oder ist da kein Support da?
Nein da die Dx9 Karten kein Dx10 schaffen!
Nein ich meine jetzt nicht die DX10 effekte usw sondern Performence verbesserungen.
Frage: Profetieren DX9.0c Grakas auch vom DX10 oder ist da kein Support da?
Nein da die Dx9 Karten kein Dx10 schaffen!
Nein ich meine jetzt nicht die DX10 effekte usw sondern Performence verbesserungen.
ahso, aber nein in dieser Hinsicht auch nicht, der Leistungsvorteil spielt sich nur bei Dx10 Grafikkarten zu. DX9 Grafikkarten bleiben so wie sie sind.
DX9 Karten können die DX10 API nicht verwenden. Von daher erhalten sie dadurch auch keine Vorteile.
Jack3443
01.03.2007, 18:59
OK, danke für eure Antworten!
Black_Death
16.03.2007, 19:47
hi hab ne frage zu sli technik
ich hab jetz ne gf 7600 die hat sli , Jetz is die frage , wenn ich mir nen pc mir ner 8800gtx kauf(was ich vorhab) kannn ich dann die zwei grakas verbinden und bringt das überhaupt mehr Leistung?
Nein - du kannst sie nicht verbinden. Dazu benötigst du zuerst ein Board mit SLI 2.0 Technologie.
Das soll vieleicht irgendwann mal auf dem Markt kommen.
Black_Death
16.03.2007, 19:51
ich hab bei dem pc den ich im Augewinkel hatte gelesen das das Board sli ready ist oder muss es sli2.o haben das das geht?
EvilMonkey
16.03.2007, 19:51
Nein, soviel ich weiß benötigt man zwei identische Grafikkarten um SLI betreiben zu können. D.h. du kannst deine GeForce 7600 und deine "zukünftige" GeForce 8800GTX nicht im SLI-Bund betreiben. ;-) Fallst du später vor hast die 8800GTX im SLI-Bund zu betreiben, also eine zweite 8800GTX kaufst, bringts auf jeden Fall einen Leistungsschub. Ich hoffe ich konnte helfen.
EvilMonkey
@foofi, hab ich das jetzt richtig verstanden, mit SLI 2.0 kan man zwei verschiedene Grafikkarten miteinander verbinden so wie 8800 GTX und 7600 GT???
EvilMonkey
16.03.2007, 19:59
Wie ich gerade gelesen habe, soll es mit SLI 2.0 möglich sein, verschiedene Grafikkarten im SLI laufen zu lassen.
Laut aktuellen Gerüchten plant nVidia eine Erweiterung der SLI Technologie zum Parallelbetrieb mehrerer Grafikkarten. "SLI 2.0" soll auf der CeBIT im März präsentiert werden und unterstützt angeblich die Kombination unterschiedlicher Grafikkarten. Bislang können nur zwei gleiche Modelltypen für SLI verwendet werden. Außerdem sollen mehr als zwei GeForce 8 Grafikkarten in einem System möglich sein
Mit nVidia SLI 2.0 kann man demnach vier, sechs, acht oder mehr GeForce 8x00 parallel betreiben. Dazu dürften aber aufgrund mangelnder PCI Express Steckplätze auf den Mainboards Grafikkarten mit mehr als einem Grafikchip notwendig sein.
Wie weitreichend die Unterstützung unterschiedlicher Grafikkarten mit SLI 2.0 ist, ist noch unklar. Sie könnte sich auf den Parallelbetrieb zweier Modelle einer bestimmten Serie beschränken (z.B. eine GeForce 8800 GTX und eine 8800 GTS in einem System) oder sogar Serien-übergreifend funktionieren (z.B. eine GeForce 8800 GTS mit einer GeForce 8600).
EvilMonkey
Wie ich gerade gelesen habe, soll es mit SLI 2.0 möglich sein, verschiedene Grafikkarten im SLI laufen zu lassen.
^^ das habe ich oben doch geschrieben ;)
Soll sodann möglich sein, wird aber noch dauern...
Zusätzlich dazu wird auch die Software Havok FX mit vershiedenen Karten funtionieren ;)
ich hab bei dem pc den ich im Augenwinkel hatte gelesen das das Board sli ready ist oder muss es sli2.o haben das das geht?
Wie schon oben geschrieben ist... SLI 2.0 das kommt vielleicht bald. Mit SLI was wir so haben, gehts nicht.
Also das währe ja mal cool, das heißt dann wenn ich z.b. eine 8800 GTX und 7600 GT in SLi benutze kriege ich ca. 1/4 mehr leistung mit der 7600 GT oder?
^^ es liegen doch noch keine Ergebnisse vor und so kann man das doch gar nicht sagen...
ja ich wiess, ich meinte ja, so ungefär müsste es ja sein :D
du weisst nicht wie SLI funktioniert... oder?
Split Screen SLI wird da definitiv nicht funktionieren... damit bremmst man das system aus.
doch, schon? Aber so ungefair müsste es doch sein, wenn man zwei gleiche Karten verwendet (z.b. 2x 8800 GTX) dann kriegt man natürlich nicht die doppelte leistung aber ich denke mal fast die doppelte leistung....
EDIT:Was ist Split Screen SLI??
zu erstmal @DNA: das bedeutet, dass jede Grafikkarte nur die Hälfte des Bildschirms zu berechnen hat. BEIDE HABEN NUR DIE HÄLFTE DER ARBEIT! Eine berechnet die obere Hälfte, die andere die untere. Somit kann alles durch weniges Arbeit flüssiger laufen, und die Effekte können sie auch schöner berechnen.
@foofi: Letzte Frage,
-warum empfiehlst du mir NICHT die 8800GTS (320Mb)???
-und warum heißt die 7900GT und die 7950GT verschieden, wenn sie doch gleiche Leistungen haben???
Martin80
19.03.2007, 11:24
zu erstmal @DNA: das bedeutet, dass jede Grafikkarte nur die Hälfte des Bildschirms zu berechnen hat. BEIDE HABEN NUR DIE HÄLFTE DER ARBEIT! Eine berechnet die obere Hälfte, die andere die untere. Somit kann alles durch weniges Arbeit flüssiger laufen, und die Effekte können sie auch schöner berechnen.
....
Na, also das kann ich mir kaum vorstellen.
also wenn das wirklich stimmt, SUPER :D
Warum sollte das nicht stimmen??? Vertraut ihr mir etwa nicht :lol: !
Ich werde wohl kaum etwas reinschreiben, wenn ichs nicht genau weiß, oder!!!
Fragt einfach foofi! Der wirds euch schon sagen ;)
http://de.wikipedia.org/wiki/Scalable_Link_Interface#Funktionsweise
oder auch sehr interessant:
http://hardware.thgweb.de/2004/06/28/nvidia_sli_zwei_grafikkarten_rechnen_parallel/index.html
so nun hoffe ich, für euch etwas über das Thema SLI beigetragen zu haben ^^
lol was ein satz *rofl
foofi: Letzte Frage,
-warum empfiehlst du mir NICHT die 8800GTS (320Mb)???
-und warum heißt die 7900GT und die 7950GT verschieden, wenn sie doch gleiche Leistungen haben???
Weil die defintiv zu wenig Speicher hat. Die 7950 hat doch 512 MB, ist doch so, oder?
Ja, stimmt! Hätte nur nicht gedacht, dass es wegen dem Speicher ist. Hätte jetzt eher so daran gedacht, dass du sie mir ablehnst, weil ich XP habe oder so :wink: .
ich hab als ich se mir gekauft hab auch lieber 100€ draufgelegt für doppelten speicher. aber für ne GTX hats bei mir leider nicht gereicht ^^
Naja, das Problem ist, dass ich noch Schüler bin.... :cry:
Da dauerts schon ein bisschen bis man noch 100€ mehr hat :roll:
Naja, schaun ma mal :wink:
Trotz diesen ganzen Empfehlungen weiß ichs immer noch nicht so genau, obs jetzt eine 7950GT oder eine 8800GTS sein soll :?
@Robin ganz klar, nimm die 8800 GTS (wens geht die mit 640 MB) , da die auch schneller ist als 7950GT und DX10 unterstützt...
Wurde mir ja empfohlen. Rendiert sich das aber auch, wenn ich jetz noch spar, obwohl ich KEIN Vista hab?
Ja, spare lieber... (gehe Zeitung austragen oder Babysitten oder ähnliches :D ). Bin ja auch Schüler und habe mir vor kurzen nen neuen PC geholt, für 1700 €. Hab fast alles alleinge gezahlt...
ich hab als ich se mir gekauft hab auch lieber 100€ draufgelegt für doppelten speicher. aber für ne GTX hats bei mir leider nicht gereicht ^^
Die GTX hat auch ein ziemlich schlechtes Preis/Leistungsverhältnis im Gegensatz zur GTS.
auf beiden Karten ist der G80 drauf und in den meisten Fällen ist der auf der GTS nicht schlechter als der auf der GTX und du kannst die GTS auf das GTX Niveu und sogar darüber übertakten.
Meine GTS konnte von 513 MHz Core Takt über die 575 MHz der GTX auf satte 625 MHz übertakten und den Speicher von 1600 MHZ über 1800 (GTX) auf 1900 MHz.
Taktmäßig liege ich jetzt also über der GTX.
Jetzt habe ich nur noch ein paar Nachteile gegenüber der GTX, die meiner Meinung nach nicht den Aufpreis von 150-200 EUR Wert sind.
Nur 96 Shader anstatt 128
(Das ist der größte Nachteil)
Nur 640 MB VRam anstatt 768 MB
(Die Meisten Spiele werden um kompatibel zu bleiben wahrcheinlich nicht mehr als 512 oder 640 MB Ram verwenden)
Und zu guter Letzt ist das Speicherinterface nur 320 Bit anstatt 384 Bit breit.
(Dies holt man aber teilweise durch die Übertaktung wieder raus)
Bei 1900 MHz ist bei mir übrigens das ende der Skala angelangt. Mehr bietet das Übertaktungstool nicht an. Es geht mit einem anderen Tool sicherlich noch mehr.
Ok, ist ja klar. Aber rendiert es sich, wenn ich kein DX10 nutzen kann?
Habt ihr vielleicht einen Link, auf der die 8800GTS ein gutes Preisleistungsverhältnis hat? Wenns möglich wäre, eine die nicht über 350€ raus geht! Ich weiß dass das knapp ist, aber ihr kennt euch ja mit diesen Internetshops besser aus (welche sind gut, welche schlecht!)
Also wenns eine für 350€ gäb, wäre das spitze, ich hab bis jetzt leider nur ein Angebot gefunden (aber leider wurde der Shop sehr, sehr schlecht bewertet :cry: )
Noch was: Kann es sein, dass meine CPU etwas zu schlecht für diese Karte ist? Reicht ein Athlon 4600+ x2 dafür aus??? (hab gehört, sollte eigentlich schon Athlon 5000+ sein)
Dieses Angebot hab ich als billigstes gefunden:
http://www.norskit.com/norskit/default.asp?PageNo=DEFAULT&DeepLink=QI10000D%2CHardware%2CGRAKA%2DNVIC%2DGF88 00110035170%2C
Denkt ihr, die taucht etwas? Ach ja, hab jetzt schon mehrmals gelesen, dass jemand wegen einer etwas schlechteren CPU nicht viel aus der 8800GTS raus brachte. Reicht ein Athlon 4600+ x2?
gute Karte, guter Preis, billiger gehts kaum...
CPU dürfte ok sein
Habt ihr vielleicht einen Link, auf der die 8800GTS ein gutes Preisleistungsverhältnis hat?
Guckst du hier (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/30/#abschnitt_preis_leistung_verhaeltnis) ganz unten.
Die 8800 GTS hat nach der X1900 das beste Preis/Leistungsvehältnis, dass du bekommen kannst. Das ist definitiv besser als das der 7900 GT. Das lohnt sich auch bei DX9 Spielen.
In dem Tests kannst du auch die 640'er und 320'er Version der GTS Vergleichen.
Solange du in niedrigen Auflösungen, ohne hohe AA und AF Settings spielst und niedrige Texturen verwendest unterscheidet sich die Leistung der beiden Karte kaum.
Wenn du aber höhere Auflösungen und eine höhere Qualität verwendest, dann kann sich die 640'er Verion von der 320'er absetzen, wie man sehr gut im Performancerating (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/24/#abschnitt_performancerating_qualitaet) erkennt.
Bei hohen Auflösungen und guter Qualität ist die bis zu 36% schneller.
hey danke noxon. Besser wäre es nicht gegangen :wink:
Ach ja: Reicht ein 500W Netzteil aus? Und die 8800GTS braucht ja 2 Stromanschlüsse oder (also so viele wie der SLI-Modus von einer 7-er Karte???)
@Robin ja das Netzteil reicht für eine 8800 GTS aber wenn du dir später noch eine 8800 GTs holen willst dann wird es denke ich nicht reichen. Und die 8800 GTs braucht nur einen Stromanschluss...
@DNA: hui! Jetz lass erst ma EINE kommen :lol:
Bis überhaupt eine zweite kommen würde, gibts schon wieder bessere.
außerdem passt auf mein motherboard kein SLI :cry:
@noxon: welches tool benutzt du denn zum übertakten? haste vll mal n link? und woher weiß ich wie weit ich gehen kann beim übertakten?
Centurio81
21.03.2007, 00:15
also du lädst dir das ATI TOOL runter und dann lässt du das tool den max core suchen.. der geht dann schrittweise hoch bis sich die karte aufhängt.. da weißte dann das das die grenze is.. das selbe beim speicher..
Musst wenn die sich aufhängt neu starten..
wenn du die max werte hast, dann stellst du die als profil ein und sagts er soll die jedesmal beim hochfahren laden..
Zack, so einfach is das.. ;)
@noxon: welches tool benutzt du denn zum übertakten? haste vll mal n link? und woher weiß ich wie weit ich gehen kann beim übertakten?Unter Vista ist man da noch etwas eingegrenzter. Da funktioniert nicht jedes Tool. Der Riva Tuner macht zum Beispiel noch Probleme.
Ich habe daher das ExperTool (http://www.gainward.net/support/index_de/) von Gainward verwendet. Später habe ich auch mal das ATi Tool ausprobiert und das scheint auch zu funktionieren. Du kannst dir also eins aussuchen.
hey leutz.. ich hab nur mal kurz so ne frage...
ich wollt eigentlich bevor crysis kommt ( 2 wochen vor oder so...)mein pc aufrüsten...
d.h. neue graka vista und ram...
und etz die frage...
verträgt sich die graka Club 3D GeForce 8800 GTX, 768MB GDDR3, 2xDVI, PCIe mit meim anderem zeuch... es hat ja scho leute gegeben bei denen mit schwachem cpu die graka net die optimale leistung brachte...
was ich hab AMD Athlon 64 x2 dual core proz 4400+ 2.21Ghz
und rentiert sich des aufrüsten von meiner nvidia gf 7800 GTX auf die 8800 überhaupst?? oder gibts da ne bessere lösung??
thx scho mal für die antworten
@w0ken:
Also deine CPU müsste reichen :wink:
Hab vor kurzem Warpspeed die selbe Frage gestellt, weil er eine (wie man bei seinem System sieht) 8800GTX und einen Athlon 3800+ x2 hat! Er meinte, er merke nichts von schlechterer Leistung. Also von daher.... müsste reichen :wink:
thx.... ging super schnell und der satte preis von 530 ... wir bis crysis auch noch hoffentlich fallen ;) ...
greaz ;)
So, ich hätte mal wieder eine kurze Frage zu Grakas (ich glaub, ich bin schon Stammgast in diesem Thread :lol: :lol: )
Also, was heißt das:
450W Netzteil mit 1x PCIe Stromanschluß und 2x HDD Stromanschluß frei benötigt
dieser Text kommt von einer 8800GTS (640Mb). Und ich weiß nicht, was HDD Stromanschlüsse sind. Hier ist der Link für genauere Angaben:
http://www.alternate.de/html/product/details.html?articleId=169025&showTechData=true#tecData
@foofi: Du hast doch das selber Netzteil wie ich, oder? Weißt du vielleicht, ob dieses NT diese Anschlüsse hat? Außerdem heißt es, dass die Graka zwei Slotblenden belegt. Das sind keine PCIe Steckplätze, oder?
THX, im Voraus :wink:
@foofi: könntest du nochmal schnell den Beitrag vor diesem lesen :wink: !
Ich weiß echt nicht was das für Anschlüsse sein sollen? :?:
SuSELinux
23.03.2007, 19:20
Ich nimm mir mal das Recht raus zu antworten, auch wenn du foofi direkt angesprochen hast ;)
Das die GraKa zwei Slotblenden belegt, heißt genau das, was im Wort steckt.
Die Karte ist doppelt so breit wie eine einfache Karte. Sollte also unter deinem PCIe-Steckplatz direkt noch einer kommen (ohne Abstand) geht dieser mit flöten! Meist ist da aber genug luft, so dass du nur zwei BLENDEN brauchst! Es heißt also nciht, dass du zwei Steckplätze haben musst für die Karte!!
Sieht man aber doch eigentlich auf dem Bild sehr gut:
Bei den Stromanschlüssen kann ich nur rätseln. Ich denke damit sind S-ATA Stromanschlüsse gemeint...Oder aber 2 normale 12-Volt Stecker...ka wieso!
erstma thx für die erklärung. Ich hatte das gedacht, weil ich nicht wusste, was slotblenden sind. Ich dachte schon, dass es auf zwei slots geht, sieht man an dem großen lüfter!, aber ich war mir nicht sicher (wegen dem begriff). Ansonsten zu den Anschlüssen: Wieso die Frage, ganz einfach, wegen der Stromversorgung. Den PCI stromstecker hab ich, aber ob ich diese zwei HDD-Anschlüsse hab, weiß ich eben nicht (wess ja net ma, was des sein soll :roll: ), deswegen die Frage :wink:
SuSELinux
23.03.2007, 19:30
Ich kann mir höchstens vorstellen, dass es sich dabei um eine alternatvie handelt, für leute die kein PCI-Express Netzteil haben....das es da nen Adapter gibt von zwei normalen 12Volt Anschlüssen auf einen PCIe....
Wo hast du die Info denn her das man einen PCIe braucht UND zwei HDD-Anschlüsse???
Wo hast du die Info denn her das man einen PCIe braucht UND zwei HDD-Anschlüsse???
Das ist das Standardlayout von Nvidia. Wenn man kein Nezteil mit PCIe Stromstecker hat. Auf der Karte ist ein PCIe Stecker und das benötigt halt zwei normale Stromstecker per Adapter. Der Stromadapter ist aber nicht überall mit dabei.
Es ist nicht ratsam per Y Adapter den normalen Stromadapter an ein PCIe Stecker zu hängen - könnte ziemlich heiss werden...
SuSELinux
23.03.2007, 19:36
Ja eben. Hab ich ja vermutet, dass es ein ODER ist!
Alles andere wäre unlogisch gewesen :)
Dann hat sich ja alles geklärt!
@SuSELinux
Ich glaub ich werd blöd? Keine Ahnung wo ich das gelesen hab. Hätte gedacht das war bei Alternate. Da stehts aber nicht. Von daher: KP
:?: :roll:
@foofi:
dir auch erstma thx :wink: ! Wusste wirklich net was das sein sollte. Also brauch ich mit meinem NT das nicht. Ich hab ja für PCI-Karten einen Stecker! Nein, sogar zwei seh ich grad... für SLI. (Zum Glück! Neues NT :D !!!)
Ok, ich würd sagen, ich bin aufgeklärt! Auf euch kann man sich halt verlassen :wink: :wink: ! THX :wink:
Ich hab ja für PCI-Karten einen Stecker! Nein, sogar zwei seh ich grad... für SLI. (Zum Glück! Neues NT :D !!!)
seht ihr... so ein NT macht viel her ;) viel Spass mit dem PC ;)
Hey Leude.
Hab da mal ne Frage, hab mir gestern eine GeForce 8800GTX gekauft, die is heut morgen angekommen.
Jezz besteht nur das Problem das auf der Folie von der Graka steht man bräuchte 2 power connectors bevor man den PC startet.
Dabei war aber nur ein sogenannter Y-Splitter.
In dem Heftchen der Graka steht aber man soll diesen Y-Splitter nicht benutzen (?!).
Vll hat hier wer von euch nen Rat ,..... danke schonma
MFG reVo
Du benötigst unbedingt zwei PCIe Stromadapter
oder
4 normale Laufwerks Stromanschlüsse - davon je zwei an einem Y Adapter für 1 PCIe Stromanschluss.
Also bei deinem Y-Splitter kann ich dir helfen. Das gleiche hat mir foofi gestern erklärt. Ganz einfach: Den solltest du NICHT benutzen, weil es dann zu heiß wird/werden kann. UND DAS IST NIE GUT :wink: .
Zu den Power Connectors, kann ich mal raten: Hat deine 8800GTX vielleicht ZWEI Anschlüsse für einen PCI-Stecker? Schau mal nach. Das könnte es vielleicht sein. Also die 8800GTS braucht nur eines, wie es bei der GTX ist, weiß ich nicht so genau :roll: .
EDiT: Hab grad mal gegoogled, hiervon habe ich momentan EINS:
http://img292.imageshack.us/img292/7619/06759oym4.jpg
Ok, dann kann ich dir helfen. Wie foofi geschrieben hat, brauchst du jetzt ZWEI Y-Splitter. Diese beiden kommen dann an die Anschlüsse der Graka. Weil dein NT keinen PCI-Stecker hat, brauchst du (wie foofi eben gesagt hat :wink: ) 4 Laufwerksstecker, die dann an die 4 Enden der beiden Splitter kommen. Ist nicht empfehlenswert, aber wenns nicht anders geht (wenn du nicht genug Laufwerkstecker hast, muss halt leider eine neues NT her. War bei mir auch so :wink: )
Big thx an euch, habs hingekriegt, hatte noch 1 so'n Ding an meinem Netzteil !
Klappt alles richtig geiL, und die Games machen direkt 10x soviel bock *g*
HarryRulez
30.03.2007, 08:45
Hab mal ne frage (nicht lachen^^)
Habe ja die 7900gx2 und das 2mal^^ Also 4 Karten a 500 = 2GB Ram qwasi Quad Sli. Hmm und nun kommt die Hammer Frage:
Wenn ich eine davon verkaufe und mir ne 8800 zulege , kann ich die zusammen mit noch einer vorhanden 7900gx2 laufen lassen? Ich mein wie soll das gehen einmal dx9 und einmal dx10? Treiber technisch gesehen , wohl undenkbar oder?
Hey also erstma. Warum hast du so viel geld für grakas iss ja der hamer ^^
Hab nur ne X1950 pro und damit schon glücklich ^^
Naja also ich mein du kannst nicht einfach ne 8800 dazu packen.
Weil SLI kann man doch nur 2 grakas der gleichen bauart zusammenpacken.
Corssfire zwar 2 verschiedene also auch eine DX9 mit ner DX10 karte aber dafür brauch man immer eine sauteure Mastercard...
ka ob das so stimmt aber das hab ich ma gehört ^^
HarryRulez
30.03.2007, 11:14
Hmm Crossfire mal googeln^^
PS: Me Unternehmensberater :D
asoo ^^ das fließt das geld nur so wa ^^
also crossfire iss eig das gleiche wie SLI also auch zwei grakas und so nur halt von ATI und halt bisschen andere Features ;)
So, die Graka ist bestellt (GeForce 8800GTS), wird wahrscheinlich in einer Woche (MUSSTE PER VORKASSE BESTELLEN :evil: :evil: :evil: ) kommen. Muss ich irgendwas beim Einbau- bis auf die zwei Slotblenden- beachten???
bei Crossfire
du brauchst
1. eine Masterkarte
2. eine andere derselben Reihe
zB: 1950 als Masterkarte + eine 1950xt/xtx
die Karten werden an den Speicher und den Takt angepasst
(auf den niedrigeren) damit alles gleich ist
CF ca gleich teuer wie SLI
Es gibt mehr Mainboards da Intel Chips dürfen auch CF unterstützen
AMD/ATI-Chips natürlich auch
Das ist soweit ich was weiß (bevorzuge SLI)
sonst http://de.wikipedia.org/wiki/ATI_Crossfire
bei Crossfire
du brauchst
1. eine Masterkarte
2. eine andere derselben Reihe
zB: 1950 als Masterkarte + eine 1950xt/xtx
die Karten werden an den Speicher und den Takt angepasst
(auf den niedrigeren) damit alles gleich ist
CF ca gleich teuer wie SLI
Es gibt mehr Mainboards da Intel Chips dürfen auch CF unterstützen
AMD/ATI-Chips natürlich auch
Das ist soweit ich was weiß (bevorzuge SLI)
sonst http://de.wikipedia.org/wiki/ATI_Crossfire
@Ph1l1p: War dieser Satz jetzt auf mich bezogen??? Nein, oder?
SLI interessiert mich relativ wenig, weil mein Motherboard sowieso kein SLI unterstützt, also von daher... :roll: :wink:
eher ne allgemeine Erklährung
So, die Graka ist bestellt (GeForce 8800GTS), wird wahrscheinlich in einer Woche (MUSSTE PER VORKASSE BESTELLEN :evil: :evil: :evil: ) kommen. Muss ich irgendwas beim Einbau- bis auf die zwei Slotblenden- beachten???
Einfach in den PCIe 16x Slot reinstecken der dem Prozessor am nähsten liegt und den PCIe Stecker anschließen. Mehr gibt's nicht zu beachten.
Was für eine GTS hast du denn gekauft? Die 320 oder 640'er?
Die 640'er ist nämlich schon seit Wochen total vergriffen und es gibt echte Lieferschwierigkeiten. Ich würde das mit der Woche also nicht zu ernst nehmen. Es gibt Leute, die warten schon seit Wochen auf die Karte.
@noxon: Ich habe eine 640-er bestellt. Hier ist der Shop:
http://www.1deins.de/index.php?kategorieId=&artikelId=VGAP64-POV005
Sie war vorrätig und dort am billigsten. Das mit dem Ausverkauft hab ich LEIDER mitgekriegt. Hab lange gesucht, bis ich die gefunden hatte.
Zustand stand so dort:
"Produkt lieferbar" (Zeichen war grün!)
Du musst auf "Listenansicht" klicken, um die Verfügbarkeit zu sehen :wink:
Ich mein aber das man bei Crossfire halt nicht eine zweite karte der selben Bauart braucht.
Das ja der vorteil gegenüber SLI.
"Produkt lieferbar" (Zeichen war grün!)
Bei mir auch und als sie nach 2 Wochen nciht da war habe ich storniert und wo anders bestellt und dort dauerte es zwar auch zwei Wochen, aber die waren auch angekündigt.
Hatte halt Pech beim ersten Shop.
@noxon:
Wie du aber (hoffentlich) gesehen hast, haben die mehrere Grakas noch auf Lager. Ich hoffe du hattest Unrecht mit dem warten :(
Klick mal auf Listenansicht, dann siehst du die Verfügbarkeiten von allen Grakas :wink:
Also: GUTE NACHT
Beim Einbau wäre ich folgendermaßen vorgegangen: (sagt bitte, wenn etwas falsch ist!!!!!)
PC hochfahren > alten Grafikkartentreiber deinstallieren (auf Systemsteuerung/Software) > PC runterfahren > alte Karte raus > neue Karte rein > BIOS erkennt automatisch > Windows XP erkennt automatisch > neuen Grafikkartentreiber (NVidia) installieren > Einstellungen anpassen
schreibt bitte, wenn etwas falsch wäre
Noch was: Muss ich den alten Treiber NUR in der Software deinstallieren oder noch wo anders ???
THX, beforehand :wink:
Perfekt.
So und nicht anders wird's gemacht. :)
Natürlich den Stromstecker nicht vergessen. :)
Natürlich den Stromstecker nicht vergessen. :)
klaro :wink: :) , und wenn wir schon dabei sind, NICHT VERGESSEN:
An der Heizung erden! :P
Lass einfach den Stecker im Netzteil und fass das Rechnergehäuse an. Das reicht. :)
Netzteil solltest du aber ausschalten.
@noxon:
Hab ich das dann richtig verstanden, dass NUR der Treiber in der Software deinstalliert werden muss? Hab grad gegoogelt und gelesen, dass man im Gerätemanager auch deinstallieren soll. Das war zwar Windows ME und 2000, aber ich weiß ja nicht, ob das auch für XP gilt. Man kann den Treiber folgendermaßen (glaube ich) auch deinstallieren. Kannst mal gucken :wink: :
-Rechtsklick auf leeren Desktop / Eigenschaften / Einstellungen / Erweitert / Grafikkarte / Eigenschaften / Treiber / Deinstallieren
Was macht diese Deinstallation dann??? :?: :roll:
Aber ich mein, wenn das in der Software reicht, dann mach ichs auch nur dort, aber das hat mich jetzt halt nochmal verunsichert (wegen den blöden Treiberkomplikationen :evil: )
Damit hebst du nur die Zuweisung des Treibers für die Graka auf, aber deinstallierst den Treiber nicht. Das sollte man machen, wenn man kein Uninstallprogramm mehr für den Treiber hat.
Es ist besser, wenn du den Treiber ganz einfach über das Startmenü oder über Software in der Systemsteuerung deinstallierst.
ok, thx :wink:
(kennst mich ja, ich geh immer lieber auf nummer sicher :) :roll: )
Jack3443
01.04.2007, 23:00
Ich finde Nvidia sollte wieder einen Treiber für XP rausbringen. Derjetzige ist uhralt und stalker läuft damit nciht mehr richtig.
Jetzt muss ich es immer in Vista spielen aber nur der Admin hat in Vista volle leistunf (eigenartig :roll: )
Moin!
Kurze Frage (schon wieder :P )
Die GTX unterscheidet sich von der GTS nur vom Speicher und der Taktfrequenz, oder?
@noxon: Du sagtest du hast deine GTS übertaktet. Wieviel hast du damit ungefähr rausgeholt? :wink:
Also ich weiss nur das die GTX 9% schneller ist als die GTS und das ist nicht gerade viel.
Genau!, deshalb geb ich doch keine 200€ mehr aus! :o
Das ist Schwachsinn. Ich weiß nicht mehr genau, aber noxon hat glaube ich mal geschrieben, dass er seine GTS übertaktet hat, und diese dann besser als die GTX sei. (weiß es aber nicht mehr genau :wink: )
Die GTX unterscheidet sich von der GTS nur vom Speicher und der Taktfrequenz, oder?
Nein. Nicht ganz. Die unterscheidet sich noch in einigen anderen Dingen.
Die Haupteinschränkung der GTS ist die geringere Shaderanzahl. Die hat nur 96 Shader, anstatt 128 wie die GTX.
Der Speicher ist mit 640 bzw. 320 MB auch geringer, als die 768 MB der GTX. Die Speicheranbindung ist mit 320 Bit auch etwas gerigner als bei der GTX mit 364 Bit. Des Weiteren gibt es noch einige Unterschiede bezüglich der TMUs und ROPs die ich jetzt nicht auswendig weiß.
Diese ganzen Benachteiligungen lassen sich auch nicht per Software wieder ändern. Man kann nicht, wie früher, stillgelegte Pipelines wieder freischalten. Weder per Software noch per Hardware Mod. Die sind per Laser Cut direkt auf dem Chip deaktiviert worden.
Das Einzige, was man machen kann um die Performance zu erhöhen, dass ist die Taktrate zu ändern.
@noxon: Du sagtest du hast deine GTS übertaktet. Wieviel hast du damit ungefähr rausgeholt? :wink:
Den Coretakt habe ich von 500 MHz auf 625 MHz übertaktet (+25%). Die GTX ist mit 575 MHz getaktet.
Den Speicher habe ich von 1600 MHZ auf 1900 MHZ übertaktet. Mehr bietet mein Übertaktungstool momentan nicht an. Die GTX ist mit 1800 MHz getaktet.
Letztendlich liege ich taktmäßig also über einer GTX. Das macht im gewissen Maße den etwas reduzierten Speicherdurchsatz und die fehlenden Shadereinheiten wieder wett.
Die GTX ist aber weiterhin besser als eine übertaktete GTS. Trotzdem ist sie nicht sooo gut, dass es sich wirklich lohnt 2/3 des Preises einer GTS mehr zu zahlen nur um 10% mehr Leistung zu bekommen.
@noxon: Hattest du eigentlich Probleme mit dem Treiber?
Hab jetzt schon alles mögliche gelesen, wegen schlechten Treibern. Von blauen Streifen auf dem Bildschirm bis hin zum Absturz oder zum einfrieren des PC's. Einige Spiele laufen bei anderen PC gar nicht, oder hängen sich auf. :(
Hattest du irgendwelche Probleme mit der Karte?
@noxon: Hattest du eigentlich Probleme mit dem Treiber?
Ich habe weder Probleme mit dem Treiber noch mit der Karte.
Obwohl. Eine Sache funktioniert nicht mehr richtig, seit ich die neue KArte habe.
Die Schriftarten in den Windows-Games (Solitaire und Texas Hold'em) stimmen nicht mehr. Sie sind viel zu groß und lassen sich nicth mehr richtig lesen. Das ist aber auch das einzige Problem, dass ich habe.
Die Karte an sich macht im Grunde genommen auch keine Probleme, obwohl mein Exemplar ziemlich heiß wird im Vergleich zu anderen. Keine ahnung woran das liegt. Vielleicht haben die zu viel Wärmeleitpaste aufgetragen oder so.
Es ist aber nicht kritisch. Trotzdem ist die Karte recht heiß.
@noxon:
Hast du deine Firewall ausgestellt, als du den alten Treiber gelöscht und den neuen installiert hattest? Hab gelesen, dass es sonst zu Komplikationen zwischen den beiden käme (wobei ich das nicht ganz glaube, aber man weiß ja nie :wink: )
(Sry, wegen dem ausfragen :wink: !)
Das wäre sodann die letzte Frage (wenn mir keine mehr einfällt :D :wink: )
Ich hab keine Software-Firewall.
Ob's zu Problemen führt weiß ich nicht. Es kann durchaus sein, dass einige Firewalls bei solchen Systemzugriffen irgendwie Probleme bereiten, avber ich halte das für sehr unwahrscheinlich.
Kannste ja ausschalten. Schadet ja nicht.
@noxon:
wie siehts mit der forceware aus?
So, ich habe vor, diesen Treiber zu installieren: http://www.nvidia.de/object/winxp_2k_97.92_de.html
Wenn ich diesen nun installiere, überschreibt er einfach meine alte Forceware? (die für die 7-er Serie) Oder muss ich sie manuell löschen?
:?:
thunderstorm
04.04.2007, 10:57
Wenn ich Treiber installiere, deinstalliere ich den vohrherigen erstmal komplett und dann Neustart und neue Treiber drauf, und danach wieder Neustart. :roll: :D
D.h. ich gehe immer auf Nummer sicher und lösche erstmal den alten treiber.
is ja logisch :wink:
ich wollte nur wissen, wo man den alten löschen kann (also den grafikkartentreiber löscht man bei systemsteuerung unter software) aber die forceware? Wo löscht man diese???
thunderstorm
04.04.2007, 11:31
http://www.hardwareoc.at/forceware-treiber-deinstallieren.htm
Ist hier was bei ?:lol:
Ich denke mal die wird genauso gelöscht, keine ahnung.
So, erst ma Danke an alle, die mir geholfen haben mit Tipps :wink:
Läuft alles prima, bis auf die Lautstärke der Karte :?
Was kann man da machen (vielleicht etwas einstellen???), wenn nicht müssten halt so Gummidinger her :wink:
Bei Spielen brummt sie so blöde, und danach brummt sie immer noch mindestens 5min. bis sie etwas leiser wird :?
ach ja, speziell @ noxon: Danke (und das du es ausgehalten hast :wink: :D )
is ja logisch :wink:
ich wollte nur wissen, wo man den alten löschen kann (also den grafikkartentreiber löscht man bei systemsteuerung unter software) aber die forceware? Wo löscht man diese???
Ja, genau richtig: Unter Systemsteuerung -> Software -> NVidia
Ihr wisst ja, dass es für die Komponenten im PC solche "Gummiteile" gibt, die den PC leiser machen. Ich weiß leider nicht, wie diese Teile heißen. Gibts dafür einen bestimmten Namen, dass ich mich mal umschauen kann, nach dem Zeug. Meine neue Graka ist beim spielen "etwas" zu laut, genauer: sie ist laut! :?
Deswegen schau ich mich nach diesen Dingern um, hab sie aber nirgends unter verschiedenen Namen finden können. Ich hoffen ihr wisst, was ich meine :wink:
also du weisst, dass modifikationen der Karte zum erlöschen der Garantie führen... die Karten stellen sich in der Regel je nach Temperatur automatisch ein. Wenn die überhitzen sollte, dann hast du pech gehabt.
naja, fürs modifizieren bin ich eigentlich gar nicht so. Ich meine diese Gummidinger für den PC, die die Lautstärke dämpfen! Die baut/legt man irgendwie an die Grafikkarte dran, und dann vibriert die nicht so und ist leiser :roll: ! Ich weiß nur nicht, wie diese heißen, ... leider :( ! Deswegen wollte ich wissen wie die heißen, damit ich mal nachschauen kann :wink: (vielleicht habt ihr ja gleich einen Link :roll: )
Also so etwas gibt's meines wissens nicht.
Mit diesen Gummidingern werden nur Vibrationen absorbiert, die zum Beispiel durch Festplatten oder Lüfter entstehen. Bei einer Graka bringt dir das nichts. Die lässt sich auch nicht völlig vom Gehäuse entkoppeln, da sie ja im Mainbaord steckt.
Du kannst bei einer Graka lediglich die Lüftergeschwindigkeit fest einstellen um die Geräuschpegel zu beeinflussen. Ich würde sie sich aber unbedingt automatisch regeln lassen. Dann ist sie nur beim Spielen laut und im normalen 2D Betrieb leiser.
Du kannst also nicht viel an der Gräuschentwicklung ändern außer eventuell die Grafikkarte zu untertakten. :)
Es könte aber bald ein neue Treiber erscheinen, der den Stromverbrauch im 2D-Betrieb senken soll. Dann dürfte die Karte zumindest im 2D-Betrieb etwas leiser sein. Im 3D-Betrieb wird sich allerdings ncihts ändern.
Ach. Und noch etwas. Kleb dir keine Schalldämmmatten in's Gehäuse. Die bringen nur sehr wenig und haben den Nachteil, dass sie auch die Gehäuseinnentemperatur stark ansteigen lassen.
Die Folge ist, dass die Graka wieder den Lüfter hochdreht und wieder lauter wird. Man erreicht dadurch also das Gegenteil von dem, was man eigentlich erreichen möchte.
8600 GTS, 8600 GT und 8500 GT im Handel
15. Apr 2007, 00:01 Wieder einmal kann es vereinzelten deutschen Online-Händlern nicht schnell genug gehen, dem kaufwilligen Kunden Grafikkarten, die eigentlich erst in Kürze das Licht der Welt erblicken werden, feil zu bieten. So sind seit wenigen Stunden erste Modelle mit GeForce 8500 GT, GeForce 8600 GT und GeForce 8600 GTS von MSI im Sortiment eines Shops zu finden.
Erste Straßenpreise der neuen nVidia-Grafikkarten:
Bezeichnung Chip Chip-Takt Speicher Speicher-Takt Preis
MSI NX8500GT-TD256E 8500 GT 450 MHz 256 MB DDR2 400 MHz 99 Euro
MSI NX8600GT-T2D256E-OC 8600 GT 560 MHz 256 MB GDDR3 800 MHz 146 Euro
MSI NX8600GT-T2D256EZ 8600 GT 540 MHz 256 MB GDDR3 700 MHz 151 Euro
MSI NX8600GTS-T2D256E-HD-OC 8600 GTS 700 MHz 256 MB GDDR3 1050 MHz 203 Euro
MSI NX8600GTS-T2D256EZ-HD 8600 GTS 675 MHz 256 MB GDDR3 1000 MHz 208 Euro
Seltsamerweise sind die überakteten Varianten im „Vorverkauf“ günstiger zu bekommen als die regulären Versionen. Ein Umstand, der sich mit der Vorstellung der Mid-Range-Karten jedoch ändern dürfte und die Stichhaltigkeit der Preise in Frage stellt. Lieferbar sind die Karten, die alle über ein 128 Bit breites Speicherinterface verfügen, allerdings noch nicht. Mit der offiziellen Vorstellung ist im Laufe der kommenden Woche zu rechnen.
Quelle:
ComputerBase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/april/8600_gts_8600_gt_8500_gt_handel/)
Powered by vBulletin® Version 4.2.5 Copyright ©2025 Adduco Digital e.K. und vBulletin Solutions, Inc. Alle Rechte vorbehalten.