lol ist mir noch garnicht aufgefallen... wahrscheinlich hatten die ne 8800 GTS 320mb Turbocache Underclocked extreme edition^^ vor allem da ja auch die 8400(!) GS besser sein soll als die 8800 GtS 640^^
lol ist mir noch garnicht aufgefallen... wahrscheinlich hatten die ne 8800 GTS 320mb Turbocache Underclocked extreme edition^^ vor allem da ja auch die 8400(!) GS besser sein soll als die 8800 GtS 640^^
Geändert von shadypepe (28.09.2007 um 13:49 Uhr)
Q6600 / EVGA e-Geforce 8800 GTS 640MB 576/1700 / 2GB OCZ 800 Ram / Thermaltake Armor Alu Big Tower / LG M228WA 22 Zoll Widescreen
Nvidia an die Macht .:!
dis muss ah so bleiben Geforce Nvidia macht einfach die besseren chips un dis zeichnet sci immer wieder nieder![]()
Man was mir wieder passiert isHab mal so zum Spaß auf ne GTS geboten und jetz hab ich se gekauft. Für 177Euro. Allerdings werd ich aus der Beschreibung nicht ganz schlau, bin mir ziemlich sicher, dass es die neuste GTS 512MB ist, aber es kommt auch mal 640MB vor. Hier die Beschreibung, was meint ihr dazu:
---------------
XFX GF8800GTS Shader 4.0 High-End Grafik, 640 MB
Verkaufe sehr gut erhaltene XFX GF8800GTS. Sie wurde am 05.02.2007 bei Alternate gekauft. Rechnungskopie wird beigelegt. Es sind 2 Jahre Garantie. Beschreibung: Die "zweite" GF8800GTS (G92 Chip) verfügt über einen 640 MByte GDDR3 Speicher, der über eine 256 Bit breite Schnittstelle angebunden ist. Die GPU taktet mit 650 MHz, der Speicher mit 1940 MHz. Die XFX 8800GTS bietet DirectX 10, Shader Model 4.0, PCIe 2.0 und verfügt über 128 Unified Shader Einheiten. » mehr Details Anschlussart PCIe 2.0 x16 Stromversorgung Anschluss 1 x 6-pin max. Verbrauch ca. 143 Watt (bei Volllast) Grafikchip Bezeichnung NVIDIA GeForce 8800 GTS Taktfrequenz 650 MHz Stream Prozessoren 128 Shader-Takt 1625 MHz Shader Model 4.0 Full Screen Anti Aliasing bis 8 fach Anisotropisches Filtering bis 16 fach DirectX Version 10 OpenGL Version 2.0 Speicher Kapazität 512 MB vorhanden Typ GDDR3 Taktfrequenz 1940 MHz Speicheranbindung 256 Bit RAMDAC 1. RAMDAC 400 MHz 2. RAMDAC 400 MHz Auflösungen 1024x768x32Bit 240 Hz 1280x1024x32Bit 170 Hz 1600x1200x32Bit 120 Hz 2048x1536x32Bit 85 Hz 2560x1600x32Bit 60 Hz (Dual Link) MPEG2 Wiedergabe Ja Encoding Nein Direkte Anschlüsse 2 x DVI-I Ausgang davon 2 x mit HDCP davon 2 x Dual Link 1 x S-Video Ausgang Anschlüsse über Adapter 2 x VGA Ausgang Kompatibel zu: Windows XP, Windows Vista Zubehör: Handbuch, DVI auf VGA Adapter, S-Video-Kabel, Treiber CD Abmessungen (BxHxT): 110 mm x 40 mm x 240 mm Besonderheiten: belegt 2 Slots, SLI Support Bemerkung: mit Kühlkörper und Lüfter inkl. Speicherkühlung Weitere Infos: Unterstützt DirectX 10, OpenGL und HDCP. 128 Unified Shader.
Grafikkarte lief in einem Nichtraucherhaushalt.
----------------
PS: Der Verkäufer hat 226 Bewertungen *freu*
Was mach ich jetzt nur mit der Karte, die könnt ich doch locker für 100 Euro mehr wieder verkaufen oder?
Geändert von CRYSISTENSE (28.01.2008 um 20:10 Uhr)
The mind is a cage, but there is no prisoner inside
Ich wette mit dir, dass es die alte GTS ist mit 640MB, nicht die Neue und den Text hat er einfach, weil er keine Ahnung davon hat, von irgend nem Shop oder sonst wo kopiert. Aber in beiden Fällen hast du n Schnapper gemacht, also falls es die alte GTS is, verkauf sie wieder für 210-220€ und wenns die neue is, haste eben n Schweineglück gehabt...ich glaube aber eher nicht daran.![]()
Ah verdammt du hast Recht gehabt. Es ist die alte, hab gerade nochmal nachgefragt. Obs Absicht war oder nicht... egal. Jedenfalls kann man mit der alten auch noch bischen Gewinn machenSoll ich sie übertakten oder so lassen, damit die Garantie nicht verfällt. Weis nicht, was mehr Geld bringt
![]()
The mind is a cage, but there is no prisoner inside
lass die doch so und biete es nebenbei an zb. beim kauf übertaktung möglich etc. so hältst du dir beide seiten offen![]()
Jo so mach ich das. Ach ja, hab grad noch ne 8800GTX für 181 bekommenWenn das ma nich derbe is. Würd ja gern den Link geben, aber ich darf ja nicht. Es ist keine normale GTX sondern ein Prototyp. Hier mal die Beschreibung:
Zum Verkauf steht eine nVidia Geforce 8800 GTX mit 384MB Speicher. Die Grafikkarte ist einzigartig da die offizielle Speicherkapazität einer 8800 GTX 768MB ist. Ich habe die Grafikkarte von einem Spielehersteller so bekommen mit der Aussage sie würde durch den halbierten Speicher ca. 90% der Leistung einer 8800 GTX mit 768MB erreichen. Nichts desto trotz lassen sich spiele wie S.T.A.L.K.E.R. oder C&C Tiberium Wars auf höchsten Einstellungen flüssig spielen.
Da ich mich selbst über so ein Modell gewundert habe, habe ich mich im Internet kundig gemacht. Dabei haben andere Leute bestätigt, dass es sich um einen Prototyp von nVidia handeln muss, der extra im voraus für Spielehersteller herausgegegen worden sein muss. Das sei an der Karte zu erkennen da unter anderem nicht zwei 6 pin, sondern ein 6 pin, und ein 8 pin PCI Express power connector auf dem board verlötet sind.
Außerdem wurde mir auch gesagt das die Anzahl der verbauten Speicherchips gleich der der Original 8800GTX seinen, und womöglich nur deaktiviert worden seien.
Wie gesagt auch wenn es sich um solch ein "Prototyp" handelt, die Karte läuft einwandfrei, sehr leise und 100% stabil.
Hir nochmal ein paar Daten zusammegefasst:
GF 8800 GTX
Taktfrequenz: 575 MHz
Shader-Takt: 1350 MHz
RAM: 384MB GDDR3
Taktfrequenz Ram: 1800 MHz
Shader Model 4.0
2x DVI
1x TV-Out
Anschluss 1x 6-pin, 1x 8-pin (es reichen aber zwei 6-pin Kabel)
Hir noch ein paar Bilder:
http://img167.imageshack.us/img167/4161/p1010102ka0.jpg
http://img502.imageshack.us/img502/5750/p1000088dm5.jpg
http://img502.imageshack.us/img502/126/p1000085lx0.jpg
http://img517.imageshack.us/img517/8742/p1000081ss0.jpg
Geändert von CRYSISTENSE (28.01.2008 um 21:29 Uhr)
The mind is a cage, but there is no prisoner inside
wie schon vorher mal geschrieben kann ich nur eins sagen :
Nvidia ist gut in Sachen Performance
und
ATI ist gut im Preisleistungsverhältniss
PS:nach mehreren Monaten hat jetzt ATI die Radeon 3870 X2 ,die locker die GeForce 8800 GT und GTS überholt
Quelle:http://www.computerbase.de/artikel/h..._hd_3870_x2/2/
@Blackstrike
stimmt nicht so ganz !!!
Wie überall, wo Crossfire oder SLI zum Einsatz kommen, steht und fällt auch die Radeon HD 3870 X2 mit den Treibern. Funktionieren Crossfire oder SLI nicht, rechnen auch zwei Grafikchips nicht schneller als ein einzelner. Und das passiert ständig: Crysis ignorierte anfangs eine zweite Grafikkarte, obwohl Nvidia bei der Entwicklung des Spiels beteiligt war – somit hätte wenigstens SLI funktionieren müssen. In der Praxis verlangt fast jedes Spiel für den Betrieb mit mehreren Karten oder GPUs Anpassungen im Treiber.
AMD und Nvidia haben zwar mittlerweile Automatismen eingebaut, die selbstständig den optimalen Zwei-Chip-Modus erkennen sollen. Stoßen diese Algorithmen jedoch auf Unwägbarkeiten, schalten sie die zweite Karte erst mal ab. Das bedeutete für Besitzer von Nvidias Geforce 7950 GX2 (2006), dass sie oft nur auf eine Geforce 7900 GT zurückgreifen konnten. Auch die hier getestete Radeon HD 3870 X2 sowie die zum Vergleich herangezogen SLI- und Crossfire-Verbünde zeigen das gleiche Verhalten.
Im Zusammenspiel mit der vorliegenden Treiberversion enttäuscht uns die Radeon HD 3870 X2. Offenbar war der Beta-Treiber noch nicht wirklich optimiert. Anders können wir uns die extrem schlechten Resultate mit Kantenglättung in World in Conflict und Company of Heroes nicht erklären (in Unreal Tournament 3 beherrschen die Radeons grundsätzlich keine Kantenglättung). Im Idealfall erreichen zwei Grafikchips bis zu 80 Prozent mehr Leistung als ein einzelner, 100 Prozent Zuwachs sind in Spielen praktisch unmöglich. In unseren Benchmarks rechnet die Radeon HD 3870 X2 jedoch höchstens 40 Prozent schneller als eine Radeon HD 3870. In den von AMDs veröffentlichten Benchmarks kommt die X2 (naturgemäß) besser weg: Statt aktueller Spiele zeigt AMD dort Werte vom 3DMark2006 und 2005 – kein Spiel nutzt die dort verwandte Engine. F.E.A.R., Quake 4 und Call of Juarez profitieren laut AMD ebenfalls stark vom zweiten Grafikchip, nur braucht dafür niemand eine 450-Euro-Grafikkarte. Viel Spielraum für Verbesserungen also.
quelle: gamestar
Geändert von Bloodsucker78 (28.01.2008 um 21:21 Uhr)