Archiv verlassen und diese Seite im Standarddesign anzeigen : NVidia G80
- http://the-inquirer.com/?article=32385
All we could confirm at this time is that the chip will be DirectX 10 compliant of course but it won't have the full implementation of Shader Model 4.0. It won't do the unified Shader but it will be Vista ready. Most of the chips out today are Vista ready at least the high end ones.
Nightspider
13.06.2006, 20:02
Toll...
...eine Inquirer Nachricht...
Soll das hier jetzt ein Hardware Forum werden ?
Da gibts bessere Foren für...
Ich denke mal das Forum is dafür da, um Hardware Fragen zu Games oder Probleme zu besprechen, bzw. bei Crysis, welches noch nicht draußen ist.
Aber bitte...ist ja alles erlaubt...(nur sinnlos)....
Toll...
...eine Inquirer Nachricht...
Soll das hier jetzt ein Hardware Forum werden ?
Sieht so aus, oder? ;)
Crysis-HQ.com Foren-Übersicht -> Hardware
Außerdem denke ich, dass gerade für Crysis-Fans Neuigkeiten in Bezug auf die neuen DX10 Chips interessieren dürften.
Man ist doch immer froh hier mal was zu Neues zu lesen worüber man ja auch diskutieren kann. Es muss ja keine reine Newsmeldung bleiben.
Meine Meinung dazu ist jedenfalls, dass ich aus genau diesem Grunde keinen G80 Chip holen werde, sondern lieber noch ein paar Monate auf den R600 warte, auch wenn das bedeutet Crysis auch erst ein paar Monate spielen zu können.
Toll...
...eine Inquirer Nachricht...
Soll das hier jetzt ein Hardware Forum werden ?
^^ wenn du lesen kannst haben wir auch Unterforen... ;) ich habs schon ins richtige Forum gepostet.
@Noxon - danke für die Richtigstellung...
Back to Topic.
@ noxon... naja... also wenn du auf die/den/das? r600 wartest dürfte das kein nachteil sein... aifaik läuft direct x10 nur auf vista und das wird ja anscheinend nicht viel früher als die ati karte auf den markt kommen...
aifaik läuft direct x10 nur auf vista und das wird ja anscheinend nicht viel früher als die ati karte auf den markt kommen...
Das stimmt schon, aber kommt Vista jetzt nicht schon im November?
Das haben sie doch andauernd vor und wieder zurück verschoben. Genau weiß ich es jetzt auch nicht mehr, aber ich dachte immer, dass es im November schon soweit wäre.
Naja. Wie dem auch sei. Da ich eh warten muss ist mir das eigentlich auch egal.
Besonders seit ich mir gestern dieses (http://www.crystalxp.net/bricopack/en-crystal-clear.htm) Bricopack installiert habe.
Rasenmaeher
12.09.2006, 08:52
soweit ich weiß soll vista immer noch Januar im rauskommen. Aber wenigstens sind die Preise bekannt. :)
mich würd mal enrsthaft interessieren wie die des meinen: in einen interview wurde gesagt das Crysis mit einen G80 anders aussehen würd als mit ner R600. wie auch immer die des meinen. :?:
mfg.
Also bisher war das eigentlich immer der Fall, das Spiele bei verschiedenen Herstellern unterschiedlich aussahen. Das liegt daran, dass den Herstellern gewisse Freiheiten eingeräumt werden, wie sie etwas zu realisieren haben.
Sie können sogar selbst entscheiden, welche Funktionen sie aufnehmen möchten und welche nicht. DX9-Karten können zum Beispiel SM2 oder 3 enthalten.
Mit DX10 wird das anders. Da gibt es lediglich drei eher unwichtige Features in denen sich die Karten unterscheiden dürfen. Ansonsten müssen sie über die selben Funktionen verfügen um DX10 kompatibel zu sein. Das SM4 ist zum Beispiel so ein Pflichtfeature.
In sofern sollten die Spiele in DX10 nicht mehr ganz so unterschiedlich aussehen wie heut zu Tage, wo es aufgrund von unterschiedlichen Shaderversionen schon zu deutlichen Abweichungen kommen kann.
Trotzdem kommt es natürlich zu Unterschieden, da jeder Hersteller die Funktionen unterschiedlich interpretiert. Es ist ja nirgendwo genau festgelegt, wie ein Effekt tatsächlich auszusehen hat.
Außerdem verfälschen die unterschiedlichen Optimierungalghorithmen das Bild zusätzlich.
In sofern ist es unausweichlich, dass sie unterschiedlich aussehen, aber ich würde sagen, dass der Effekt nicht all zu groß sein wird. Wir haben ja auch schon die SP Demo auf ATi und nVidia Karten gesehen und keine markanten Unterschiede feststellen können.
Wo hast du das denn im Interview gelesen?
Rasenmaeher
12.09.2006, 11:55
thx für die antwort des stand vor paar monaten in der pcHardware (hab ich mir von einen Freund ausgeliehen) da stand es soll einen sehr deutlichen unterschied geben
ich mach jetzt mal ne umfage die heißt "G80 und R600" oder so ähnlich
mfg
pissdrunx1987
20.09.2006, 19:56
einige neue details:
http://www.winfuture.de/news,27541.html
die angaben sind wie immer mit vorsicht zu geniessen, aber aus der vergangenheit kann ich sagen, dass vr zone immer sehr na an den tatsächlichen daten dran ist, da sie viele insider in den entwicklungszentren (fabs) haben :wink:
das topmodell mit wakü für "nur" 649$? das is doch eigentlich noch erträglich
tja, nur wenn man bedenkt dass man die karte dann nicht nem p3 mit 800 mhz stecken kann^^
die karte alleine wäre ja noch bezahlbar, aber dann muss ja das restliche system der graka angepasst sein, und DAS wird dann teuer^^
In der Tat!
Dadurch das Dell nun mit AMD konsperiert sind die RAM-Preise massiv angestiegen, was man an meinem Speicher merken kann der satte 8Euro zugelegt hat! Und auch von Seiten der RAM-Hersteller ist das selbe zu vekünden.
Also ein System was ich noch vor 2 Monaten bei 1500 Euro angesetzt hatte kommt mich nun leider Gottes satte 1800 Euro und mehr! Abegesehen von den NextGen Grafikkarten!
Also der Spass wird deutlich teurer werden, als bisher geahnt! Hoffe nur dass sich die Preise regulieren und wieder fangen!
Dadurch das Dell nun mit AMD konsperiert sind die RAM-Preise massiv angestiegen, was man an meinem Speicher merken kann der satte 8Euro zugelegt hat! Und auch von Seiten der RAM-Hersteller ist das selbe zu vekünden.
Ich habe gehört, dass es an der stark gestiegenden Nachfrage liegen soll die durch Vista entstanden ist.
Viele die sich früher vielleicht nur 1 GB gekauft hätten kaufen sich nun 2 GB um für Vista gerüstet zu sein und da die Speicherhersteller in den vergangenen Monaten ihre Speicher eh zu Verlustpreisen anbieten mussten, müssen sie nun das Geld wieder irgendwie reinholen.
Ist schon irre, wie sich die Preise entwickelt (http://www.alternate.de/html/product/details.html?artno=IBIEUM&showPriceChart=true#priceCharts) haben.
heilige *****, die ram preise sind ja förmlich explodiert
edit: hoffe mal dass der/die g80 von meinem rechner nicht ausgebrmest wird
heilige *****, die ram preise sind ja förmlich explodiert
edit: hoffe mal dass der/die g80 von meinem rechner nicht ausgebrmest wird
ja, ich würd gerne wissen was die GPU mit einem 5 Ghz AMD leisten kann...
Nightspider
24.10.2006, 01:28
Hallo,
ihr habt mich zurück und nach einem dreiviertel Jahr kann ich mich hier wieder anmelden. :D Ihr habt mich wieder. !!! :lol: :roll:
http://img162.imageshack.us/img162/2100/462226656sw4.jpg
http://img162.imageshack.us/img162/6425/462226655pw0.jpg
http://img321.imageshack.us/img321/1889/462226657uf4.jpg
GTS (kürzer und zB. Lüfteranschluss sind anders)
http://img321.imageshack.us/img321/7884/462226658pj4.jpg
EN8800GTX/HTDP/768M , is: USD $540 (FOB).
EN8800GTS/HTDP/640M , is: USD $410 (FOB).
ASUS Exclusive Innovations
HDCP Compliant: Allow playback of HD DVD, Blu-Ray Disc and other protected content at full HDresolutions
Built for Microsoft Windows Vista
ASUS Splendid: Watching movies on PC is as good as on Top-of-the-line consumer television
ASUS Video Security Online: Keep an eye on your home at all times no matter where you are
ASUS Game LiveShow: Stream live gaming action onto the internet and share with other gaming enthusiast
ASUS Game Replay: Recording gaming action and strategy into MPEG4 files to share with other gaming enthusiast
ASUS Game FaceMessenger: Easy IM and live game conference in any PC games
ASUS OnScreenDisplay: Adjust the fame settings and enhance gaming experience without leaving the game
Graphics GPU Feature
NVIDIA GeForce 8800GTX
Built for Microsoft Windows Vista NVIDIA SLI Technology ready
NVIDIA unified architecture with GigaThread technology
Full support for Microsoft DirectX10.0 and ShaderModel 4.0 enables stunning and complex specialeffects
OpenGL2.0 support
NVIDIA Quantum Effects Technology
True 128-bit floating point high dynamic-range (HDR) lighting
Two dual-link DVI outputs support two 2560x1600 resolution displays
Hardware Specification
Model EN8800GTX/HTDP/768M
Graphics Engine GeForce 8800GTX
Video Memory 768MB DDR3
Engine Clock 575MHz
Memory Clock 1.8GHz (900MHz DDR3)
Memory Interface 384-bit
Max. Resolution Up to 2560 x 1600
Bus Standard PCI Express X16
VGA Output YES, via DVI to VGA Adapter
HDTV Output YES, via HDTV Out cable
TV Output YES, via S-Video to Composite
DVI Output DVI-I
Dual DVI Output YES
HDCP Compliant YES
Adaptor/Cable Bundled DVI to VGA adapter
Power Cable*2
HDTV-out cable
Software Bundled 3D Game: Ghost Recon, GTI Racing
3Dmark06
ASUS Utilities & Driver
[圖三]
Specifications are subject to change without notice.
•PCB color and bundled software versions are change without notice.
•Brand and product names mentioned are trademarks of their respective company.
Note: Two 6-pins supplementary power connectors inside the box
http://www.beyond3d.com/forum/showthread.php?t=33576&page=67
Damit dürften die 700mio Transistoren und der Rest sicher sein. Jetzt interessiert nurnoch die Leistung und der Preis.
Die GTX soll im 3Dmark 2006 mit einem Conroe@ 3,6 Ghz 12.XXX Punkte erreichen. Also mit einem X2 wahrscheinlich 11.XXX Punkte.
Jetzt interessiert nurnoch die Leistung und der Preis.Und der Leistungsbedarf interessiert mich auch sehr. Ich hoffe, dass ich mit meinem 520 Watt Netzteil auskomme um den R600 (dürfte mit dem G80 vergleichbar sein) auseichend zu versorgen.
Aber ich denke mal ja. Für 7 Festplatten, einen DVD Brenner, ein Core2 Duo, 2 Speicheriegel und eine Soundkarte sollte das eigentlich ausreichen.
Ach ja. Und eine Wasserkühlung kommt auch dazu, aber die benötigt ja wohl auch nciht sehr viel leistung. Schließlich muss sie das Wasser ja nur im Kreis pumpen und die Reibungsverluste wieder aufzubringen.
Ich habe mir übrigens die Thermaltake Symphony (http://www.caseking.de/shop/catalog/product_info.php?cPath=27_331&products_id=3429) ausgeguckt. Ich werde heute noch ein paar weitere Testberichte suchen, aber ich denke, dass das meine Wakü wird um den R600 auch leise kühlen zu können.
Hallo,
ihr habt mich zurück und nach einem dreiviertel Jahr kann ich mich hier wieder anmelden. :D Ihr habt mich wieder. !!! :lol: :roll:
Und dann noch mit guten Fakts :D
Hi Guys,
was ist eigentlich mit diesen Angaben (http://www.dailytech.com/article.aspx?newsid=4441), die wir ja mal als nicht möglich betrachtet haben?
BoOgIeMaN
24.10.2006, 10:40
Soweit ich weiss sind das die ofiziellen Angaben
EDIT:gibts das( http://www.beyond3d.com/forum/showthread.php?t=33576&page=67 ) auch in deutsch und zusammengefasst?
Wurden diese Angaben bestätigt?
@ Nightspider:
entschuldige bitte meine Unwissenheit, könnteste du mir bitte einen Link mit dem PC mit anderen Grafikkarten schicken(halt 3dmark06 Tests)??
wäre sehr nett, danke
Geht g80 auch auf xp und 2000.Und wieviel wird er ungefähr in euro kosten.
Wieviel ghz braucht man dafür.
warpspeed
24.10.2006, 15:01
@AK_47
Hhhhmmm... dann nutzen dir die DX10 Optionen der Karte aber wenig ;). Und darauf kommt es ja eigentlich an!
Ich besitze windows 2000.
Mein system : jetzt
x800gto
2gb ram
amd 3500
später:für crysis
g80 oder 1900xtx
2gb ram
intel e6600
ist das gut
BoOgIeMaN
24.10.2006, 15:08
Hehe.
G80 oder 1900xtx .Als ob die Gleichstark wären 8)
Es gibt noch keine offiziellen systemanforderungen.
Warten..... :cry:
@AK47 das haben wir schon sooo oft durchgekaut was Crysis angeht ;) sobald Angaben bekannt werden, wirst du das schon hier mitbekommen ;)
Hier geht es nun nur um die G80 - auf Win2000/XP wird es kein DX10 geben! Vista only. Es gibt auch keine Benchmarks zwischen den bis jetzt erschienen Karten von ATi/Nvidia - die werden wir auch sodann hier posten.
@AK47 das haben wir schon sooo oft durchgekaut was Crysis angeht ;) sobald Angaben bekannt werden, wirst du das schon hier mitbekommen ;)
Hier geht es nun nur um die G80 - auf Win2000/XP wird es kein DX10 geben! Vista only. Es gibt auch keine Benchmarks zwischen den bis jetzt erschienen Karten von ATi/Nvidia - die werden wir auch sodann hier posten.
Das wollte ich auch wissen danke.
Soweit ich weiss sind das die ofiziellen Angaben
sicher?? bin mir da nicht so sicher dass da soviele Units drin sind wie damals angegeben, oder?
BoOgIeMaN
24.10.2006, 15:55
http://we.pcinlife.com/viewthread.php?tid=639516&extra=&page=1
Noch mehr finale Bilder und technische Angaben.
Nö - die von mir gefragten Angaben sind ungenau weil die noch nicht bekannt sind. ;)
Es sind bestimmt nicht so viele Units wie damals laut Gerüchten bekannt wurden.
(sorry wegen 2xPost)
Schau mir in die Augen kleiner:
http://img120.imageshack.us/img120/6251/realityredefinedbgrn1.th.jpg (http://www.nvidia.com/content/event_registration/2006/reality_redefined_general/reality_redefined_bg.jpg)
Die Augen der Braut sind schonmal sehr schön ;)
Nightspider
24.10.2006, 22:26
@cman
3Dmark2006 - meine Werte: (Opteron @ FX60)
Geforce 6600 GT ~ >1500 Punkte
Geforce 7600 GT ~ >3000 Punkte
Nicht meine Werte aber der Durchschnitt
Geforce 7900 GTX ~ >6000 Punkte
X1900XT Stock / 8800GTX
3DMark06: 6555 / 11795 pts
SM2: 2295 / 4783
SM3: 2555 / 4095
CPU: 4076 / 4419
7950GX2 / 8800GTX
3DMark06: 10255 / 11795
SM2: 4513 / 4783
SM3: 4361 / 4095
CPU: 2872 / 4419
Also wären G80 Karten fast 100 % im 3Dmark 2006 mit einem Conroe @ 3,6 Ghz schneller.
Allerdings sind die Daten ohne Gewehr ! Zudem steckt noch viel optimierungspotential in der US-Architektur (Uniefied-Shader-A.).
Ich habe auch ein 520 Watt Netzteil von Enermax, ich hoffe das reicht noch.
Noxon, bau dir doch lieber selber Radiatoren ein, das kommt cooler. :D So eine externe Lösung ist doch sehr unhandlich für Lan's :)
(Habe nen 80mm Radi über'm Netzteil, nächstes Jahr mind ein neuen Radi(3*80mm) oder gleich 2 davon.
mfg
@ EnCor3, ich gebe mein Bestes ! :D
Ich habe auch ein 520 Watt Netzteil von Enermax, ich hoffe das reicht noch.
Das hoffe ich auch. Ich habe da aber ganz gute Hoffnungen.
Noxon, bau dir doch lieber selber Radiatoren ein, das kommt cooler. :D So eine externe Lösung ist doch sehr unhandlich für Lan's :)
Das ist wohl wahr. 14 kg ohne Wasser alleine für die Wakü ist nicht gerade was zum Mitnehmen. Der 24 kg schwere Tower allerdings auch nicht. :)
Spielt aber auch keine Rolle, da ich eigentlich recht ungern Multiplayer-Spiele spiele und demnach auch nicht auf Lans zocken gehe.
Ich bevorzuge daher schon eine externe Lösung. Die sind wenigstens schön effizient und ich finde die Symphony sieht mit ihrem gebürstetem Alu-Gehäuse im Boxen-Design auch noch sehr gut aus.
Die passt jedenfalls sehr gut zu meinem Alu-Gehäuse, meiner Alu-Tastatur, meiner silbernen Maus, meinem silbernen TFT und meinen silbernen Boxen.
Lediglich mein Mauspad ist noch weiß. :)
Nightspider
25.10.2006, 00:42
Extern also... 8) ...na dann nen Waterchiller, bzw. ein Durchlaufkühler...
ich sag nur 10°C kaltes Wasser im Sommer und ein extrem übertaktungsfreudiges und stabiles System. ;)
Damit kannst du auch den G80 nochmal lockere 20% übertakten. :roll:
Manche haben sich so ein Durchlaufkühler in ein Nachbarzimmer / Abstellkammer gestellt wodurch sie ein total lautlosen PC hatten. :)
http://img146.imageshack.us/img146/9522/462226655bet8.jpg
http://we.pcinlife.com/viewthread.php?tid=639516&extra=&page=1
http://img110.imageshack.us/img110/6223/rfbqxzawmdm4sq5j0pq3y8kcyerm2.jpg
http://img110.imageshack.us/img110/5050/rfbqxzawmdo4sqqbdjs6lipkn1ci0.jpg
http://img110.imageshack.us/img110/4699/rfbqxzawmta4sqiptzixkbo2lpyj8.jpg
GTX
http://we.pcinlife.com/attachments/forumid_206/8800GTX_2_h1UMLAQvfIWk.jpg
GTS
http://we.pcinlife.com/attachments/forumid_206/8800GTS_2_KxAZw5kFM7Pm.jpg
X1900XT Stock / 8800GTX
3DMark06: 6555 / 11795 pts
SM2: 2295 / 4783
SM3: 2555 / 4095
CPU: 4076 / 4419
7950GX2 / 8800GTX
3DMark06: 10255 / 11795
SM2: 4513 / 4783
SM3: 4361 / 4095
CPU: 2872 / 4419
PS: Yeah, 10. Post :lol:
ich sag nur 10°C kaltes Wasser im Sommer und ein extrem übertaktungsfreudiges und stabiles System. ;)
Und eine Raumtemperatur von 50°. :)
Ne Ne. Ich möchte mir nicht noch ne extra Heizung hier aufstellen. Ich will ja nur den Rechner leise kühlen und nicht wer weit wie hoch übertakten.
Und danke für die Bilder. Die Stromadapter mit ihren 4 Molex-Buchsen am Ende sehen ja schon erschreckend aus. Da muss ich erst einmal sehen, wie ich meine Leitungen am besten aufteile.
Damit kannst du auch den G80 nochmal lockere 20% übertakten.
Wieso eine G80 übertakten? Was hat man davon?
Bitte um eine logische Erklärung, weil, wenn ich FEAR sodann mit 250fps. zocken kann, dann ist das eh kein Unterschied ob ich mit 100fps zocke oder mit 200fps - das macht von der sehbaren Performance keinen Unterschied - nimmt das Auge eh nicht wahr.
Die Stromadapter mit ihren 4 Molex-Buchsen am Ende sehen ja schon erschreckend aus. Da muss ich erst einmal sehen, wie ich meine Leitungen am besten aufteile.
Ganz einfach: 2xPCI Express Stromkabel vom Netzteil - solche Netzteile gibt es in Hülle und Fülle!
Damit kannst du auch den G80 nochmal lockere 20% übertakten.Wieso eine G80 übertakten? Was hat man davon?
Naja. Im Moment noch nichts, aber irgendwann wird auch das sinnvoll werden.
Ganz einfach: 2xPCI Express Stromkabel vom Netzteil - solche Netzteile gibt es in Hülle und Fülle!
Schon klar, aber ich möchte natürlich vermeiden ein neues Netzteil kaufen zu müssen und möchte mit meinem 520'er BeQuiet weiterarbeiten.
Das hat nur einen PCIe Stecker. Also muss ich den zweiten per Adapter anschießen. Da stellt sich nun die Frage, welche Leitungen man da nehmen soll, damit die Stränge auch gleichmäßig ausgelastet werden. Ich muss mich erst einmal darüber informieren, ob da bei meinem Netzteil überhaupt getrennte Stromkriese vorliegen. Aus dem Kopf weiß ich das gar nicht.
BoOgIeMaN
25.10.2006, 11:17
7950GX2 / 8800GTX
3DMark06: 10255 / 11795
SM2: 4513 / 4783
SM3: 4361 / 4095
CPU: 2872 / 4419
Die beiden nehmen sich ja nicht wirklich viel.
Die Leistung des G80 kommt erst mit DX10(SM.4) richtig in Gang
@Nightspider:woher haste die angaben???
ich finde das dafür dass die 7950GX2 aus 2 Karten besteht, die bisher immer noch sehr gut sind, ist das schon was xD
@Nightspider: danke :)
GeForce 8800 schon gesichtet
Bilder von ASUS EN8800GTX und auch GeForce 8800 GTS aufgetaucht
http://www.hartware.de/news_40972.html
BoOgIeMaN
25.10.2006, 15:25
Das wissen wir doch schon alles :?
PS:Hat niemand ne Quellenangabe zu den Benches vom G80??? :(
PS:Hat niemand ne Quellenangabe zu den Benches vom G80??? :(
Ich würd mal abwarten... die Karte kommt ja bald und wenn die Benchmarks richtig sein sollten, dann können die ja nur besser werden. Wäre ja sodann der erste Treiber für die Karte!
BoOgIeMaN
25.10.2006, 15:32
Aber guckt euch das dochmal an...!
7950GX2 / 8800GTX
3DMark06: 10255 / 11795
SM2: 4513 / 4783
SM3: 4361 / 4095
CPU: 2872 / 4419
Die GX2 ist bei SM3 besser als der G80.Und bei Cpu ist der doppelt so schnell wie die GX2
???
Das kann doch irgendwie alles net sein :?:
Sind die Angaben jetz richtig oder wie?
Wo bleibt denn Nightspider
Damals war meine GF4200 besser als meine FX5600 in der DX8 Leistung... hat mich nicht gewundert.
Die GX2 ist bei SM3 besser als der G80.Und bei Cpu ist der doppelt so schnell wie die GX2
???
Das kann doch irgendwie alles net sein :?:
Hast du gelesen, was cmAn geschrieben hat?
Die GX2 ist eine SLI Karte, die zwei Grafikchips besitzt und dafür, dass der G80 alleine gegen die Beiden antreten muss und trotzdem noch einen kleinen Vorsprung hat, finde ich das schon ganz gut.
fadeproof
25.10.2006, 23:16
ich wette dass die GX2 trotzdem mehr kosten wird als der G80...
und wartet erstmal auf den G81... bzw 8950 GX2 ^^
^^ @fadeproof ... nöö... die 7950GX2 Produktion wird sodann sowieso langsam eingestellt. Sodann ist sie überholt von der 8800... Zur Zeit kostet die 7950 GX2 499,- EUR oder sogar weniger!
GeForce 8800 GTX: ~ 550 EUR
GeForce 8800 GTS: ~ 390 EUR
Die Preise könnten natürlich auch höher werden. Im Moment sind die sowieso ziemlich hoch. Tsunamis, Tornados, Erdbeben, Atombombentests, Selbstmordattentäter und Kriege heben diese sodann in die Höhe.
Nightspider
26.10.2006, 02:06
http://img161.imageshack.us/img161/8747/8800gtxjq3.png
http://xtreview.com/addcomment-id-837-view-geforce-8800-gtx-review.html
Die GTS wird mind. 450-500 € kosten.
http://www.chip.de/news/c1_news_22421669.html
GTX:
https://www.excaliberpc.com/parts.asp?stxt=8800+gtx
GTS:
https://www.excaliberpc.com/parts.asp?stxt=8800+gts
Und noch ein Bild einer GTS:
http://img288.imageshack.us/img288/5278/msi8800gtsvt4.jpg
kann man sich diese grakas von solchen shops importieren lassen? wenn ja, wie teuer wäre das in etwa
kann man sich diese grakas von solchen shops importieren lassen? wenn ja, wie teuer wäre das in etwa
Wieso dort vorbestellen?
Sobald die dort verfügbar sein werden, bekommst du die auch in Europa überall.
naja in den usa gibts ja eine sehr geringe mehrwertsteuer, zusätzlich ist ja der dollar nicht so viel wert wie der euro, die 8800gtx würde wenn man sie sich importieren ließe (ohne versandkosten) ca 536€, hierzulande wird sie dann wohl knapp 550-650€ kosten. allerdings weiß ich nicht wie hoch die versandkosten sind
naja in den usa gibts ja eine sehr geringe mehrwertsteuer, zusätzlich ist ja der dollar nicht so viel wert wie der euro, die 8800gtx würde wenn man sie sich importieren ließe (ohne versandkosten) ca 536€, hierzulande wird sie dann wohl knapp 550-650€ kosten
Also ich musste die bisher nachzahlen... :(
fadeproof
26.10.2006, 14:14
das nennt sich zoll...
deshalb ist es völlig egal wo die die sachen kaufst...
(höchstens du schaffst es den shop zu überzeugen das ding als geschenk verpackt mit grußkarte oder so zu schicken - glaube geschenke werden sozusagen nicht "versteuert") :roll:
und auch wenn sogar die GTS 500$ kosten soll wird der GTS preis sicher schneller fallen als der GTX preis...
BoOgIeMaN
26.10.2006, 14:15
und auch wenn sogar die GTS 500$ kosten soll wird der GTS preis sicher schneller fallen als der GTX preis...
Wieso das denn???
fadeproof
26.10.2006, 14:22
war bisher immer so, weil die high end karten sowieso nur wenige leute kaufen...
die GTS wird auf 350-400 euro fallen... schätze mal innerhalb von 6 monaten... weil sie um 500$ einfach keine sau kaufen wird
das nennt sich zoll...
deshalb ist es völlig egal wo die die sachen kaufst...
(höchstens du schaffst es den shop zu überzeugen das ding als geschenk verpackt mit grußkarte oder so zu schicken - glaube geschenke werden sozusagen nicht "versteuert") :roll:
und auch wenn sogar die GTS 500$ kosten soll wird der GTS preis sicher schneller fallen als der GTX preis...
Ich musste immer ne eidesstattliche Erklärung abgeben und das ist schon krass... die erzählen mir jedes Mal was bezüglich Steuerhinterziehung und Ihre Folgen... aber mir egal, hab alle Quittungen und Belege immer dabei.
fadeproof
26.10.2006, 14:24
tjo,
muss aber sein da sonst jeder seine sachen ausschließlich importieren würde ;)
message hat sich erledigt war mein fehler
ich lass dass mal so unkommentiert stehen:
http://uk.theinquirer.net/?article=35335
http://uk.theinquirer.net/?article=35348
Funktioniert r600 mit windows 2000 oder xp .
BoOgIeMaN
26.10.2006, 19:07
Wir wissen noch nichteinmal die technischen Angaben,woher solln wir dann wissen ob se auf windoof 2000 oder xp funzt.
Ich geh mal davon aus das es das gleiche prinzip wie beim G80 sein wird... :idea:
Um wie viel wir ungefähr diese graka kosten wenn vista raus kommt.
Grafikkarte, PCIe, 1024MB, NVIDIA GeForce 7950GX2 , EVGA SuperClocked, TV-Out, 2x DVI
Meine Glaskugel kann es mir nicht sagen, vieleicht wird es bis dahin diese Karte nicht mehr geben, wiel die nicht mehr produziert wird und ausverkaft sein wird...!
kann alles sein, denke aber die werden noch etwas nachproduzieren, da die Karte eine der wenigen ist, die sich mit der 8800 messen kann...die zu einem niedrigeren Preis
fadeproof
26.10.2006, 21:47
jaa eben genau deshalb: wieso sollten sie nachproduzieren?
nvidia will sich doch nicht, dass sich der g80 schlecht verkauft, weil jeder zur 7950gx2 greift... (die ist zwar keine dx10 karte..)
Nightspider
28.10.2006, 17:31
PC Games Hardware 12/2006 ab Mittwoch, den 1.11.06 Im Handel:
3 Seiten über G80 , 3 Seiten D3D10 , 3 Seiten über Multi-GPU-Lösungen
G80:
-681 mio Transistoren
-128 Stream-Prozessoren(Shader)
-Transparentes FSAA
-WU-AF (Winkelunabhängiges Anisotropes Filtering)
-Fertigung 90nm
-Shader Model 4.0 (Unified Shader)
-Multi-Sampling, max. 16x
-Anti-Alaising, max. 16xQ
-MSAA+HDR-Rendering: FP16,FP32
-768 MB (GTX) , 640 MB (GTS) GDDR3
-Textureinheiten (TA/TMU) 32/64 (GTX) 24/48 (GTS)
-Texturfüllrate: 18.400 (GTX) 12.000 (GTS)
-Speicherbandbreite: 86.000 (GTX) 64.000 (GTS)
> GTX: 599$
> GTS: 449$
-besitzt 2 SLI-Connector für normales SLI und Künftige SLI-Erweiterungen (z.B. Physik)
-8 Gruppen zu je 16 Streaming-Prozessoren (Skalar)
-jede Gruppe verfügt über 4 Texture-Adress-Prozessoren, die 8 Texture-Fetch-Einheiten ansteuern. Diese sind ähnlich der Geforce 4, jedoch nicht unabhänhig voneinander.
-bei der 8800 GTS werden nur 6 Gruppen Aktiv sein
--> bessere Texturfilterung als Geforce 4 und damit auch bessere Texturfilterung als Radeon x1800 und x1900 Serie !
Nvidia sagt:
- 70-80 % schneller als GeForce 7900 GTX (Oblivion+HDR)
- 25 % schneller als GeForce 7950 GX2 (Oblivion+HDR)
-bis zu 4,2 mal so schnell bei Serius Sam 2+HDR als 7900 GTX unter extremen Bedingungen
-bei FarCry unter 1600*1200 bis 2560*1600 mit 4xFSAA 100% schneller
PCGH: "G80 scheint sehr gelungen zu sein"
Klasse Informationen, gute Arbeit Nightspider ;)
Master2oo6
28.10.2006, 18:50
Hallo,
bin neu hier und hab gleich ma ne Frage ;)
Wird deie PC Games Hardware für Abonennten eigentlich früher rauskommen? Als am 1.11.?
@ Topic: Meint ihr die G80 wird am Releasetag verfügbar sein? Und wisst ihr schon ob es einen Nachfolger der 7950GX2 mit dem G80 geben wird?
Außerdem wieviel Power brauche ich für die Karten? Habe nun eine X800XT und 400 Watt Netzteil sowie Athlon64 X2 4400+.
Will dann auf eine 8800GTX umsteigen. Meint ihr ich muss nen besseres NT kaufen?
MfG
Äh ja du hast wohl abbo?@ Nightspider
http://www.pcwelt.de/news/hardware/...1081/index.html
Über 800 Gramm schwer, 260 Millimeter lang und sehr stromhungrig
http://www.pcwelt.de/news/hardware/...081/index2.html
700 Millionen Transistoren, Unified Shader Architektur und Gigathread-Technologie
http://www.pcwelt.de/news/hardware/...081/index3.html
Quantum Effects Physics Processor und höhere HDRR-Rechengenauigkeit inklusive 16xAA
http://www.pcwelt.de/news/hardware/...081/index4.html
Bis zu 768 MB Grafikspeicher mit einer Bandbreite von mehr als 86 GB/s
http://www.pcwelt.de/news/hardware/...081/index5.html
Ausstattung und Preise
http://www.pcwelt.de/news/hardware/...081/index6.html
Übersicht der technischen Spezifikation
http://www.pcwelt.de/news/hardware/...081/index7.html
@Master - Hi Stefan, herzlich willkommen ! :)
Tob dich mit Fragen ordentlich aus, die Jungs wissen hier einiges ;)
Nightspider
28.10.2006, 20:48
@ Master2oo6
Ja, ich habe die PCGH abboniert. Habe sie heute Mittag bekommen.
Ein 400 Watt Netzteil dürfte für einen kompletten PC, mit Dualcore und G80 zu wenig sein. 500 Watt könnte schon leicht knapp werden. Ich denke das ein Marken-500 Watt Netzteil die untere Grenze darstellen wird.
Dein X2-4400+ dürfte reichen. Aber du solltest schon übertakten, wenn du dir wirklich einen G80 kaufen wölltest. 2 GB Ram sollte man wohl auch haben, wenn man schon in einen G80 investiert, da manche Spiele für hohe Grafikeinstellungen 2 GB benötigen und 1 GB den eine G80 ausbremsen würden.
mfg
BoOgIeMaN
28.10.2006, 21:17
Soweit ich weiss ist ein 450Watt NT empfohlen.Würde aber lieber zu 500-550Watt greifen
pissdrunx1987
28.10.2006, 22:10
hier mal einige benches, zum g80 von einigen overclockern, die schon die karte in ihren händen halten:
http://vic.expreview.com/attachment/1161849814.jpg
sehr gutes result für ne singlecard @stock
http://vic.expreview.com/attachment/1161835755.jpg
ich hoffe, dass geht auch ohne thumbs klar
^^ schade, bei mir wird leider nichts angezeigt :(
BoOgIeMaN
28.10.2006, 22:30
bei mir schon :wink:
Für alle die neben mir die Bilder nicht sehen:
http://img95.imageshack.us/img95/1725/1161849814cl7.th.jpg (http://img95.imageshack.us/my.php?image=1161849814cl7.jpg) http://img141.imageshack.us/img141/9954/1161835755ba6.th.jpg (http://img141.imageshack.us/my.php?image=1161835755ba6.jpg)
hab die mal bei Imageshack hochgeladen. Danke PDrunx ziemlich gute Infos!!!!! :)
First 3dmark 2007 screenshot!
http://www.beyond3d.com/interviews/fm05/p2/images/next_3dmark.jpg
3DMark Next
HDR rendering.
Complex HDR post processing.
Dynamic soft shadows for all objects.
Water shader with HDR refraction, HDR reflection, depth fog and Gerstner wave functions.
Heterogeneous fog.
Atmospheric light scattering.
Realistic sky model with cloud blending.
Strauss lighting model for most materials.
Subsurface scattering shader for some objects (not visible in the shot).
Texture & normal map sizes: 1024 x 1024 to 2048 x 2048.
Approximately 5.4 million triangles and 8.8 million vertices.
3Dmark 2007 sapphire beteiligt sich an Entwicklung von 3DMark
http://www.winfuture.de/news,27010.html
AGEIA beteiligt sich am 3DMark Benchmark Development Program von Futuremark
http://www.hartware.de/press_5492.html
AGEIA soll sich ihre Karten sonstwo hinstecken... sorry das musste sein!
Also jetzt haben die schon die Benchmark-macher noch bestochen, damit Benchmarkergebnisse nur mit AGEIA Karten sehr hoch sind und ohne halt niedrig - auch noch bei Systemen wo diese Karte so ein System bremmst anstatt irgendwie fördert.
Nach dem Motto: Wenn die keiner kaufen will, dann werden wir die Leute dazu nötigen! Gibt ja genug Leute, die das wegen ein paar Punkten mehr tuen!
Sorry, sind vom Thema abgekommen - nun zurück zur guten G80
genau, was schätzt ihr schafft das schmucke Ding im 3D MArk 07??
pissdrunx1987
29.10.2006, 13:03
megarofl, der angebliche screenshot vom 3dmark07 gibt es schon seit über einem jahr, der wurde damals kurz bevor 3dmark06 erschienen ist veröffentlicht!
bitte glaubt mir, oder sucht nach alten newsposts, da werdet ihr ihn nämlich wiederfinden :wink:
megarofl, der angebliche screenshot vom 3dmark07 gibt es schon seit über einem jahr, der wurde damals kurz bevor 3dmark06 erschienen ist veröffentlicht!
kann das bestätigen, hab mich deshalb gar nicht zu geäussert...
fadeproof
29.10.2006, 14:43
entspricht die bezeichnung "gts" eigentlich der ehemaligen gt?
oder kommt evtl. noch eine gt raus, die sich zwischen gtx und gts einordnet?
BoOgIeMaN
29.10.2006, 14:59
Ich den schon das es Leistungsmässig einer normalen GT ähneln könnte.
Bisher gabs nur GTX und dann GT aber von GTS hab ich eigendlich noch nie was gehört.
CrysisMaster
29.10.2006, 15:15
Weiß man eigentlich schon, ob es bei den
128 Shadereinheiten um Unfieldshader handelt ?
Ich frage mich, wie Ati kontern wird.
Weiß man eigentlich schon, ob es bei den
128 Shadereinheiten um Unfieldshader handelt ?
Ich frage mich, wie Ati kontern wird.
CrysisMaster, endlich lässt du dich wieder blicken ^^. Hab dich schon vermisst :P. Also ich denk nicht, dass es Unified Shader sind. Hieß es nicht, dass diese nur simuliert werden?
fadeproof
29.10.2006, 20:44
ganz genau, keine "richtigen" unified shader.
(hat vor- aber auch nachteile)
Nightspider
30.10.2006, 00:41
Oh man Leute, es gibt nur richtige Unified Shader. Sonst wären es keine Unified Shader sondern normale Shadereinheiten, welche über Software dasselbe machen können, wie eine Unified Shader Architektur.
Zudem hat der G80 eine USA, das steht doch mehr als deutlich in den letzten Posts.
Früher wurde vermutet, dass Nvidia diese simulieren will, also über Software. Aber nun wurde bestätigt, dass es sich um eine echte USA handelt.
Das steht auch auf der Rückseite des Asus, 8800 GTX - Kartons. !
ganz genau, keine "richtigen" unified shader.
hööö? keine richtigen? ??? Es gibt entweder pixel oder vertex units und unified units, Nightspider hat das alles richtig erklärt.
Noxon wird uns bestimmt gerne noch mal den Unterschied sagen oder uns den Link zum Thread geben wo das alles steht.
BoOgIeMaN
30.10.2006, 14:02
Oh man Leute, es gibt nur richtige Unified Shader. Sonst wären es keine Unified Shader sondern normale Shadereinheiten, welche über Software dasselbe machen können, wie eine Unified Shader Architektur.
Zudem hat der G80 eine USA, das steht doch mehr als deutlich in den letzten Posts.
Früher wurde vermutet, dass Nvidia diese simulieren will, also über Software. Aber nun wurde bestätigt, dass es sich um eine echte USA handelt.
Das steht auch auf der Rückseite des Asus, 8800 GTX - Kartons. !
Hui,Da bin ich ja beruhigt! :P
ganz genau, keine "richtigen" unified shader.
hööö? keine richtigen? ??? Es gibt entweder pixel oder vertex units und unified units, Nightspider hat das alles richtig erklärt.
Noxon wird uns bestimmt gerne noch mal den Unterschied sagen oder uns den Link zum Thread geben wo das alles steht.
Gut zu wissen, jetzt ist der Unterschied zwischen der G80 und R600 nicht mehr so gravierend, falls es überhaupt noch welche gibt.
Ja das würde ich so noch nicht bestätigen wollen!
Warten wir mal lieber die ersten Benchmarks der R600 ab. Ich kann mir sehr gut vorstellen dass die R600 der G80 das Wasser abgräbt!
Unified Shader sind zwar langsamer, aber dafür werden sie "immer" genutzt so dass es nicht zu "Zwangspausen" kommt der einzelnen Shadereinheiten!
Noxon wird uns bestimmt gerne noch mal den Unterschied sagen oder uns den Link zum Thread geben wo das alles steht.Kann ich gerne machen. Sorry, dass ich ne Zeit lang abwesend war, aber ich musste meinen neuen Recher zusammenschrauben. ;)
Also früher wurde immer gesagt, dass der G80 keine USA besitzt. Also keine hardwareseitigen Unified Shader, sondern weiterhin normale Pixel- und Vertex-Shader besitzt.
Softwareseitig muss eine DX10 Karte allerdings eine Unified-Shader Schnittstelle anbieten. Also musste erst eine Art Präprozessor die Befehle an die Unified Shader so umstricken, dass sie effizient auf die Pixel- und Vertexshader verteilt werden konnten.
Der Programmierer bekommt von alle dem nichts mit. Für den ist es so, als ob er Unified Shader programmieren würde.
Laut den neusten Gerüchten heißt es aber wieder, dass der G80 doch eine USA haben soll. Ich verstehe das so, dass er hardwaremäßig tatsächlich Unified Shader besitzt.
Allerdings glaube ich von den Gerüchten absolut gar nichts mehr, bis die nicht offiziell bestätigt wurden. Das Problem ist, dass sowas eigentlich nur nVidia beantworten kann, da ja kaum einer in den Chip gucken kann, wie die das realisiert haben. Durch reverse enginiering des Graka-Treibers wird es wohl auch gehen, aber das ist ja auch nicht ganz so einfach.
Wir müssen wohl einfach mal abwarten, was nVidia dazu sagt.
CrysisMaster
31.10.2006, 14:10
Allerdings glaube ich von den Gerüchten absolut gar nichts mehr, bis die nicht offiziell bestätigt wurden. Das Problem ist, dass sowas eigentlich nur nVidia beantworten kann, da ja kaum einer in den Chip gucken kann, wie die das realisiert haben. Durch reverse enginiering des Graka-Treibers wird es wohl auch gehen, aber das ist ja auch nicht ganz so einfach.
Wir müssen wohl einfach mal abwarten, was nVidia dazu sagt.
Genau danach habe ich gefragt. 8)
BoOgIeMaN
04.11.2006, 22:17
Neue Bilder:
http://www.tweakpc.de/news/10575/mehr-bilder-der-neuen-geforce-8800-karten/
pissdrunx1987
08.11.2006, 16:26
mal nen paar benching updates:
intel quadcore@4ghz mit single g80@660/2200
3d06: 14092points http://ww1.pureupload.com/public/thumb_4551f5bc77acb791111359.gif (http://ww1.pureupload.com/public/31898/19.gif)
3d05: 20550points http://ww1.pureupload.com/public/thumb_4551f5bd1d0d5421599031.gif (http://ww1.pureupload.com/public/31899/21.gif)
und mal nen sli, quadcore@3733mhz, g80 sli@default
3d06: 17204points http://ww1.pureupload.com/public/thumb_4551f5bd8e94b882999347.jpg (http://ww1.pureupload.com/public/31900/590isli.jpg)
ich denke nen quadcore ist schon nicht schlecht für nen g80 sli gespann, wenn dann erst die richtigen treiber rauskomommen, laüft ja alles noch mit beta treibern ;)
Also ca 20.000 Punkte bei 3D Mark 05 sind schon geil, aber ich habe mehr erwartet, da ich mit meinem jetzigen system knapp 11.000 Punkte habe...
BoOgIeMaN
08.11.2006, 16:33
G80 ist jetzt auch schon beo www.alternate.de gelistet.
GTX für 650€!!! 8O
UNd ausverkauft ist sie auch schon :(
pissdrunx1987
08.11.2006, 16:34
es ist ne single karte, mein lieber, nicht sli ;)
und es ist längst nicht mit ordednlichen treibern und maximalen taktraten gewesen ;)
ich erwarte mal, dass die ocer die 30k in 3d05 und 20k in 06 und 100k in 01 mit nem sli gespann und nem x6800@5.2ghz schaffen könnten ;)
Born_Brainless
08.11.2006, 20:17
Test auf computerbase online ;)
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/
Was mich freut ist, dass sie so leise sein soll. Selbst der Stromverbrauch ist noch OK, wenn man bedenkt, dass es lediglich 40 Watt mehr sind als eine 7800 GTX und nur 30 Watt mehr als eine X1900.
Da habe ich eigentlich mit mehr gerechnet.
Born_Brainless
08.11.2006, 20:45
Ist echt der Hammer der G80 jetzt bin ich schon richtig auf den R600 gespannt ;)
War aber Gemein von nvidia die US Architektur zu verheimlichen (guter Marketinggag).
Seht euch mal die Dx10 Techdemo an
http://www.nvidia.com/page/geforce8.html
Wahnsinn!
Absolut geiles Teil, mal sehen 600 € = viel Geld, aber dafür hat man auch das beste der besten!
Vielleicht werde ich sie mir direkt zu beginn kaufen... vielleicht aber auch das Geld für irgend etwas nützliches ausgeben z.B. Essen, oder sowas.
mfg
pissdrunx1987
08.11.2006, 22:00
die vids auf der nvidia seite sehen echt gut aus, finde ich.
hoffen wir, dass wir bald wieder einige neue dx10 szenen aus crysis zu sehen bekommen 8)
OMFG
hier aus dem extremesystems forum, ein paar benches von k|ngp|n, unglaublich
Time to smash the orbs up again.
These runs all done with 8-9hrs benching time using all the hardware at once.
GPU's only pushed maybe 60-70% :D. So much left untapped...imagine what the scores will be 1 month from now lol:
NVIDIA 680i SLI motherboard
Kentsfield b3/Conroe b1 @1.75v actual vcore/-100c loaded temps.
2 x 8800gtx SLI -40c to -45c approx 850-870/1150 Tek-9 ln2
CORSAIR DOMINATOR 8888 2gb
1 SILVERSTONE ZEUS 850W PSU 12v stayed at 12.3v load through all benches with max clocks.
3DMARK 2006 SLI with KF NO LOD AT ALL
http://www.dumpanimage.com/up/t2/20061108/58Wc85aMvp.jpg (http://ww1.pureupload.com/public/31913/23k%2006%20system%20clocks%20mark%201.jpg)
Test detail from 06' orb (scores non-publishable atm) I saw 149fps beg. of gt1with these clocks :D
http://www.dumpanimage.com/up/t2/20061108/RUAsqYGixq.jpg (http://ww1.pureupload.com/public/31914/23k%20test%20detail%20orb%20mark.jpg)
3DMARK 2005 SLI with CONROE
http://www.dumpanimage.com/up/t2/20061108/ABDDhza88e.jpg (http://ww1.pureupload.com/public/31915/30449%20system%20clocks%20screen%20mark%201.jpg)
3DMARK 2003 SLI with CONROE
http://www.dumpanimage.com/up/t2/20061108/V4nHgvMi9h.jpg (http://ww1.pureupload.com/public/31916/74983%20system%20clocks%20screen%20mark%201.jpg)
3DMARK 2001 SLI with CONROE
http://www.dumpanimage.com/up/t2/20061108/zR40ht8SDw.jpg (http://ww1.pureupload.com/public/31917/92k%2001%20mark%201.jpg)
No heavy lod used on 05,03,01, and NO LOD at all used on the 06 run.
I think we will be seeing some very high nature score soon with the cards on full throttle. 1300fps nature very easy.
Seht euch mal die Dx10 Techdemo an
http://www.nvidia.com/page/geforce8.html
WoW. Das Wasser sieht ja vielleicht geil aus. Der Rauch gefällt mir auch sehr gut, aber das Wasser ist echt der Wahnsinn.
Wäre schön, wenn's die Videos auch in höherer Auflösung gäbe.
@PDrunx bitte die Bilder klein verlinken ;)
Hier ein paar Angaben:
Ohne Last genehmigt sich die X1950 XTX 184 Watt, bei der GeForce 8800 GTX sind es gar 229 Watt. Unter Last ist es entsprechend mehr: 308 Watt für die X1950, 321 Watt bei der 8800 GTX.
pissdrunx1987
08.11.2006, 22:38
hab die bilder verlinkt, wieso schreibt ihr dazu nichts?
sind die ergebnisse etwa nicht awesome?
23k in 3d06 mit nem quadcore auf fast 5ghz, ihr wolltet doch mal schauen, ob es cpus gibt, die nen g80 sli system nicht ausbremsen 8)
hier noch ein sehr geiles video: xD
http://download.nvidia.com/downloads/nZone/videos/Overclocker_Priceless_360P.wmv
Born_Brainless
08.11.2006, 22:43
hab die bilder verlinkt, wieso schreibt ihr dazu nichts?
sind die ergebnisse etwa nicht awesome?
*mundaufklappawsome* :D
O mann
ich hoffe Wirklich ATIkann mit dem R600 mithalten oder sogar in Führung gehen (<------Ati Fanboy)
Nightspider
08.11.2006, 23:14
Zum Teil bis zu 7 mal schneller als meine 7600 GT :D
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/20/
G80 ich komme !!!!!!!!!!!!!!!!!!!!! :lol:
Hier ein paar Angaben:
Ohne Last genehmigt sich die X1950 XTX 184 Watt, bei der GeForce 8800 GTX sind es gar 229 Watt. Unter Last ist es entsprechend mehr: 308 Watt für die X1950, 321 Watt bei der 8800 GTX.
Vergiss aber nicht, dass es sich dabei um das Gesamtsystem handelt. Also um den kompletten PC. Nicht nur die Graka.
fadeproof
08.11.2006, 23:40
@PDrunx bitte die Bilder klein verlinken ;)
Hier ein paar Angaben:
Ohne Last genehmigt sich die X1950 XTX 184 Watt, bei der GeForce 8800 GTX sind es gar 229 Watt. Unter Last ist es entsprechend mehr: 308 Watt für die X1950, 321 Watt bei der 8800 GTX.
gibt es empfehlungen, wie stark das netzteil bei einem entsprechenden pc (core2 cpu usw.) sein sollte?
In den nVidia FAQs (http://www.nvidia.com/page/8800_faq.html) steht:
Q: What are the recommended power supplies for the NVIDIA GeForce 8800 GTX and GeForce 8800 GTS in single and multi-GPU configurations?
A: GeForce 8800 GTX requires a minimum 450W or greater system power supply (with 12V current rating of 30A). GeForce 8800 GTS requires a minimum 400W or greater system power supply (with 12V current rating of 26A).
Da steht eigentlich alles drin, was man wissen möchte.
//EDIT:
WoW. Ich habe gerade erst entdeckt, das nVidia jetzt tatsächlich ein winkelunabhängiges AF hat. Das wurde aber auch mal Zeit. Schön zu sehen, dass nVidia endlich mal etwas mehr von der Performance in die Bildqualität steckt und nicht nur auf hohe Frameraten und Benchmark-Ergebnisse wert legt.
Was ein winkelunabhängiges AF ausmacht sieht man hier wunderbar an der schrägen Wand: G71 (http://www.computerbase.de/bild/article/614/110/) / G80 (http://www.computerbase.de/bild/article/614/113/)
Der G80 gefällt mir immer besser. Ich hoffe, dass der R600 da wirklich mithalten kann.
Erstmal: WOW! , geiles Teil...
Ich hoffe der R600 kann da noch aufholen^^ Bin halt n ATIfan :wink:
Aber das ist doch echt schon eine gut gelungene Graka! Aber wieso hat denn die Teilweise nur 4 FPS mehr als ne alte Karte, z.B. bei Call of Duty 2??
Im Februar werden laut Daylitech die abgespekten Karten endlich rauskommen und im September eine weiter entwickelte Karte mit überholter Architektur.
Also ein guter Grund für mich die überteuerte 8800 nicht zu kaufen, gibt ja sodann keine Spiele die das wirklich ausnutzen werden ;) (ok, auser FS-X und CoH aber das lohnt sich nicht, laufen jetzt schon sehr gut bei mir)
Aber das ist doch echt schon eine gut gelungene Graka! Aber wieso hat denn die Teilweise nur 4 FPS mehr als ne alte Karte, z.B. bei Call of Duty 2??
Weil die CPU meistens noch den begrenzenden Faktor darstellt. Mit einer schnelleren CPU gäb's auch mehr Frames.
Dabei tritt allerdings in niedrigen Qualitätseinstellungen ein Problem auf, mit dem sicher viele Käufer zu kämpfen haben werden: Die CPU limitiert selbst in jenen Settings, wo die bisherigen Spitzenmodelle schon anfingen einzubrechen. Dementsprechend werden wir in Kürze einen Nachtest mit einem Core 2 Extreme X6800 durchführen, um das Potenzial der Einzelkarte sowie die des SLI-Gespanns besser zeigen zu können.
Naja und dann spielen halt noch solch Kleinigkeiten wie die verbesserte Bildqualität eine Rolle. Die bekommt man natürlich auch nicht ohne Performanceverlust geschenkt. Ein winkelunabhängiges AF zum Beispiel frisst relativ viel Leistung.
Bei DX10 Spielen wird das Ganze aber sicherlich noch etwas besser. Da benötigen die Spiele weit weniger CPU-Leistung und die fps sollten noch weiter steigen.
@foofi: Im September kommen erst die ersten REfresh-Chips? Das dauert ja noch ewig. So lange werde ich sicherlich nicht mehr warten können.
Es ist aber schön, dass nVidia bald auch die kleineren Modelle des G80 herausbringt. Dann nehme ich mal an, dass ATi auch recht schnell kleinere Versionen anbieten wird um nVidia Konkurrzenz zu bieten.
warpspeed
09.11.2006, 10:19
Hammer Hammer... kann ich da nur sagen. Ich glaube die werde ich mir zulegen. Gibt es die schon zu kaufen? Also die grosse...
EDIT:
AHA... da...
http://www.alternate.de/html/product/details.html?artno=JBXVG1&showTechData=true
@foofi: Dann nehme ich mal an, dass ATi auch recht schnell kleinere Versionen anbieten wird um nVidia Konkurrzenz zu bieten.
Moinmoin :) Die ATi soll auch im Februar kommen, glaube aber dass die sofort auch die abgespeckten Karten zur Verfügung stellen, haben die ja fast immer so gemacht.
Lieben Gruss rüberschick!
http://www.newegg.com/Product/ProductList.asp?DEPA=0&type=&Description=8800+GTS&Submit=ENE&N=0&Ntk=all&Go.x=0&Go.y=0
^^ alle GTS kosten hier 499 US$
fadeproof
09.11.2006, 14:58
Im Februar werden laut Daylitech die abgespekten Karten endlich rauskommen und im September eine weiter entwickelte Karte mit überholter Architektur.
du meinst die 8900 karten kommen erst september 2007?
ist ja fast ein jahr verzögerung :cry: und die 8950 (falls überhaupt) dann noch später...?
ging doch früher auch schneller... oder war zwischen G70 und G71 auch ein jahr pause?
Im Februar werden laut Daylitech die abgespekten Karten endlich rauskommen und im September eine weiter entwickelte Karte mit überholter Architektur.
darüber ist man sich sehr uneinig, da man der (hoffentlich schnelleren) r600 paroli bieten will.
^^ also wenn die ATI den Preis von Nvidia nach unten zwingt, werde ich mir sodann eine holen ;)
Hier noch nicht verfügbar aber ein Preis von der ASUS EN8800GTX/HTDP
http://www.snogard.de/index.php?kategorieId=52&artikelId=VGAP76-ASU010
^^ wie schon man hier gesagt hat, gibts alle Karten auf Alternate.de
Was ist das beste system das mit 8800gtx ausgestattet ist für 1500 E ?
BoOgIeMaN
09.11.2006, 17:43
So müssts hinkommen:
Core 2 duo E6600
Asus P5W DH Deluxe
2 Gig Ram OCZ
NT Enermax Liberty 620W
8800GTX
DVD-Brenner Samsung
DVD-Laufwerk Samsung
FP WD
Keine Ahnung ob das Geld so reicht
@AK 47 bevor wir diesen Thread auch noch nutzen um nen Highend PC zusammenzustellen, dann frag doch einfach bei den anderen nach ;) ist nicht böse gemeint, nur der Ornung halber ;)
Nimm einfach eine teure CPU und gutes Mainboard, Arbeotsspeicher 4 GB sollten es sein! 300 GB Festplatte - einen geilen Monitor und fertig! ;)
jo reicht denke ich. würde aber ein 680i mainboard holen, damit hat man in etwa den gleichen fsb (auch höher) wie mit dem 975x, aber außerdem platz für 3 grakas (2 im sli mode, 1 für physikberechnung)
schau mal hier: http://www.xtremesystems.org/forums/search.php?searchid=2446096
@AK 47 bevor wir diesen Thread auch noch nutzen um nen Highend PC zusammenzustellen, dann frag doch einfach bei den anderen nach ;) ist nicht böse gemeint, nur der Ornung halber ;)
Nimm einfach eine teure CPU und gutes Mainboard, Arbeotsspeicher 4 GB sollten es sein! 300 GB Festplatte - einen geilen Monitor und fertig! ;)
Was ist mit einer Graka oder meinst du 8800gtx? Ich brauch ja noch vista und das kostet schon ca.150 E.
BoOgIeMaN
09.11.2006, 17:56
Und.......Windoof Vista!
Wie gesagt AK47 falscher Thread ;)
Nutze bitte diesen hier -> LINK (http://crysis.4thdimension.info/modules.php?name=Forums&file=viewtopic&t=398&sid=bee2ece8547fe0807b62429c8e859fe0)
nur mal so ne doofe frage was ist das minimum was man an einem netzteil haben sollte für dieses schöne exemplar von grafikkarte???
Hab ein Tagan 580 Watt starkes netzteil sollte doch voll und ganz ausreichend sein
nur mal so ne doofe frage was ist das minimum was man an einem netzteil haben sollte für dieses schöne exemplar von grafikkarte???
Eine Seite vorher hab ich's schon mal geschrieben. Klick (http://crysis.4thdimension.info/modules.php?name=Forums&file=viewtopic&p=6553&sid=a0af798c264aa8be3bedb1bbabf444ae#6553)
30A sollte man also mindestens auf der 12 Volt Leitung haben.
^^ habs auch ne Seite vorher gepostet ;)
Hier ein paar Angaben:
Ohne Last genehmigt sich die X1950 XTX 184 Watt, bei der GeForce 8800 GTX sind es gar 229 Watt. Unter Last ist es entsprechend mehr: 308 Watt für die X1950, 321 Watt bei der 8800 GTX.
Also von solchen Watt-Angaben halte ich immer nicht sehr viel.
Die schreiben weder, ob es sich dabei um Eingangs- oder Ausgangsleistung handelt, noch ob es sich um Wirk- oder Scheinleistung handelt. Wenn man dass dann noch mit den windigen Leistungsangaben der Netzteil-Hersteller vergleicht, dann sagt das praktisch gar nichts darüber aus ob das Netzteil genug Leistung hat oder nicht.
Man sollte eigentlich nur darauf achten, dass man wenn möglich ein Netzteil mit 2 PCIe Steckern nimmt, die zusammen mindestens 30 Ampere liefern. Mehr ist natürlich wünschenswert.
Eine einzelne 12 Volt Schiene geht natürlich auch, aber sollte man wenn möglich vermeiden.
wie kann man vor dem Kauf wissen welche Netzteile 30 A haben?
wie kann man vor dem Kauf wissen welche Netzteile 30 A haben?Mittlerweile geben fast alle Hersteller das Gott sei Dank an, wie viel die einzelnen Leitungen liefern. Einfach mal ein wenig rumsurfen (http://www.caseking.de/shop/catalog/default.php?cPath=30&osCsid=f3144db93089ecd282e22abae89efc96) und man sieht, dass es fast überall mit angegeben wird.
Für eine DX10 Karte oder auch einen SLI Verbund ist es sehr empfehlenswert sich ein ATX 2.2 Netzteil zu kaufen, dass zwei getrennte 12 Volt Stromkreise bereitstellt. So ca. 20 Ampere sollten die jeweils bieten können, damit man absolut auf der sicheren Seite ist.
Nach diesen Amperezahlen auf den einzelnen Leitungen sollte man sich immer richten und nicht nach der Leistungsangabe der Hersteller. Manch billiges 500 Watt Netzteil liefert weniger als ein gutes 400 Watt Netzteil.
fadeproof
09.11.2006, 23:34
also optimal 2x12V zu mindestens je 15A?
zB http://www.geizhals.at/a171815.html
welches ja 2x22A hat wenn ich mich nicht täusche?
Jo. Das wäre schon OK. Wichtig sind aber auch die Combined-Power Angaben.
Es kann nämlich nicht jede Leitung die angegebene Leistung gleichzeitig liefern. Du kannst nicht beide 12 Volt Leitungen gleichzeitig mit 22 Ampere belasten. Das sind nur Maximalwerte die man pro Schiene nicht überschreiten darf.
Wie die Leistungen genau auf die Schienen verteilt werden hängt alles vom internen Aufbau des Netzteils ab und ist immer schwierig zu bewerten. Deswegen ist es auch wichtig, dass neben den Einzelleistungen auch die kombinierte Leistung mit angegeben wird.
Wie du siehst entsprechen die 384 Watt combined power nicht den 528 (2*12*22) Watt, die sich ergeben würden, wenn beide 12 Volt Leitungen mit 22 Ampere belastet würden.
384 Watt würde bedeuten, dass man beide 12 Volt Leitungen gleichzeitig lediglich mit 16 (384 / 2 / 12) Ampere belasten darf und nicht mit 22 Ampere.
Aber wenn nVidia sagt, dass man ein Netzteil mit 30 Ampere auf der 12 volt Leitung braucht, dann wird das schon einigermaßen großzügig dimensioniert sein. Mit dem Netzteil würde man also auskommen. Die wissen ja auch, dass die Combined Power bei den Netzteilen geringer ausfällt.
Aha... ehrlich gesagt ist mir jetzt immer noch nicht geholfen...
Hier das sollten eigentlich die Angaben meines Netzteils sein da lese ich jetzt was von 26, 30, 20???
Und nun?
Stromleitungen: 8x 5.25" + 2x 3.5" + 4x S-ATA + 1x 20pol Mainboard + 1x 4pol Mainboard, 2x EMV PCIe/SLi Grafikkarte
Anschluss: 20/24POL
DC Output +3.3V (A): 26
DC Output +5V (A): 30
DC Output -5V (A): 0.8
DC Output +12V1 (A): 20
DC Output -12V (A): 1.0
Soviele unnötige angaben...
Reicht es jetzt Ja oder Nein was anderes will ich nicht wissen!
Dankeeee
Unnötig ist davon gar nichts. Eher zu wenig.
Steht da eigentlich nichts von einer +12V2 Leitung?
Ich nehme mal an, das noch eine 12V2 Leitung existiert, da es ja sonst nur eine normale 12V angegeben würde und keine 12V1. Vielleicht sind es ja auch die beiden PCIe Stecker.
Diese beiden Stecker sind auch der Grund, warum ich denke, dass das Netzteil reichen wird, aber um sicher zu sein sag mir mal den Namen des Netzteils, damit ich mir mal die vollständigen Angaben ansehen kann.
http://the-inquirer.com/images/articles/blockfrontINQ.jpg
http://the-inquirer.com/images/articles/blockBakcINQ.jpg
Die erste Wasserkühllösung für die 8800 Karten.
WoW
Was soll die denn wiegen, btite schön? Das ist ja echt ein Riesenteil.
Mal was ganz anderes!
Hier sehen wir ein Benchmark von der 8800 -> http://www.tweakpc.de/hardware/tests/graka/xfx_geforce_8800_gtx_gts/s01.php
Ich frage mich warum die 8800 in F.E.A.R. weniger Frames macht als meine 7900GT ???
Und in FarCry mache ich genau dieselben FPS.. vieleicht noch was mehr!
Unnötig ist davon gar nichts. Eher zu wenig.
Steht da eigentlich nichts von einer +12V2 Leitung?
Ich nehme mal an, das noch eine 12V2 Leitung existiert, da es ja sonst nur eine normale 12V angegeben würde und keine 12V1. Vielleicht sind es ja auch die beiden PCIe Stecker.
Diese beiden Stecker sind auch der Grund, warum ich denke, dass das Netzteil reichen wird, aber um sicher zu sein sag mir mal den Namen des Netzteils, damit ich mir mal die vollständigen Angaben ansehen kann.
Tagan 580 Watt
Ich frage mich warum die 8800 in F.E.A.R. weniger Frames macht als meine 7900GT ???
Öhm
Wo steht denn das? Ich sehe zum Beispiel bei F.E.A.R, dass die 7900 GT 28 fps schafft und die 8800 83 fps.
//EDIT:
@K1one:
Tagan hat zwei 580 Watt Netzteile. Das Eine liefert 33 Ampere und das Andere 35 Ampere combined auf den 12 Volt Leitungen. Reicht also vollkommen aus.
Ich schaffe über 100 fps, kann gerne als Beweis ein paar screenshots posten ;)
jo TG580-U22 ist die kleinere variante also 33?
Danke also reichts dicke... Kann ich ja in aller ruhe nächstes Jahr mir eine 8800 zulegen
EDIT: Auch mit den gleichen Einstellungen??? @ foofi?
Weil dieser gezeigte test zeigt ja ganz klar das mit gleicher einstellung unterschiede von 23 - 83 sind oder so in etwa weiss jetzt nicht mehr die genauen zahlen
Ich schaffe über 100 fps, kann gerne als Beweis ein paar screenshots posten ;)
Du musst dich aber schon nach dem Benchmark richten. Du kannst ja nicht deine Ergebnisse mit denen des Benchmarks vergleichen. Wer weiß, welche Parameter und Einstellungen da alle verändert wurden.
ja, ok die Auflösung ist 1680x1050 und 4xAA 16xAF + TAA=MS
Vielleicht gibts ja bald jemanden der sich die Karte kauft der kann uns ja dann genaueres sagen.
Aber die ist mit sicherheit schneller als unsere 7900 GT, obwohl ich ja voll und ganz mit der zufrieden bin. ;)
Das ist ja nicht alles. Hast du auch alle Einstellungen auf Maximum?
Sind die performanceoptimierenden Einstellungen im Grafiktreiber aktiviert oder deaktiviert? Zum Beispiel das AF (http://www.tweakpc.de/hardware/tests/graka/xfx_geforce_8800_gtx_gts/s06.php)
Da wird es sicherlich irgendwo Unterschiede geben.
^^ alle werte sind auf maximum ;)
Ich zocke soweit alles auf höchsten Details! Auch FarCry! Da kann etwas nicht stimmen!
Also mit den Benchmarkwerten kann etwas nicht stimmen!
Da hat diese Testseite Fehler gemacht, das ist ne bombastische Karte!
Also hier (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/18/#abschnitt_f_e_a_r) kommen sie auch auf 30 fps für die 7900 GT und 75 fps für die 8800 GTX.
Irgendwie kommen mir die 100 fps von dir auch viel zu viel vor. F.E.A.R benötigt auf Max-Settings wirklich ne Menge Leistung und dann noch 100 fps mit ner 7900 GT hinzubekommen erscheint mir etwas unrealistisch.
http://img246.imageshack.us/img246/1659/fxp1qo5.th.png (http://img246.imageshack.us/my.php?image=fxp1qo5.png)
fadeproof
10.11.2006, 15:56
wie war das mit 100 fps? ;) ich sehe da nur 56 :D
was wollt ihr eigendlich mit euren Nvidia ?
die zocken euch nur ab ....
ihr bekommt die selbe leistung mit ner Radeon + 50 € billiger
@Bugles ^^ erspar dir solche sinnlosen Comments ;)
@fadeproof, ist denn nicht die Rede von maximalen Frames?
was wollt ihr eigendlich mit euren Nvidia ?
die zocken euch nur ab ....
ihr bekommt die selbe leistung mit ner Radeon + 50 € billiger
wenn man keine ahnung hat, dann sollte man sich solche comments verkneifen, denn es entspricht nicht der wahrheit
Ok, oder der Benchmark von Lost Coast:
http://img88.imageshack.us/img88/7262/hl2lcoa6.th.png (http://img88.imageshack.us/my.php?image=hl2lcoa6.png) http://img88.imageshack.us/img88/3857/benchqh3.th.jpg (http://img88.imageshack.us/my.php?image=benchqh3.jpg)
laut Benchmark müsste ich 30 fps haben, das kann aber nicht sein!
Also die 8800 ist 100% viel besser als die uns hier angeben! Ich wette drauf dass diese Karte auf meinem Rechner richtig abgeht!
was besitzt du für einen prozessor foofi?
BoOgIeMaN
10.11.2006, 17:31
Klick mal auf Foofis Banner in seiner Sig :wink:
DayGunner
11.11.2006, 18:33
Hab nur eine kuze frage.
Stimmt es dass die 8800 gtx einen physikbeschleuniger hat :?:
Hat mir nämlich mein freund gesagt. 8O
nee, das ist eine Softwarelösung die heisst HAVOK FX, dann kann man die Karten für Havok Physikbeschleunigungsberechnungen mitnutzen, mehr auch nicht!
Das geht sodann mit allen NVidia SLI Karten, also auch der 6er 7er und 8er Serie.
Die 8'er Serie ist aber etwas Besonderes, da sie dank DX10 auch interaktive Physik berechnen kann.
Das kann der R600 aber auch. nVidia pralt zwar damit rum, dass die Karte zur Physikberechnung genutzt werden kann, aber das ist ein ganz einfache Folge der Unified Shader Architektur und der Stream-Out Funktion.
Es kann sein, dass nVidia noch eine spezielle Physik-Schnittstelle in ihre Treiber integriert um Physikfunktionen einfacher nutzen zu können, aber ich bin mir sicher, das ATi sich dieses Marketing-Argument auch nicht entgehen lässt und auch etwas in der Hinsicht tut.
Hi Noxon, was heisst genau "Interaktive Physik" von welcher engine genau? Ist die Karte sodann programmierbar um alle Physikengines zu erkennen oder was heisst genau "interaktiv"?
Also bisher konnte Havok-FX nur Effektphysik berechnen. Dazu gehört alles was zwar gut aussieht, aber das Spielgeschehen nicht beeinflusst. Zum Beispiel größere Explosionen mit mehreren Trümmerteilen oder Blätter im Wind und so etwas.
Eine Eigenschaft der Effektphysik ist nun die, dass die CPU von den Physikberechnungen nichts mitbekommt. Sie weiß also nicht, ob der Spieler von einem Trümmerteil getroffen wurde oder nicht.
Somit kann sie dem Spieler auch keine Health-Point abziehen. Sie ist also nicht interaktiv. Ein anderes Beispiel wäre, wenn du ein Loch in eine Mauer schießt. Die Graka weiß zwar, dass da ein Loch ist, aber die CPU nicht. Also wird man mit dem Spieler auch nicht durch das Loch laufen können, weil die CPU denkt, dass dort immer noch eine Mauer steht.
Das ist der Nachteil von DX9. Die Shader sind unidirektional. Die Graka kann also lediglich Informationen von der CPU empfangen, aber nicht wieder zurück liefern.
Mit DX10 hat sich das aber geändert. Dort kann die Graka die Ergebnisse ihrer Physikberechnung der CPU mitteilen und somit auch in das Spielgeschehen eingreifen.
Zum Beispiel kann die CPU dann etwas von den Healtpoints abziehen, wenn der Spieler getroffen wird. Auch die Physik, wie man sie in HL² findet, um Rätsel zu lösen sind erst mit DX10 möglich.
Martin80
12.11.2006, 14:00
...Auch die Physik, wie man sie in HL² findet, um Rätsel zu lösen sind erst mit DX10 möglich.
Die Aussage verstehe ich nicht wirklich (auch im Kontext zum restlichen Post)
Kannst du mir das mit HL2 nochmal näherbringen?
Also in HL² musst du doch bestimmte Rätsel mittels der Physik lösen.
Zum Beispiel musst du Steine auf eine Rampe legen um auf einen Vorsprung zu springen, oder du musst Fässer unter Wasser unter eine Schanze befördern, damit du mit diesem Hovercraft darüber fahren kannst.
Dazu muss die CPU aber auch wissen, ob die Schanze oben ist oder nicht. Die CPU hat aber keine Informationen darüber, wenn die Graka diese Berechnungen durchgeführt hat und somit kann sie auch nicht entscheiden, ob das Hovercraft über den Abgrund springt oder nicht.
Deswegen ist Havok-FX auch eine Kombilösung. Interaktive Physik wird weiterhin auf der CPU berechnet und Effektphysik wird auf der Graka berechnet.
Ich kann ja auch mal ein Crysis-bezogenes Beispiel nehmen.
Sich bewegende Blätter könnten eigentlich reine Effektphysik sein, wenn sie sich lediglich im Wind bewegen sollen oder wenn der Spieler dagegen läuft.
Sollen sie aber Geräusche machen, dann muss die CPU wissen, ob und wann sie Geräusche machen soll. Das kann sie nur, wenn sie genau weiß, ob der Spieler von einem Blatt berührt wird oder nicht.
Ein anderes Beispiel für interaktive Physik wären die umfallenden Bäume. Da sie den Spieler erschlagen sollen muss die CPU auch darüber Bescheid wissen. Mit reiner DX9 Graka-Physik würde der Baum zwar dem Spieler auf den Kopf fallen, aber dem Spieler würde nichts passieren.
Der Rauch auf dem Flugzeugträger hingegen ist reine Effektphysik. Der hat auf das spielgeschehen keinen Einfluss sondern sieht nur gut aus, wenn er sich im Wind bewegt. Es sei denn, dass die Gegner schlechter sehen würden, wenn sie im Rauch stehen. Dann wäre er wieder interaktiv und müsste von der CPU berechnet werden.
Martin80
12.11.2006, 14:47
ja, okay. danke.
warpspeed
14.11.2006, 11:03
NVIDIA zweckentfremdet G80
Mit einer als CUDA (Compute Unified Device Architecture) bezeichneten Technologie stellt NVIDIA eine Möglichkeit vor eine Grafikkarte mit dem kürzlich vorgestellen G80-Chip als Coprozessor zu nutzen. Haupteinsatzzweck soll das Rendering von Grafiken oder die Berechnung wissenschaftlicher Daten darstellen, die mathematisch nicht allzu komplex sind und sich leicht parallelisieren lassen. Ein anschauliches Anwendungsbeispiel aus dem Heimanwenderbereich wäre z.B. die Auswertung von extraterrestrischen Radiosignalen durch das SETI-Projekt.
Im Endeffekt stellt der G80 mit seinen 128 Shader-Einheiten einen Cluster aus 128 einzelnen mit je 1,35 GHz getakteten Prozessoren dar. Sie verfügen wie ihre Desktop-Pendants über Level-1- und Level-2-Cache und besitzen mit dem Grafikspeicher einen eigenen Arbeitsspeicher. Spezialisierte Coprozessoren stellen derzeit einen der Haupttrends bei der zukünftigen Computerentwicklung dar, sowohl AMD (Torrenza) als auch IBM und Intel (Geneseo) arbeiten an entsprechenden Interfaces. Mittelfristig sind dann auch heterogene Prozessoren zu erwarten, die auf einem Die verschieden funktionalisierte Kerne vereinen (bspw. x86 + Krypto + Grafik).
Und mal wieder zur Info :).
warpspeed
23.11.2006, 12:18
"Übertaktungsverbot" für NVIDIA G80-Chips?
All die Jahre tauchten nach der Veröffentlichung von neuen Grafikkarten-Chipsätzen immer wieder entsprechende Modelle einzelner Grafikkartenschmieden auf, welche durch höhere Taktraten um die Gunst des Käufers buhlten. Angeblich - so nach einer Berichterstattung von Hartware, basierend auf einer Meldung des Inquirer - soll NVIDIA dem nun einen Riegel vorschieben und entsprechenden Herstellern übertaktete Modelle untersagt haben.
Ein höchst ungewöhnliches Unterfangen, wie wir empfinden, sollte die Berichterstattung tatsächlich auf Wahrheiten basieren. Letztlich ist es am Chiphersteller erst einmal die Referenz, mit all seinen Eckdaten zu liefern - sollten sich wagemutige Genossen genötigt fühlen, andere Variationen zu präsentieren, so läuft es eigentlich wie üblich in der OC-Szene: Übertakten auf eigenes Risiko. Zu Deutsch: wenn Gainward beispielsweise eine übertaktete GeForce 8800 GTX verkaufen möchte, so trägt der Hersteller die volle Gewährleistung und das volle Risiko gegenüber dem Kunden. Es ist höchst fraglich, warum sich NVIDIA in ein solches Geschäft mit Verboten einklinken sollte.
Laut besagter Meldung sei der Hintergrund, dass die G80-Chips bereits unter enormer Wärmeentwicklung leiden würden und dies eine Übertaktung ausschließt. Nun haben unsere eigenen Tests bislang ergeben, dass ein solches Modell einen "Temperaturwert" von ca. 80°C liefert. Das läge zwar höher, als bei bisherigen NVIDIA High-End-Modellen der 7800 oder 7900 GTX Serie, doch muss man den Technologie-Switch durchaus bedenken, ebenso den Umstand, dass Temperaturmessungen eben abhängig davon sind, wo platzierte Sensoren messen.
Niemand kann wirklich sagen, wo und insbesondere wie optimal, der Sensor bei den aktuellen NVIDIA G80-Chips platziert ist. Liegt dieser weit jenseits der Hotspots, so liefert er keine wirklich kritischen Temperaturen -zumindest auf den ersten Blick. Einzige Erklärung dafür, dass NVIDIA - sollte die Meldung sich bewahrheiten - solche Schritte geht, wäre ein ungünstig platzierter Sensor und ein Chip, der bereits wirklich am Anschlag läuft. Und an dieser Stelle sollten helle Ohren wach werden. Denn dann müsste man wirklich expliziet die OC-Gemeinde deutlich hinweisen, dass gestern eben nicht mehr heute ist und eine 600 Euro Hardware zu schade ist, sie durch Übertaktungsversuche zu gefährden. Bislang geht die OC-Gemeinde schlicht davon aus, dass sich in jedem Stück Hardware noch genügend Spielraum befindet.
Snief :(... ich war sonst immer ein Fan der hochgezüchteten Karten.
^^ das ist ein Ding... aber mal ehrlich: solange man die Karte selber übertaktet, ist es doch ok. Ich inde es seltsam wenn man manchmal bis zu 70,- EUR aufpreis für eine übrtaktete Karte zahlt, solange man das selber machen kann.
Man kann 29,- EUR für den besten GPU Kühler von Zalman investieren und die Karte sodann noch mehr übertakten als gewohnt.
sicher, sowas ist eben für den Laien ausgelegt. Der hat nämlich keie ahnung von übertakten und würde seine Karte so unter umständen zerstören...siene Garantie verliert er dann sowieso..deswegen gleich die übertaktete karte mit garantie..sozusagen official pimped
warpspeed
23.11.2006, 14:26
Das wollte ich auch anmerken... übertaktet man seine Karte selbst und die raucht ab, hat man Pech gehabt. Kauft man eine fertig übertaktete haftet der Hersteller bei/für Schäden :cool:.
pissdrunx1987
02.12.2006, 17:00
die g80 techdemos gibts jetzt in einem allinone video als wmv hd download :)
enjoi it
Download G80 Techdemos HD Video (http://us.download.nvidia.com/downloads/videos/GF8800Demoreel_High_8000.wmv)
BoOgIeMaN
02.12.2006, 21:30
Nachdem ich gut 8 Minuten geladen hatte, durfte ich mir die ersten 15-20 Sekunden des Videos total verruckelt anschauen ,bis dann die Übertragung abbgebrochen ist.
:x
@Bogieman - geh auf den Link, nicht anklicken, sondern: rechte Maustaste -> ziel speichern unter -> usw. ;)
nVidia GeForce 8800 GTX SLI
SLI, Core 2 Duo und mehr
Seite 1 von 26
Dass das Duell der Giganten auch gigantisch viel Strom benötigt, zeigt sich bei den Messungen des Stromverbrauches. Die beiden GeForce-8800-GTX-Karten ziehen mit dem Gesamtsystem schon unter Windows satte 296 Watt aus der Stromleitung, während sich die GeForce-7900-GTX-Samples mit 228 Watt zufrieden geben. Die zwei „Radeon X1950 XTX“-Grafikkarten begnügen sich gar mit „nur“ 196 Watt – hier müssen wir aber anmerken, dass die nForce-Chipsätze traditionell mehr Strom benötigen als die Intel- und ATi-Pendants; die große Differenz zwischen den ATi- und nVidia-Karten beruht also nicht ausschließlich auf den Grafikkarten.
Unter Last erreicht man mit den G80-GPUs regelrechte „Horrorwerte“. 445 Watt belasten die Stromrechnung und die Umwelt auf Dauer deutlich, auch wenn wohl nur die wenigsten den Rechner pausenlos im 3D-Modus betreiben. Auf Platz zwei prescht das CrossFire-Setup mit 401 Watt hervor. Das SLI-System der GeForce 7900 GTX zeigt sich mit 339 Watt ein gutes Stück genügsamer, ist aber auch deutlich langsamer.
Die ermittelten Werte sind nicht vergleichbar mit den Stromverbrauchsmessungen aus anderen Artikeln. Grund dafür ist, dass für diesen Artikel ein anderes Netzteil, das PC Power&Cooling 1KW Quad, eingesetzt wird, um den Stromhunger (beziehungsweise die vier PCIe-Stromanschlüsse) befriedigen zu können.
http://www.computerbase.de/artikel/..._stromverbrauch
Das SLI-Gespann bleibt davon nicht verschont und erreicht einen Wert von 69 Grad Celsius. Im Vergleich dazu misst das X1950-XTX-CrossFire-System 59 Grad. Interessanterweise bleibt die Leadtek WinFast PX8800 GTX nicht so kühl wie das nVidia-Exemplar. Die Leadtek erhitzt sich auf 68 Grad Celsius und ist damit fünf Grad wärmer.
Unter Last zeigt sich ein ähnliches Bild, wobei die GeForce 8800 GTX nun ein deutlich besseres Ergebnis erzielen kann. Die nVidia-Karte liegt bei 81 Grad, während sich die WinFast PX8800 GTX auf 84 Grad Celsius aufheizt. Das SLI-System erreicht ebenfalls 84 Grad und wird damit nur ein Grad wärmer als das SLI-Gespann der GeForce 7900 GTX. Bei den Messungen auf der Chiprückseite übernimmt die GeForce 8800 GTX die Führung. 71 Grad Celsius lautet der Wert der Einzelkarte, das SLI-System wird kein Deut wärmer. Die Leadtek-Adaption muss sich allerdings mit 75 Grad Celsius zufrieden geben. Die CrossFire-Konstellation wird mit 75 Grad Celsius vier Grad wärmer.
http://www.computerbase.de/artikel/...nitt_temperatur
Das SLI-Gespann arbeitet dagegen lauter, auch wenn der Lärmpegel im 2D-Modus noch nicht störend ist. Mit 51 Dezibel setzt man sich zwar an die Spitze des Testfeldes, ein halbwegs ruhiges Arbeiten ist dennoch möglich. Für Silent-Freaks können wir solch eine Kombination aber nicht empfehlen.
Anders sieht es dagegen unter Last aus. Die beiden GeForce-8800-GTX-Karten produzieren eine Lautstärke von 60 Dezibel, was alles andere als angenehm ist. Einzig das CrossFire-Setup der Radeon X1950 XTX arbeitet lauter, wobei der Schuldige in diesem Fall das Mainboard ist.
http://www.computerbase.de/artikel/...itt_lautstaerke
Fazit
http://www.computerbase.de/artikel/...abschnitt_fazit
nVidia GeForce 8800 GTS (SLI)
Asus gegen Gainward: Duell zwischen Zwillingen
http://www.computerbase.de/artikel/...e_8800_gts_sli/
ui jezt kommen zwei asusGTs dran und GeinwardGTs
Das SLI-Gespann der GeForce 8800 GTS bleibt auf dem Windows-Monitor mit 50 Dezibel angenehm leise und weiß zu gefallen. Ob eine oder zwei Grafikkarten im Rechner montiert sind, spielt bei der „kleineren“ G80-Variante kaum eine Rolle. Unter Last ist das Doppelgespann jedoch ein richtiger Radaumacher. Mit 61 dB rufen die zwei Radiallüfter gerade zu nach Aufmerksamkeit, die sie wohl auch direkt bekommen werden. Beim Spielen kann man die 3D-Beschleuniger gut aus dem Gehäuse heraushören. Ruhige Zeitgenossen sollten lieber zu einer anderen Grafikkarte greifen, wobei die Leistung dann aber nicht das Niveau zweier „GeForce 8800 GTS“-Karten erreicht.
Im herkömmlichen 3D-Betrieb fällt die GeForce 8800 GTS im geschlossenen Gehäuse nicht negativ auf. Zwar macht sich die Grafikkarte minimal bemerkbar, störend ist dies aber noch lange nicht. Interessanterweise arbeiten unsere beiden GTS-Version etwas lauter als das Flaggschiff GeForce 8800 GTX. Und auch zwischen den Karten ergeben sich Unterschiede. Das Gainward-Modell bleibt exakt ein Dezibel leiser als das Asus-Pendant. Unter Last wird die Gainward GeForce 8800 GTS mit 50,5 dB im Vergleich zur Ruhephase nur geringfügig lauter. Die Grafikkarte ist beim aktiven Spielen zurückhaltend, weswegen man den nVidia-Beschleuniger durchaus für einen Silent-PC empfehlen kann. Erneut ist die Asus-Karte ein Dezibel lauter als die Gainward GeForce 8800 GTS. Erstere liegt quasi gleichauf mit dem Referenzdesign der GeForce 8800 GTX.
http://www.computerbase.de/artikel/...itt_lautstaerke
Die GeForce 8800 GTS von Gainward reiht sich mit den gemessenen 61 Grad unter Windows zwar ans obere Ende des Testfeldes ein, auf einem kritischen Niveau sind die Temperaturen aber noch lange nicht. Die Karte bleibt zwei Grad kühler als die GeForce 8800 GTX, kann sich von einer Radeon X1950 XTX aber nicht absetzen. Interessanterweise wird das Asus-Modell mit 70 Grad neun Grad wärmer als die Konkurrenzkarte von Gainward. Ähnliches wiederholt sich unter Last. Während die Gainward GeForce 8800 GTS mit 80 Grad einen guten Wert erreicht, wird die Asus-Karte 89 Grad warm. Warum dies so ist, ist uns unklar.
Wir vermuten allerdings, dass es sich dabei um ein problembehaftetes Einzelexemplar handelt, dessen Kühlsystem nicht ordnungsgemäß montiert worden ist. Andere GeForce-8800-GTS-Karten von Asus sollten mit großer Wahrscheinlichkeit auf dem Niveau der Gainward-Adaption liegen. Probleme während des gesamten Testlaufs gab es jedoch nicht, die Karte lief einwandfrei. Auf der Chiprückseite wird die Asus GeForce 8800 GTS 71 Grad warm, während die Gainward-Variante auf 70 Grad Celsius kommt.
nteressanterweise wird das SLI-Gespann der GeForce 8800 GTS unter Windows mit 70 Grad Celsius genau ein Grad wärmer als das Doppelgespann der GeForce 8800 GTX. Grund dafür sollte die Asus-Karte sein, die allgemein zu hohe Temperaturen aufweist. Unter Last liegen die beiden Varianten der G80-GPU mit einem Wert von 84 Grad gleichauf. Für ein modernes SLI-Gespann stellt das ein recht gutes Ergebnis dar. Auf der Chiprückseite beträgt die Temperatur unbedenkliche 72 Grad.
http://www.computerbase.de/artikel/...nitt_temperatur
Das SLI-Gespann der GeForce 8800 GTS prescht unter Windows mit 282 Watt auf den zweiten Platz des Testfeldes hervor und setzt sich so knapp vor die Quad-SLI-Konfiguration der GeForce 7950 GX2. Von den 320 Watt zweier GeForce-8800-GTX-Karten ist die kleinere GTS-Version aber weit entfernt. Unter Last erhöht sich die Leistungsaufnahme auf 431 Watt. Mit diesem Ergebnis sichert man sich erneut Platz Zwei in der Kategorie „höchster Stromverbrauch“. Quad-SLI liegt mit 414 Watt knapp dahinter, das SLI-System der GeForce 8800 GTX mit 485 Watt aber weit davor.
Spätestens nach dem Launch-Review der GeForce 8800 GTX war klar, dass die neue G80-GPU alles andere als ein Stromsparwunder ist. Die GeForce 8800 GTS verhält sich da nicht anders, auch wenn die Leistungsaufnahme etwas moderater ausfällt. Die Adaption von Gainward zieht mitsamt dem restlichen System unter Windows 205 Watt aus der Leitung, das Asus-Pendant dagegen zwei Watt mehr, was aber im Bereich der Messungenauigkeit liegt. Im Vergleich dazu benötigt die GeForce 8800 GTX 217 Watt, die GeForce 7950 GX2 „nur“ 191 Watt.
Unter Last sieht es dagegen deutlich besser aus. Mit 272 Watt platziert sich die Gainward-Karte knapp unter der GeForce 7950 GX2 und ATis Radeon X1950 XTX (Asus 8800 GTS: 280 Watt). Der größere Bruder, die GeForce 8800 GTX, ist mit einem Verbrauch von 310 Watt um einiges anspruchsvoller. Nichtsdestotrotz ist die GeForce 8800 GTS nicht für Stromsparer geeignet – Stromsparer mit Rücksicht auf Geldbeutel und Umwelt werden wohl keinen 3D-Beschleuniger in der High-End-Klasse anvisieren.
http://www.computerbase.de/artikel/..._stromverbrauch
Fazit
http://www.computerbase.de/artikel/...abschnitt_fazit
Nach oben
die techdemos kann man jetzt auch auf bei Nvidia runterladen.
naja meine 6800 Ultra ist leider völlig überfordert mit den dingern. aber das war ja zu erwarten.
hätte gerne ma ne rückmeldung von g8 besitzern wie die demos bei ihnen aussehen und laufen.
Es gibt neben der 640 MB der 8800GTS nun auch eine günstigere 320 MB Version für unter 300 EUR.
Technische Details: http://www.nvidia.com/page/geforce_8800.html
Ob sich der Kauf lohnt ist eine andere Sache...
Tja
Ich werde mir wohl demnächst so eine GTS kaufen. Allerdings mit 640 MB Ram. Die ist auch nicht viel teurer als die neuen abgespeckten Versionen.
Ich wollte ja eigentlich auf den R600 warten, aber der wurde ja nun so oft verschoben, dass ich jetzt eine 8800 nehmen muss, denn ich möchte unbedingt BioShock und C&C3 in guter Qualität zocken können.
Und anstatt, das ich mir jetzt im März für 600 EUR einen niegel-nagel-neuen R600 kaufen werde, kaufe ich mir doch lieber für die Hälfte des Preises eine 8800 GTS und in einem Jahr rüste ich dann auf und kaufe gleich den Refresh-Chip R680.
Der wird dann auch weniger Strom vebrauchen und erheblich güntiger sein, als jetzt der R600 beim Verkaufsstart. Wirtschaftlich gesehen ist das absolut der sinnvollere weg.
Die 8800 GTS werde ich dann sicherlich immer noch für 150-200 EUR vericken können, schätze ich mal.
Ich denke auch, dass ich mit der GTS Crysis in sehr hoher Qualität spielen kann. Insofern reicht erst einmal eine "billige" GTS aus, bis der R6xx ausgereift und günstiger geworden ist.
Die 8800 GTS 320 kostet 299 und die 8800 GTS 640 kostet 228
also meiner meinung nach würde ich lieber die 30€ mehr bezahlen
man hat dann immer hin doppelten speicher für wenig geld
Und wenn man sich eine Directx 10 Grafikkarte sich kaufen will dann
würde ich mal sagen das man die 30€ mehr auch hat
also meiner meinung nach würde ich lieber die 30€ mehr bezahlen
Sehe ich auch so. Ich weiß gar nicht, warum der Preisunterschied so gering ist. Der eingesparte Speicher ist bestimmt mehr wert als der Preisnachlass.
299-228 sind 70 € und nicht 30 :D
EDIT: Außerdem stimmen die Preise garnicht was du da oben geschrieben hast.
8800 GTS 320 MB € 319
8800 GTS 640 MB € 389
so stimmen sie^^
hatte mich eben auch schon gewundert^^
egal..kann ja passieren!
Aber ich hab auch schon daran gedacht, sich jetzt lieber ne 8800 zu holen, statt eine R600...aber wenn hole ich mir die GTX!! Dann hole ich mir auch erst Mitte nächsten Jahres frühstens ne Neue, d.h. entweder warten auch R600 oder schon ne 8800GTX.:wink:
Aber die GTX wir ja noch nichtmal richtig ausgelasten, durch die heutigen Spiele, ich denke das reicht auch!
Wow, das war ja ein Grund um die 8800GTS teurer zu machen... ich hab meine für 349,- EUR von XFX bekommen, jetzt ist sie satte 30 EUR teurer... super NVidia, ganz dolle Leistung. :(
Hab mich verschrieben sie kostet nich 228 sondern 328 also trotzdem 30 mehr
http://www.cyberport.de/item/1341/1032/0/84392/XFX_GeForce_8800_GTS_320MB_PCIe_2xDVITV_-_Retail.html?APID=14
http://www.preis-kampf.com/war/default.asp?PageNo=DEFAULT&DeepLink=PB10000D%2CHardware%2CGRAKA%2DNVIC%2DGF88 00110035189%2C
Eigentlich wollte ich auch auf die R600 warten, aber ich denke ich werde mir in so 2-3 Monaten ne 8800GTX kaufen.
Ich denke die R600 wird ca. 600€ kosten, da kann man bei einer G80(GTX)
noch einiges sparen. 8)
Hier sind ein paar Infos zur überholten G80 -> 8900GTX/GTS GS und 8950GX2
http://www.theinquirer.net/default.aspx?article=37655
man sollte nicht alles glauben, was dort steht, häufig lagen die auch schon daneben (man erinnere sich an die angeblichen G80 Bilder), aber wenn es denn doch so kommen sollte dann wäre es schon schön
Nvidia is nichblöde, die geben dem R600 schon etwas zum angst kriegen, und das 4-5 monate nach der 8800GTX lol....
Die 8900GTX werd ich mir nur dann holen wenn sich der leistungssprung auch lohnt, unter 25% mehr als die 8800GTX werd ich nix mehr holen!!!
man sollte nicht alles glauben, was dort steht, häufig lagen die auch schon daneben (so ähnlich wie die bild), aber wenn es denn doch so kommen sollte dann wäre es schon schön
ach, das war ja mit der 7900GT genauso, hat auch keiner erwartet :)
Nvidia is nichblöde, die geben dem R600 schon etwas zum angst kriegen, und das 4-5 monate nach der 8800GTX lol....
Die 8900GTX werd ich mir nur dann holen wenn sich der leistungssprung auch lohnt, unter 25% mehr als die 8800GTX werd ich nix mehr holen!!!
ich besorg mir eh immer nur alle paar jahre ne neue hardware .
von ner 8800 auf ne 8900 wäre für mich persönlich rausgewurfenes geld ....
nVidia versucht G80-Stromverbrauch zu drosseln
Bezüglich der Geschwindigkeit und der Bildqualität gibt es bei der G80-GPU von nVidia in Form der GeForce-8800-Serie kaum etwas zu bemängeln. Anders sieht es dagegen beim Stromverbrauch aus, der vor allem im Idle-Modus unnötig hoch ist.
Als wir nVidia auf dieses Thema ansprachen, gab der „Central European Product PR Manager“ von nVidia, Jens Neuschäfer, uns gegenüber bekannt, dass nVidia derzeit einen Treiber in Entwicklung hat, der den Stromverbrauch der G80-GPU im Leerlauf deutlich senken soll. Dies soll nicht nur durch eine starke Taktminderung sowie einer Reduzierung der Spannung, sondern ebenfalls durch eine Deaktivierung der Shadercluster bewerkstelligt werden. Der G80 hat insgesamt acht dieser Shadercluster (welche die ALUs, TMUs, TAUs sowie ein Großteil des Caches beinhalten), die selbst bei Verwendung der Aero-Oberfläche unter Windows Vista nicht nötig sind.
Wann und ob überhaupt solch ein Treiber erscheinen wird, konnte uns nVidia nicht sagen. Einzig, dass nVidia versucht einen entsprechenden Treiber zu programmieren, kann man als gesichert ansehen.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/maerz/nvidia_g80-stromverbrauch/
Ich warte mal bis August/Juli dann ist sicher die 8900GS(512Mb) draußen die man mit ein bisschen ocen zu ner GT macht 8)
August ist ein günstiger Monat da ich das Geld für den Ferialjob bekomme
und der Preis für den C2Q Q6600 auf 266$=200€ sinkt
Hoffe mal ein Quad reicht für Crysis
http://www.computerbase.de/news/hardware/prozessoren/intel/2007/maerz/preissenkungen_produkte_intel/
lol ein quad reicht für crysis 100mal
auf der präsentation auf der cebit meinten die das wenn man crysis auf max. details spielen will eine dx10 karte braucht und vllt auch einen c2d/c2q also wird der allemal reichen!
Powered by vBulletin® Version 4.2.5 Copyright ©2025 Adduco Digital e.K. und vBulletin Solutions, Inc. Alle Rechte vorbehalten.