Seite 18 von 20 ErsteErste ... 81617181920 LetzteLetzte
Ergebnis 171 bis 180 von 197

Thema: NVidia G80

  1. #171
    Administrator Avatar von warpspeed
    Registriert seit
    22.01.2006
    Ort
    Hessen, Germany
    Beiträge
    8.260

    Standard NVIDIA zweckentfremdet G80

    Zitat Zitat von hardtecs4u.com
    NVIDIA zweckentfremdet G80

    Mit einer als CUDA (Compute Unified Device Architecture) bezeichneten Technologie stellt NVIDIA eine Möglichkeit vor eine Grafikkarte mit dem kürzlich vorgestellen G80-Chip als Coprozessor zu nutzen. Haupteinsatzzweck soll das Rendering von Grafiken oder die Berechnung wissenschaftlicher Daten darstellen, die mathematisch nicht allzu komplex sind und sich leicht parallelisieren lassen. Ein anschauliches Anwendungsbeispiel aus dem Heimanwenderbereich wäre z.B. die Auswertung von extraterrestrischen Radiosignalen durch das SETI-Projekt.

    Im Endeffekt stellt der G80 mit seinen 128 Shader-Einheiten einen Cluster aus 128 einzelnen mit je 1,35 GHz getakteten Prozessoren dar. Sie verfügen wie ihre Desktop-Pendants über Level-1- und Level-2-Cache und besitzen mit dem Grafikspeicher einen eigenen Arbeitsspeicher. Spezialisierte Coprozessoren stellen derzeit einen der Haupttrends bei der zukünftigen Computerentwicklung dar, sowohl AMD (Torrenza) als auch IBM und Intel (Geneseo) arbeiten an entsprechenden Interfaces. Mittelfristig sind dann auch heterogene Prozessoren zu erwarten, die auf einem Die verschieden funktionalisierte Kerne vereinen (bspw. x86 + Krypto + Grafik).
    Und mal wieder zur Info .
    Greetings... WarpSpeed FORENREGELN/FORUMRULES

    AMD Ryzen 9 3950X @ 4.1 GHz - Patriot DIMM 32 GB DDR4-4400 - ASUS ROG STRiX X570-E Gaming - Gainward NVIDIA GeForce GTX 2080 Ti Phoenix GS 11GB RAM - Creative Soundblaster AE9-PE - Cooler Master V1200 Platinum (Netzteil) - Corsair Cooling Hydro Series H115i Pro - Monitor-1: Acer Predator CG437KP (43" 4k G-Sync Monitor) / Monitor-2: Samsung Curved UHD TV KU6679 (43" 4k TV) - Razer Cynosa Chroma (Tastatur) - Logitech G502 Proteus Core (Maus) - Logitech G25 (Lenkrad) - MS XBOX360 Gamepad - MS Windows 10 Pro 64Bit

  2. #172
    Administrator Avatar von warpspeed
    Registriert seit
    22.01.2006
    Ort
    Hessen, Germany
    Beiträge
    8.260

    Standard

    Zitat Zitat von hardtecs4u.com
    "Übertaktungsverbot" für NVIDIA G80-Chips?

    All die Jahre tauchten nach der Veröffentlichung von neuen Grafikkarten-Chipsätzen immer wieder entsprechende Modelle einzelner Grafikkartenschmieden auf, welche durch höhere Taktraten um die Gunst des Käufers buhlten. Angeblich - so nach einer Berichterstattung von Hartware, basierend auf einer Meldung des Inquirer - soll NVIDIA dem nun einen Riegel vorschieben und entsprechenden Herstellern übertaktete Modelle untersagt haben.

    Ein höchst ungewöhnliches Unterfangen, wie wir empfinden, sollte die Berichterstattung tatsächlich auf Wahrheiten basieren. Letztlich ist es am Chiphersteller erst einmal die Referenz, mit all seinen Eckdaten zu liefern - sollten sich wagemutige Genossen genötigt fühlen, andere Variationen zu präsentieren, so läuft es eigentlich wie üblich in der OC-Szene: Übertakten auf eigenes Risiko. Zu Deutsch: wenn Gainward beispielsweise eine übertaktete GeForce 8800 GTX verkaufen möchte, so trägt der Hersteller die volle Gewährleistung und das volle Risiko gegenüber dem Kunden. Es ist höchst fraglich, warum sich NVIDIA in ein solches Geschäft mit Verboten einklinken sollte.

    Laut besagter Meldung sei der Hintergrund, dass die G80-Chips bereits unter enormer Wärmeentwicklung leiden würden und dies eine Übertaktung ausschließt. Nun haben unsere eigenen Tests bislang ergeben, dass ein solches Modell einen "Temperaturwert" von ca. 80°C liefert. Das läge zwar höher, als bei bisherigen NVIDIA High-End-Modellen der 7800 oder 7900 GTX Serie, doch muss man den Technologie-Switch durchaus bedenken, ebenso den Umstand, dass Temperaturmessungen eben abhängig davon sind, wo platzierte Sensoren messen.

    Niemand kann wirklich sagen, wo und insbesondere wie optimal, der Sensor bei den aktuellen NVIDIA G80-Chips platziert ist. Liegt dieser weit jenseits der Hotspots, so liefert er keine wirklich kritischen Temperaturen -zumindest auf den ersten Blick. Einzige Erklärung dafür, dass NVIDIA - sollte die Meldung sich bewahrheiten - solche Schritte geht, wäre ein ungünstig platzierter Sensor und ein Chip, der bereits wirklich am Anschlag läuft. Und an dieser Stelle sollten helle Ohren wach werden. Denn dann müsste man wirklich expliziet die OC-Gemeinde deutlich hinweisen, dass gestern eben nicht mehr heute ist und eine 600 Euro Hardware zu schade ist, sie durch Übertaktungsversuche zu gefährden. Bislang geht die OC-Gemeinde schlicht davon aus, dass sich in jedem Stück Hardware noch genügend Spielraum befindet.
    Snief ... ich war sonst immer ein Fan der hochgezüchteten Karten.
    Greetings... WarpSpeed FORENREGELN/FORUMRULES

    AMD Ryzen 9 3950X @ 4.1 GHz - Patriot DIMM 32 GB DDR4-4400 - ASUS ROG STRiX X570-E Gaming - Gainward NVIDIA GeForce GTX 2080 Ti Phoenix GS 11GB RAM - Creative Soundblaster AE9-PE - Cooler Master V1200 Platinum (Netzteil) - Corsair Cooling Hydro Series H115i Pro - Monitor-1: Acer Predator CG437KP (43" 4k G-Sync Monitor) / Monitor-2: Samsung Curved UHD TV KU6679 (43" 4k TV) - Razer Cynosa Chroma (Tastatur) - Logitech G502 Proteus Core (Maus) - Logitech G25 (Lenkrad) - MS XBOX360 Gamepad - MS Windows 10 Pro 64Bit

  3. #173
    VIP Avatar von foofi
    Registriert seit
    13.05.2006
    Ort
    GER Cologne/Bonn - GR Alex/polis
    Beiträge
    15.210

    Standard

    ^^ das ist ein Ding... aber mal ehrlich: solange man die Karte selber übertaktet, ist es doch ok. Ich inde es seltsam wenn man manchmal bis zu 70,- EUR aufpreis für eine übrtaktete Karte zahlt, solange man das selber machen kann.

    Man kann 29,- EUR für den besten GPU Kühler von Zalman investieren und die Karte sodann noch mehr übertakten als gewohnt.

  4. #174
    User
    Registriert seit
    22.09.2006
    Beiträge
    59

    Standard

    sicher, sowas ist eben für den Laien ausgelegt. Der hat nämlich keie ahnung von übertakten und würde seine Karte so unter umständen zerstören...siene Garantie verliert er dann sowieso..deswegen gleich die übertaktete karte mit garantie..sozusagen official pimped

  5. #175
    Administrator Avatar von warpspeed
    Registriert seit
    22.01.2006
    Ort
    Hessen, Germany
    Beiträge
    8.260

    Standard

    Das wollte ich auch anmerken... übertaktet man seine Karte selbst und die raucht ab, hat man Pech gehabt. Kauft man eine fertig übertaktete haftet der Hersteller bei/für Schäden .
    Greetings... WarpSpeed FORENREGELN/FORUMRULES

    AMD Ryzen 9 3950X @ 4.1 GHz - Patriot DIMM 32 GB DDR4-4400 - ASUS ROG STRiX X570-E Gaming - Gainward NVIDIA GeForce GTX 2080 Ti Phoenix GS 11GB RAM - Creative Soundblaster AE9-PE - Cooler Master V1200 Platinum (Netzteil) - Corsair Cooling Hydro Series H115i Pro - Monitor-1: Acer Predator CG437KP (43" 4k G-Sync Monitor) / Monitor-2: Samsung Curved UHD TV KU6679 (43" 4k TV) - Razer Cynosa Chroma (Tastatur) - Logitech G502 Proteus Core (Maus) - Logitech G25 (Lenkrad) - MS XBOX360 Gamepad - MS Windows 10 Pro 64Bit

  6. #176
    Erfahrener User Avatar von pissdrunx1987
    Registriert seit
    14.02.2006
    Ort
    Rostock
    Beiträge
    652

    Standard

    die g80 techdemos gibts jetzt in einem allinone video als wmv hd download
    enjoi it

    Download G80 Techdemos HD Video

  7. #177
    Erfahrener User Avatar von BoOgIeMaN
    Registriert seit
    24.09.2006
    Ort
    Offenbach
    Beiträge
    421

    Standard

    Nachdem ich gut 8 Minuten geladen hatte, durfte ich mir die ersten 15-20 Sekunden des Videos total verruckelt anschauen ,bis dann die Übertragung abbgebrochen ist.
    www.3dchip.de

    Gaming is not a Crime!

  8. #178
    VIP Avatar von foofi
    Registriert seit
    13.05.2006
    Ort
    GER Cologne/Bonn - GR Alex/polis
    Beiträge
    15.210

    Standard

    @Bogieman - geh auf den Link, nicht anklicken, sondern: rechte Maustaste -> ziel speichern unter -> usw.

  9. #179
    VIP Avatar von xeonsys
    Registriert seit
    07.10.2006
    Beiträge
    10.262

    Standard

    nVidia GeForce 8800 GTX SLI
    SLI, Core 2 Duo und mehr
    Seite 1 von 26



    Dass das Duell der Giganten auch gigantisch viel Strom benötigt, zeigt sich bei den Messungen des Stromverbrauches. Die beiden GeForce-8800-GTX-Karten ziehen mit dem Gesamtsystem schon unter Windows satte 296 Watt aus der Stromleitung, während sich die GeForce-7900-GTX-Samples mit 228 Watt zufrieden geben. Die zwei „Radeon X1950 XTX“-Grafikkarten begnügen sich gar mit „nur“ 196 Watt – hier müssen wir aber anmerken, dass die nForce-Chipsätze traditionell mehr Strom benötigen als die Intel- und ATi-Pendants; die große Differenz zwischen den ATi- und nVidia-Karten beruht also nicht ausschließlich auf den Grafikkarten.

    Unter Last erreicht man mit den G80-GPUs regelrechte „Horrorwerte“. 445 Watt belasten die Stromrechnung und die Umwelt auf Dauer deutlich, auch wenn wohl nur die wenigsten den Rechner pausenlos im 3D-Modus betreiben. Auf Platz zwei prescht das CrossFire-Setup mit 401 Watt hervor. Das SLI-System der GeForce 7900 GTX zeigt sich mit 339 Watt ein gutes Stück genügsamer, ist aber auch deutlich langsamer.

    Die ermittelten Werte sind nicht vergleichbar mit den Stromverbrauchsmessungen aus anderen Artikeln. Grund dafür ist, dass für diesen Artikel ein anderes Netzteil, das PC Power&Cooling 1KW Quad, eingesetzt wird, um den Stromhunger (beziehungsweise die vier PCIe-Stromanschlüsse) befriedigen zu können.


    http://www.computerbase.de/artikel/..._stromverbrauch



    Das SLI-Gespann bleibt davon nicht verschont und erreicht einen Wert von 69 Grad Celsius. Im Vergleich dazu misst das X1950-XTX-CrossFire-System 59 Grad. Interessanterweise bleibt die Leadtek WinFast PX8800 GTX nicht so kühl wie das nVidia-Exemplar. Die Leadtek erhitzt sich auf 68 Grad Celsius und ist damit fünf Grad wärmer.

    Unter Last zeigt sich ein ähnliches Bild, wobei die GeForce 8800 GTX nun ein deutlich besseres Ergebnis erzielen kann. Die nVidia-Karte liegt bei 81 Grad, während sich die WinFast PX8800 GTX auf 84 Grad Celsius aufheizt. Das SLI-System erreicht ebenfalls 84 Grad und wird damit nur ein Grad wärmer als das SLI-Gespann der GeForce 7900 GTX. Bei den Messungen auf der Chiprückseite übernimmt die GeForce 8800 GTX die Führung. 71 Grad Celsius lautet der Wert der Einzelkarte, das SLI-System wird kein Deut wärmer. Die Leadtek-Adaption muss sich allerdings mit 75 Grad Celsius zufrieden geben. Die CrossFire-Konstellation wird mit 75 Grad Celsius vier Grad wärmer.

    http://www.computerbase.de/artikel/...nitt_temperatur



    Das SLI-Gespann arbeitet dagegen lauter, auch wenn der Lärmpegel im 2D-Modus noch nicht störend ist. Mit 51 Dezibel setzt man sich zwar an die Spitze des Testfeldes, ein halbwegs ruhiges Arbeiten ist dennoch möglich. Für Silent-Freaks können wir solch eine Kombination aber nicht empfehlen.

    Anders sieht es dagegen unter Last aus. Die beiden GeForce-8800-GTX-Karten produzieren eine Lautstärke von 60 Dezibel, was alles andere als angenehm ist. Einzig das CrossFire-Setup der Radeon X1950 XTX arbeitet lauter, wobei der Schuldige in diesem Fall das Mainboard ist.

    http://www.computerbase.de/artikel/...itt_lautstaerke


    Fazit


    http://www.computerbase.de/artikel/...abschnitt_fazit


    nVidia GeForce 8800 GTS (SLI)
    Asus gegen Gainward: Duell zwischen Zwillingen

    http://www.computerbase.de/artikel/...e_8800_gts_sli/


    ui jezt kommen zwei asusGTs dran und GeinwardGTs



    Das SLI-Gespann der GeForce 8800 GTS bleibt auf dem Windows-Monitor mit 50 Dezibel angenehm leise und weiß zu gefallen. Ob eine oder zwei Grafikkarten im Rechner montiert sind, spielt bei der „kleineren“ G80-Variante kaum eine Rolle. Unter Last ist das Doppelgespann jedoch ein richtiger Radaumacher. Mit 61 dB rufen die zwei Radiallüfter gerade zu nach Aufmerksamkeit, die sie wohl auch direkt bekommen werden. Beim Spielen kann man die 3D-Beschleuniger gut aus dem Gehäuse heraushören. Ruhige Zeitgenossen sollten lieber zu einer anderen Grafikkarte greifen, wobei die Leistung dann aber nicht das Niveau zweier „GeForce 8800 GTS“-Karten erreicht.


    Im herkömmlichen 3D-Betrieb fällt die GeForce 8800 GTS im geschlossenen Gehäuse nicht negativ auf. Zwar macht sich die Grafikkarte minimal bemerkbar, störend ist dies aber noch lange nicht. Interessanterweise arbeiten unsere beiden GTS-Version etwas lauter als das Flaggschiff GeForce 8800 GTX. Und auch zwischen den Karten ergeben sich Unterschiede. Das Gainward-Modell bleibt exakt ein Dezibel leiser als das Asus-Pendant. Unter Last wird die Gainward GeForce 8800 GTS mit 50,5 dB im Vergleich zur Ruhephase nur geringfügig lauter. Die Grafikkarte ist beim aktiven Spielen zurückhaltend, weswegen man den nVidia-Beschleuniger durchaus für einen Silent-PC empfehlen kann. Erneut ist die Asus-Karte ein Dezibel lauter als die Gainward GeForce 8800 GTS. Erstere liegt quasi gleichauf mit dem Referenzdesign der GeForce 8800 GTX.

    http://www.computerbase.de/artikel/...itt_lautstaerke



    Die GeForce 8800 GTS von Gainward reiht sich mit den gemessenen 61 Grad unter Windows zwar ans obere Ende des Testfeldes ein, auf einem kritischen Niveau sind die Temperaturen aber noch lange nicht. Die Karte bleibt zwei Grad kühler als die GeForce 8800 GTX, kann sich von einer Radeon X1950 XTX aber nicht absetzen. Interessanterweise wird das Asus-Modell mit 70 Grad neun Grad wärmer als die Konkurrenzkarte von Gainward. Ähnliches wiederholt sich unter Last. Während die Gainward GeForce 8800 GTS mit 80 Grad einen guten Wert erreicht, wird die Asus-Karte 89 Grad warm. Warum dies so ist, ist uns unklar.

    Wir vermuten allerdings, dass es sich dabei um ein problembehaftetes Einzelexemplar handelt, dessen Kühlsystem nicht ordnungsgemäß montiert worden ist. Andere GeForce-8800-GTS-Karten von Asus sollten mit großer Wahrscheinlichkeit auf dem Niveau der Gainward-Adaption liegen. Probleme während des gesamten Testlaufs gab es jedoch nicht, die Karte lief einwandfrei. Auf der Chiprückseite wird die Asus GeForce 8800 GTS 71 Grad warm, während die Gainward-Variante auf 70 Grad Celsius kommt.

    nteressanterweise wird das SLI-Gespann der GeForce 8800 GTS unter Windows mit 70 Grad Celsius genau ein Grad wärmer als das Doppelgespann der GeForce 8800 GTX. Grund dafür sollte die Asus-Karte sein, die allgemein zu hohe Temperaturen aufweist. Unter Last liegen die beiden Varianten der G80-GPU mit einem Wert von 84 Grad gleichauf. Für ein modernes SLI-Gespann stellt das ein recht gutes Ergebnis dar. Auf der Chiprückseite beträgt die Temperatur unbedenkliche 72 Grad.

    http://www.computerbase.de/artikel/...nitt_temperatur


    Das SLI-Gespann der GeForce 8800 GTS prescht unter Windows mit 282 Watt auf den zweiten Platz des Testfeldes hervor und setzt sich so knapp vor die Quad-SLI-Konfiguration der GeForce 7950 GX2. Von den 320 Watt zweier GeForce-8800-GTX-Karten ist die kleinere GTS-Version aber weit entfernt. Unter Last erhöht sich die Leistungsaufnahme auf 431 Watt. Mit diesem Ergebnis sichert man sich erneut Platz Zwei in der Kategorie „höchster Stromverbrauch“. Quad-SLI liegt mit 414 Watt knapp dahinter, das SLI-System der GeForce 8800 GTX mit 485 Watt aber weit davor.

    Spätestens nach dem Launch-Review der GeForce 8800 GTX war klar, dass die neue G80-GPU alles andere als ein Stromsparwunder ist. Die GeForce 8800 GTS verhält sich da nicht anders, auch wenn die Leistungsaufnahme etwas moderater ausfällt. Die Adaption von Gainward zieht mitsamt dem restlichen System unter Windows 205 Watt aus der Leitung, das Asus-Pendant dagegen zwei Watt mehr, was aber im Bereich der Messungenauigkeit liegt. Im Vergleich dazu benötigt die GeForce 8800 GTX 217 Watt, die GeForce 7950 GX2 „nur“ 191 Watt.

    Unter Last sieht es dagegen deutlich besser aus. Mit 272 Watt platziert sich die Gainward-Karte knapp unter der GeForce 7950 GX2 und ATis Radeon X1950 XTX (Asus 8800 GTS: 280 Watt). Der größere Bruder, die GeForce 8800 GTX, ist mit einem Verbrauch von 310 Watt um einiges anspruchsvoller. Nichtsdestotrotz ist die GeForce 8800 GTS nicht für Stromsparer geeignet – Stromsparer mit Rücksicht auf Geldbeutel und Umwelt werden wohl keinen 3D-Beschleuniger in der High-End-Klasse anvisieren.

    http://www.computerbase.de/artikel/..._stromverbrauch

    Fazit
    http://www.computerbase.de/artikel/...abschnitt_fazit
    Nach oben

  10. #180
    Professional Avatar von Loco
    Registriert seit
    11.12.2006
    Beiträge
    2.249

    Standard

    die techdemos kann man jetzt auch auf bei Nvidia runterladen.
    naja meine 6800 Ultra ist leider völlig überfordert mit den dingern. aber das war ja zu erwarten.
    hätte gerne ma ne rückmeldung von g8 besitzern wie die demos bei ihnen aussehen und laufen.

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •