Archiv verlassen und diese Seite im Standarddesign anzeigen : E3 Vorführung mit welchem Rechner?
ichh hab inzwischen mehrere gerüchte gehört, auf was für einem rechner angeblich die crysis präsentation auf der e3 lief... mal waren es 4 x1900 mal wars ne g80 von nvidia...
kann das irgendjemand bestätigen oder wiederlegen?
offiziell soll es ja noch kein dx10 material von crysis zu sehen gegeben haben... aber das ist vllt auch nur ein gerücht *nix mehr raff*
also, wenn jemand aussagekräftige infos hat bitte posten :!:
Waren das keine Videos?? Es ist ja schwer ein Spiel zum Laufen zu bringen, das noch nicht fertig ist...
Das waren Demos die man dort selber spielen konnte, so wie es in den ganzen Videos zu sehen ist.
Was das für Rechner waren, darüber lässt sich nur spekulieren, weil das ausser Crytek selber, keiner weiss und wissen kann. Dort war höchste Alarmstufe und es wurde nix Preis gegeben!
Ich nehme an zwei Dualcore CPUs mit Softwareemulation von DirectX10 effekten.
WAs die CPU angeht war es Intels neue Extrem Edition gewesen. Zur Grafikkarte kann ich leider nichts sagen, da diese im Artikel nicht genannt wurde bei GameStar.
Komischerweise finde ich den gesammten Artikel nicht mehr wo zum Schluss beschrieben war womit Crysis vorgeführt wurde. Verwunderrt mich grad ein wenig.
warpspeed
17.05.2006, 14:58
Hi,
das würde mich auch mal interessieren... ich denke mal, er wird auf alle Fälle 4GB RAM gehabt haben. Evtl. sogar ein Quad XEON System :cool:.
^^ Gamestar hat da wohl viel Kohle für Informationen investriert...
Oder zu wenig und der Artikel musste gelöscht werden.
Glaubt man es!? Ich find den Artikel nämlich grad überhaupt nicht mehr wieder. Selbst hier nicht indem in das System nannte was da laut GameStar zum Einsatz kam bei Crysis...
CrysisMaster
17.05.2006, 17:25
Stimmt es, dass das Material von Crysis der E3 2006 ohne
DirectX10 und Shader 4.0 (falls unterstützt wird)
gezeigt wurde ?
@warpspeed
Vier Xeon Prozis ? Nicht schlecht, geht aber besser 8)
Cpu: 4x http://www.alternate.de/html/productDetails.html?artno=HK8A66&
Mainbord: http://www.alternate.de/html/productDetails.html?artno=GKET11&
Ram:32x http://www.alternate.de/html/productDetails.html?artno=IAHD14&
So einen PC hätt´ ich gern :D [/u][/url]
Also in dem Interview von Game Horizon sagt Yerli, dass es sich um eine X1900 Graka handelt und um ein Athlon 64 FX Prozessor. Welchen hat er nicht gesagt, aber ich schätze mal das es auf jeden Fall ein Dual-Core FX war.
Und da die Demo auf einer X1900 lief ist es auch höchst wahrscheinlich, dass nur die DX9-Variante zu sehen war.
Ich glaube nicht, dass sie DX10 per CPU simuliert haben. Das hätten sie mit nur einem FX Prozessor bestimmt nicht machen können.
na dann bin ich ja einigermaßen beruhigt... wenn man es im unoptimierten zustand schon mit ner single core karte halbwegs flüssig spielen kann, dann dürfte die optimierte version ganz sicher mit ner 7900 oder x1900 laufen...
warpspeed
19.05.2006, 12:02
Hi,
ich glaube, das Beste wird sein alles auf uns zukommen zu lassen.
Ich bin noch am überlegen ob ich Crysis überhaupt vor MS Vista und DX10 anspielen werde. Dann ist der WAU Effekt höher :). Aber dafür ist es sicher eine "Folter" Crysis neben sich liegen zu haben und es nicht spielen zu wollen... das halte ich eh nicht durch :lol:.
Ich bin noch am überlegen ob ich Crysis überhaupt vor MS Vista und DX10 anspielen werde. Dann ist der WAU Effekt höher :). Aber dafür ist es sicher eine "Folter" Crysis neben sich liegen zu haben und es nicht spielen zu wollen... das halte ich eh nicht durch :lol:.
Vor dem gleichen Dilemma stand ich damals mit FC auch. Ich habe es, dann aber doch sofort gespielt, obwohl ich ein paar Wochen später eine neue Graka bekommen habe.
Ich konnte dem einfach nicht widerstehen und diesmal wird es wohl so ähnlich sein.
Meine X800 XL sollte eigentlich ausreichen um CS (Shit: Die Abkürzung ist ja schon vergeben :() auf mittleren Einstellungen spielen zu können. Ich hoffe nur, dass mein 3500+ auch für die vollen Physik-Einstellungen reicht. Das könnte schon eng werden.
Na jedenfalls werde ich das einmal durchspielen und dann warten bis ich an eine DX Karte komme um es dann erneut durchzuspielen.
Kleiner Tipp: In den Videos hat man ja gesehen, das CS in einer 16:9 Auflösung lief. Die sollte man bei Performance-Problemen auch dann wählen, wenn man einen ganz normalen 4:3 oder 5:4 Monitor hat.
Dann hat man zwar oben und unten schwarze Balken, aber das ist gar nicht so schlimm. Der Vorteil bei der Sache ist, dass er jetzt viel weniger Pixel berechnen muss. Man kann also viel höhere Einstellungen wählen und behält trotzdem hohe Frameraten.
Spielerisch stört das auch gar nicht, dass Oben und Unten etwas fehlt. Man braucht eigentlich nur ein breites Sichtfeld in der Horizontalen um alle Gegner schnell zu erkennen. In der Höhe braucht man nicht so viel Informationen. Da reicht es, wenn man den Kopf heben und senken kann.
Man kann es ja auch selbst überprüfen. Es ist sehr einfach mit den Augen alles von links und rechts abzuklappern. Aber bewegt mal eure Augen nach Oben oder Unten ohne den Kopf zu bewegen. Das ist schon richtig anstrengend. Zumindest bei mir.
Da ist es doch leichter seinen virtuellen Kopf zu benutzen.
Ein Typ im Guru3D Forum meinte:
For a bit of info, the demo was run in DX9 on an FX-60, 2gigs, X1900XT Crossfire, at 1024/768...
Quelle: http://forums.guru3d.com/showthread.php?t=182991
Die Gerüchte brodeln! :)
warpspeed
21.05.2006, 15:50
Hi,
ufff... mit der Hardware nur auf 1024x768 8O... Krass :!:
Hmm.
Was mich jetzt wirklich interessieren würde, wäre ob es wirklich ein Crossfire-System war oder nur eine X1900.
Wenn es tatsächlich zwei X1900'er waren, dann wäre das wirklich etwas viel. Besser als das geht's ja gar nicht mehr.
Dann dürfte eine der neuen DX10 Karten wohl gerade mal so ausreichen um es auf maximalen Details zu spielen.
wirklich extrem... wennn man bedenkt, dass die bisherigen bilder und videos "nur" mit direct x9 und auf 1024 x 768 liefen... wie sieht das dann bitte mit 1600 x 1200 aus mit dx10???
im übrigen glaube ich nicht, dass eine der neuen gpus allein 2 x1900 xtxs ersetzen kann... höchstens eine dualcore gpu auf ner einzigen karte... so was solls ja dann geben... allerdings ist dann fraglich, was sowas kosten soll... 500 euronen reichen da wohl nicht mehr... dann muss noch eine cpu her, die die gpu nicht ausbremst... uiui das wrd wieder teuer :cry:
wirklich extrem... wennn man bedenkt, dass die bisherigen bilder und videos "nur" mit direct x9 und auf 1024 x 768 liefen... wie sieht das dann bitte mit 1600 x 1200 aus mit dx10???
DX10 ist um einiges performanter als DX9. Bei gleichen Settings sollte Crysis viel besser laufen.
im übrigen glaube ich nicht, dass eine der neuen gpus allein 2 x1900 xtxs ersetzen kann...
Ich glaube schon, dass die neuen DX10 Karten einen ganz schönen Sprung nach vorne machen werden, wenn man mit ihnen wirklich DX10 Spiele spielt. DX10 ist allein softwareseitig viel weniger CPU-lastig und durch die USA (unified shader architecture) der DX10-Karten werden die Resourcen der Grafikkarte auch voll ausgenutzt.
Damit fallen schon einmal zwei Bottlenecks weg, die die Leistung heutiger Spiele so stark beeinflusst.
Dank 65nm Technologie (zumindest bei ATi) kann auch der Coretakt noch etwas weiter angehoben werden und der Speichertakt wird dank GDDR4 auch so an die 2000 MHz betragen.
Im Großen und Ganzen sind das ein paar recht große Änderungen die eine Menge Performance bringen sollten.
Unter DX9 werden die Karten allerdings bei Weitem nicht so gut sein wie unter DX10. Aber es ist ja zu erwarten, dass in nächster Zeit die meisten Spiele auch mit einem DX10-Pfad daherkommen.
Natürlich ist das alles nur Spekulation, aber ich gehe mal zu 90% davon aus, dass man Crysis mit maximalen Settings auch auf einer einzigen DX10-Karte spielen kann.
ok, die zusammenfassung der neuen features war mir garnicht so bewusst... z.b., dass dx10 performanceschonender ist...
danke für die hinweise... so gesehen müsste es dann gehen... kommt dann natürlich auf das restliche system an... mit nem 3 ghz single core wirds vermutlich schon eng...
mit nem 3 ghz single core wirds vermutlich schon eng...
Das frage ich mich auch, ob man mit einem Single-Core Prozessor noch auskommt. Schließlich ist das eine Menge Physik, die da berechnet werden muss.
DX10 sorgt aber Gott sei Dank auch dafür, dass der Prozessor weniger belastet wird. Somit könnte es vielleicht doch reichen.
Absolut geil wäre es natürlich, wenn Crytek die USA dafür nutzt um Physikberechnungen auf der Graka durchzuführen. Zumindest für die optischen Effekte, wie Qualm und sowas. Das wär doch was, wenn Crytek da wirklich etwas Havok-FX ähnliches gemacht hat.
Ein Indiz dafür wäre jedenfalls, dass sich in dem DX10-Video der Qualm im Wind bewegt, wenn das große Alien auf dem Flugzeugträger rumbrüllt, während er in dem DX9-Video nur ganz normal nach oben steigt.
Das wäre ein optimaler Effekt, der sich vollkommen auf der Grafikkarte berechnen ließe.
Wie dem auch sei. Ich werde mir trotzdem Anfang nächsten Jahres einen Dual-Core Conroe Prozessor holen. Denn mit meinem 3500+ bin ich mittlerweile schon etwas schwach auf der Brust und für ~300 EUR kriegt man schon einen T6600 und der ist schon mächtig fix. Da kann man ruhig mal wieder zuschlagen.
Ich bin zwar schon seit über 10 Jahren ein AMD-Kunde, aber gegen den Conroe kommt AMD in nächster Zeit erst einmal nicht an. Also werde ich nach langer Zeit wohl wieder zu einem Intel-System wechseln. Schade für AMD. :(
Dabei haben sie es gerade geschafft mal für ein paar Quartale Gewinne einzufahren.
Ich bin zwar schon seit über 10 Jahren ein AMD-Kunde, aber gegen den Conroe kommt AMD in nächster Zeit erst einmal nicht an.
Der neue sockel und die AMD Chips sollen ja soweit sehr gut sein und gleichwertig mit dem neuen von Intel... oder?
So wie die ersten Tests (http://www.anandtech.com/tradeshows/showdoc.aspx?i=2713), des nächsten Monat erscheinenden Conroe Prozessors, zeigen wird der Neue von Intel einen mächtigen Satz nach vorn machen.
Der normale Conroe übertifft den übertakteten Athlon 64 FX-60 durchgehend um mindestens 20%. Auch in der Paradedisziplin der Athlons, den Spielen, überflügelt der neue Conroe den Athlon FX.
Das liegt zum Teil auch an dem riesigen L2-Cache von 4 MB. Der Athlon FX hat nur 2 MB, wobei jedem Kern fest 1 MB zugewiesen sind.
Beim Conroe ist es so, dass sich jeder Kern so viel L2 Cache nehmen kann, wie er benötigt. Läuft eine Anwendung nur auf einem Kern, dann stehen diesem Kern auch die kompletten 4 MB zur Verfügung, wo beim Athlon nur 1 MB zur Verfügung stände.
Intel hat auch die komplette Prozessorarchitektur geändert, weswegen auch der Name Pentium fallen gelassen wurde und die neuen jetzt Core heißen. Es ist jetzt wirklich ein ganz anderer Prozessor. Die Pipelines wurden noch weiter verkürzt (von 31 runter auf 14 stages) und es können somit auch viel mehr Befehle pro Takt ausgeführt werden. Brauchte man früher noch 31 Takte bis eine Operation die Pipe durchlaufen hat, so braucht der Conroe dafür nur noch 14 Takte. Hinzugekommen sind natürlich noch jede Menge Verbesserungen in der Sprungvorhersage und den ganzen anderen Optimierungsmechanismen, von denen es ja mittlerweile Dutzende gibt.
Das wichtigste ist aber der große L2-Cache, die kurzen Pipelines und die veringerten Latenzzeiten.
Das macht den Prozessor im Moment um ein vielfaches schneller.
AMDs nächster Schritt kommt erst Anfang nächsten Jahres und wird auch einige Verbesserungen mitbringen, aber es wird nicht erwartet, dass er gegen den Conroe ankommen wird.
Ach ja. Etwas habe ich ja noch ganz vergessen. Die Verlustleistung des Conroes ist extrem gesunken. Man kriegt Modelle die nur 31 Watt benötigen. Die sind allerdings nicht so hoch getaktet. Die Top-Modelle verbrauchen alle über 50 Watt. Trotzdem ist das für Intel eine starke Verbesserung.
Eins sollte man aber erwähnen, wenn man die Verlustleistung von Intel und AMD-Prozessoren vergleichen möchte. In den Athlons ist der Speichecontroller schon enthalten, während Intel den noch extern auf dem Mainboard verbaut.
Beim Intel müsste man also die Verlustleistung des Prozessors + die Verlustleistung des Speichercontrollers addieren und diese dann mit der Verlustleistung des Athlons vergleichen.
Dann steht Intel schon nicht mehr so gut da. Natürlich wirbt Intel ganz stolz mit den 31 Watt, was ja auch richtig ist, aber sich eben nicht mit dem Athlons vergleichen lässt.
Naja. Wie dem auch sei. Die Verlustleistung wurde dank 65 nm Technologie jedenfalls stark gesenkt und DDR2 Speicher wird natürlich, wie bei AMDs neuem AM2 Sockel, auch unterstützt.
Hinzu kommt, dass der Conroe eine Ecke billiger sein wird. Zum Beispiel kostet der Conroe aus dem obigen Test nur ca. 500 EUR während der FX-60 zu OEM Preisen von 1000$ erhältlich ist.
Und wenn ein übertakteter 1000$ Prozessor nicht gegen einen normal getakteten 500$ Prozessor ankommt, dann ist das schon ein ganz schöner Schlag in's Gesicht für AMD.
Eine weitere Sache, die man beim Kauf eines Prozessors zum Jahresanfang 2007 beachten sollte ist, dass der Conroe und die dazugehörigen Mainboards bereits ein halbes Jahr auf dem Markt sein werden und somit die gröbsten Kinderkrankheiten, die jedes Board zur Markteinführung mit sich bringt ausgebügelt sein werden.
Man sollte wenn es irgendwie möglich ist vermeiden Mainbaords zu kaufen, die gerade erst auf den Markt gekommen sind. Da hat es schon oft genug Probleme gegeben, die sich oftmals erst nach Monaten herausgestellt haben. Defekte Lüfter zum Beispiel wie beim Asus A8N SLI. Nach kurzer Zeit waren die nämlich im Eimer.
Daraufhin hat Asus die neueren Boards mit einem anderen und auch leiserem Lüfter ausgestattet und sogar ein komplett passiv per Heatpipe gekühltes Board herausgebracht.
Wer sich das Board erst dann gekauft hat, der hat sich ne Menge Ärger erspart.
Ähnlich wird es wohl auch am Jahresanfang 2007 sein. Die neuen Athlons und neue Boards werden erscheinen, während der Conroe sich schon ein halbes Jahr lang auf dem Markt befindet.
hmm... das geht mir viel zu schnell... ich wollte mir um jahresbeginn 2007 auch den pc aufstocken (hab auch nen 64 3500+).
aber wenn ich das richtig sehe brauche ich dann ja nicht nur ne neue cpu sondern auch n neues mainboard und neuen ram, oder kann man den ddr1 ram weiterhin benutzen?
irgendwie ist das ne zwickmühle... ne fette grafikkarte lohnt sich nur wenn uch der rest des systems passt... aber dann kann ich mir auch gleich nen komplett neuen pc holen...
was ist denn sinnvoller, ab 2007...
von gf 6800 u auf dx10 graka aufrüsten
oder
von amd 64 3500+ auf conroe + neues board?
preislich dürfte das ja gleich bleiben... beides um die 700 € würd ich schätzen
warpspeed
23.05.2006, 13:54
Hi,
ich befürchte, du hast da eher Recht mit der Annahme, dass wenn man es richtig machen will, man einen "komplett" neuen PC benötigt. Ich warte jetzt erstmal ab bis Crysis da ist. Dann schaue ich wie es auf meiner aktuellen Hardware läuft... der Rest ergibt sich dann :cool:.
Ja. Leider ist das so, dass man praktisch einen ganz neuen Rechner braucht, wenn man sich einen Conroe zulegen will. Selbst wenn man bereits ein 775-Sockel Board besitzt heißt das nicht, dass der Conroe drauf läuft, weil der sehr hochwertige Spannungsregler benötigt.
Es ist also höchstwahrscheinlich, dass man ein neues Board braucht. DDR1 Speicher läuft soweit ich weiß dann auch nicht mehr, was also bedeutet, dass man sich neuen DDR2 Speicher zulegen darf. Gott sei Dank ist der mittlerweile sogar billiger als DDR1 Speicher.
Wenn du jetzt wirklich vor der Wahl stehst deine 6800 Ultra oder deinen 3500+ zu ersetzen, dann würde ich dir definitiv zum Prozessorupdate raten.
Mit der 6800 Ultra kannst du momentan eigentlich ncoh sehr gut spielen, aber ich glaube nicht, dass sich Crysis mit einem 3500+ zufrieden gibt.
Allerdings ist das Prozessorupdate schon um einiges teurer. Ein E6600 für 300 EUR + Mainboard für ~100 EUR und dann noch 2GB speicher für 200-250 EUR.
Trotzdem lohnt sich das Prozessorupdate eher.
Das ist jedenfalls meine Einschätzung. Ich würde erst einmal abwarten, was sich so ergibt und was Crytek als Systemvorraussetzungen angibt.
^^ könnte man das nicht per Bios Update regeln?
Das geht wie gesagt nicht immer.
Der Conroe wird in 65nm gefertigt und benötigt deshalb eine niedrige, dafür aber umso stabilere, Spannungsquelle, als die Pentium Prozessoren.
Die normalen Spannungsregler, die heute verbaut werden sind zwar für den Pentium 4 ausreichend, aber nicht unbedingt für den Conroe. Dort kann es dann zu unregelmäßigen Abstürzen kommen, wenn die Spannung zu stark schwankt.
Das muss aber nicht so sein. Es kommt auf einen Versuch an. Ich denke mal, dass billige Boards von ASRock da zum Beispiel nicht unbedingt die besten Aussichten haben. Mit Boards von MSI, Asus oder DFI wird man hingegen bessere Chancen haben.
dann spielt doch eher das Netzteil eine Rolle, denn was die Spannungen angeht, da ist das Netzteil das A und O.
Das Netzteil bietet nur eine grobe Spannung, die sehr lastabhängig ist und periodische Oberwellen aufweißt. Zudem ist die Spannung nicht sehr genau vorgegeben. Bei ATX-Netzteilen sind Toleranzen zwischen 5% und 10% zulässig. Je nach Spannung. Auf der 12 Volt Leitung können also 10,8 Volt anliegen oder 13,2 Volt. Das liegt immer noch innerhalb der Spezifikation und selbst die können nicht alle Netzteile einhalten.
Da ist der Toleranzbereich des Netzteils höher als die maximale Betriebsspannung des Prozessors. Das kann man also vergessen.
Außerdem schwankt die Spannung zusätzlich, wenn andere Komponenten auf einmal mehr Strom benötigen. Wenn du also ein 3D-Spiel spielst, oder gerade die Festplatten anlaufen, dann bricht kurz die Spannung ein, was bei einem Prozessor aber absolut nicht sein darf.
Für den Prozessor wird daher die Spannung aus dem Netzteil noch einmal durch sehr genaue Spannungsregler geführt, die die Spannung nocheinmal auf ein niedrigeres Niveau absenken, das sich dann auch oftmals im BIOS in 10mV Schritten einstellen lässt.
Zudem ist diese Spannung extrem Laststabil und bleibt wirklich konstant, egal wie viel Strom der Prozessor gerade braucht. Oberwellen oder andere periodische Spannungsschwankungen gibt es dort auch nicht mehr. Naja, fast nicht mehr.
Mit so einer Spannung kann der Prozessor dann arbeiten. Je kleiner die Fertigungsstrukturen der Prozessoren werden umso empfindlicher reagieren sie auf mögliche Schwankungen und deshalb müssen hochwertige Spannungsregler her, die bisher eigentlich noch nicht von Nöten waren.
Deshalb kann es sein, dass Boards mit nicht so hochwertigen Reglern nicht mit dem Conroe funktionieren.
verdammt... dann werde ch wohl vorerst garnichts aufrüsten sondern einfach nur abwarten...
noch ne frage zur physik in crysis... läuft die mit havoy fx oder mit ner karte von ageia?
im falle von havok fx würde das doch heißen, dass die grafikkarte die cpu entlastet was physikberechnungen angeht oder?
und bei ner ageia karte würde das auch billiger sein als neue cpu, ram und board... oder ist die leistung dann zu niedrig?
warpspeed
24.05.2006, 10:07
Hi,
soweit ich weiss, unterstützt Crysis keiner der Physikbeschleuniger (egal welcher Art).
Jup. So ist es. Crysis nutzt weder Havok FX noch unterstützt es den PhysX-Chip.
Die haben auch keine Engine extern eingekauft, sondern ihre Eigene geschrieben, die wahrscheinlich genau auf die Anforderungen von Crysis ausgelegt sein wird.
Mich würde aber echt interessieren, ob die auch die Grafikkarte für Physikberechnungen heranziehen. Dazu braucht man ja kein Havok FX oder eine spezielle Grafikkarte. Es wäre also gut möglich, das Crytek auch etwas Effekt-Physik auf die Graka ausgelagert hat.
Ich kann es nämlich immer noch nicht glauben, das die geamte Physik in Crysis auf der CPU ausgeführt werden soll. Wenn doch, dann ist die Engine verdammt effizient programmiert.
ist zwar unwahrscheinlich aber nicht unmöglich... die cry engine 1 war ja auch gut programmiert, wenn ich mir überlege, wie gut far cry auf low end pcs läuft...
schade dass kein externes system die physik steuert, dann bleibt wohl nix andres übrig als die cpu zu wechseln...
und noch ne frage: die direct x 10 effekte, werden die von der cpu oder von der grafikkarte ausgeführt? doch eigentlich von der graka, wozu bräuchte man sonst ne neue mit direct x10... andrerseits... volumetrische wolken, der rauch usw ist doch bestandteil der physik, welche doch die cpu übernehmen soll...
angenommn die dx10 effekte würden von der graka gesteuert, dann besteht ja noch hoffnung für "ältere" cpus, da diese effekte bei der demo nur über die cpu simuliert wurden... sprich wenn ne direct x10 grafikkarte im system hängt übernimmt die das doch später... was letztendlich die cpu entlastet...
oder hab ich da was falsch verstanden?
und noch ne frage: die direct x 10 effekte, werden die von der cpu oder von der grafikkarte ausgeführt? doch eigentlich von der graka, wozu bräuchte man sonst ne neue mit direct x10... andrerseits... volumetrische wolken, der rauch usw ist doch bestandteil der physik, welche doch die cpu übernehmen soll...
Mal etwas Grundsätzliches zu DirectX:
DirectX-Effekte oder so etwas gibt es nicht. Dummerweise rede ich auch immer von DX10 Effekten. Damit meine ich aber lediglich die Effekte, die unter Verwendung von DX10 hinzukommen.
DirectX selbst ist nur eine genormte Schnittstelle von MS auf die Programmierer zurückgreifen können um auf alle möglichen Arten von Komponenten zugreifen zu können, die im PC stecken. Eine sogenannte API (Application Program Interface)
DirectX ist aber nicht nur für Grafikkarten zuständig. DirectX besteht aus einer Vielzahl von Komponenten. Zum Beispiel Direct Draw für 2D-Grafik (Windows Oberfläche), Direct 3D für 3D-Grafikkarten (Spiele, u.s.w.), Direct Audio für Soundkarten und in Zukunft auch Direct Physics für Physik-Karten, aber auch Grafikkarten auf denen Physikberechnet wird.
Somit braucht sich der Programmierer in Zukunft nicht mehr darum zu kümmern, ob die Physik vom PhysX Chip berechnet wird oder von der Grafikkarte. In seinem Programm verwendet er die gleichen Kommandos um diese Geräte anzusteuern. Natürlich kann dahinter auch eine Software-Engine stecken und trotzdem verwendet er die gleichen Kommandos.
Vereinfacht gesagt, sagt er der DirectX Schnittstelle nur, dass hier der Baum abknicken soll und wie das letztendlich realisisert wird, ob per Chip, Graka oder per Software ist dem Programmierer herzlich egal.
Damit das funktioniert müssen die Karten und die Software-Engine aber auch DirectX kompatibel sein und genau das ist es, was eine DirectX10 Graka definiert.
Das bedeutet lediglich, dass sie alle Funktionen, die DirectX10 dem Programmierer zur Verfügung stellt auch umsetzen kann.
Wie sie das macht ist dem Programmierer dabei völlig egal. Hauptsache sie tut es. Bestes Beispiel werden die kommenden DX10 Chips sein. Es ist laut DirectX 10 Vorschrift, dass diese Karten unified Shader besitzen müssen. Was das genau ist, ist hier eher unwichtig.
Jetzt ist es aber so, dass nVidias kommender Grafikchip immer noch keine unified Shader beherscht, aber trotzdem DirectX10 kompatibel ist. Nun. Wie macht er das? Ganz einfach. nVidia simuliert ganz einfach unified Shader, verwendet aber im Endeffekt immer noch Vertex, Pixel und Geometry-Shader. Nach außen hin erscheint es aber so, als ob die Karte auch unified Shader verarbeiten kann.
Programmierer können also unified Shader in ihren Programmen verwenden ohne darauf achten zu müssen, ob eine nVidia Karte oder eine ATi Karte im System steckt. Solange sie DX10 kompatibel ist sollte das Programm funktionieren. (In der Realität sieht's natürlich etwas anders aus)
Wie die Grakahersteller ihre DirectX 10 Features realisieren ist dem Programierer also egal. nVidia wandelt diese unified Shader Programme zum Beispiel wieder in die herkömmlichen Vertex- und Pixelshaderprogramme um während ATis neuer R600 tatsächlich echte unified Shader verarbeiten kann.
Heraus kommt aber das selbe Ergebniss. Das was der Programmierer geschrieben hat wird auch auf dem bildschirm angezeigt. Auf der ATi Karte wird es alledings aller vorraussicht nach schneller gelaufen sein, als bei den simulierten Shadern von nVidia.
Wenn man es also ganz genau nimmt ist nVidias neuer G80 noch gar kein richtiger DX10 Chip.
Jetzt noch kurz was zur Physikberechnung auf der Graka. Das ist grundsätzlich auf allen Grafikkarten möglich. Anstatt ShaderProgramme zu schrieben, die Grafiken berechnen schreibt man Programme die physikalische Berechnungen durchführen. Man kann auch Soundverarbeitung auf den Grafikkarten durchführen. Da sind einem eigentich keine Grenzen gesetzt.
Der vorteil der neuen DX10 Karte sind diese unified Shader. Bisher waren Shaderprogramme immer stark limitiert. Sie konnten nur eine bestimmte Anzahl von Kommandos enthalten, nur eine bestimmte anzahl von Sprungbefehlen enthalten und und und. Hinzu kam, dass verschiedene Aufgaben auf unterschiedliche Shadertypen verteilt werden mussten.
Wie das Wort "unified" bei den unified Shadern schon sagt wurde bei DX10 beschlossen die unterschiedlichen Shadertypen zusammenzufassen und alles nur noch mit einem Shaderprogramm zu bearbeiten. Es gibt auch keine Längenbegrenzung mehr und jede Menge anderer Limitierungen sind weggefallen. Somit lassen sich auf den neuen Karten viel komplexere und anspruchsvollere Programme schrieben, als bisher. Das macht es einem auch so einfach Physikberechnungen auf der Graka durchzuführen. Man ist jetz einfach viel flexiebler.
Puh. Jetzt habe ich aber erst einmal genug getippert. Hab gleich Feierabend. Dann geht's ab nach Hause. ;)
wow noxon, das hast du perfekt erklärt! :) darf ich erfragen was du beruflich so machst?
Ich bin Fachinformatiker und hänge auf der Arbeit rum und schreibe Forumsbeiträge. ;)
IBM, Orcale, Vodafone oder Intel, AMD? - wow, dein Grundwissen ist sehr gut!
Mykill_Myers
24.05.2006, 18:17
also ich finde es gut so einen wie noxon zuhaben:)
schadet aufjedenfall nie, immerhin müssen so Leute wie Trax in Sachen Kompetenz ausgelichen werden,daher good job noxon :D
Hehe. Danke. Ich werde das gleich in meine Zitate-Liste mit aufnehmen. :lol:
Hi noxon,
Da du dich mit CPUs gut auskennst, wollte ich fragen, ob mein CPU für Crysis reichen würde.
Mein CPU: Intel Pentium D 930 "Presler" 3Ghz
^^ das kann dir noch keiner sagen!
Da hat foofi recht. Noch ist leider nichts genaueres über die Systemanforderungen bekannt. Deshalb lässt sich da nichts mit Sicherheit sagen, aber wenn ich mal spekulieren darf, dann würde ich sagen, dass der reichen wird.
Der D 930 gehört ja schon zu den Top-Prozessoren und wenn der nicht reichen sollte, dann wäre ich echt erstaunt. Aber selbst wenn es nciht für die maximalen Settings reicht. Man wird immer noch sehr gute Einstellungen wählen können.
Ich hoffe Crysis wird da genauso flexibel sein wie FarCry. Dort konnte man in den benutzerdefinierten Einstellungen ja praktisch alles festlegen was es an Einstellungsmöglichkeiten gab und wenn ich damit rumspiele kann ich sogar noch meinen 3500+ und meine X800 XL in die Knie zwingen.
In sofern kann man nicht genau sagen, dass es geht oder nicht geht. Die Frage ist, mit welchen Einstellungen es funktioniert und mit deinem Prozessor kannst du garantiert sehr hohe Settings wählen.
Powered by vBulletin® Version 4.2.5 Copyright ©2025 Adduco Digital e.K. und vBulletin Solutions, Inc. Alle Rechte vorbehalten.