Archiv verlassen und diese Seite im Standarddesign anzeigen : ATi goes HavokFX
Nach Nvidia outet sich ATI dazu dass diese auf HavokFX setzt, der Software von Havok.
Diese Software wird für alle Karten ab der X1000-Reihe kompatibel sein und speziell bei Crossfire Systemen es so einrichten, dass eine Karte sich auf die ganze Grafikberechnung einsetzt und die andere zur Physikberechnung.
Also sitzt damit ATi und NVidia im selben Boot. Ich bin mal gespannt wann es zu einer Fusion kommen wird :D
Ich fand das Demo-System von ATi gut. Da waren 3 Grafikkarten drin. Ein Crossfire-System aus zwei X-1900für die Grafik und dann noch eine X-1600 für die Physik.
Hier (http://www.tweaktown.com/articles/908/computex_2006_video_of_ati_s_hardware_physics_in_a ction/index.html) gibt es auch ein Video davon.
ja, aber leider hat ATi noch keinen Chipset/Mainboardhersteler vom tripple XFire überzeugt...
warpspeed
07.06.2006, 08:09
Hi,
da dreht sich mir alles... eine Grafikkarte die die Physik berechnet. Irgendwann kaufen wir uns eine Soundkarte, die dann das Bild optimiert. Schon paradox ;).
Also ich fände es nur sinnvoll, wenn eine Graka Physik UND Grafik berechnet. In den Spieleeinstellungen kann man dann selber festlegen, für was man die Rechenleistung der Karte vergeben möchte.
Entweder man verwendet hohe Grafikeinstellungen oder man möchte mehr Objekte darstellen. Dann muss man halt auf HDR oder so verzichten.
Das wäre wirklich eine gute Lösung, aber extra eine Graka, die ausschließlich für Physikberechnungen gut ist, zu kaufen halte ich für Blödsinn. Dann kann ich auch gleich eine Physikkarte nehmen.
Ich hoffe, dass MS bald sein Direct Physics fertig hat. Die Entwickler brauchen dann nur diese API verwenden und müssen sich nicht mehr darum kümmern, ob dahinter eine Graka, eine PhysX-Karte oder eine Software-Engine steckt.
Solange Ageia, Havok und andere Hersteller ihre propriätäten APIs verwenden, wird das nichts. Die Entwickler brauchen einen gemeinsamen Standard, bevor sie sich auf so etwas einlassen.
Eine Art Open PL, ähnlich wie Open GL oder Open AL, wäre zwar wünschenswert, aber man kann wohl davon ausgehen, das Direct Physics wieder das Rennen macht.
Aus Open GL ist ja auch nicht wirklich was geworden. Erst recht nicht unter Vista. Da wird Open GL nur mit erheblichen Performanceeinbußen von über 50% laufen.
Das hat MS wieder gut hinbekommen. Soweit ich gehört habe arbeitet man aber schon an einer neuen Open GL Version, die dann wieder besser läuft.
EDIT:
Aha. Jetzt kam auf computerbase.de gerade die Antwort auf meine Frage
Update: Wie ATi uns auf Anfrage soeben mitteilte, ist es mit CrossFire Physics technisch durchaus möglich, die Spielphysik auf einer Grafikkarte zu berechnen. Jedoch würde eine GPU bei der Spielphysik die CPU nur um etwa 10 bis 15 Prozent entlasten, weswegen sich die Kanadier auf die Effektphysik fokussieren werden.
pissdrunx1987
07.06.2006, 13:45
auf guru3d (http://downloads.guru3d.com/download.php?det=1417) gibts nun ein haufen neuer videos zu havokfx, schaut sie euch mal an, wirklich sehr interessant 8)
physix ist ja ein richtiger flop geworden, aber am schlimmsten ist ja, dass das alles ziemlicher betrug war, denn die karten kosten ja bis zu 300€ und einige findige modder auf tomshardware (glaube ich) haben es geschafft, die cellfaktor demo ohne karte mit minimalem performanceverlust zum laufen zu bekommen, ich denke mal die zukunft liegt eher in der physikberechnung durch multicore, multigpu sowie havokfx und ähnlichem
Ok.
Mehrere Dinge dazu.
Es gibt noch gar kein richtiges Spiel um die Karte zu testen. GRAW gehört definitiv nicht zu den Spielen, da es die Karte nicht im geringsten ausnutzt. Die Karte ist ja nicht dazu gedacht die CPU bei heutigen Effekten zu entlasten, sondern sie nicht durch zusätzliche Physik mehr zu belasten.
Also muss man auch erst einmal ein Spiel haben, was zusätzliche Effekte liefert. GRAW tut das nicht. Dort kommt kein einziges zusätzliches Objekt hinzu, wenn die Karte eingesetzt wird. Lediglich das Partikelsystem wird etwas aufgebohrt.
Hinzu kommt, dass GRAW auch mit eingesetzter Karte trotzdem noch mit der Havok-Engine läuft auf die oben drauf nocheinmal die Novodex-Engine aufgesetzt wurde. Das das ineffektiv sein muss ist ja klar.
Warten wir mal die ersten Spiele ab, die massiv Objekte einsetzen und auch tatsächlich die Novodex Engine direkt verwenden.
Das man Cellfactor auf der CPU spielen kann ist auch Blödsinn. Es läuft nur mit Einschränkungen. Zwar sind die ganzen Kisten, Fässer und Rohre vorhanden, aber die brechen nicht auseinander und gerade das ist ja so anspruchsvoll, wenn aus 100 Kisten auf einmal 1000 Einzelteile werden. Dadurch steigt der Rechenaufwand gewaltig an. Nicht nur um den Faktor 10. Erst bei so vielen Objekten wird die Karte ihre Vorteile gegenüber der CPU ausspielen können.
Flüssigkeiten und Stoffe gibt es auch nicht, wenn man das Spiel nur auf der CPU spielt. Von Betrug kann hier also keine Rede sein.
Und zum Preis muss ich sagen, dass die schon erstaunlich günstig geworden sind. Letztens habe ich noch ein Angebot für 215 EUR gesehen.
Allerings halte ich es für einen Fehler, dass Ageia die Karte nur als PCI-Version herausgebracht hat. wie sich gezeigt hat ist der PCI-Bus oftmals überlastet und das führt zu Rucklern.
Ein weiteres Hindernis, was Ageia im Wege steht, ist die propriätäte Engine. Ohne eine standardisierte API wird die Karte wohl keine all zu große Chance haben
pissdrunx1987
07.06.2006, 14:32
also, das hier hört sich für mich doch auch nicht schlecht an:
ATI will dritten PCIe x16 Slot für Physikberechnung
von nim für WinFuture.de
Der kanadische Grafik-Chiphersteller ATI Technologies hat gestern auf einer Messe in Taiwan eine neue Erweiterung seiner "CrossFire" Technologie vorgestellt, die den Betrieb von mehreren Grafikkarten im Verbund ermöglicht.
Offenbar sollen die bisher im Paar laufenden CrossFire-Karten um eine zusätzliche Grafikkarte ergänzt werden, für die ein weiterer PCI-Express Steckplatz benötigt wird. Die Zusatzkarte soll einzig und allein der Berechnung von Physik-Effekten dienen.
Der Hersteller gibt an, dass selbst günstigere ATI-Grafikkarten eine bessere Leistung liefern, als spezielle Physikprozessoren, wie die von AGEIA. ATI betreibt derzeit Lobby-Arbeit unter den taiwanischen Mainboard-Produzenten, um die Integration des zusätzlich benötigten PCIe x16 Slots zu erreichen.
Kommt nun eine Radeon-Karte zur Physikberechnung zum Einsatz, muß diese nicht den im CrossFire-Modus laufenden "Hauptgrafikkarten" entsprechen. Es kann sich auch um ein Modell mit weniger Leistung handeln. ATI bedient sich dabei Havoc FX Engine und erreicht damit nach eigenen Angaben in Benchmarks Werte, die weit über den Ergebnissen von AGEIAs PhysX Physikbeschleunigern liegen.
Auf Guru3D gibts dazu ein paar Videos:
http://downloads.guru3d.com/download.php?det=1417
guck mal 2 posts über dir, da habe ichs schon gepostet :roll:
Edit: ah! :) sorry pissdrunx1987, hab das erst grad gesehen ;) danke für den Hinweis :D
pissdrunx1987
07.06.2006, 15:11
guck mal 2 posts über dir, da habe ichs schon gepostet :roll:
warpspeed
07.06.2006, 19:57
Hi,
muss man sich da anmelden um die Videos runterladen zu können?
Nein einfach DL lokation aussuchen, sodann - I Agree und dann sollte es losgehen...
warpspeed
07.06.2006, 20:39
Hi,
ah, ok... ich hätte mal weiter runter scrollen sollen... habe nur oben "Click here to login or here to register (free)." gelesen ;).
EDIT: Nette Videos... die Physik scheint wirklich realistisch berechnet zu werden. Fragt sich nur ob das auch so bleibt, wenn die Umgebung nicht so "steril" aussieht. Wenn erstmal HighRes-Texturen & Co. dazukommen, wird es sicher wieder etwas langsamer (trotz getrennten Karten).
Ich frage mich grade: Kann es nicht vieleicht sein dass eine wirklich schnelle 4xMulticore CPU von so einer Sache eventuell abgebremmst wird weil dann die Grafikkarte die Physik zu langsam berechnet?
Wie seht ihr das?
Ich meine das nicht speziell zu HavokFX sondern auch wegen den Ageia-Karten.
Powered by vBulletin® Version 4.2.5 Copyright ©2025 Adduco Digital e.K. und vBulletin Solutions, Inc. Alle Rechte vorbehalten.