Seite 1 von 2 12 LetzteLetzte
Ergebnis 1 bis 10 von 12

Thema: Swiftshader: 3DMark, Crysis, Call of Duty

  1. #1
    UnKnOwN64
    Gast

    Standard Swiftshader: 3DMark, Crysis, Call of Duty

    Swiftshader: 3DMark, Crysis und Call of Duty komplett auf der CPU berechnet


    Wenn der Prozessor GPU spielt
    Swiftshader: 3DMark, Crysis und Call of Duty komplett auf der CPU berechnet

    05.04.2008 17:20 Uhr - Ihr brandneuer Vierkern-Prozessor dreht in der aktuellen Spielelandschaft Däumchen? Die Grafikkarte ist zu schwach? Dann lassen Sie doch mal den Prozessor rendern. Mit dem "Swiftshader" wird die CPU zur GPU.

    Swiftshader: 3D-Grafik auf der CPU anstelle der GPU. PCGH macht den Test.



    Beim Swiftshader handelt es sich um einen Software-Rasterizer. "Software" bedeutet in diesem Fall, dass die Recheneinheiten der Grafikkarte unangetastet bleiben und die anfallende Arbeit stattdessen dem Hauptprozessor aufgebürdet wird. Und zwar alles: Die CPU kümmert sich nicht nur um Transformation, Beleuchtung (T&L), sondern auch um die Texturfilterung. Pixel-Shading und natürlich die typischen Berechnungen für KI, Sound und Physik.


    Crysis: Der Swiftshader nutzt alle vier Kerne zu etwa drei Vierteln aus. (Bild: PCGH)


    Sie ahnen sicher, dass dafür kein Pentium II ausreicht. Der Hersteller Transgaming wirbt jedoch damit, dass der Swiftshader 2.0 bis zu 50 Mal schneller arbeitet als Microsofts Direct3D-Referenz-Rasterizer. Dank Mehrkernunterstützung und SSE-Optimierungen soll so die Leistung von Low-End-GPUs erreicht werden. Die Haken: "Schnell" ist das gewiss immer noch nicht, zudem unterstützt die aktuelle Version maximal das Shader Model 2.0. Natürlich ist die Software nicht als Grafikkarten-Ersatz für Spieler gedacht, sondern richtet sich primär an Entwickler. Diese können damit relativ schnell 3D-Rendering ausführen, selbst wenn keine 3D-Beschleunigung verfügbar ist.

    Swiftshader in der Praxis
    Wenn Sie die Software testen möchten, dann laden Sie sich die Demo-Version des Swiftshader 2.0 beim Hersteller herunter. Hierbei ist stets ein Wasserzeichen eingeblendet, außerdem ist die Konfiguration nur über Ini-Einträge möglich. Um die CPU zur GPU umzufunktionieren, ist es lediglich nötig, die im Download enthaltene d3d8.dll und d3d9.dll samt swiftshader.ini in das Hauptverzeichnis der angestrebten 3D-Anwendung zu kopieren. Letztere suchen oft zuerst im eigenen Verzeichnis nach diesen Dateien und nutzen sie anschließend. Haben Sie nach dem Start kein Wasserzeichen in der linken unteren Bildecke, nutzt das Spiel die Dateien aus dem System-Verzeichnis und die Grafikkarte rendert.

    Quelle:
    http://www.pcgameshardware.de/aid,63...CPU_berechnet/

  2. #2
    Erfahrener User Avatar von WheenE
    Registriert seit
    10.10.2007
    Beiträge
    317

    Standard

    Ja, habs auch grade gelesen.
    Aber was für ein Prozessor braucht man denn, damit das gescheit funktioniert. Qxxxx mit 4Ghz aufwärts?
    Wäre toll wenn das mal einer ausprobieren könnte.
    Intel Core 2 Quad Q6600-G0 @3,730 GHz/ Gainward Nvidia 285GTX/ Asus Striker II Formula 780i/Corsair DDR2-800 TWIN4X4096-6400C4/ Coolermaster Stacker Black WaKü/

  3. #3
    R.I.P. Avatar von Black_Death
    Registriert seit
    01.02.2007
    Ort
    Schwarzbach (bei Fulda)
    Beiträge
    3.031

    Standard

    Das muss ich sofort ausprobieren^^.

    lol das brings ja gar net^^. Hab den Test gelesen^^.
    Geändert von Black_Death (05.04.2008 um 17:24 Uhr)

    Svarte_Dauden ᛋᚡᚨᚱᛏᛖ_ᛞᚨᚢᛞᛖᚾ
    Last.fm

  4. #4
    The Dude Avatar von doublebart
    Registriert seit
    25.10.2007
    Beiträge
    3.932

    Standard

    Für was genau soll das gut sein?
    Sehe den Nutzen eifach nicht....haben Entwickler etwa was davon wenn das Spiel etc. langsamer läuft?
    Oder beschleunigt Swiftshader Renderprogramme?
    Geändert von doublebart (06.04.2008 um 00:53 Uhr)
    Es besteht die Möglichkeit, dass der vorhergehende Beitrag:
    a: Tatsächlich ernst gemeint ist. b: Ironie und/oder Sarkasmus enthält. c: Ungelogen nur zur Erheiterung der Allgemeinheit dient. Wer den möglicherweise enthaltenen Witz versteht, soll lachen. Wer nicht, soll ihn ignorieren.


  5. #5
    Semi Pro Avatar von ExeQtor
    Registriert seit
    13.12.2007
    Ort
    Europa^^
    Beiträge
    1.009

    Standard

    Ich kann mir absolut nicht vorstellen, das dadurch irgendwann einmal alles berechnet wird und somit eine GraKa überflüssig wird!
    Naja, dazu ist es ja auch nicht gedacht


  6. #6
    Erfahrener User Avatar von MaLaGuTi
    Registriert seit
    05.01.2008
    Beiträge
    493

    Standard

    Zitat Zitat von ExeQtor Beitrag anzeigen
    Ich kann mir absolut nicht vorstellen, das dadurch irgendwann einmal alles berechnet wird und somit eine GraKa überflüssig wird!
    Naja, dazu ist es ja auch nicht gedacht
    doch eigentlich schon!

    aber erst wenns genügend Kerne gibt... bei pcgh.steht eh noch recht viel drüber

    3DMark06: ca. 14000Punkte
    [FC]
    MaLaGuTi
    ts2.funclan-germany.eu:8788 weplayed

  7. #7
    Erfahrener User
    Registriert seit
    08.12.2007
    Beiträge
    200

    Standard

    Zitat Zitat von MaLaGuTi Beitrag anzeigen
    doch eigentlich schon!

    aber erst wenns genügend Kerne gibt... bei pcgh.steht eh noch recht viel drüber
    Ich glaub nicht, das man wieder den schritt zurück macht und alles auf dm Prozessor berechnet, wie früher einmal ... Dann hätte man ja damals gleich 2 Prozessoren einbauen können, anstatt einem und ner Grafikkarte.
    Es ist halt einfach so, das ein "spezialisierter" Prozessor zwar weniger kann, aber dafür schneller.
    Drum gibt es ja auch mittlerweile erste Physik Karten. Die können dann zwar nur die Physik berechnen, aber das dafür ne ganze ecke schneller als der Hauptprozessor, auch wenn sie nen geringeren Takt haben.

    Ich glaub das da hat nur sinn, wenn man keine Graka oder so eine beschissene hat, das es im Endeffekt mit dem Prozessor schneller wird.
    Um Crysis auf der CPU zu rendern wird man wohl mehr als "nur" nen Quadcore brauchen ...

  8. #8
    Erfahrener User Avatar von dor_Grimm
    Registriert seit
    16.03.2008
    Ort
    Dresden 44
    Beiträge
    167

    Standard

    ...och denke mal, das der schritt zurück stattfindet...naja die physik-karten sind sone sache...ich hab zwar auch eine von ageia, aber ich bereue mir sie gekauft zu haben...die wird nie von nutzem sein, da erstens die lizenz kostet, und zweitens eh immer mehr prozessoren werden die es berechnen.aber nochmal zu thema zurück...wenn das mögl wäre, die GPU auf einen (von wahrschl 8 ) CPU's zu legen, warum das dann nicht nutzen?...

  9. #9
    Erfahrener User Avatar von shadypepe
    Registriert seit
    25.06.2007
    Beiträge
    561

    Standard

    Was ich daran interessant finde, ist die eventuelle Möglichkeit die CPU (die z.B. bei Crysis nur sehr wenig genutzt wird) zur Unterstützung der GPU zu nutzen. Sprich man lässt zum Beispiel Beleuchtung von der CPU (mittels Swiftshader) berechnen, dadurch wird die Graka entlastet und kann sich auf den Rest "konzentrieren".
    --> Ergo mehr FPS bei Crysis
    Q6600 / EVGA e-Geforce 8800 GTS 640MB 576/1700 / 2GB OCZ 800 Ram / Thermaltake Armor Alu Big Tower / LG M228WA 22 Zoll Widescreen

  10. #10
    Semi Pro Avatar von Heinz_Baer
    Registriert seit
    27.03.2007
    Beiträge
    1.204

    Standard

    Also die Idee ist echt genial, aber eh das wirklich nutzbar ist, gehen noch paar Jahre ins Land. Die Benchs zeigen ja: "Schon eine Geforce 8500 GT ist etwa 7x schneller als eine High-End-CPU". Aber es wäre toll, wenn die CPU dynamisch unterstützen könnte, dann holt man insgesamt noch mal ein paar Frames raus.

Seite 1 von 2 12 LetzteLetzte

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •