Ergebnis 1 bis 10 von 832

Thema: ATI RV770 Infos/Spekulationen

Hybrid-Darstellung

Vorheriger Beitrag Vorheriger Beitrag   Nächster Beitrag Nächster Beitrag
  1. #1
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Zitat Zitat von Siberian Tiger Beitrag anzeigen
    Genau, ATI zaubert, ohne jegliche finanzielle Mittel einfach so ne Revolutionskarte ala HD4870X2 mit zwei oder gar vier RV770 on DIE bzw. on Package...
    Warum nicht? Ich finde den Ansatz von ATi recht clever. Anstatt einen Mega-Chip zu basteln und diesen dann künstlich zu beschneiden produzieren sie einen günstigeren, einfacheren aber schwächeren Chip, den sie dafür in einem verbessertem CF Verbund laufen lassen können.
    Anstatt zwei komplette Chips parallel laufen zu lassen, schalten sie nur die Kernkomponenten der Chips zusammen und diese teilen sich dann die globalen Dinge, wie das Speicherinterface.
    ATi hat dank dieser Methode den Vorteil die Streamprozessoren sehr einfach vervielfachen zu können indem einfach mehrere Kerne verwendet werden, während nVidia immer nur die Chance hat von den maximal verfügbaren Shadern einige zu deaktivieren.

    nVidia hat ja auch schon gesagt, dass der GT200 ihre letzte Single-Core GPU sein wird. Die nächsten werden auch Multi-Core GPUs sein und ATi ist in diesem Falle halt etwas schneller. Technisch sind sie das eigentlich schon immer gewesen. Sie schrumpften eher auf kleinere Strukturen. Bei der Implementierung der ersten DirectX10 Fähigkeiten und die Einfühung der Geometry Shader war ATi schneller als nVidia. Auch jetzt wieder mit DX 10.1 und der Tessalation Unit. Sie sind auch Vorreiter, was den GDDR5 Speicher betrifft und jetzt eben auch was Multi-Core GPUs angeht.

    nVidia ist schon immer mehr auf Nummer sicher gegangen, während ATi die Entwicklung schneller vorangetrieben hat. Wirtschaftlich gesehen ist das vielleicht nicht immer sinnvoll gewesen, aber trotzdem können wir ATi dankbar sein, dass sie nVidia auf Trap halten.

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

  2. #2
    Professional Avatar von HunT
    Registriert seit
    19.12.2007
    Beiträge
    2.857

    Standard

    Zitat Zitat von noxon Beitrag anzeigen
    Warum nicht? Ich finde den Ansatz von ATi recht clever. Anstatt einen Mega-Chip zu basteln und diesen dann künstlich zu beschneiden produzieren sie einen günstigeren, einfacheren aber schwächeren Chip, den sie dafür in einem verbessertem CF Verbund laufen lassen können.
    Anstatt zwei komplette Chips parallel laufen zu lassen, schalten sie nur die Kernkomponenten der Chips zusammen und diese teilen sich dann die globalen Dinge, wie das Speicherinterface.
    ATi hat dank dieser Methode den Vorteil die Streamprozessoren sehr einfach vervielfachen zu können indem einfach mehrere Kerne verwendet werden, während nVidia immer nur die Chance hat von den maximal verfügbaren Shadern einige zu deaktivieren.

    nVidia hat ja auch schon gesagt, dass der GT200 ihre letzte Single-Core GPU sein wird. Die nächsten werden auch Multi-Core GPUs sein und ATi ist in diesem Falle halt etwas schneller. Technisch sind sie das eigentlich schon immer gewesen. Sie schrumpften eher auf kleinere Strukturen. Bei der Implementierung der ersten DirectX10 Fähigkeiten und die Einfühung der Geometry Shader war ATi schneller als nVidia. Auch jetzt wieder mit DX 10.1 und der Tessalation Unit. Sie sind auch Vorreiter, was den GDDR5 Speicher betrifft und jetzt eben auch was Multi-Core GPUs angeht.

    nVidia ist schon immer mehr auf Nummer sicher gegangen, während ATi die Entwicklung schneller vorangetrieben hat. Wirtschaftlich gesehen ist das vielleicht nicht immer sinnvoll gewesen, aber trotzdem können wir ATi dankbar sein, dass sie nVidia auf Trap halten.
    Ich finde diese Entwicklung zwar auch gut, aber wie ich es eben sagte, Entwicklung kostet Geld und woher hatte ATI bitteschön das Geld, um sowas zu verwirklichen? Ich denke, das mit dem zwei Chips on DIE oder on Package ist beim R700 eher noch Wunschdenken oder war zumindest so geplant, dann fehlten aber die finanziellen Mittel. Ich könnte mir das jedoch beim R800 gut vorstellen, nachdem ATI wieder Gewinn einfahren konnte durch die HD4xxx Serie.

    Und so technisch hinkt Nvidia auch nicht hinterher. Wer brachte denn zuerst SM 3.0 in eine Karte? Nvidia, denn ATI hat es damals nicht für nötig empfunden und jetzt das gleiche Spiel mit DX10.1, nur umgekehrt...

    Technologisch war ATI schon immer besser oder sagen wir einfach - aktueller - als Nvidia. Allerdings ist Nvidia bei vielen auch deshalb so beliebt, weil sie im Gegensatz zu ATI nicht einfach nur andauernd neue Technologien rausbringen, sondern alte Technologien ausreizen, bevor man zum neuen übergeht und dadurch nochmals ordentlich Leistung bekommt. Sieht man ja wunderbar am GT200, der quasi das Maximum des G80 ist. Erreicht fast die Performance von 2x 8800GTX, aber so war es von den Nvidia-Ingenieuren auch geplant. Nicht mehr, nicht weniger.

    Dass die HD4870 nur deshalb fast so schnell ist wie die GTX 280, verdankt sie den 800 Stream Prozessoren bzw. den 160 (5D) Alu Shadern und dem schnellen GDDR5 Speicher.

    Das spielt im Endeffekt aber keine Rolle! Was wichtig ist, dass es wieder Konkurenz im Graka Markt gibt und somit werden beide Lager zu besseren und neuen Technologien angespornt.
    "Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
    (Laplace, frz. Astronom u. Mathematiker, 1749-1827)

  3. #3
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Zitat Zitat von Siberian Tiger Beitrag anzeigen
    Entwicklung kostet Geld und woher hatte ATI bitteschön das Geld, um sowas zu verwirklichen?
    Geld kostet es immer. Die Frage ist, welche Investition sich eher auszahlt.

    Ich denke, das mit dem zwei Chips on DIE oder on Package ist beim R700 eher noch Wunschdenken oder war zumindest so geplant, dann fehlten aber die finanziellen Mittel.
    Wie kommst du darauf, dass das überhaupt mehr Kosten verursachen würde? nVidia bastelt an einem 1,4 Mil. Transistor-Monster und hat mit jeder Menge Problemen bezüglich Größe, Verlustleistung, Blindströme und Strukturbreiten zu kämpfen, während ATi es geschaft hat (wahrscheinlich auch mittels AMDs Know How) einen kleinen aber denn noch effektiven Chip herzustellen, der sich dank einer neuen CF-Bridge einfach mit mehreren anderen Kernen koppeln lässt.
    Warum muss das teurer sein? Es könnte sogar das Gegenteil der Fall sein. Wenn das mit den 45nm tatsächlich stimmt, dann sind die Chips nur noch halb so groß, wie die GT200'er und die Ausbeute steigt erheblich, wodurch die Chips wirklich günstig werden. Hinzu kommt, dass der Ausschuss aufgrund der geringeren Transistoranzahl geringer ausfallen dürfte.


    Dass die HD4870 nur deshalb fast so schnell ist wie die GTX 280, verdankt sie den 800 Stream Prozessoren bzw. den 160 (5D) Alu Shadern und dem schnellen GDDR5 Speicher.
    Spielt das eine Rolle, warum sie so schnell ist? Das sie so schnell ist und trotzdem weniger negative Effekte aufweist zeigt doch, das ATi auf dem richtigen Weg ist.


    BTW:
    Es soll bereits ein "Hobby-Programmierer" geschaft haben die PhysX Engine jetzt schon auf einer 3800 zu beschleunigen.
    PhysX-Beschleunigung auf ATi Radeon HD 3800?

    Wenn der das kann, dann wird es wohl sicher nicht mehr lange dauern, bis es offiziell von ATi unterstützt wird. Theoretisch müsste ATi dann auch bei den Physikberechnungen nVidia davon ziehen mit seinen theoretischen 1,2 TFlops.

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

  4. #4
    Professional Avatar von HunT
    Registriert seit
    19.12.2007
    Beiträge
    2.857

    Standard

    Zitat Zitat von noxon Beitrag anzeigen
    Wie kommst du darauf, dass das überhaupt mehr Kosten verursachen würde? nVidia bastelt an einem 1,4 Mil. Transistor-Monster und hat mit jeder Menge Problemen bezüglich Größe, Verlustleistung, Blindströme und Strukturbreiten zu kämpfen, während ATi es geschaft hat (wahrscheinlich auch mittels AMDs Know How) einen kleinen aber denn noch effektiven Chip herzustellen, der sich dank einer neuen CF-Bridge einfach mit mehreren anderen Kernen koppeln lässt.
    Warum muss das teurer sein? Es könnte sogar das Gegenteil der Fall sein. Wenn das mit den 45nm tatsächlich stimmt, dann sind die Chips nur noch halb so groß, wie die GT200'er und die Ausbeute steigt erheblich, wodurch die Chips wirklich günstig werden. Hinzu kommt, dass der Ausschuss aufgrund der geringeren Transistoranzahl geringer ausfallen dürfte.
    Wie kommst du darauf, dass ATI die HD4870X2 in 45nm baut? Soweit ich mitbekommen habe, ist davon der R800 betroffen, der vielleicht sogar in 40nm gebaut werden soll. Vom R700 in 45nm war nie die Rede.

    Spielt das eine Rolle, warum sie so schnell ist? Das sie so schnell ist und trotzdem weniger negative Effekte aufweist zeigt doch, das ATi auf dem richtigen Weg ist.
    Und ob das eine Rolle spielt! Vielleicht nicht für den Endverbraucher, aber für Interessierte ist umso wichtiger durch die gegnerische Architektur herauszufinden, wo die eigenen Fehler lagen.

    Das einzige, was Nvidia beim GT200 falsch gemacht hat, war eben die Bauweise in 65nm. Der Chip an sich ist leistungsstärker als der RV770, denn man sollte sich nicht von Marketing verwirren lassen und denken, ATI GFLOPs = Nvidia GFLOPs. Und alle schreien sofort, yeah, ATI kanns besser, weil sie über 1 TFLOP erreichen...juhu. Totaller Quatsch! Schließlich sind Nvidia Alu Shader auch nicht gleich ATI Alu Shader.

    Oder beurteilst du die Leistung einer Graka nur nach der Größe des VRams, so wie die meisten Laien das tun?

    Nvidia hat eine super Karte mit der GTX 280 hingestellt. Fehler war nur die größere Fertigung in 65nm und der etwas hohe Preis.

    BTW:
    Es soll bereits ein "Hobby-Programmierer" geschaft haben die PhysX Engine jetzt schon auf einer 3800 zu beschleunigen.
    PhysX-Beschleunigung auf ATi Radeon HD 3800?

    Wenn der das kann, dann wird es wohl sicher nicht mehr lange dauern, bis es offiziell von ATi unterstützt wird. Theoretisch müsste ATi dann auch bei den Physikberechnungen nVidia davon ziehen mit seinen theoretischen 1,2 TFlops.
    Tja, mal sehen wie Nvidia darauf reagiert? Mit einer Geldstrafe oder war das auch so geplant? Nvidia geht es wohl darum, dass soviele PhysiX unterstützen wie möglich, um Intel eins auszuwischen. Da kann sich Nvidia nur darüber freuen, dass auch ATI mit auf diesen Zug aufgesprungen ist.
    "Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
    (Laplace, frz. Astronom u. Mathematiker, 1749-1827)

  5. #5
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Zitat Zitat von Siberian Tiger Beitrag anzeigen
    Wie kommst du darauf, dass ATI die HD4870X2 in 45nm baut?
    Wie gesagt. Sind Gerüchte und ist nicht bestätigt.
    R700 is a 45 nanometer chip
    R700 is indeed a multi core device

    Fudzilla ist natürlich nicht die zuverlässigste Quelle, aber ab und zu haben die auch recht. Ich kann mir das mit den 45nm gut vorstellen. Schließlilch haben die AMD zu ihrer Seite und die kennen sich mit dem Fertigungsprozess schon ganz gut aus.


    Oder beurteilst du die Leistung einer Graka nur nach der Größe des VRams, so wie die meisten Laien das tun?
    Nö. Natürlich nicht und auch die TFlops sind natürlich vergleichbar, aber in Sachen Physik könnten die 800 Streamingprozessoren vs. 240 Shadereinheiten schon eine Rolle spielen. Ich denke, dass Physikberechnungen viel besser skaliert werden können, als Grafikberechnungen und wenn man das noch speziell an die 5D shader anpasst, dann kann ATi unter umständen schneller sein, aber das warten wir am Besten mal ab.

    Sollte der R700 aber wirklich ein Chip mit zwei RV770 Kernen on DIE sein und über 1600 Streaming Prozessoren verfügen, dann steht wohl außer Frage, wer schneller rechnen kann.


    Tja, mal sehen wie Nvidia darauf reagiert? Mit einer Geldstrafe oder war das auch so geplant? Nvidia geht es wohl darum, dass soviele PhysiX unterstützen wie möglich, um Intel eins auszuwischen. Da kann sich Nvidia nur darüber freuen, dass auch ATI mit auf diesen Zug aufgesprungen ist.
    Anscheinend ist nVidia ganz heiß darauf, dass ATi mitzieht. ansonsten hätte es die PhysX Engine auch recht schwer sich durchzusetzen.
    Trotzdem bin ich etwas erstaunt, denn gerade der PhysX Support bringt nVidia im 3DMark ja giganische Werte ein. Auch wenn diese regelwidrig sind, so achten doch eine Menge User auf diesen Benchmark und kaufen danach ihre Grafikkarte.
    nVidia gibt da also einen ganz schönen Vorteil im 3DMark auf nur um ihre Engine durchzudrücken. Vielleicht wissen sie aber auch, dass ihre Treiber niemals zugelassen werden und ihre 3DMark Ergebnisse als ungültig erklärt werden.

    Mir soll es recht sein. ATi wird dann die Havok und die PhysX Engine unterstützen und an OpenCL beteiligen sie sich auch. Wer weiß. Vielleicht implementieren sie auch CUDA. So wie ich das verstanden habe geht das wohl mit der PhysX Implementierung mit einher.
    Geändert von noxon (26.06.2008 um 22:56 Uhr)

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

  6. #6
    Professional Avatar von HunT
    Registriert seit
    19.12.2007
    Beiträge
    2.857

    Standard

    Warten wir es ab! Natürlich können die 800 Stream Prozessoren mehr Leistung für Physik raushauen. Aber es handelt sich hierbei immernoch um 160 5D Shader. Dass diese gerade bei shaderlastigen Spielen wie Crysis genauso rechnen wie Nvidias 1D Shader, verteilt ATI's 5D Shader nicht gerade viele Vorteile.

    Obwohl die HD4xxx mehr theoretische Rechenpower hat, ist sie dennoch nicht schneller als die GTX 280 mit ihren 933 GFLOPs. Was lernen wir daraus? Dass man sich auf theoretische Leistung nicht verlassen sollte.
    "Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
    (Laplace, frz. Astronom u. Mathematiker, 1749-1827)

  7. #7
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Genau so ist es.
    Die 5D Shader lassen sich selten optimal ausnutzen, weswegen bei ATi recht viel Rechenleistung ungenutzt bleibt. Physikberechnungen hingegen sind aber viel vorhersagbarer und simpler und lassen sich sicherlich perfekt auf die 5D Shader optimieren, wodurch ATi endlich das volle Potenzial aus ihren Shadern ziehen kann.

    Zumindest stelle ich mir das so vor. Beweise habe ich dafür natürlich nicht, aber eigentlich müssten Physikberechnungen effizienter durchgeführt werden können als Grafikberechnungen.

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •