Seite 1 von 2 12 LetzteLetzte
Ergebnis 1 bis 10 von 16

Thema: Ati RV770 schneller als Nvidia G 280

  1. #1
    Gesperrt
    Registriert seit
    26.02.2007
    Ort
    Hamburg
    Beiträge
    2.665

    Standard Ati RV770 schneller als Nvidia G 280

    RV770 verfügt über 800 Streaming-Prozessoren und durchbricht die 1.200-GFlop-Marke?

    Unter anderem soll dies auch der Grund für den von AMD gewählten GPU-Takt - welcher schon mehrfach durch diverse Folien und Screenshots bestätigt wurde - der Radeon HD4850 sein. Denn dadurch würde AMDs schwächster Zögling auf eine Rechenleistung von 1.000 GigaFlops kommen und somit - zumindest theoretisch - über der erwarteten Leistung einer Geforce GTX 280 (933 GigaFlops) liegen. Dies wäre sicherlich ein Schlag ins Gesicht für Nvidia.

    Heute präsentiert uns ocworkbench.com neue Folien, welche der HD4850 genau diese Rechenleistung bzw. ALU-Anzahl nachsagen. Die Radeon HD4870, welche mit 750 Megahertz skalieren soll, würde somit auf eine Leistung von rund 1.200 GigaFlops kommen.
    Damit verdichten sich langsam die Gerüchte und lassen hoffen, dass AMD tatsächlich noch ein kleines Ass im Ärmel hat.


    Quelle:


    Wenn das wirklich so is ohoh Nvidia, wenn das stümmt prost mahlzeit

    -Para
    Geändert von paraphonatic (10.06.2008 um 18:37 Uhr)

  2. #2
    Erfahrener User Avatar von PIMP50
    Registriert seit
    04.07.2006
    Beiträge
    652

    Standard

    ja wollen wa mal hoffen das es so is!!! bekommt nievida mal nen arschrtitt und müssen sich mal wieder anstrengen ne gute karte zu machen!! und nicht das ganze geld in firmen stecken das sie den dx10.1 support wieder raus nehmen da es so gut läuft und damit ati karten schneller sind als ihre!!!



  3. #3
    Moderator Avatar von M3nTo5
    Registriert seit
    17.07.2007
    Ort
    Niedersachsen
    Beiträge
    7.181

    Standard

    Wollen wir hoffen das sie - wie immer - gut im Preis ist
    Und nicht das sie so wie die 3870x2, die die Ultra schlägt, einfach nicht unterstützt wird.
    A common mistake that people make when trying to design something completely foolproof is to underestimate the ingenuity of complete fools.

  4. #4
    R.I.P. Avatar von Black_Death
    Registriert seit
    01.02.2007
    Ort
    Schwarzbach (bei Fulda)
    Beiträge
    3.031

    Standard

    Wenn das stimmt, könnt das meine erste ATI sein!
    Geändert von Black_Death (10.06.2008 um 19:05 Uhr)

    Svarte_Dauden ᛋᚡᚨᚱᛏᛖ_ᛞᚨᚢᛞᛖᚾ
    Last.fm

  5. #5
    Nixblicker
    Gast

    Standard

    Ich hoffe es nicht ich will es das Nvidia mal arschvoll bekommt
    Weil irgendwie möchte ich schon mal sehen das ATI Nvidia den PO zeigt

  6. #6
    Erfahrener User Avatar von prOox
    Registriert seit
    27.10.2007
    Ort
    Schweiz, St. Gallen
    Beiträge
    631

    Standard

    soweit ich infromiert bin ist aus ATI -> AMD geworden oder ire ich mich da? in sachen grafikkarten.

  7. #7
    Erfahrener User Avatar von PIMP50
    Registriert seit
    04.07.2006
    Beiträge
    652

    Standard

    boa ne echt??? amd hat ati schon vor nem jahr oda so übernomen!!!



  8. #8
    Professional Avatar von Flying_Dragon
    Registriert seit
    16.09.2007
    Ort
    Nordhorn / Hamburg
    Beiträge
    3.566

    Standard

    Zitat Zitat von prOox Beitrag anzeigen
    soweit ich infromiert bin ist aus ATI -> AMD geworden oder ire ich mich da? in sachen grafikkarten.
    AMD hat ATI übernommen die grakas heißen aber eig immer noch mit ATI nur der boss ist jetzt AMD
    ich meine so ist das.... bin mir aber nicht 100%ig sicher

    ich würde auch weiter ATI sagen sonst treten verwechlungen mit den prozis und so auf^^

  9. #9
    Gesperrt
    Registriert seit
    10.09.2007
    Ort
    In der nähe von Köln :)
    Beiträge
    178

    Standard

    Genau! NVIDIA schmeißt also umsonst 1.000.000.000 Dollar Vorschungsgelder zum Fenster raus und essen Lieber nen Döner als ne anständige Karte zu entwickeln. Und ATI/AMD diese Helden die 1.000.000.000 wahrscheinlich nichtmal aufbringen kann weil ihr CEO das Geld für anderwaltig Dingebraucht, bringen mit nichts die Superkarte heraus, die den GT200 der wahrscheinlich schon über ein Jahr in entwicklung ist geschlagen. Nurmal zur Informaton!!! Es hat über ein Jahr gedauert bis ATI den G80 geschlagen hat.

    Und dann diese DX10.1 das meiner Meinung nach von ATI gehypt wird bis zum geht nicht mehr. Aber nein, das würde ATI doch nie machen. Die sind ja die guten und NVIDIA die Bösen. Wahrscheinlich gibt es noch nichtmal ein DX10.1 Spiel, da ist schon DX11 raus. Und nu!!! Aber nein, Ati ist ja so anständig. Man, die müssen auch überleben.
    Nur die harten komm in den Garten. Aber das hat AMD ja schon mit Bravur gezeigt. Wegen Monopol stellung (obwohl ich das auch nicht gut finde) alle Anzeigen und wegen jedem kleinsten Pieps gleich bei INTEl vor der Tür zu stehen anstatt mal sich auf die Entwicklung zu konzentrieren.

    Als ob nicht jedes Unternehmen um´s Geld kämpfen würde.

    Musste jetzt mal sein!!!! Wollte keinen angreifen oder eine Mega Ati vs. NVIDIA debatte anfangen die soweiso mit stechen und beißen
    endet.

    Ich wollte einfach nur mal meine Meinung sagen Wenn sie euch nicht passt, nehmt sie mit Humor.

  10. #10
    Semi Pro
    Registriert seit
    31.10.2006
    Beiträge
    999

    Standard

    habt ihr mal auf der pcgames geschaut, welche Troll-Wars da ausgefochten werden zu jeder News bzgl. amd-nvidia in den Kommentaren? Echt erstaunlich das Niveau da. Im Moment machen die dort alle auf Feindschaft mit nvidia. Ich warte lieber auf Spielebenches und entscheide dann je nach Lieblingsspiel.
    Geändert von pilzbefall (10.06.2008 um 19:21 Uhr)
    Sys: Asus GTX 280 @756/1512/2700 wakü by ZERN-CPU-Block @ 1,16V, Q6600 @ 3,95 Ghz (wakü by ZERN CPU-Block) @ 1,57V, Asus P5K-E Wifi AP (PCI 1.0), Corsair Billich-Ram @ 1165 MHZ 5:5:5:15, Radiator: Toyota Diesel, Pumpe: 1250 Eheim 220V Aquarien-Edition, Enermax 720 Infiniti (ja, mit "i")

Seite 1 von 2 12 LetzteLetzte

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •