Archiv verlassen und diese Seite im Standarddesign anzeigen : Larrabee - Sammelthread
Super Vegeta
15.05.2008, 14:06
Hallo,
Diese karten von intel sollen mindestens 16 Prozessorkerne besitzen, wobei jeder Kern 4-faches Multithreading unterstützt.
- PCI Express 2.0-basierend
wat glaubt ihr wie es in der zukunft sein wird?..
DirectX? OpenGL?
wird sich Raytracing schon so bald in Spielen etablieren?
Larrabee wird DirectX- und Open-GL-Spiele durch Rasterisierung rendern, nicht mit Raytracing
MfG
nivida nvidia?
Hallo,
Diese karten von intel sollen mindestens 16 Prozessorkerne besitzen, wobei jeder Kern 4-faches Multithreading unterstützt.
- PCI Express 2.0-basierend
wat glaubt ihr wie es in der zukunft sein wird?..
DirectX? OpenGL?
wird sich Raytracing schon so bald in Spielen etablieren?
Larrabee wird DirectX- und Open-GL-Spiele durch Rasterisierung rendern, nicht mit Raytracing
MfG
nivida nvidia?
immervida nvidia!
Sorry, hab jetzt keine Lust zu erklären warum ich das so sehe. Habe bereits Romane in anderen Foren über dieses Thema geschrieben.
Kurz gesagt, Raytracing wird so schnell nicht etabliert. Es wird noch einige Jahre dauern. Bis dahin werden Nvidia und ATI Technologien entwickelt haben, die Larrabee wieder alt aussehen lassen. Intel wagt hier einen Schritt in den Abgrund, wenn sie denken, sie könnten mal so eben durch haufen Geld das Know How von Nvidia und ATI übertreffen.
CRYSISTENSE
15.05.2008, 15:39
Lasst uns hoffen, dass es ein Misserfolg wird. Nich auszudenken was passieren würde, wenn Intel in beiden Bereichen an der Spitze wäre.
Baggibox
15.05.2008, 23:34
Hier ist ein Beispiel von FarCry 2, dass ich schonmal gepostet hab. Sieht trotzdem saugeil aus !
RayTracing --> FarCry 2 Video (http://www.pcgameshardware.de/aid,638713/News/Far_Cry_2_Intel_zeigt_Video_als_Beispiel_fuer_Rayt racing/).
Die ATI HD4000er Reiher kommt bald, hat zwar mit keine raytracing nichts am Hut, aber hat gebalte Power und kostet auch noch sehr günstig !
Da kommt man der Technologie etwas näher.^^
PS: Ich denke das dauert noch bis Raytracing sich durchsetzen wird.......:roll:
Ich denk auch nicht, dass INTEL da so leichtes spiel hat wie sie es sich vorstellen....Aber abwarten. Vor allem kann man Raytracing ja auch GPU-Lastig machen...die müssten nur mal anfangen da Multi-Core GPUs raus zu haun
Flying_Dragon
16.05.2008, 06:22
Ich denk auch nicht, dass INTEL da so leichtes spiel hat wie sie es sich vorstellen....Aber abwarten. Vor allem kann man Raytracing ja auch GPU-Lastig machen...die müssten nur mal anfangen da Multi-Core GPUs raus zu haun
jo multi gpus wären echt nicht schlecht aber dann nicht sowas wie die 9800GX2:roll:
nicht zwei karten aneinander geklatscht xD
Nvidia und ATI macht mal an und haut intel auf dem gebiet so weg das die erst garnicht richtig anfangen mit dem raytracing
Grundsätzlich hätte Intel , denke ich, keine Probleme, eine konkurrenzfähige Grafiklösung auf den Markt zu bringen.
Die Logik ist die:
Was ich gelesen habe, brauchen heutige gpus etwa die ka. 3-fache Chipfläche einer CPU.
Intel verkauft seine CPUS um durchschnittlich ka. ~200€?
Rentiert es sich dann, mit viel mehr Produktionskosten ein Produkt herzustellen, welches dann ebenfalls um 200 - 300€ verkauft wird?
Es sei denn natürlich,
a.)Die Dinger werden teuer
b.)Die Architektur ist technisch überelgen und macht mehr Leistung mit weniger Chipfläche
c.)Das Teil hat nicht uns als Zielgruppe, sondern ist ka. zum Filme rendern usw.. gedacht
d.)Man will Nvidia kontern, die ja meinen die GPU könnte die CPU ersetzen.
Bin mal gespannt, was das wird.
Grundsätzlich hätte Intel , denke ich, keine Probleme, eine konkurrenzfähige Grafiklösung auf den Markt zu bringen.
Die Logik ist die:
Was ich gelesen habe, brauchen heutige gpus etwa die ka. 3-fache Chipfläche einer CPU.
Intel verkauft seine CPUS um durchschnittlich ka. ~200€?
Rentiert es sich dann, mit viel mehr Produktionskosten ein Produkt herzustellen, welches dann ebenfalls um 200 - 300€ verkauft wird?
Es sei denn natürlich,
a.)Die Dinger werden teuer
b.)Die Architektur ist technisch überelgen und macht mehr Leistung mit weniger Chipfläche
c.)Das Teil hat nicht uns als Zielgruppe, sondern ist ka. zum Filme rendern usw.. gedacht
d.)Man will Nvidia kontern, die ja meinen die GPU könnte die CPU ersetzen.
Bin mal gespannt, was das wird.
Mittlerweile räumte der CEO von Nvidia ein, dass ein Computer ohne CPU nicht läuft, arbeiten aber eng mit VIA zusammen.
Nichts desto trotz gilt das auch für Intel. Die sollten auch mal zugeben, dass ein Rechner ohne GPU kein Rechner für Gamer ist. Es liegt in der physikalischen Natur, dass die Nutzung einer gesammten Fläche für eine bestimmte Funktion die leistungsfähigere Lösung ist als alles auf einen Chip zusammenzuquetschen! Wer ein bisschen Ahnung von dieser Materie hat, wird wissen, was ich meine.
Und wie ich schon sagte, Intel stellt sich das zu einfach vor! Wenn ich mir schon die Roh Schaltung ihres ach so tollen Larrabee's anschaue, so frage ich mich, ob Intels Ingenieure überhaupt was während ihres Studiums gelernt haben oder einfach nur geldgeil sind und sich was vormachen?
Larrabee wird genauso scheitern wie das damalige Vorhaben von Intel in den Grafikbereich einzusteigen. Ich habe jetzt leider den Namen dieses Chips nicht im Kopf.
Paulus Krabbe
16.05.2008, 11:04
Lasst uns hoffen, dass es ein Misserfolg wird. Nich auszudenken was passieren würde, wenn Intel in beiden Bereichen an der Spitze wäre.
Weis noch nicht was besser wäre. Einen Hersteller der alles macht und somit auch die Komponenten perfekt aufeinander abstimmen könnte, allerdings die Preise dann diktierte. Oder verteilt auf mehrere Hersteller.
Desweiteren habe ich selten bis garkeine Probleme mit der CPU. Probleme meist nur, wenns ums Zusammenspiel von Treibern und Windows geht.
Mal abwarten, wir können da eh fast nichts beeinflussen. Am meisten freute mich aber die Voraussage der IT-Industrie, das sich die PC-Rechenleistung in den nächsten 20 Jahren vermillionenfachen soll. Schade nur das das so lange dauern soll. Die sollen mal Gas geben, sonst hab ich da nix mehr davon.
Weis noch nicht was besser wäre. Einen Hersteller der alles macht und somit auch die Komponenten perfekt aufeinander abstimmen könnte, allerdings die Preise dann diktierte. Oder verteilt auf mehrere Hersteller.
Desweiteren habe ich selten bis garkeine Probleme mit der CPU. Probleme meist nur, wenns ums Zusammenspiel von Treibern und Windows geht.
Mal abwarten, wir können da eh fast nichts beeinflussen. Am meisten freute mich aber die Voraussage der IT-Industrie, das sich die PC-Rechenleistung in den nächsten 20 Jahren vermillionenfachen (x100 000 000) soll. Schade nur das das so lange dauern soll. Die sollen mal Gas geben, sonst hab ich da nix mehr davon.
Wie? Schon so alt? :aua:
1337_alpha
16.05.2008, 11:31
41 ^^ :-o
Der Text, den Sie eingegeben haben, ist zu kurz. Bitte erweitern Sie den Text auf die minimale Länge von 10 Zeichen.^^
Paulus Krabbe
16.05.2008, 19:48
Jup. 41 und kein bischen weise.....
Larrabee ist damit wohl tot, sehr schade! "short-term" bedeutet dabei durchaus innerhalb der nächsten paar Jahre, damit ist das Projekt vorerst beendet :(
Hätte sehr gerne Intel-Grafikkarten gesehen, hätte dem Markt sicher gut getan!
We will not bring a discrete graphics product to market, at least in the short-term. As we said in December, we missed some key product milestones. Upon further assessment, and as mentioned above, we are focused on processor graphics, and we believe media/HD video and mobile computing are the most important areas to focus on moving forward.Quelle: Intel Blog (Bill Kircos) (http://blogs.intel.com/technology/2010/05/an_update_on_our_graphics-rela.php)
Know-how kann man sich eben nicht kaufen! Schlimm finde ich das nicht...eine Konkurenz von Intel würde dem Markt eher schaden als nützen. Eine Konkurenz von einem anderen (unbekannten) Unternehmen dagegen wäre produktiv.
eine Konkurenz von Intel würde dem Markt eher schaden als nützen.
LOL, wieso das denn? Das sehe ich anders! JEDE Konkurrenz ist gut für den Kunden, es ging dabei ja um dedizierte Grafikkarten. Da Intel sich jetzt voll und ganz auf integrierte Lösungen konzentriert wirste noch schnelll genug sehen, dass wir (kunden) genau damit den eigentlichen Kürzeren ziehen. Intel wird dann in fünf Jahren CPU und GPU auch sehr performant vereint haben, genau wie AMD und Nvidia steht dämlich da. Bei dedizierten Karten hätte jeder kaufen können was er wollte.
LOL, wieso das denn? Das sehe ich anders! JEDE Konkurrenz ist gut für den Kunden, es ging dabei ja um dedizierte Grafikkarten. Da Intel sich jetzt voll und ganz auf integrierte Lösungen konzentriert wirste noch schnelll genug sehen, dass wir (kunden) genau damit den eigentlichen Kürzeren ziehen. Intel wird dann in fünf Jahren CPU und GPU auch sehr performant vereint haben, genau wie AMD und Nvidia steht dämlich da. Bei dedizierten Karten hätte jeder kaufen können was er wollte.
Wir werden ja sehen, was das für eine perfomante Lösung wird... :roll: Ist ja so, als würdest du versuchen Salz und Zucker zu einer genießbaren Mischung zu formen. Bis jetzt ist nichts als heiße Luft seitens AMD und Intel gekommen und Nvidia geht auch einen anderen Weg -> siehe Fermi-Eigenschaften (nicht Leistung).
Ach ja, gib Intel noch mehr Macht und es wird bald gar keine Konkurenz mehr geben...
TheMegaMaster
25.05.2010, 22:19
Ach ja, gib Intel noch mehr Macht und es wird bald gar keine Konkurenz mehr geben...
Konkurrenz von einem großen Entwickler wie Intel feuert doch den Preiskampf erst recht an.
Das kommt dem Kunden zu gute.
Außerdem entstehen die besten Innovationen meist unter Konkurrenzdruck.
Ein neuer Großentwickler wäre wirklich notwendig, um die festgefahrenen Fronten (NVIDIA <-> ATI) mal aufzulockern.
Konkurrenz von einem großen Entwickler wie Intel feuert doch den Preiskampf erst recht an.
Das kommt dem Kunden zu gute.
Außerdem entstehen die besten Innovationen meist unter Konkurrenzdruck.
Ein neuer Großentwickler wäre wirklich notwendig, um die festgefahrenen Fronten (NVIDIA <-> ATI) mal aufzulockern.
Ja dem kann ich nur beisteuern! Leider ist SIS, Matrox und S3 Graphics zu klein und würde selbst in 20 Jahren nicht an die Spitze herankommen. Da bleibt ja eigentlich nur noch Intel neben Nvidia und AMD:(.
Naja wayne, ich denke sobald das Hauptaugenmerkmal in vielleicht schon 10 Jahren auf Fusion Chips liegt dann werden die großen 3 sich eine heftige Schlacht liefern, was einerseits gut für den Kunden sein wird, so wird es wiederum schlecht für den nebenstehenden Konkurrenten sein. Dann zählt nur noch die Rohe - Leistung!
Nvidia wird dann konkurrieren mit dem Tegra 5 ^^:twisted: So viel Leistung wie zwei GTX 480 und einen Verbrauch von 100W^^
Diese Meldung und den Thread habe ich erst gerade gesehen.
Konkurrenz von einem großen Entwickler wie Intel feuert doch den Preiskampf erst recht an.
Das kommt dem Kunden zu gute.
Außerdem entstehen die besten Innovationen meist unter Konkurrenzdruck.
Ein neuer Großentwickler wäre wirklich notwendig, um die festgefahrenen Fronten (NVIDIA <-> ATI) mal aufzulockern.
Das kann ich nur unterstreichen. Konkurrenz treibt Preise runter und fördert das weiter denken! WIR sind die Kunden und ja, das kommt den Kunden zu gute. Irgendwie vergessen das viele und schreiben sehr seltsames Zeugs :-D
Schade dass es so gekommen ist.
Scheinbar können einige nicht richtig lesen. Konkurenz seitens SIS, Matrox und andere wäre eine willkommene Sache, aber Intel? Nein, ich bin froh, dass sie versagt haben, denn die Balance spielt für mich ebenso eine große Rolle in der freien Marktwirtschaft. Nicht zu stark, nicht zu schwach! Das ist das, was viele nicht verstehen in ihrem Konkurenzdenken...
Sommermn
26.05.2010, 10:19
Scheinbar können einige nicht richtig lesen. Konkurenz seitens SIS, Matrox und andere wäre eine willkommene Sache, aber Intel? Nein, ich bin froh, dass sie versagt haben, denn die Balance spielt für mich ebenso eine große Rolle in der freien Marktwirtschaft. Nicht zu stark, nicht zu schwach! Das ist das, was viele nicht verstehen in ihrem Konkurenzdenken...
Bei soetwas gibt es immer Vor- und Nachteile für irgendwen. Hier für die kleineren Firmen deiner Meinung nach, weil Intel in allen Bereichen zu mächtig wird. Ich sehe da durchaus natürlich auch die anderen Firmen, aber alles hat auch seinen Vorteil: Konkurenz treibt den Preis herunter, die Leistung hoch. Die Frage ist: Haben die kleinen Firmen im Bereich Grafikkarten denn jetzt, ohne Intel, im Bereich der dedizierten Grafikkarten eine Chance? ;)
Bei soetwas gibt es immer Vor- und Nachteile für irgendwen. Hier für die kleineren Firmen deiner Meinung nach, weil Intel in allen Bereichen zu mächtig wird. Ich sehe da durchaus natürlich auch die anderen Firmen, aber alles hat auch seinen Vorteil: Konkurenz treibt den Preis herunter, die Leistung hoch. Die Frage ist: Haben die kleinen Firmen im Bereich Grafikkarten denn jetzt, ohne Intel, im Bereich der dedizierten Grafikkarten eine Chance? ;)
ATI und Nvidia waren auch mal klein. Abgesehen davon, das was Intel da versucht hat, eine Grafikkarte auf x86 CPU Basis zu entwickeln war in meinen Augen schon zu Anfang zum Scheitern verurteilt. Intel versucht immer wieder ihr eigenes Ding erzwingen!!! zu wollen und haben nicht selten Klagen am Hals. So einen Konkurenten braucht kein Markt.
Selbstverständlich stehe ich hinter den "Kleinen". Nicht selten kommen die kreativsten Lösungen von dieser Sparte, nur es fehlt meist an Geld. Die "Großen" haben sich bereits satt gefressen und "optimieren" nur noch.
Powered by vBulletin® Version 4.2.5 Copyright ©2025 Adduco Digital e.K. und vBulletin Solutions, Inc. Alle Rechte vorbehalten.