@randfee
Moment mal - wie kann die Story von Crysis denn noch linearer sein XD?
Und randfee, ich kann dir sagen, temporäre (zerstörbare) Cover wird schon ins Spieldesign einbezogen und wenns sinnvoll wäre auch genutzt. Aber alleine davon, dass es zerstörbar ist, wird kein Spiel besser, glaub mir. Ich könnte jetzt einfach hingehen und alle assets in crysis zerstörbar machen. Mehr Spass hättest du dadurch sicherlich nicht. Da ja die meisten Ego shooter Deckungsbasiert sind, muss es sowohl permantente als auch temporäre Deckung geben..
nur meine meinung und was ich so für Erfahrungen gemacht habe.
wie auch immer du das siehst, für mich wären wirklich dynamische und FREIE Level ein riesen hit. Man stelle sich Multiplayergefechte vor während dessen alles zu schrotten ist, taktisch geilst.
Was ich aber grade las, Cevat übernimmt sich mit seinen "definitiven" Aussagen aber ganz schön:
Quelle: Gamestar.deZitat von Cevat-Yerli
Oh Cevat, träum weiter! Soviel Power geschweige denn RAM können Grafikkarten garnicht bekommen. Ich frage mich wie der sich zu so einer unqualifizierten Aussage hinreißen lässt, oder wurde das aus dem Englischen falsch übersetzt?! So wie's da steht ist das jedenfalls Unsinn, total unrealistisch! Der Detailreichtum von sowas wie Avatar ist mit normalen Kisten bestimmt noch weitere 10 Jahre nicht zu machen wie gesagt, allein am RAM wirds um gut eine Größenordnung scheitern :P
2500K @ 4,8GHz | 5850 | 32GB DDR3
Da scheint sich ja jemand auszukennen
Und nur weil man alles kaputtmachen kann, macht ein Spiel noch lange nicht SpassDenn im Grunde haben sich Ego-Shooter kaum verändert. Es gibt halt etliche Variationen aber im grunde besteht es aus: Zielen, schiessen, nachladen, deckung, sich bewegen. Das ist so der Kern meiner meinung nach. Einfach alle Deckung temporär zu machen macht das Spiel im Endeffekt nicht besser.
Nein, aber es kann sich keiner mehr 100% sicher fühlen und diese Unberechenbarkeit würde (in meinen Augen) das Spiel erheblich besser machen. Diese Standard-Levelgrenzen (samt Deckungen) = grässlich. Gib mir die Möglichkeit einen Tunnel zu graben (rofl), nen Turm im richtigen Augenblick zu sprengen um den gegnerischen Konvoi/Bunker zu begraben, die Wand der Prototype factory wegzublasen um den Gegner drinnen zu überrumpeln. Natürlich müssen dann Spielmodi angepasst werden, aber es könnte ja auch einfach schnelle Runden geben, nach 20 Minuten ist die Map dann halt hin, na und? Kein Spiel wäre mehr statisch, ich fänds fantastisch!
Ein "wenig", ja, aber viel wichtiger ist ein gutes Gespür für Zahlen und Abschätzungen zu haben. Die Yerli-Aussage ist jedenfalls höchst unrealistisch. Natürlich kann seine Firma evtl. in fünf Jahren einen Renderer für sowas schreiben, nur wird der dann aber leider mit 0,1fps laufen, er redet aber von Echtzeit und das ist total unrealistisch. In Echtzeit kannst du mit den Kisten heute noch keine fünf Grashälme aus Avatar rendern, dann kannst du in fünf Jahren vielleicht mal eine Hecke anzeigen :P
2500K @ 4,8GHz | 5850 | 32GB DDR3
@ Randfee
TSMC startet 2011 die 28nm Produktion und 2012 die 22nm oder noch kleinere Fertigung (die haben ja schon von 40nm auf 28nm die 32nm übersprungen) und 2015 könnte dann 12 oder 10nm für GPU schon standart sein.
Dann gäbe es also 2015 locker 10x so schnelle Grafikkarten wie jetzt die GTX 480 oder HD 5870 bei gleicher größe. Die CPUs von heute sind eh kein Thema für Spiele, kaum ein Spiel nutzt einen Core i7 oder einen Phenom II X4 BE wirklich aus. 2015 wird es auch dann super CPU geben.
Also 2015 gibt es dann bei jedem min einen Quad Core (netbooks) und 8 GB Ram (DDR4) und 1 TB HDD, dazu eine G650M von Nvidia als Onboard die so schnell ist wie die 9800 GT jetzt. Gaming PCs/Notebooks werden dann wohl GPUs haben die Raytracing draufhaben (die GTX 480 kann das ja jetzt schon - Garage Demo - ).
Also kann es schon sein, aber vieleicht nicht für jeden der 2015 lebt, aber Leute die 400€ oder mehr für CPU und GPU ausgeben schon.
PS: TSMC arbeitet schon jetzt an 28nm für ende 2010 und anfang 2011, was 2x so schnelle Karten wie die GTX 480 erlaubt und dabei kleine Chips bringen kann.
Edit: Bis dahin gibt es die 3. Xbox und die PS4 die ja alles was mit Grafik zu tun hat, bei den Entwicklern, in die gänge bringt. Port werden dann in die nächste stufe gebracht. Den von PS1 zu PS2 war der Leistungs sprung bei min 10x und von PS2 zu PS3 das selbe Bild und wenn die PS4 kommt wird es nicht anders sein.
Geändert von ATI Fan (13.08.2010 um 20:18 Uhr)
LOL, very funny! Alles klar Jungs, TSMC hat vor usw... das sind alles lächerliche Peanuts gegen die Rechenpower die ihr fürs Rendern eines solchen Films braucht, wieso informiert ihr euch nicht mal bevor ihr sowas postet?
Quelle (eine von x-beliebigen): digital-world.dePC-WELT: Welche Hardware wurde zum Rendern genutzt?
Williams / Saindon: Wir verfügen über eines der größten Rechenzentren der südlichen Hemisphäre:
- 4352 Computer zum Rendern
- 34816 CPU Kerne
- Speicherplatz: 2,5 Petabyte (2,5 Millionen GB)
Avatar erzeugte bis zu 10 bis 12 TB Daten pro Tag.
Das entspräche über 100 Millionen Stunden Renderzeit auf einem normalen PC mit Einzelkern-Prozessor.
Die oben genannte Hardware braucht laut denen die's gemacht haben jeweils circa eine Stunde pro frame, was 0,0002fps entspricht, noch fragen?
Macht euch selber schlau oder glaubt einem der was davon versteht, aber irgendwelche Strukturgrößen zu posten ist schlicht unsinn. Atome sind nicht annähernd klein genug damit irgend ein Grafikchip genug schrumpfen könnte für solch eine Rechenleistung. Es ist grade noch so Faktor 100 in der Flächenverkleinerung drin wobei keiner weiß ob man wirklich komplexe chips mit den 4nm Test-Transistoren bauen kann.
Nichts desto trotz, egal was die optoelektronik (ohne optik geht das eh nicht mehr) noch alles reißen kann, es wird mit Sicherheit (!) nicht 2015 soweit sein, die Aussage Yerlis ist und bleibt quatsch.
BTT.
2500K @ 4,8GHz | 5850 | 32GB DDR3
Sowas wie Optimierungen auf Software Seite gibts natürlich nicht![]()
natürlich, aber an gewissen Sachen kannst du nichts optimieren. Wenn da zwei Millionen Grashalme auf der Wiese sind und der Wind vom Heli weht, dann musst du die einzeln berechnen :P Und das wird auch jeden Core i100 in 2015 fertigmachen :P
signed.
Als ich sah bzw. hörte, dass Crysis 2 grafikmäßig nicht DEN Sprung machen würde und dann noch CE3 Tech-Demos mit verbeulten Fässern und zerstörbaren Wänden sah war ich mir sicher, dass man nun mehr in die Richtung gehen würde. Dann kam die große Ernüchterung, dass man quasi nur eine Version (feature-mäßig) entwickelt und DIE Aussage des Jahres: "sometimes a limitation (by consoles) can be very refreshing because you (developer) can concentrate more on the stuff that really matters" (so oder so ähnlich). Was ein lachhafter Satz. Eigentlich wollte er sagen, dass sie das Spiel (für den PC) viel geiler machen könnten dies aber nicht tun, weil die Konsolen das ja nicht packen und sie kein Bock/Zeit/Lust/Geld haben eine gesonderte PC-Version zu machen. Also ist genau das eingetreten, was sie immer abstreiten wollen. pfff..
2500K @ 4,8GHz | 5850 | 32GB DDR3
Beeindruckende Physik Effekte und "intelligent" agierende KI kann man sehr wohl in nem Video präsentieren. Aber natürlich nicht so gut wie Grafik. Und einer der Hauptgründe, dass sich nicht so viel weiterentwickelt hat, in den letzen Jahren sind sicherlich die Konsolen. Aber es wird ja mal ne neue Generation geben, in ein paar Jahren, die dann ne ganze menge mehr draufhaben. Und da DirectX ja auch von Microsoft betrieben wird, die ein Interesse an der LEbenserhaltung der Xbox haben, werden sie sicherlich dafür sorgen, dass es keine allzu riesigen Sprünge gibt, wo die box nicht mitkommt
@randfee
Far Cry hatte ~150000 Polygone, Crysis 1500000. Also die neue Generation dann 15000000?Dann wäre noch einiges mehr machbar
Und ausserdem gibts ja sowas wie Level of Detail Systeme. Ich behaupte einfach mal, dass der Mann weiss, wovon er spricht
![]()