Ende für Midrange und Highend Grafikkarten von Nvidia

Mit einigen Tricks ist das dennoch möglcih ;-)
dx11 performance, dx11-effekte und vor allem Tesselation werden eine wichtige Rolle spielen.

(Beispiel: battleforge ist mit dx11 20 prozent schneller als mit dx10.1, wobei in battlfefoge dx10.1 nochmals ein Stückchen schneller ist als dx10.0)
 
Das wird sich alles wieder geben ;)

Ich find ma geil Dynamic Toilet Paper XD (5:33)

Die Effekte sind ma Bombe und die Skellis nice ^^
 
Danke für die Erklärung Fachkraft. In diesem Fall ist für mich PhysX eh unreleavant, weil ich keine Singleplayer Titel spiele. Brauche eigentlich nur die 120 FPS in Cod4 das ich schneller bin :D Und Starcraft 2 möcht auch nicht unbedingt auf Low Settings spieln
 
Naja, über den Sinn von PhysX lässt sich noch heute streiten.

Cellfactor Beta und die vergessenen cmd-Befehle haben schon sehr eindrucksvoll gezeigt, dass gerade die ursprünglichen Prestige-Effekte wie unzählige Boxen und Steine, die durch die Luft schwirren und zerbrechen auch ohne PhysX ruckelfrei mit Asbach-Uralt-Grakas möglich sind.

In dem Arkham Video sind auch einige andere geschönte Fähigkeiten drin. So sind generell Dampf und Rauch durchaus auf PhysX-losen Karten auch darstellbar, sie sind lediglich nicht dynamisch, wenn man quer durchläuft. Belege dafür gibt es auch zu genüge. Man stelle sich nur mal Counterstrike ohne Smokes vor, oder aber um auch ein deutlicheres Beispiel zu nennen, sei mal gesagt, wie sich Staubwolken aus Fallout 3 nicht wegdenken lassen.

Auch die Papiereffekte sind bisher selbst auf den PhysX-Karten mehr als lächerlich, wenn man mal betrachtet, dass die Toilettenpapierrolle sich nur 2 Blatt weit abrollt und sich danach auch nur noch als Klotz zeigt bzw. alle Papierstücke höchstens DIN A4-Größe haben, weil man bei größeren Blättern die vorgegebenen Knickstellen noch leichter erkennen könnte und mehr Knickstellen, die miteinander zu einem Objekt verkettet werden, auch die ineffizienten PhysX-Chips nicht hinkriegen.

Cloth ist hingegen ein echter Effekt, der sich nicht ohne weiteres ohne PhysX-Karte auf der normalen CPU emulieren lässt, ohne die Framerate in den Keller zu drücken. Dafür sehen die Schnitte durch den Stoff aber auch mit PhysX nicht sonderlich echt aus. Ein kleiner Bumerang reißt ein Loch in Form eines Blitzes von über einem halben Meter rein, aber auch wenn man sich in Cellfactor langsam durch gespannte Stoffobjekte bewegte, sprangen die Fetzen nur so auseinander (keine Ahnung, ob es seit der Zeit bis Batman verbessert wurde).

Die Spinnennetze sind eigentich genau das selbe wie Cloth, nur dass man nach einem weiteren medienwirksamen Werbenamen für den Effekt suchte. Dass Spinnennetze normalerweise klebrig sind und an der Kleidung haften müssten, ist auch für PhysX zu viel. Soll heißen, dass es zwar möglich ist in Realtime Stoffe zu zerreißen, die Ankerpunkte des Stoffes aber nicht ohne weiteres an andere Punkte andocken können.

Da sich PhysX offenbar mit realistischen Vergleichen nicht umwerben lässt, hat man einfach mal die PhysX-lose Variante schlechter aussehen lassen, als sie ist.
 
du willst nicht allen ernstes ne smokegrenede in cs mit fog in physx vergleichen oder?
der cs-smoke ist nicht dynamisch und reagiert auch nicht auf objekte die hindurchgehen.

generell lässt sich natürlich alles auch in software lösen. da geb ich dir recht. aber die anzahl der echten, interagierenden objekte ist da stark eingeschränkt und vieles wird eben doch nur durch shadertricks erreicht.

da muss man mal den zwischen dem reinen look (der ganz klar auch ohne physx machbar ist) und der interaktionfähigkeit unterscheiden.
 
du willst nicht allen ernstes ne smokegrenede in cs mit fog in physx vergleichen oder?
der cs-smoke ist nicht dynamisch und reagiert auch nicht auf objekte die hindurchgehen.

generell lässt sich natürlich alles auch in software lösen. da geb ich dir recht. aber die anzahl der echten, interagierenden objekte ist da stark eingeschränkt und vieles wird eben doch nur durch shadertricks erreicht.

da muss man mal den zwischen dem reinen look (der ganz klar auch ohne physx machbar ist) und der interaktionfähigkeit unterscheiden.

Zu deinem ersten Punkt: Sag ich doch. (CS war btw. nur so ein Beispiel, um zu zeigen, wie lange es schon Partikel-Rauch gibt.) In dem Batman Video ist aber ohne PhysX gar kein Rauch zu sehen, was einfach nicht mit PhysX zusammenhängt. Korrekt PhysX-los dargestellt, müsste der Rauch zu sehen sein, man kann nur nicht mit ihm Interagieren. Nochmal von meinem Schlußsatz: Man hat einfach mal die PhysX-lose Variante schlechter aussehen lassen, als sie aussehen könnte. Daher ist das Video auch kaum objektiv.

Zu der Anzahl interagierender Objekte kann ich nur nochmal die Cellfactor Beta auspacken und sagen, dass es mit und ohne PhysX-Hardware gleich viele Objekte waren und auch kaum ein sichtbarer Unterschied in den fps zu bemerken war. Ich hab das Ding hier zum Releasezeitpunkt der PhysX-Hardware auf meiner alten Kiste gezockt, mit den commandline-Parametern die PhysX-Effekte aktiviert, und es lief konstant bei flüssigen 30 fps, wie es ohne die Effekte bei ca. 40 blieb. Lediglich als ich Cloth-Tearing aktivierte, landete ich dann im einstelligen Bereich. War schon interessant zu sehen, wie meine Shader 2.0-Krücke die Kistenkugeln ohne Mühe schaffte. Hier nochmal ein Bild, um zu zeigen, dass in der Beta auch nicht an interaktiven Objekten gegeizt wurde...

cellfactor.jpg
 
ok... du weisst aber nicht, wie das ganze dann mit echtem physx ausgesehen hätte, bzw. mit wieviel frames es da läuft, sondern gehst nur von dem aus, was du auf deiner grafikkarte zu sehen bekommen hast, oder?
dass man bei batman auf einiges verzichtet hat, was man auch ohne physx hinbekommen hätte streite ich gar nicht ab. und manche effekte die sich eh nur im hintergund abspielen, hätte man wohl sogar mit dynamischen texturen hingekriegt....auch unbestritten.

trotzdem glaube ich nicht, dass ein spielehersteller interesse daran hat, sein spiel absichtlich schlechter aussehen zu lassen um physx zu pushen. (nvidia natürlich schon :D ).

zur performance: naja..versuchs mal mit deiner karte bei mirrors edge :D.
 
Hmm

Ich denke auch ma das das nur ein böses Gerücht ist......das geht doch schon länger um sich

Schon ab ende 8reie als die 9ner total gefloppt ist.....(also ich finde es auf jedenfall meine| XFX 8800 GTX | hat die 9800 gt sowas von in en schatten gestellt das ich die 9800 gt wieder zurück gegeben habe weil wensendlich weniger drauf lief

und zu der directx sache selbst die | XFX 8800 GTX | unter vista 64xbit hat directx 11 unterstützt ohne mit der wimper zu zucken

naja egal

Ich will damit nur sagen das gf das schon ma gesagt hat und dann doch was raus gebracht hat .

Die GTX reie is in sich nicht schlecht sie kam nur zu schnell wärens dich ati mehr zeit gelassen hat und daher die grakas mehr ausgereift sind.

Und ich bezweifel irgendwie das GF zu wenig geld hat zu forschung
Ihr grafikarten sind sogar in den konsollen dirn

ich glaube das sie sich eher jetzt zeit geben und den wirklich was ultra hammer mässiges rausbringen...

und die gtx reie is gar nicht so schlecht gegenüber der ati reiher kp wie sie jetzt heist bin eher gf anhänger

HEIL GEFORCE :D:D:D:D:D:D:D:D:D:D:D:D

ich bezweifle das sie gehen
 
Interessanter ist aber die Tatsache, dass unterhalb einer GTX 470 und GTX 480 in nächster Zeit nix kommen wird. D.h. also, dass ab 70 Euro nur noch die HD 5670 bis HD 5830 (oder HD 5850) interessant sind. Konsequenz:
die Preise werden sich kaum ändern, sofern die GTX 470 wirklich über 300 kostet und die gtx 480 über 400-500 Euro.
Weiterhin darf man nicht ausser Acht lassen, dass die Massenproduktion der Fermi-Karten erst ab Mai (oder später) losgeht. D.h. dass eine GTX 470 /480 kaum zu kaufen geben wird, obwohl die Reihe Ende März vorgestellt wird. Ich geh aber davon aus, dass die GTX 480 deutlich schneller als die 5870 ist.

Ein weiteres Gerücht:
Die neuste Generation ("Refresh") der HD5k könnte gleich die HD6k werden, die ebenfalls im 40nm-Bauweise erscheinen. (Die Generation in 32nm oder 28nm erscheint erst 2011).
Man munkelt, dass die HD6K bereits im Sommer/Herbst erscheinen wird.
Ob es eine HD5890 geben wird, kann ich mir deshalb nicht so recht vorstellen.
 
Last edited:
interessant find ich das die "nm" Bauweise immer geringer und geringer wird. Irgendwann kommt man an 1 nm Bauweise heran und dann? ^^
 
Hast du Karten , die keinerlei Hitze produzieren , wenig Strom verbrauchen und eine schier unendliche Leistung haben.
... oder ?
 
wenn die strukturen immer feiner werden, muss auch der herstellungsprozess immer feiner werden. dass das jetzt schon so langsam schon an die technischen grenzen stösst, merkt man ja daran, welche probeme ati mit seinem chip hat und dass nvidia momentan dieselben probleme hat. ausserdem steigen mit höheren anforderungen auch die kosten für die herstellung.
fast unendlich viel leistung und extrem niedriger stromverbrauch führen also auch zu enorm hohem kostenaufwand. ob man das durch die höhere chipausbeute pro wafer wieder rausholt dürfte fraglich sein.

zusätzlich wird der chip auch immer empfindlicher und es entsteht mehr ausschuss. bevor man bei 1 nm ankommt, wird also eher ne total neue herstellungstechnik nötig sein (keine siliziumbasis mehr sondern vllt was biologisches und nicht mehr elektrizität sondern licht als transportmittel...wer weiss).

ob das ganze überhaupt noch als "karte" zu bezeichnen ist, wäre ja schon fraglich...ich denk mal in 10-15 jahren passt die gesamte eletronik (so man das noch so bezeichnen kann) auf ne dünne plastikfolie und die auflösungen werden vllt so extrem sein (+3d-informationen), dass diese dann direkt in den monitor wandert, weil normale kabel die frequenzen gar nicht mehr ohne bildstörungen verkraften....naja..vllt dauerts auch 50 jahre...aber so wies jetzt ist, wirds halt nicht ewig weitergehen können.

kurz- bis mittelfristig wird zur leistungssteigerung eher ne parallelissierung (multicore, multigpu) das ei des kolumbus sein, da weitere verminderung der struktur ja anscheinend nicht mehr wirklich zur steigerung der taktraten verhilft, was man ja bei den prozessoren die letzen jahre schon feststellen kann. und wenn man die taktrate nicht steigern kann, nutzt die feinere struktur eigentlich nur noch was zum stromsparen und um die herstellung günstiger zu machen....wie gesagt aber halt auch nur wenn die foschungskosten diesen vorteil nicht auffressen.
 
Last edited:
Irgendwann wird es darauf hinauslaufen, dass is einer CPU nurnoch einzelne Atome die I/O-Brücken darstellen, somit kaum Verlustleistung haben und so schnell sind, dass GraKas überflüssig werden ^^

Wie teuer das Ganze dann wird, steht auf nem anderen Zettel :kek
 
an einzelne atom kann ich noch nicht so recht glauben. das mag zu forschungszwecken noch möglich sein und mit einzelnen schaltern noch möglich sein aber für massenproduktion und milliarden solcher dinger auf nem chip? da seh ich eher licht, biologische materialien (sowas wie nervenzellen) und quantenphysik als hoffnungsträger. :)
 
interessant find ich das die "nm" Bauweise immer geringer und geringer wird. Irgendwann kommt man an 1 nm Bauweise heran und dann? ^^

Dürfte wohl bei 11nm oder noch weniger (>11nm) zu Ende sein. Tunneleffekte lassen sich nicht so einfach verhindern. :D
Eine neue Technologie muss her, CMOS währt nicht ewig.
Der Vorteil von CMOS ist eben die Möglichkeit, eine gewisse Struktur einfach zu verkleinern. Das sieht man am Beispiel der HD4770. --> kleinerer Die, niedrigere Spannung, usw.
 
Last edited:
Back
Top