6GB VRAM-Mittelerde:Mordors Schatten

Joined
Jan 8, 2009
Messages
9,136
Points
290
Lieblings C&C



Wer das Spiel auf "Ultra" genießen möchte wird um den 6 GB Videospeicher nicht herum kommen.
Schon demletzt wurde bekannt das The Evil Within auch gerne 4GB VRAM hat, um in voller Pracht zu laufen.
Irgendwie hab ich das ganze befürchtet, dass mit den neuen Konsolen die ja über 8GB verfügen, auch die PC Games sehr VRAM hungrig werden.
Wird wohl so sein da die PS4 Leadplattform ist mit ihrem 8GB GDDR5 Speicher.
Sieht wohl so aus das die Konsolen Spiele 1-1 übernommen werden, um Kosten zu sparen.
CoD Ghosts war ja auch so ein Fall.

Die Grafikkarten Hersteller wird's natürlich freuen.
 
Naja... das ist nix neues - ganz im Gegenteil ich hab vor nichtmal nem halben Jahr noch versucht den ganzen "VRAM ist unwichtig weil keiner 4k Monitore haben wird - 2-3GB reichen völlig aus" blabla deppen zu erklären das es nur auf die Texturen ankommt und nicht auf die Monitorauflösung... was is das Ergebnis?

Mittelerde:Mordors Schatten geht als erstes den Weg mit den Ultra Texturen, Ryse: Son of Rome wirds ebenfalls gehen, GTA V nach ersten informationen braucht eigentlich auch schon ab Medium 4GB Vram für die Texturen (Das ist scheinbar bei den Next Gen Versionen angelegt worden für den Grafik Bereich, die 8GB die du bei der PS4 ansprichst sind für alles - 4gb Game + 4gb grafik sind da wohl "default" aktuell - und wird aufn PC nicht weniger sein) und The Witcher 3 lief bislang auf Nvidia Karten in Ultra nur flüssig wenns 2 Titankarten waren die mit Shared Memory Prozessen angesprochen wurden, weils auch 4GB+ verbraucht... wer guckt in die Röhre? Alle Nvidia Nutzer und alle AMD Nutzer mit weniger als ner R9 290... auch die 4GB Versionen der 980/970 werden da verkacken weil sie weiterhin mit dem Aldispeicherinterface daherkommen :)
(Bzw die beiden neuen Karten haben sogar wieder nen deutlich schlechteres Interface als die 780ti... :D Man wollte die 1,84$ pro Karte sparen die nen besseres Speicherinterface gekostet hätte... tja.... Nvidia halt - baue billig verkaufe Teuer.. lustig das Nvidia durch den frühen Launch ihrer neuen Generation, um noch n bisl gegen die 290/290x antreten zu können im P/L, wohl auch erst ende 2015 wieder effektiv drauf reagieren kann... ^^)

Das hat btw nix mit "kosten werden gespart" du kannst Texturen entweder UltraHD machen (Also 3840*2160er Auflösung runterrechnen auf FullHD oder was der Nutzer auch hat,in der Zeit in der FullHD langsam abgelöst wird - mehr als 25% haben schon mindestens 2 Monis im Einsatz laut der Steamsurvey - setzt man da eher mindestens auf Doppelte Auflösung...) oder du kannst halt wieder verwaschene Texturen nehmen die scheiße aussehen... und diese gegebenenfalls sogar noch auf 2560*1440 (WQHD der nächste Standard wohl wenn die Preisunterschiede zu FullHD weiterhin nur bei 50-80€ bleiben) hochmatschen.
http://www.pcgames.de/Battlefield-4...-vs-Full-HD-im-Grafikvergleich-Video-1095349/ <- da sieht man auch was es für einen Unterschied die Details machen... UltraHD(auch in der Auflösung) vs FullHD Texturen...
(Die Ultra HD Texturen von BF4 füllen die 4GB der 290x btw bis zum anschlag.. ich habs ausprobiert.. auch da wären 6gb+ wohl eher angebracht.. ^^)

Noch sicher nicht das große Problem... aber da die meisten nicht jedes Jahr bzw jedes 2 Jahr ne neue High End Graka kaufen (die meisten hier im Forum haben ja mit dem letzten Update gleich 3-4 Generationen übersprungen), werden sie wohl schon nächstes/übernächstes Jahr nur noch auf Medium zocken können.. ^^

(Eine Alternative die es gäbe - man könnte die Texturen komprimieren usw um möglichst nur im Nahen dann die wirklich guten zu laden etc... allerdings sind bei den meisten Spielen + Hohen Auflösungen die aktuellen High End CPUs schon am äußersten Limit.. ich schieß meinen 4770k der auf 4,4Ghz läuft bei Battlefield 4 auch jeweils in den 100% Bereich rein.. und ich spiel nur mit einem Monitor und keiner 4k Auflösung... ^^ mit Mantle ises n bisl besser aber da ises Spiel leider noch zu instabil ^^. Unter den Voraussetzungen dann allerdings noch versuchen Dateien zu entpacken und ins Spiel zu schleudern etc verursacht nur wieder deutlich mehr Hardwareanforderungen... wenn die CPUs da nicht entlastet werden oder Leistungszugewinne um 40-50% kriegen wird das eher keine Option bleiben ^^)
 
Last edited:
Noch sicher nicht das große Problem... aber da die meisten nicht jedes Jahr bzw jedes 2 Jahr ne neue High End Graka kaufen (die meisten hier im Forum haben ja mit dem letzten Update gleich 3-4 Generationen übersprungen), werden sie wohl schon nächstes/übernächstes Jahr nur noch auf Medium zocken können.. ^^

Yo dafür haben die dann ohne Probleme das Geld zum aufrüsten weil es vorher eben net nötig war aufzurüsten :D:D
Btw das mit den 6gb Vram ist doch bisher nur geleaked oder net ? Also gabs da schon eine Bestätigung von den Entwicklern ?
 
Den Kampf "Monitorauflösung ungleich Texturauflösung" hab ich schon von Jahren aufgegeben. ;)

Bei ID Softwares "Rage" waren die Megatextures ja ein zweischneidiges Schwert.
Einerseits grandiose Fernsicht ohne häßliches Tiling (= sich auffällig wiederholende Muster),
andererseits nachladende Texturen und ein ziemlicher Matsch Close UP.

Wegen dem Matsch braucht man langfristig noch höher aufgelöste Megatextures
oder mehr Megatextures selber Größe die über kleinere Flächen gestreched werden.
Tendenziell benötigt man also noch mehr VRam,
wenngleich man mit ordentlicher Optimierung auch etwas entgegensteuern kann.

Im Fall Watch Dogs (3 Gig Vram) oder Mordor Schatten (6 Gig Vram) frage ich mich schon,
ob wir es hier mit Next Gen Megatexturing oder mit mangelnder Optimierung zu tun haben.

Wie dem auch sei, langfristig wird man mit 1 GB Vram wohl nicht mehr glücklich.
So oder so.
 
Yo dafür haben die dann ohne Probleme das Geld zum aufrüsten weil es vorher eben net nötig war aufzurüsten :D:D
Btw das mit den 6gb Vram ist doch bisher nur geleaked oder net ? Also gabs da schon eine Bestätigung von den Entwicklern ?

Naja.. ohne Probleme das Geld zum aufrüsten? :D
In den Threads wurd teilweise um nen 10er gefeilscht der noch eingespart werden sollte... :D
Dafür gabs genug deppen die ne teurere Karte gekauft haben (und dafür aufgrund eines begrenzten Budgets teilweise auf andere Sachen verzichtet haben) mit weniger sinnvollem VRam.. wieso die dann auch noch das Geld haben um jetzt plötzlich spontan nochma 500-600€ für ne neue Graka auszugeben ... :D Da muss aber schon oft die Oma besucht werden ums Taschengeld aufzubessern.. ^^

Vor allem beschäftigt sich keiner damit wies wirklich aussieht... schaue man nur mal http://www.united-forum.de/kaufberatung-f806/gtx-980-vs-gtx-970-a-115155/ <- da rein... da ist jemand mit nem WQHD Monitor und ner 760/770? (Ich hoffe doch ma... ne 700er Generation gekauft zu haben die darunter war wäre echt m( ) ... schon nen echtes Problem eigentlich, die Graka ist in der Auflösung eigentlich schon im Arsch wenn da Texturen zu laden sind (die 780ti btw genauso...^^ und auch die Titan die ich hier rumfliegen hatte war nur auf FullHD (deutlich!) schneller als die 290x in den meisten Anwendungen.. auf 2560*1440 das mittlerweile meine Standardauflösung ist, hat die Titan einfach nur als Krüppel hergehalten.. darum is sie auch für 600€ verramscht worden^^ - bei Tripple WQHD - also 7680*1440 sah das ganze noch schlimmer aus, da ging aber sogar der 3970x vorher in die Knie.. ^^) und das einzige was man überlegt - die 980/970 ... mit zwar 1GB mehr ram.. aber nem noch schlechterem Speicherinterface (wieder nur 256Bit statt der 386Bit Variante der 780er.. ^^ anstatt das man wenigstens das 386er behalten hätte und gleich 6GB Ram angeboten hätte.. näääh - man nimmt wieder billig SI+Billig Ram und verarscht den DUMMEN (Weil trottel der sich von anderen trotteln beraten lässt) Kunden mit der einzigen Kenngröße die er kennt.. und da machts dann "uga uga.. karte hat 4GB VRam uga uga muss sein gut uga uga kein anderer hat mehr uga uga" ... is das gleiche wie bei den Autos ... boah krass ey alter ey hat 1000 PS.. schade nur das für den Wagen keine Räder existieren und er nicht fährt... aber hat 1000PS alter voll geil ey! (übertrieben um nen Vergleich aufzuzeigen...) (Vielleicht noch mit dem Stromargument.. das zwar erst zählt wenn die Karte 3 Jahre 24/7 rennen würde aber.. hey ich zahl auch gern 100€ mehr für ne Graka um vielleicht 50€ Strom einzusparen :D:D:D:D)
Aber nach den ganzen Sinnlosen Diskussionen bei denen ich mir vorkam wie in Idiocracy hab ich mich eh entschlossen da keinen Senf mehr reinzubuttern.. statt dessen sitz ich jetzt hier und Grins mir einfach einen ab wenn da wieder so nen schöner Thread kommt.. ^^

http://images.gamestar.de/images/idgwpgsgp/bdb/2559884/944x531.jpg <- das is bislang btw die Quelle. Ist auch schlüssig wenn man überlegt die groß Ultra HD Texturen nun einmal sind. Die Leute ham schon die Testversion die auf dem aktuellen Steambuild, das vorgeladen werden kann, beruht.

Und komprimieren in Form "wir machens wie daheim mit den Pornobildchen und machen aus 4MB großen BMPs kleine JPGs ... so funktioniert das in der Regel nicht.. die Texturen zu komprimieren würde beim Spiel nur bedeuten das sie wieder schlechter aussehen, oder das sie während des Spiels umgerechnet werden müssen (z.B. nach Entfernung wies in der UE4 gemacht wird) - das bedeutet aber selbst High End CPUs kommen da an ihre Belastungsgrenzen weils alles wieder zusätzliche ARbeit für die CPU bedeutet... ^^
(Entfernungscheck, Laden der unterschiedlichen Texturen im Hintergrund, ggf schon preload in den RAM usw...)
 
Last edited:
Ich spiele Skyrim mit 4k Texturen und das auf ner 2 GB Graka. Wie ist es möglich, dass das Spiel komplett null ruckelt, obwohl die Größe der Textur doch die gleiche ist und es nur darauf ankommt?
 
Eigentlich wollt ich mit dir geistig unbewaffneten und bildungsresistenten Nebenexistenz nicht mehr sprechen nachdem du letztens schon als einer der Idiocracy Protagonisten aufgetreten bist... aber... vielleicht hast ja ne Fliege verschluckt seit der letzten Diskussion und du bist nur noch unterbewaffnet... versuchen wirs mal...
http://wallpaperscraft.com/image/82476/3840x2160.jpg?orig=3 <- original 4K Größe
http://i.imgur.com/Oj7PyjF.jpg <- komprimiert 4K Größe (Zugegeben mehr als stark komprimiert aber ich möchte den unbewaffneten die Chance geben zu begreifen worums geht...)... unterschied beim Speicherverbrauch? Ersteres sind 5mb, letzteres nichtmal 100kb... Ausgehend von der UE4 z.B. mit der ich seit nen paar Monaten nun rumspiele hast du n paar Hundert bis paar Tausend Texturen die geladen sind - nicht jede muss 4K sein, nicht jede ist einzeln und kann auch mehrmals Verwendet werden (Wandtexturen in Monotonen Gängen sind z.B. Wiederholungen - die werden nur einmal geladen und dann repliziert und sparen Vram). Und jetzt überleg halt mal selbst was der Unterschied sein könnte in den Unterschiedlichen Komprimierungsstufen ... nah?

Natürlich kann man auch nen Spiel mit 4K Texturen versehen die nicht mehr Speicher als FullHD Texturen verbrauchen.. man kann sogar 4K Texturen nehmen die nichtmal nen Taschenrechner zum Berechnen bräuchten! Es ist trotzdem nur nen Etikettenschwindel... und Mordos Schatten geht halt wohl den vernünftigen Schritt und bietet 4K Texturen ohne bzw. nur mit minimalster Komprimierung (und damit Qualitätsverlust) an... sie betreiben eben nicht den Etikettenschwindel und nutzen die "uga uga 4K Texturen woah uga uga geil uga uga 4K!!!11111 uga uga das einzige was wir davon kennen uga ugaaaaaaaaa!" Weg sondern liefern Ultra HD Texturen (oder zumindest sind sie näher dran als alle anderen...) die auch auf höheren AUflösungen noch gut aussehen. 4K Texturen als Werbegag verkauft haben schon viele - in FullHD sind sie auch minimal besser, in WQHD sieht man dann eigentlich schon immer das es nur nen uga uga 4K uga uga Argument war das wieder Trottel gefangen hat...
 
Ich spiele Skyrim mit 4k Texturen und das auf ner 2 GB Graka. Wie ist es möglich, dass das Spiel komplett null ruckelt, obwohl die Größe der Textur doch die gleiche ist und es nur darauf ankommt?

Ein Beispiel:
Rage hat 128k Texturen und du hast bei Skyrim "nur" 4k.
Der Unterschied:
Rage stretched die Textur über ein gigantisches Areal.
Skyrim wird die Textur nicht so stark stretchen, sondern eher wiederholen.

Man kann also nicht pauschal sowas sagen wie "ich hab 4k Texturen, also brauch ich 2 Gig Vram".
Für die Belastung des Vrams gibts viele Faktoren neben der Texturgröße:
Anzahl der Texturen, Stretching, Streaming, Komprimierung, Optimierung usw.
 
Okay okay zuerst einmal bin ich zutiefst bedrückt bezüglich deines Diss gegenüber meine Person. Ich geh nun in die Ecke und weine meinen letzten Rest des Hirn aus. Moment...

So wieder da.

Hodor Hodor.

Bei Skyrim hab ich mich vertan da stand 2k. Ansonsten bedanke ich mich für die Erklärung.
Da du ja auf den anderen Thread anspricht. Ich glaube ich warte heute noch auf den Benchmark des massives Speedboost durch den erweiterten Speicher und des Interfaces. Leider konntest du mir da keinen geben, sondern hast nur mit deinem AMD Fanboy Marketinggeblubber erzählt, was für mich jedoch keinen Gegenwert hat, wenn die Tatsache in Spielen nicht der Theorie entspricht. Dazu muss ich sagen, dass ich sehr auf die Benchmarks von Mordor mit den Extra Texturen gespannt bin, da die AMD dort ja massiv punkten muss. Der Unterschied muss regelrecht gigantisch ausfallen. Wenn dem so ist, dann wirst du mich hier drinn wieder sehen mit einem Smiley von diesen :anbeten:anbeten:anbeten:anbeten und ich entschuldige mich für mein schwachsinniges Gelaber. Ja das tu ich tatsächlich. Aber bis dahin sehe ich mich im Recht.
 
Ich sag ja - du bist weiterhin der gleiche dumme Trottel der du schon hier warst...
Raffst es immer noch nicht und kannst einfache Zusammenhänge nicht erkennen.. (was z.B. schön war bei deinem Versuch die 2GB Variante mit der 4GB Variante zu vergleichen ... du hast da so unglaublich wunderbar aufgezeigt wie begrenzt deine Fähigkeiten sind - du hast es nach fast einer Seite ausführlicher Erklärung nicht gerafft das scheiß Speicherinterface halt Scheiß Speicherinterface ist - unabhängig davon wie viel Speicher man dann dahinter versteckt um die dümmsten Bauern dieser Welt zu fangen - also sowas wie dich... denn VRam ist ja überflüssig und überhaupt weil ja keiner 4k Monitore ham wird höhö - btw ich steh dazu das ich dich als Dumm bezeichne. Warum? Du lieferst genug Gründe auf eine Mangelnde Intelligenz schließen zu können (Lernresistenz / Ignoranz / Fehlende Fähigkeit Texte zu lesen und verstehen etc. Kann jetzt gerne nen Mod (ich hab meine Posts schon selbst alarmiert keine Angst) überprüfen - ich steh dazu das ich dumme Menschen als dumm bezeichne)
Wiki dazu übrigens ums mal aufzuzeigen warum es bei dir so herrlich passt:
Dummheit bezeichnet umgangssprachlich eine törichte Handlung sowie einen Mangel an Intelligenz oder Weisheit. Im Unterschied zu anderen Bezeichnungen, die auf Mangel an Intelligenz hinweisen, bezeichnet Dummheit (alltagssprachlich) aber auch die Einstellung, nicht nur etwas nicht wahrnehmen zu können, sondern auch es nicht wahrnehmen zu wollen: Etwas nicht sehen zu wollen, was offensichtlich ist, kann auch auf einer emotionalen Einstellung gründen.
*grübel* So gesehen könntest du im Hinblick auf den letzten Punkt natürlich auch nur nen dummer Fanboy sein der es emotional nicht wahrhaben will das seine Graka nur für aktuelle Bedürfnisse wirklich top ist - Zukünftig aber relativ schnell das Ende sehen wird bzw mit massiveren abstrichen daher kommen wird Trotzdem dumm. (Btw ja - ich hab auch
Der Wertende erhebt sich überdies arrogant und beleidigend über den Status des Bewerteten
gelesen... mag sein das ich arrogant und beleidigend klinge aber ich bin halt dagegen jeden Dummen Idiot den es auf der Welt gibt, noch zu verhätscheln als wäre er die Krönung der Schöpfung oder könnte er nix dafür das er sein Hirn nicht nutzt... da gibts ja sonst nie Hoffnung das mal nen Konstruktiver Gedanke ins Hirn rutscht der dazu führt das da mal ne Schaltung startet).

ICH habe dir zig Beispiele geliefert die den Unterschied zwischen 256Bit, 386Bit und 512Bit Speicherinterface aufzeigen.. ICH hab genug Benchmarks gezeigt in dem Thread der gerade bei höheren Auflösungen zeigt das die AMD mit den Speicherreserven / größerem Speicherinterface zu weniger starken Einbrüchen führen..
(Gut... Dummheit etc... ich versteh langsam das du einfach nur zu begrenzt bist diese Zusammenhänge zu erfassen... shit happens -kannst sicher trotzdem n schönes Restleben haben - dumme Menschen sind eh meist die glücklicheren ... du musst einer der glücklichsten dieser Welt sein... )
DU hast nur nen dämlichen Vergleich zwischen 2+4GB Version der 770GTX geliefert und damit noch bewiesen das diese beschissenen Speicherinterfaces nicht mal bei der 4GB Version helfen. Es ist nämlich scheiß egal ob du 2GB,4GB oder 1000GB nimmst wenn die Daten dahin durch nen Interface müssen das so dämlich langsam schaltet wie dein Hirn...

Und an der Stelle reicht es mir... ich diskutier da ja lieber noch mit Politikern...
 
Was du gezeigt hattest war der blanke Müll, da man dort kaum bis gar keine Unterschiede erkennen konnte (Und machst du hier das Drama wegen der 0-4 fps oder was das damals war? Oh ich bitte dich. Bis dahin bremst die Graka allgemein 50x mehr das Spiel aus als das Interface.). Das ist einfach ein Fakt und deswegen warte ich auch heute noch darauf anhand Benchmarks zu aktuellen Spielen. Weil alles andere spielt absolut garkeine Rolle. Was interessiert mich wie es in 10 Jahren aussehen KÖNNTE, wenn man sich nach 3 sowieso allein der Leistung wegen eine neue kaufen muss. Und ich habe das mit deinem Speicherinterface gerafft. Sonst hätte ich das hier in dem Thread nicht aufgeführt oder? Es interessiert halt immernoch nicht, da kein Spiel da auch nur einen von dir versprochenen Leistungszuwachs zeigen kann. Er muss ja gigantisch sein. Ich freu mich auf die Mordor Benchmarks. Dort werden deine heißgelieben AMDs richtig eskalieren.

Und nein ich ruf bei sowas keine Mods. Was würde das ändern? Deinen Tonfall? Der interessiert mich nicht einmal und einen Nutzen hätte es genausowenig. Ich kenne das Gefühl (deiner Ansicht sicherlich zu unrecht). Man denkt gegenüber sitzt der aller letzte Vollidiot, es schmerzt, es macht einen wahnsinnig und wütend und man fühlt sich gezwungen denjenigen klar zu machen, dass er falsch liegt. Das Gefühl habe ich bei dir nicht einmal. Auch wenn ich denke, dass es schwachsinniges Gelaber ist.

Schön das du die "Diskussion" nun verlässt. Es taugt zu eh nichts.
 
Last edited:
Verwarnung an Apokus für die beleidigende Ausdrucksweise. Bitte steigert euch in sowas nicht so sehr rein. Wenn jemand im Unrecht ist, kann man es demjenigen auch sachlich klar machen, dann sieht man vor den anderen Diskussionsteilnehmern sogar noch besser aus ^^
 
Is doch gang und gäbe im UF das einer in ne Diskussion reinstiefelt, totalen Nonsens verbreitet und den Rest solange nervt bis er aufgibt.
N Thread-Raid wenn man so will - UF das Browsergame :D
 
Ein Aspekt der noch wichtig ist:

Viele werden jetzt denken, dass wenn sie zu ihrer 3 Gig Vram Karte noch eine für den SLI Verbund dazukaufen, 6 GB haben.
Effektiv haben sie aber weiterhin "nur" 3 Gigs Vram, da die Texturen in beide Speicher geladen werden müssen.
 
Mir reicht das Desaster was ich beim Kauf meiner GTX 580 hatte.
Die gabs ja mit 3 GB und 1.5 GB VRAM, und ich dachte die "kleinere" reicht locker ist ja ne 580. :D
Ich werde in Zukunft immer so viel VRAM kaufen auf einer Karte wie möglich.
Selbst bei der 780, wurde ja Monate später die 6 GB Version released.

Ob AMD oder NVIDIA, muss jeder für sich wissen, ist ja wie beim Autokauf oder bei der Jagd nach den Frauen, jeder holt sich was anderes ins Haus. :D
Holt man sich halt ne Karte mit genug VRAM und dann ist wieder Ruhe für 3-5 Jahre.
Aber das Apokus hier wieder mal so ambitioniert Aufklärungsarbeit leistet find ich klasse.:D

Also Leute ne 8GB VRAM Karte muss ins Haus, merkt euch das^^
Um ehrlich zu sein das Spiel interessiert mich nicht die Bohne, aber es ist ein Spiel was auch noch für die alten Konsolen(PS3&X360=512mb) erscheint, und deswegen fand ich die News mit den 6GB VRAM echt amüsant.
Und das Spiel war nicht der erste Fall in der letzten Zeit.
So überragend wird es bestimmt nicht aussehen, aber die Entwickler wollten halt nicht zu viel Zeit verschwenden mit dem "extra" optimieren der PC Version.
 
Last edited:
Ruhe für 3-5 Jahre wird man wohl erst mit einer echten DX 12 Karte haben.
Sprich der nächsten Generation.
 
Die GTX 900 Serie soll schon Dx12 fähig sein.
Aber klar, noch ist DirectX 12 nicht da, und das wird bis zur Mitte von 2015 dauern, ehe man es bekommt, eventuell noch später. Natürlich mit dem neuen Windows:D
 
Last edited:
Hab heute morgen schon Shadow of Mordor gespielt. Spiele mit meiner GTX 670 alle Settings auf Ultra mit 50-60fps. (außer texturen die sind auf high)
Habs aber auch kb mir die ultra texturen runterzuladen das dauert bei meiner Leitung zu lange :D
 
Back
Top Bottom