Naja... das ist nix neues - ganz im Gegenteil ich hab vor nichtmal nem halben Jahr noch versucht den ganzen "VRAM ist unwichtig weil keiner 4k Monitore haben wird - 2-3GB reichen völlig aus" blabla deppen zu erklären das es nur auf die Texturen ankommt und nicht auf die Monitorauflösung... was is das Ergebnis?
Mittelerde:Mordors Schatten geht als erstes den Weg mit den Ultra Texturen, Ryse: Son of Rome wirds ebenfalls gehen, GTA V nach ersten informationen braucht eigentlich auch schon ab Medium 4GB Vram für die Texturen (Das ist scheinbar bei den Next Gen Versionen angelegt worden für den Grafik Bereich, die 8GB die du bei der PS4 ansprichst sind für alles - 4gb Game + 4gb grafik sind da wohl "default" aktuell - und wird aufn PC nicht weniger sein) und The Witcher 3 lief bislang auf Nvidia Karten in Ultra nur flüssig wenns 2 Titankarten waren die mit Shared Memory Prozessen angesprochen wurden, weils auch 4GB+ verbraucht... wer guckt in die Röhre? Alle Nvidia Nutzer und alle AMD Nutzer mit weniger als ner R9 290... auch die 4GB Versionen der 980/970 werden da verkacken weil sie weiterhin mit dem Aldispeicherinterface daherkommen
(Bzw die beiden neuen Karten haben sogar wieder nen deutlich schlechteres Interface als die 780ti...
Man wollte die 1,84$ pro Karte sparen die nen besseres Speicherinterface gekostet hätte... tja.... Nvidia halt - baue billig verkaufe Teuer.. lustig das Nvidia durch den frühen Launch ihrer neuen Generation, um noch n bisl gegen die 290/290x antreten zu können im P/L, wohl auch erst ende 2015 wieder effektiv drauf reagieren kann... ^^)
Das hat btw nix mit "kosten werden gespart" du kannst Texturen entweder UltraHD machen (Also 3840*2160er Auflösung runterrechnen auf FullHD oder was der Nutzer auch hat,in der Zeit in der FullHD langsam abgelöst wird - mehr als 25% haben schon mindestens 2 Monis im Einsatz laut der Steamsurvey - setzt man da eher mindestens auf Doppelte Auflösung...) oder du kannst halt wieder verwaschene Texturen nehmen die scheiße aussehen... und diese gegebenenfalls sogar noch auf 2560*1440 (WQHD der nächste Standard wohl wenn die Preisunterschiede zu FullHD weiterhin nur bei 50-80€ bleiben) hochmatschen.
http://www.pcgames.de/Battlefield-4...-vs-Full-HD-im-Grafikvergleich-Video-1095349/ <- da sieht man auch was es für einen Unterschied die Details machen... UltraHD(auch in der Auflösung) vs FullHD Texturen...
(Die Ultra HD Texturen von BF4 füllen die 4GB der 290x btw bis zum anschlag.. ich habs ausprobiert.. auch da wären 6gb+ wohl eher angebracht.. ^^)
Noch sicher nicht das große Problem... aber da die meisten nicht jedes Jahr bzw jedes 2 Jahr ne neue High End Graka kaufen (die meisten hier im Forum haben ja mit dem letzten Update gleich 3-4 Generationen übersprungen), werden sie wohl schon nächstes/übernächstes Jahr nur noch auf Medium zocken können.. ^^
(Eine Alternative die es gäbe - man könnte die Texturen komprimieren usw um möglichst nur im Nahen dann die wirklich guten zu laden etc... allerdings sind bei den meisten Spielen + Hohen Auflösungen die aktuellen High End CPUs schon am äußersten Limit.. ich schieß meinen 4770k der auf 4,4Ghz läuft bei Battlefield 4 auch jeweils in den 100% Bereich rein.. und ich spiel nur mit einem Monitor und keiner 4k Auflösung... ^^ mit Mantle ises n bisl besser aber da ises Spiel leider noch zu instabil ^^. Unter den Voraussetzungen dann allerdings noch versuchen Dateien zu entpacken und ins Spiel zu schleudern etc verursacht nur wieder deutlich mehr Hardwareanforderungen... wenn die CPUs da nicht entlastet werden oder Leistungszugewinne um 40-50% kriegen wird das eher keine Option bleiben ^^)