ungemodded in 1080p ??? biste sicher dass da nicht irgendwas dazwischengefunkt hat, das sind - zumindest nachdem was u.a. reddit sagt absolut utopische Werte °_°
anyway, ich verstehe die Zukunftssicherheit von mooooaaaarrr VRam. Das mit der Bandbreite vom Interface ist meiner Meinung nach wieder ne andere Sache, besonders wenn man "nur" FullHD nutzt. Auch bei dne Karten die ich unten verlinkt hab: 256 vs 384, aber diese 256 werden deutlich schneller befeuert ! Mir bringt nen Riesenpimmel nix wenn das Loch was ich bumsen will bereits 4 Kinder raus gepresst hat.... und je mehr ich drüber lese btw desto weniger versteh ich von dem Ganzen
Deeeeswegen bin ich noch immer nicht festgelegt. GTX770 vs 280x... 290 nonX hab ich jetzt auch mal ins auge gefasst, aber die kostet eher nen Hunni mehr wenns nicht gerade ein startender Jet sein soll 
Andererseits ist da natürlich das Teufelchen in meinem Ohr, das sagt: Jaaaa, er hat recht ! da ist nen Gig mehr drauf und dieses Gig kann auch noch schneller befüllt werden, nobrainer du Depp !
Aber ichs sehs halt in absolut keinem Benchmark bzw. Test der diversen Onlinemagazine.
Ganz Alternativ hab ich mir btw überlegt eine Leistungsklasse tiefer zu gehen, ergo ne 270x für 160 Schleifen und mal zu schauen was Nvidea mit den 800ern und AMD mit den neuen Chips Ende des Jahres bringt... die 270x stemmt selbst Anno auf max Details @ 1080p mit fast 50fps... (und auch BF und Blablab und Co)... "reicht" also mehr als genug für die "Übergangszeit"... bin mir da noch nicht sicher... und irgendwie glaub ich, dass es sich nicht lohnt...
ach, ganz vergessen: Wann gibtsen das nächste Never Settle / NvidiaSpielepaket ? 
Zu dem Speicherinterface z.B. mal nen Hinweis (und das bei Nvidiabase!)->
http://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/20/ <- Hier wird das 256bit gegen das damals "neue" 384Bit Interface getestet - wäre also 770 vs 280X
Bei dem Vergleich von 256Bit auf 384 Bit zeigen sich deutliche Vorteile
http://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/15/ <- Hier wird dann das 384Bit gegen das 512Bit getestet - also 280X vs 290
Vergleichen da jeweils die beiden Extremwerte - der schlechteste stellt nen 384bit Interface dar wie es z.B. bei der 280/280X verwendet wird, der Mittlere ist das 512bit Interface z.B. einer 290/290x (der bestwert ist nen Übertakteter ... naja ok Normal getakteter Speicher mit 512Bit Interface, bei der 290/290x rennt der Speicher nur mit 2500Mhz statt den default 3000Mhz die der Speicher kann.... ^^)
Nicht ganz so beeindruckend wie bei 256 zu 384, aber meiner Meinung nach immer noch deutlich was für nen Vorteil es ist. (Z.B. deutlich wichtiger als nen PCIe 3.0 Slot der nur 1-2% im absoluten Idealfall bringen kann gegenüber nem 2.0er)
Bei der 290 würd ich auch nicht aktuell zugreifen, sondern da die aktuellen Vapor-X usw erstmal auf den Markt kommen lassen.. das dürfte die Tri-X deutlich günstiger werden lassen so das der Mehrpreis wohl nur noch n 50er oder so betragen dürfte... was angesichts der Leistung dann mehr als gerechtfertigt sein dürfte.
Das du den Unterschied im Speicher aktuell nicht bemerkst ist kein Wunder... welche Spiele die aktuell in den Benchmarks sind, ist den wirklich nen "Current" Gen spiel? Battlefield 4 das so weit totoptimiert wurde das es noch auf den alten Konsolen lief? Assasins Creed das ebenfalls auf Konsolen optimiert wurde?
Anno2070? Es ist einfach "noch" kein Spiel da was die Graka abseits der eigentlichen GPU wirklich benötigt.. die Texturen sind halt alle noch irgendwo im 720p Bereich wie sie maximal für Konsolen verwendet werden, und werden aufskaliert für 1080p bis auf einige wenige "Haupttexturen" für z.B. Chars, Fahrzeuge usw.
Dafür brauchts noch nicht die 3GB Ram oder das größere Speicherinterface.. nur werden die PS3 / Xbox360 nun endlich aussterben... die Games werden für zumindest halbwegs 1080p fähige Konsolen gebastelt so das auch dort die Texturanforderungen innerhalb der nächsten Monate deutlich steigen dürften wie auch damals zu Zeiten des letzten Generationswechsels.
AMD steht halt da durch die Fokusierung "leicht über" der Standardauflösung immer was besser dar... Nvidia gewinnt die 1080p Benchmarks in der gleichen Leistungsklasse meistens um 1-2-3%, ist 10-20% Teurer und fällt in der "über Durchschnitt" Klasse (Das wäre dann aktuell auch der Weg in Richtung 4k) regelmäßig brutaler weg dafür... nur das diese Klasse eben der erste Indikator dafür ist, wie sich die Grafikkarte in der nächsten Generation schlägt...
Btw: Was es bedeutet Texturen in 4k zu haben:
http://www.pcgames.de/Battlefield-4...-vs-Full-HD-im-Grafikvergleich-Video-1095349/ <- 3840*2160 vs 1920*1080
Was die neuen Generationen angeht:
Bis auf die High End Karten darfst du dir da eigentlich nicht zuviel erwarten. Die kleineren Karten die jetzt die 770/780 bzw. die 280/290er ersetzen werden (Ich vermute mal dann als 860/870 bzw 370/380), werden einfach n bisl weniger Leistung fressen, vielleicht selektiv mit mehr Ram und nem bisl mehr Takt sowie ner einfacheren Kühlung daher kommen.
Preislich wird sich da aber wie auch bei dem Wechsel der 6xx auf die 7xx sowie von der 7xxx auf die 2xx nicht viel tun (und wenn eher wieder teurer ^^).
Die High End Karten werden wieder 10-30% mehr Leistung als die aktuellen bringen und dafür auch wieder 500-800€ kosten..... sicher nicht interessant oder?
Ich würd ja 3 Rubriken basteln...
270X/760 (Unterschied = 0) -> Wenn die Karte wirklich nur 6 Monate halten soll bis die nächste Generation rauskommt und Spiele wie Crysis 3 nie in FullHD mit Mittleren/Max Details gezockt werden sollen.
280X/770 (Leichte Vorteile AMD beim Speicher - teilweise günstigere 770 zu kriegen) -> Wenn die Karte nen Jahr überleben soll in FullHD Hohe Details, vielleicht 2 Jahre mit der 280X durch den Speichervorteil
290 (und keine Nvidia alternative aufgrund des unglaublich schlechten P/Ls bei NVidia in der Leistungsklasse) wenn die Karte 2-3-4 Jahre durchhalten soll und dauerhaft Hohe Details schleppen soll (Sofern auch kein Auflösungssprung auf 4k kommt jedenfalls.. FullHD sollte da noch ne ganze Weile gehen ohne zu große Abstriche machen zu müssen).
Nach der nächsten Generation denke ich, wird man eh langsam aber sicher abschied von Single GPU nehmen müssen... die Karten kommen mit den ganzen Shrinks langsam aber sicher am aktuellen Maximum an... entweder müssen sie die schneller vorran kommen mit 3D GPUs oder aber sie müssen vom Silizium weg zum Kohlenstoff um höhere Taktraten und noch weitere Shrinks zu schaffen.. beide Technologien sind aber noch immer weit weg vom Prototypenstatus...
Thema Treiber:
Glaubenskrieg... einfacher Glaubenskrieg vielleicht noch minimal getrübt mit persönlichen Erfahrungen ^^
Ich hab in der letzten Zeit (seit der 8800 bzw der 3870) verschiedene Karten verwendet... 3870,4870,5970,7970 und jetzt die 290x von AMD, die 8800, 580 GTX (Die beiden waren jeweils meine PhysX Karten die überwiegend neben den AMD Karten lief ^^ mit der 7970 ist das aber Geschichte weil einfach zuwenig Spiele rauskommen um weiter an den NV Treibern zu basteln da NV ja verhindern wollte das man AMD + NV gleichzeitig betreibt..) und ne Titan von Nvidia (Ist btw zu verkaufen für 750€).
Meiner Meinung nach tun sich die Treiber im großen und ganzen gar nichts!
Je nach Spiel hat mal AMD und mal Nvidia die Nase vorne.. beide legen mal hier mal dort den Schwerpunkt auf die Spiele - aktuell AMD z.B. massiver auf die EA games durch Mantle und die Tatsache das die Frostbite Engine ja praktisch Vorzeigemodelle werden.
Gleiches gilt auch fürs "Wer reagiert schneller" ... großes Problem bekannt? Dann ist zumindest in einem der häufigen Beta Patches von AMD schon was gemacht worden.. gerade durch die Tatsache das AMD weg geht von "Jeden Monat nen Vollwertiger Treiber mit Zertifikat", ist das schnellere reagieren besser geworden... kein M$ mehr das erst noch wochenlang über den Treiber gucken muss - Nachteil davon ist das bei den Beta Treibern neben den Bugfixex halt auch öfters mal rumexperimentiert wird. (Stichwort: Betatreiber ^^)
Bei Nvidia siehts aber auch nicht wirklich anders aus...
GeforceExperience und den Radeonkram (das Gegenstück ^^) brauchts imho nicht. Auch überwiegend nur Softwarespielereien unter Windows.
Zu den ganzen Goodies: Außer Eyefinity (imho besser als Surround von NV) und PhysX hat mich noch nie irgendwas davon interessiert....

Shadowplay ist ne Softwaregeschichte, dxtory z.B. ist dir ja bekannt ^^, Gsync oder wies heißt benötigt teure Zusatzhardware (bei AMD nur nen neueren Monitor der ne bestimmte Funktion per Default unterstützt)
Edit: Wegen Skyrim -> ich schau morgen noch mal rein und lads neu runter
Edit2: Skyrim eben schnell neu installiert -> 1920*1080 alles auf max
Screen ist GPU-Z per Default während des Spiels (Nicht über die GPU Load wundern -> beim Raustabben geht die Karte halt sofort in den Stand By... wird ja auch beim Spielen ohne Mods nicht mehr als 30-40% belastet)