Meine letzte AMD Karte war schon lange her. Es mag sein, dass sich Softwareseitig etwas gebessert hat, aber wenn man durch die Foren schaut liesst man öfter etwas über Softwarefehler bei AMD. Das Stromsparargument hab ich absichtlich nicht genannt. Ich verstwh garnicht, warum da darüber ne halbe Seite schreibst? Und bitte nenn jetzt nicht den Schrott in Capslock. Das sollte nur die tollen Argumente negieren, dass ich doch son übler Fanboy bin (witzigerweise hast du auch ggenau das gesagt. Das kommt IMMER zur Sprache, wenn man über Grafikkarten redet. Warum ist das so? Wieso verteidigst du einen Hersteller in diesem Umfang?

Ich werd hinter sowas nie kommen. [Vielleicht kannst du mir das gleiche vorwerfen. Ich musste richtig mit mir ringen etwas hier rein zu schreiben, weil ich genau wusste, dass das Geweine direkt danach erscheint])
Ghnauso habe ich extra das "gefühlt" in meiner Aussage gequetscht. Ich kann es nicht belegen. Genauso kannst du mir das Gegenteil belegen. Es ist von jedem die persönliche Erfahrungssache. Mope bringt das hier alles sowieso nichts. Vllt hilft es ihm noch zu erwähnen, dass ich grad mit meinem Fanboy iPad schreibe und ich deshalb wahrsceinlich auch ein NVIDIA Jünger bin, weil Fanboy ist Fanboy und so.
Es war eh ein Fehler hier rein zu schreiben, weil ich überhaupt gar keine Lust auf ellenlange Diskussionen habe über sowas schwachsinniges wie Hersteller. Da würd ich lieber mit Fanboy Outsider diskutieren zur Ukraine
Ich verteidige den Hersteller sicher nicht ^^
Ich würde z.B. im Leben niemals nie nicht never ever zu irgendeiner CPU von AMD raten ^^ Da schüttelts mich ebenfalls eigentlich immer wenn jemand eine haben will (soviel auch zu AMD Lover @ Stone

)und ich patsch mir an den Kopf und frag mich was da schief gelaufen ist.. die Meisten sind mit ner Intel CPU deutlich besser beraten ^^
Hier ists nur so : Ausgangslage ist nen begrenztes Budget und die Karte soll ja ne Zeit lang laufen.. wieso soll man da zu ner 770 GTX raten die einfach in allen Bereichen außer dem Stromverbrauch schlechter ist (Schlechtere Frames, wenig Zukunftswert wie man z.B. an dem Vergleich 1920*1080 -> 2560*1600 sieht) und schon mit deutlich schlechteren weil älteren Bedingungen daher kommt?
(256Bit Speicherinterface - was der Unterschied zu nem größeren bringt ist belegt in einem der letzten Posts)(Und der Stromverbrauch ist nen Herrliches Argument.. wie gesagt wenn da nen Nvidia Fanboy damit daher kommt _kann_ ich ihn nur auslachen... das sind die Äffchen die irgendwas nachplappern ohne auch nur 1s nachzudenken was es überhaupt bedeutet wenn die eine Karte 20W mehr verbraucht und dafür 100€ weniger kostet... die ham ihren Strom noch nie selbst bezahlen müssen bzw. nachrechnen müssen wieviel ihr Strom kostet und wieviel der Unterschied über die Zeit wirklich ausmacht ^^)
Weil du das "Gefühl" hast sie fällt beim anschauen auseinander? ^^ Und nein - ICH muss das Gegenteil NICHT beweisen. Wäre sie Qualitativ auch nur ansatzweise so schlecht wie du sie mit dem einen Satz dargestellt hättest, wäre das Netz voll von berichten über Kaputte Grafikkarten.. da würd sich jede Seite drauf stürzen ... bis auf die üblichen "Meine Karte xyz hat irgendein Problem" das für beide Seiten gilt, findest du nichts... und das sicher nicht weils alles AMD/Nvidia Lover sind..
(Btw mal so als Googlesuche jetzt gerade nach "AMD Hardware Defect" und danach nach "Nvidia Hardware Defect" stehts 1,5 Mio zu 2,2 Mio für Nvidia... bei AMD gabs auf den ersten Seiten vor allem Foreneinträge mit CPUs und APUs sowie auch den GPUs bunt gemischt, bei Nvidia Foreneinträge zu GPUs und dann z.B. auch verschiedenes wie z.B.
http://hothardware.com/News/NVIDIA-Begins-Accepting-Defective-GPU-Claims/ *nur mal so als "Beispiel was bei regelmäßig beschissener Hardware passieren würde*)
Zum Treiber wiederum hab ich was gepostet - da kam gerade etwas nämlich das beide Seiten z.B. über die Jahre den exakt gleichen Gewinn an Leistung über die Treiber generiert haben und der Unterschied da faktisch 0,0 ist.. nein! doch! Oh!
Natürlich gibts da immer wieder Probleme mit einzelnen Nutzern, genauso aber auch bei Nvidia ... liegt einfach an der Tatsache das es verdammt viele Nutzer beider Karten gibt und irgendwer immer durchs Raster fällt...
Geantwortet hatte ich auch nicht nur wegen dem Fett geschriebenem... eher weil da in einigen Sachen massive Anzeichen "ich hab nicht verstanden worums geht und haue falsche Infos raus" gab.. z.B. der Quatsch das 4k keine Rolle spielt wenn man keinen 4k Monitor hat.. was schlicht und ergreifend Bullshit ist... die Texturen interessiert es 0 was für ne Auflösung du hast - um aber Hochauflösende Texturen zu haben musst du halt was ham? Genau Auflösungen die ne höhere Auflösung besitzen als die Monitorauflösung...
http://www.pcgames.de/The-Elder-Scr...en-Grafikvergleich-Bilder-des-Tages-867366/2/ <- als Beispiel hier z.B. mal die Unterschiede bei Skyrim im Hinblick auf nen HD Mod.. wie kommt da wohl sonst die detailliertere Textur zusammen? Genau - feinere Textur genommen und aufs gleiche Item gezogen wie vorher... als Beispiel vorher war das Kettenhemd ne 20*40 große Texture auf dem Modell, jetzt ists ne 80*120 große... und das rechnest bei solchen Spielen mal auf alle Gegenstände rauf...
Ich krieg da immer nen massiven Hals wenn jemand der absolut keine Ahnung hat irgendwelches Zeug postet das erstens Zeigt das er das Thema nicht verstanden hat und ihn dann auch noch komplett falsch auslegt (siehe z.B. Texturen und 4k ...) der jemand anderen n paar Hundert Euro kostet.. (Wenns nur n paar Euro sind oder nur Software die man einfacher Austauschen kann is mir das wumpe.. da tun auch Glaubenskriege nicht wirklich weh... , 2h neue Software Installieren und Thema ist durch... bei ner Graka hingegen beißt du dir unter Umständen 1-2 Jahre in den Arsch und bist unzufrieden... )
Wie gesagt.. wenn auch nur ein einziges mal irgendein Sinnvolles Argument kommen würde und nicht "ich glaube" "ich hab mal gehört" "aber irgendwann vor 50 Jahren... als der Opa noch nicht geboren war, da war Amd..." ... wäre schön - aber das gibts halt mal wieder nicht hier... und P/L ist die Sache glasklar (ich würd mittlerweile wo wieder beide mit der gleichen Generation antreten und mit den vernünftigen Kühlern wie auch schon geschrieben, niemandem mehr ab der 770 / 280X Range zu ner Nvidia raten außer es muss ganz ganz ganz ganz wichtig und toll und dringend PhysX sein.. darunter liegen se im Midrange beide identisch gleich auf, im Low Range bereich sogar leichte Vorteile für Nvidia und im High End Bereich kaufst bei Frameabhängigen Entscheidungen Nvidia in Form der 780 Ti auch nur noch wenn du in FullHD 2-3 Frames mehr haben willst und du in 1-2 Jahren eh ne nagelneue High End kaufst bzw. du in dem Kurzen Zeitraum *hust* (

) ne Leise Karte wolltest in der AMD nur Turbinen liefern konnte.
Edit:
nochmal zu Skyrim, weil mich das echt interessiert: Kann es sein dass des Game sich soviel Ram abzwackt wie halt geht ? Im Netz hast du Leute die mit 2/4k Texturen unter 2Gig bleiben, bei manchen ist der Ram voll, manche kommen ohne Probleme über 3 - aber bei allen läuft es ohne Probleme/Leistungseinbußen. Find das echt spannend ^^
Hitman kann man wohl auf die Spitze treiben
Würde ich in Frage stellen.. ich hab 4GB Vram auf der einen Karte, warum sollte sie dann nur 2GB verbrauchen?
Was ich mal ausprobieren könnte wär, das ganze mal mit CF zu testen und schauen ob sich dann was ändert... *Grübel*
Was halt immer ne Frage ist - die Einstellungen im Treiber/Ingame. AA/FXAA usw. fressen auch immer einiges. Auch die Frage was z.B. an Texturenvorgaben in den Treibern eingestellt wurde... sollen sie Qualität oder Geschwindigkeit beinhalten? Das ist ja auch nen wichtiger Punkt dafür und dort fehlt halt dann einfach die Transparenz der einzelnen Leute um nen Vergleich zu ermöglichen.