Kaufberatung Grafikkarte

50 € billiger dafür aber auch diese Unterschiede

6800LE

Taktung Grafik-Chip 350 Mhz
Taktung Speicher 800 Mhz
128 MB GDDR Speicher mit 2,8 ns



X800 Pro 256MB

Taktung Grafik-Chip 475 Mhz
Taktung Speicher 900 Mhz
256 MB GDDR3 Speicher
 
Stimmt......ist die Frage was mehr gewichtet Oo
Kannste mir das erklären?
 
erm, ich glaube man muss pipes mal chip mhz rechnen, dabei bin ich mir aber auch net ganz sicher......
 
hmpf okay aber ich würde einfach mal behaupten das 256 MB GDDR3 Speicher mehr ins Gewicht fällt als pixel pipes.

Warten wir nochmal auf unsere Spezies^^
 


jaoap, die x800 ist bedeutend besser laut den specs da oben


btw, irgendein freak hat ne 1800er auf 1 ghz getaktet...

 
Mtze said:
huah, wenn man auf der seite surft, will man sich glatt ne neue karte kaufen :D

wie wärs denn mit der karte, ähnliche leistung, dafür aber auch um ganze 50€ billiger...
http://www.mad-moxx.de/view_artikel.php?id=563

schrott :/

-viel zuwenig speicher für 16 pipelines
-asbach-speicher-bauart
-unbeliebte spiele als restmüll-paket dazu (die karte gibts bei anderen herstellern ohne den silencer ,der maximal 20€ kostet, und ohne drexxspiele für 125€)


die X800PRO wirkt wesentlich ausgewogener

hat jemand mal benchmarks mit der und ner 6800GT?

kosten ja ungefähr gleichviel...
 


dafür ise sehr günstig und man hat volle garantie ;)

zum vergleich ham die auch irgendwo ne 9800pro oder so ziemlich heftigt getuned für 20 öcken mehr oder sowas....
also iseben nich das überangebot, aber im vergelich zu ner normalen LE schon was richtig brauchbares

trotzdem würd ich mich bei mad-moxx lieber nach den radeons umschauen - mad mox war bis dato IMMEr bekannt als ati-tuner :D

 


also meines wissens beherrscht die sehr wohl high dynamic range lightning O_o

und pixel shader 3 braucht keine sau. diverse online magazine haben die unterschiede aufgezeigt: es gibt (noch) keine, da shader 2.0 noch gar nicht ausgereift ist.

der 3er ist nur wieder son beschissener deal mit nvidea - the way it's meant to be played.
ich erinnere sehr gerene an die splinter cell verraschung, die so ganz plötzlich per patch doch mit nem 2er gelaufen ist....


edit: ok, mein fehler. erst die 1000er beherrschen hdr !


btw, hier nochmal en kommentar zu sm3 ;)
Ein allerletztes Mal noch:

Das SM3 bei einer GF6 ist nur ein Marketinggag.

Erstens gibts bis jetzt genau 3 Spiele die das SM3 unterstützen.
Bis mehr Spiele am Markt die das SM3 anbieten - ist die GF6 veraltet.
FarCry mit Patch 1.3 (SM3-Funktionalität) ist mit einer GF6 und aktiertem HDR kaum spielbar, die Framerates brechen zu sehr ein.

Mein Tipp: Noch ca 20-30 Euronen drauflegen und eine X800XL kaufen. Oder eine X800GTO. Diese Karten haben zwar kein SM3 - sind dafür aber schneller, außerdem ist TransparentAA auf den Radeons möglich - bisher ein exklusives GF7800-Feature. Das verbessert die Bildqualität enorm und zählt nach meinem Empfinden mehr als ein Feature dass (noch) nicht (bzw, nur eingeschränkt) nutzbar ist.

Ich muss dazusagen, eine GF6 ist keineswegs eine schlechte Karte, sauschnell im Vergleich zu Vorgängergeneration und für die heutigen Spiele mehr als genug Power. Wenn ich aber entscheiden müsste welches Feature mir persönlich mehr bringt - so wäre dies TAA anstatt des SM3. Rein Geschwindigkeitstechnisch nehmen sich die Karten relativ wenig, die eine ist mal hier, die andere mal da schneller.

mfg

edit2: die mad mox 6800er karte da mit den freigeschalteten pipes: die is schon um einiges schneller als ne normale...aber für das geld doch nich das wahre :/

edit3: ich revidiere meine meinung: HDR is hammergeilomatico ! (edit4: aber sm3 braucht man trotzdme noch nit :D)

kumpel von mir hockt grad neben mir und zeigt mir lost coast - hdr ist der nächste meilenstein in der geschichte der realitätsnahen darstellung... also ich würd jetzt warten und erstmal schauen wie die 1000er karten mit hdr klar kommen. denn auch wenns bisdato kaum games gibt: des wird kommen !
alter sieht das geil aus @_@
 
Last edited:
da dein kumpel offenbar keine 7800GT(X) oder 1800XL/XT besitzt, dürfte klar sein, dass man für HDR KEINE superhightech-1337-graka braucht zumal das wirkliche HDR der totale unsinn ist... das was man darunter versteht bezieht sich auf derart hohe kontraste, dass sie von bildschirmen überhaupt nicht dargestellt werden können, und deswegen wieder in normale bereiche runtergerechnet werden MÜSSEN...

und genau deswegen kann mans auch gleich mit 8 bit-Integer-genauigkeit berechnen, anstatt mit 16 bit gleitkommagenauigkeit.

das können aktuelle grafikkarten aber ohnehin... deswegen ist "HDR" in seiner ursprünglichen form ein marketing gag

AAT also transparentes anti-aliasing ist schon eher ein kaufgrund für die 1x00er grakas von ATI, die das ganze recht effizient implementiert haben

außerdem mal ne frage für die 3D-online-gamer hier:

wie spielt ihr denn? 800x600 middle details oder alles auf maximum?
ersteres? ja was interessieren dann shader modell 3.0 oder AAT oder HDR?
werdet ihr doch eh ned aktivieren...

und bei niedrigeren details ziehen Nvidia-karten der ATI konkurrenz davon...

@crash: zumindest von meiner seite her wirds hier keine grafikkarten-'news' geben.
hängt ganz einfach damit zusammen, dass mich die leistungs OberUberklasse ned interessiert... kann sich eh keiner leisten... und bis die in bezahlbare gefilde kommen, kennt die eh jeder

natürlich steht es jedem interessierten frei, die user hier aufm laufen zu halten...
 


öhm, doch, ich halte hdr für den neuen meilensprung.

mit meiner 9800pro funzt es nicht, da wird runtergerechnet.
aber mit den neuen boliden kannste auf die 65bit genauigkeit kommen.
natürlich kann man pixel nicht heller darstellen als sie der bildschirm auf 255 darstellen kann, aber das ist ja der witz an der ganzen sache: es ist ein trick :D

und funzen tut dieser trick effizient erst mit der nächsten generation an grakas Oo

aber geil aussehen tut es allemal.
volumetrisches licht - sowas gab es noch nie.
das sind keine einfachen bloom effekte, das licht hat ein volumen und die obere grenzeinheit wird beim berechnen aufgehoben (und dann wieder gesetzt zu wreden bei der darstellung natürlich).
also ich persönlich find das genauso aufregend wie volumetrische rauch und partikeleffekte.

aber ok, du hast recht: die meisten usen es sowieso nicht ;)
 
wie 'effizient' der 'trick' auf aktuellen grakas funzt, kann ich schwerlich sagen zumal 'aktuell' bei grafikkarten ziemlich relativ ist und ich da bsp nur DX9 karten der 2. generation (also ab X bei ATI und 6 bei Nvidia) zu den aktuellen zähle

und die können es mit sicherheit und auch annehmbar schnell

die neuen grafikkarten können es auch nur besser, weil die halt schneller sind, aber ned weils jetz wunderwie implementiert wäre...

kann mich btw an volumetrisches licht bei halflife 1 erinnern... (mit nem drehenden deckenventilator) und bei splintercell 1 (das schon scheiße geil aussah... omg... selbst heute sehn games ned wirklich besser aus)

volumetrische explosionen gabs btw bei 'sin' das erste mal zu bestaunen (auch wenns scheiße aussah, da es lediglich eine sich ausdehnende kugel mit n paar partikeleffekten war) ... die letzten sekunden bei halflife 2 sind da schon sehenswerter...

volumetrischen rauch gabs btw 1997 bei unreal 1 zum ersten mal... vor 8(!) jahren...

was shader modell 3 angeht:

eigentlich ne super sache... ned, weil die shader bis zigtausend befehle lang sein dürfen (mehr als rund 100 nutzt eh fast keiner... HL² nimmt 15-25), sondern weil man schleifen, unterprogramme usw implementiert hat

wohl gemerkt: wir reden hier von 3D-grafik... also von hunderttausenden texeln, die zig mal pro sekunde jedes für sich neu durchgerechnet werden! und jedes texel wird per shader mit zig befehlen bearbeitet... und für einige effekte müssen auch noch nachbarwerte berücksichtigt werden, oder dahinterliegende texel (für transparenz bspw)... da sind schleifen schon ne feine sache...

also langfristig wird es sich durchsetzen denke ich... aber bis dahin wollen zocker die 7800GTX oder 1800XT ned mal mehr geschenkt... :D
 
Last edited:


na gut, treiben wir es auf ein neues level :D

btw, in unreal waren das spiellereien. der rauch hatte nicht wirklich volumen.
half life 1 genauso wenig. alles vorberechnet. es machte keinen unterschied ob du nun noch ne imaginäre glasplatte in dne lichtkegel geschoben hats oder nicht.

zu sin: dito, sagst es ja selber. war "nur" eine kugel. wobei des schon ne beachtliche leistung war Oo

es gab mal ein paar freaks die haben echtzeit lichtberechnung, ähnlich dem hdr bei beben 3 mit nen paar zusammengeschalteten amds gemacht. sah fpr den laien total unspektakulär aus, da z.b. die gegenmodelle auf festen bahnen einfach stumm durchs level sind. aber die effekte waren der hammer...

und mit hdr wird das ganze salonfähig gemacht.

hier mal nen auszug aus irgendnem forum Oo (hat mir nen kump über msn gechickt)

High Dynamic Range Rendering ist in der Tat der nächste Meilenstein in der 3D-Spielegrafik nach dem Auftritt von Pixelshadern. Mit dieser Technik wird auch noch eine der letzten Hürden zur fotorealistischen Grafik genommen: der realistischen Berechnung von Licht.

Das Problem war bislang, dass Lichtintensität im Computer nicht der Realität entsprechend berechnet werden konnte. Licht in der Realität hat zwar eine untere Grenze (nicht vorhanden => stockfinster) aber keine obere Grenze, sprich die Intensität einer Lichtquelle kann beliebig gesteigert werden bis zu einem Grad, an dem das menschliche Auge so sehr davon geblendet wird, dass es nur noch "Weiß" sieht, auch wenn die Lichtquelle gerade mal ein Punkt mit einem Milimeter Durchmesser in einer Kilometer Entfernung ist.

Der Computer hingegen rechnete bislang Licht immer unter der Annahme einer obersten Grenze. Die Intensität für jedes Farbspektrum reicht lediglich von 0 bis 255 und die 255 heißt im Grunde für den Computer "so hell, wie der Monitor einen Bildpunkt erscheinen lassen kann". Damit wäre die superhelle Lichtquelle im obigen Beispiel aber eben nur ein einfacher weißer Pixel auf dem Bildschirm. Der Eindruck von dieser hellen Lichtquelle geblendet zu werden, entsteht beim Betrachter nicht.

Was HDR nun im Grunde macht ist intern Lichtstärke mit weitaus höheren Werten als 255 zu rechnen. Ist das Endresultat für einen Bildpunkt dann höher als 255, ist der Punkt selbst zwar nach wie vor weiß, aber der Computer lässt die Helligkeit dieses Punktes in die benachbarten Bildpunkte mit einfließen. Es entsteht ein Lichthof oder Halo um diesen Punkt herum, den wir subjektiv wie blendendes Licht wahrnehmen - obwohl der Monitor selbst deswegen nicht wirklich heller leuchtet. Es ist also nach wie vor ein optischer Trick, denn die Leuchtkraft eines Bildpunktes ist natürlich auf die maximale Leuchtkraft des Monitors beschränkt (der Hintergrundbeleuchtung eines TFTs z.B.). Und das ist ja auch gut so, denn wer will sich schon beim Spielen der Gefahr der Erblindung aussetzen? :)

HDR setzt aber neue Herausforderungen an die GPUs: Weil die einzelnen Farbkanäle nicht mehr nur durch einzelne Bytes repräsentiert werden können sondern man z.B. nun 16 Bit pro Farbkanal benötigt, rechnet man nun intern mit 64 Bit pro Pixel statt bislang 32 Bit (56 Bit, wenn man die Auflösung des Alpha Kanals beibehalten wollte, aber das wäre ineffizient). Also muss eigentlich fast alles an Silizium und Leiterbahnen auf der Karte verdoppelt werden um die gleiche Leistung bei gleichem Takt beizubehalten wie ohne HDR. Zweites Problem ist, dass der Bloom-Effekt, also das Einfließen der Helligkeit eines sehr hellen Bildpunktes in seine Nachbarbildpunkte, noch mehr Lese- und Schreibzugriffe pro Bildpunkt im Framebuffer erforderlich machen, und somit stellt das ganze noch höhere Anforderungen an den Speicherdurchsatz als es die 64 Bit bereits tun.

Bis wir also HDR ohne Einschränkungen bei gewohnten Frameraten genießen können, wird sich hauptsächlich in der Speicherentwicklung noch einiges tun müssen. Bis dato werden die Entwickler noch zwangsläufig mit vielen Kompromissen arbeiten müssen.

triffts ganz gut ;)

 
TaLLa2XLC said:
hi,

es kommt auch auf den CPU an, ein 2000er CPU bremst eine 6800GT oder 6800Ultra, X850XT PE nur aus

für eine 2000-2800 CPU würde ich eher zu einer X800 pro oder 6800 raten

beide Karten liegen zw 150-200 euro


die x800 pro kostest hier im Media markt 500 euro. und die 6800 gt auch so in dem Bereich...

hab ne 6600gt und bin ganz zufrieden...

ich find es sowieso bescheurt mehr als 200 euro für ne graka auszugeben, ich mein das ist ein batzen Geld damit kann mann doch 165468468x besser sachen mit anstellen....

es sei denn man hat kein richtiges Rl und sitz nur form Pc und zockt alle games bis zum abdrehen...
 
Last edited:
@mope

und zeigt halt gleichzeitig, wie sinnlos das ganze ist...

zumal es bisher auch ganz gut 'simuliert' werden konnte... farcry hatte von anfang an eine derartige techik eingebaut, die aber erst durch einen patch wirklich genutzt wurde (oder auch nicht...)

es ging darum, dass wenn man ausm dunkel einer höhle kommt, man voll geflasht ist, wenn man im tropischen tageslicht rauskommt...

man also im tunnel die gegend ned sehn kann, sondern nur nen lichttunnel, der dann schwächer wurde, bis man das außenlevel sehn kann...

ohne HDR

und wie der artikel es schon sagt: es wird wesentlich präziser und langsamer gerechnet, als nötig wäre, weil der monitor ned darstellen kann

außerdem haben grafikkarten aus irgendeinem grund ned die möglichkeit andere prozesse zu beeinflussen...

also man kann ned einfach sagen "machs nochn n bissl heller, wenn du grade am rendern bist" sondern muss alles betroffene nochmal extra neuberechnen

is doch grütze und lässt sich durch clevere implementierung umgehn...

HDR ist imho eher primitiv, weil ineffizient...


€€€€€€€€€€
oder wars doch hdr bei farcry?
wenn ja, was soll dann der hype jetz?
is immerhin schon zig monate her seit 1.3

P.S.: farcry ist echt das Ubergame...
unterstützt alles... läuft auch auf müllrechnern super und sieht immernoch taufrisch aus...
 
Last edited:
-Admi- said:
http://www.alternate.de/html/areaIn...ame=HARDWARE&Level1=Grafik&Level2=Karten+AGP&
Die gleiche gibts bei Alternate für 199€ :D
Und ja, ich kann die X800 Pro durchaus empfehlen, wenn du auf HDR und SM3 keinen besonderen Wert legst. Für alle derzeit aktuellen Spiele mehr als ausreichend

Deine gepostete Karte ist vergriffen aber bis auf den Lüfter identisch

Springmaus said:
@crash: zumindest von meiner seite her wirds hier keine grafikkarten-'news' geben.
hängt ganz einfach damit zusammen, dass mich die leistungs OberUberklasse ned interessiert... kann sich eh keiner leisten... und bis die in bezahlbare gefilde kommen, kennt die eh jeder

natürlich steht es jedem interessierten frei, die user hier aufm laufen zu halten...

Kein Problem :)
 


aber bei far cry gibts keine farbigen fenster die man einballern kann :D

das hdr bei far cry (ja, ist hdr) is nur en kleiner teil des ganzen.
die bloom mod für hl2 sah fast genauso gut aus ;)
 
Back
Top