Radeon HD 5870

Man darf auch nicht zuletzt vergessen, dass auch einges der Treiber ausmacht. Da haben wir gerade erst die 1., 2. Version aufm Markt. Ich denke das man gegen ende des Jahres wiederrum andere Benchmarks erzielen kann.
 
P/L nicht schlecht aber ich hätte beim Vantage deutlich mehr erwartet, die ist ja um 3K Punkte schlechter als meine GTX260 (stark übertaktet:p)

Aber was zu den Karten nicht erwähnt wird ist, dass es die erste Single-GPU ist die 3 Monitore gleichzeitig unterstützt.
 
Also ohne OC sind das schon gute Ergebnisse. Vielen Dank an Crash, der sich für uns die Arbeit gemacht hat!! :)
 
P/L nicht schlecht aber ich hätte beim Vantage deutlich mehr erwartet, die ist ja um 3K Punkte schlechter als meine GTX260 (stark übertaktet:p)

Aber was zu den Karten nicht erwähnt wird ist, dass es die erste Single-GPU ist die 3 Monitore gleichzeitig unterstützt.

Punkt 1: Ich könnte auch die OC Schraube ansetzen aber das würde den natürlichen Benchmark den ich liefern wollte verzerren. Sollte das irgendwann bei den Spielen nicht mehr ausreichen, würde ich auch nen bissl was einstellen ;)

Zu Punkt 2: Stimmt natürlich. Werde ich nochmal einfügen.

Also ohne OC sind das schon gute Ergebnisse. Vielen Dank an Crash, der sich für uns die Arbeit gemacht hat!! :)

Sehr gerne :)


Meine Benchmarks sind für die 5850 ;)
 
P/L nicht schlecht aber ich hätte beim Vantage deutlich mehr erwartet, die ist ja um 3K Punkte schlechter als meine GTX260 (stark übertaktet:p)

Aber was zu den Karten nicht erwähnt wird ist, dass es die erste Single-GPU ist die 3 Monitore gleichzeitig unterstützt.

man kann das nicht so ganz vergleichen: du wirst wohl auch (unfairerweise) physx aktiviert haben.
das hilft beim gesamtergebnis schon ne ganze menge. darfst also eh nur den reinen graphics-score betrachten. und wenn crash übertaktet kriegt er auch mehr punkte ;)

ich versteh gar nicht warum man das mit dem multimonitoring so hoch hängt. die meisten sind doch froh wenn sie sich überhaupt mal EINEN vernünftigen monitor leisten können. für mich wär das kein kaufargument, obwohl ich sogar 3 monitore hab...wer will denn schon die blöden rahmen im spiel...ganz zu schweigen von den fps bei so hohen auflösungen. :?
 
Für Games die extrem hohe Auflösungen unterstützen wie Stalker Clear Sky oder HAWX ist sowas schon ganz praktisch oder schon n Moni gesehen der 5kx2k Pixel unterstützt?^^
 
Gerade beim Arbeiten möchte ich auf einen zweiten Monitor nicht mehr verzichten.
 
jo...2 monitore zum arbeiten kann ich noch verstehen. aber nicht zum spielen.
und was auflösungen über 5k x 2k angeht: na dann viel spass bei der diashow ;)...naja mit niedrigen details gehts vllt noch. :D

dann doch lieber n 40" tv für 500€. was anderes isses noch wenn spiel mehr übersicht bieten, weil sie die
auflösungen auch unterstützen. das kann man mittlerweile aber auch durch downsampling an nem normalen monitor erreichen ;)

evtl wenn in allen 3 monitoren was verschiedenes dargestellt wird, könnte es für mich sinn machen....aber doch kein spielfeld, dass durch blöde balken (ränder) gestört ist....damit könnte ich mich nicht anfreunden....aber ok...jeder ist anders. hmm...mir fällt grad ein: ein rennspiel könnte noch gehn...dann ersetzen die rahmen eben die a-säule ...hehe...toll

letzendlich isses aber genauso nur ein gimmick, wie die 3d-vision-technik bei nvidia. für spezialfälle mal ganz lustig aber im normalfall eher unpraktisch. allein schon der platz, den man für 3 monitore braucht, dürfte bei kaum jemand vorhanden sein.

naja...aber ich will ja keinem sein spielzeug wegnehmen...ich stell halt nur den nutzwert für spieler in frage (immerhin bezahlt man ja für etwas unfreiwillig mit, dass man gar nicht nutzt). mir drängt sich der gedanke auf, dass so langsam einfach nur nach möglichkeiten gesucht wird, noch gründe zu finden überhaupt noch stärkere karten zu produzieren, da die monitorhersteller auflösungsmässig nicht mehr (zu bezahlbaren preisen) hinterherkommen.
 
Na siehste. Aber nur noch 1x auf Lager. Zudem will der gleich 80€ mehr haben als Amazon und Co. Der weiß wann er nen Euro verdienen kann^^
 
Ich schätze battlefront und dirt II fehlen. Ganz genau weiss ich es nicht, sollte auf der Herstellerseite aber stehen.
 
So...noch keine offizielle Ankündigung, aber es gibt bereits einige BIlder und kleinere Tests zur 5970 (oder 5950..). Dabei handelt es sich um eine Multi-GPU Karte auf einem PCB.
ENergieverbrauch unbekannt...aber sowie es scheint, nicht mehr als 300 Watt.
Allein die theoretischen Daten stellen freilich alles in den Schatten was bisher dagewesen ist. Es handelt sich zwar immer noch um eine Karte, auf der zwei Grafikchips verlötet sind, durch die immer besser agierende CrossFire-Skalierung ist bei erwarteten identischen Taktraten wohl eine deutliche Steigerung gegenüber einer Radeon HD 5870 möglich. Unsere CrossFire-Tests mit den aktuellen ATi-Grafikmodellen hatten gezeigt, dass zwei Karten bis zu 80 Prozent schneller arbeiten können als eine einzelne Lösung. Neben der guten Performance sollte jedoch das andauernde Problem der Multi-GPU-Lösungen mit den Mikrorucklern sowie die Stromaufnahme nicht vergessen werden.

Noch ist nicht klar, wie die Karte getaktet sein wird...

Der (Paper-)launch findet gleichzeitig mit dem Paperlaunch von Nvidia statt, also schon in Drei WOchen ^^

1.jpg



Eine seeehr lange Karte

3.jpg
 
Was soll ich mir eigentlich unter den "Microrucklern" vorstellen bei CF/SLI Systemen?
 
Was soll ich mir eigentlich unter den "Microrucklern" vorstellen bei CF/SLI Systemen?

Multi-GPU-Systemen gelingt oft keine regelmäßige Ausgabe der Frames. Es kommt zu großen Zeitintervallen zwischen Einzelbildern - "Mikrorucklern" -, trotz vermeintlich flüssigen Frameraten. Ein Beispiel: Auf Frame 1 folgt nach 10 Millisekunden Frame 2, was einer Kadenz von 100 Fps entspricht. Frame 3 hingegen erblickt erst nach weiteren 40 Millisekunden den Schirm, gefolgt von Frame 4 nach weiteren 10 ms. Die Folge ist fatal: Die "gefühlte" Framerate eines Multi-GPU-Systems liegt im Ernstfall unter der einer Einzelkarte, und das obwohl die angezeigten Fps höher sind. Kritisch ist dieses Verhalten primär bei niedrigen Frameraten, etwa den genannten 30 Fps. Denn je weniger Fps, desto größer sind die möglichen Intervalle zwischen ihnen und umso wichtiger wird eine regelmäßige Verteilung.

http://www.youtube.com/watch?v=P1yMsn4GfwU

Hier ein beispiel
 
Da ist es aber so extrem, weil CF mit mehr als 2 GPU's sehr schlecht skalieren tut.
Triple/Quad CF's sind deswegen sowieso extrem beschissen. ^^

Bei SLI sieht das bissl anders aus...aber mikroruckler haben die natürlich auch.
 
So, da meine 5870 ja mitlerweile da ist hab ich natürlich gleich mal Crysis testweise installiert und muss sagen, hmm, naja, geht so^^
Zwischen 28 und 40 fps krebst das bei 1920x1200, Ultra High und DX10 rum, System ist aktuell

Phenom 955 @ 4x3,2Ghz
Gigabyte Radeon HD 5870
4x2048 MB Ram @1333

fps_crysis.jpg
 
Back
Top