Aktuelle Preise aller Terra Wortmann Notebooks

AMD-ATI Testsample HD4870X2

Geschrieben am 20. August 2008 von Spezi

Sapphire HD4870X2 2GB

AMD-ATI´s neues Pixelmonster wird auf den Prüfstand geschnallt und ordentlich durchgenommen.

top

 

amd ati

Erst einmal vorweg vielen dank an AMD Deutschland für die Bereitstellung des Testsamples der neuen HD4870X2 und an AHCT für den Q6600 und den 24″ TFT.

Kommen wir nun zu den nackten Tatsachen. Ich kann jetzt schon mal sagen das AMD-ATI mit der 4870X2 eine ordentliche Sohle aufs Paket legt, nicht nur wegen der Länge sondern auch von der Leistung her.

Technische Daten:

Anschlussart

PCIe 2.0 x16

Stromversorgung

Anschluss 1 x 6-pin
Anschluss 1 x 8-pin
max. Verbrauch ca. 286 Watt (bei Volllast)

Grafikchip

ATI Radeon HD4870 X2
Taktfrequenz 750 MHz
Stream Prozessoren 1600
Shader Model 4.1
DirectX Version 10.1
OpenGL Version 2.0

Speicher

2.048 MB
Typ GDDR5
Taktfrequenz 3600 MHz
Speicheranbindung 2×256 Bit

RAMDAC

1. RAMDAC 400 MHz
2. RAMDAC 400 MHz

Auflösungen

1024x768x32Bit
200 Hz
1280x1024x32Bit
170 Hz
1600x1200x32Bit
120 Hz
2048x1536x32Bit
85 Hz
2560x1600x32Bit
60 Hz (Dual Link)

Direkte Anschlüsse

2 x DVI-I Ausgang
davon 1 x mit HDCP
davon 2 x Dual Link
1 x S-Video Ausgang

Anschlüsse über Adapter

1 x HDMI
2 x VGA Ausgang
1 x Komponenten / HDTV Ausgang (3x Cinch)

Zubehör

Anleitung, Treiber CD, Cyberlink DVD Suite und PowerDVD, S-Video auf Komponenten Adapter, DVI auf HDMI Adapter, 2x DVI auf VGA Adapter, 2x PCIe-Stromadapter, Crossfire-Brücke

Unterstützt PCI-Express 2.0, DirectX 10.1, OpenGL 2.0 und Shader Model 4.1. Folgende Ausgabeoptionen sind möglich: DVI, S-Video, DVI+DVI, DVI+S-Video

DSC02682

Sehr schicke Verpackung – gefällt mir sehr gut

DSC02660

wie die 9800GX2, sehr lang

DSC02665

ich kann mir sowas Stunden lang ansehen :)

DSC02664

die Backplate

DSC02667

2x DVI 1x Video out

DSC02668

Benutzerfreundlich angeordnete Stromanschlüsse

DSC02666

Volle länge – 27cm

DSC02670

kennt man schon von vielen anderen Modellen

DSC02671

schickes Teil – fast zu schade um sie in eine Metallkiste zu bauen :)

DSC02672

Crossfireanschluss für zum Beispiel 2x 4870X2

DSC02673

Verpackungsinhalt – 3DMark Vantage liegt auch mit dabei

 

Genug Bilder geschaut, was geht so unter der Hartschale ab.

Testsystem:

ASUS P5Q-PRO

Intel CORE 2 Quad q6600 @ 4x 3,6 GHz

Arctic Freezer Pro CPU-Kühler

2048MB OCZ Reaper PC6400 4-4-4-15

Be quiet Dark-Power 550W

Im Gegensatz zum letzten mal hat sich das System ein wenig geändert. Statt eines Dualcores kommt ein Quadcore zum Einsatz. Für solche Grafikkarten ist ein Quadcore pflicht.

gpuz

 

3DMark 06

06er quad no oc

WOW, fast 20000 Punkte. Besonders der SM 3.0 Score ist wirklich gut

3D Mark Vantage

vantage no oc quad

14247 punkte GPU-Score – die 9800GX2 hatte übertaktet gerade mal 11800 und sie ist durchschnittlich

10-12 FPS schneller

COD 4 1280×1024

cod 1280

fast 100 FPS bei full details

COD 4 1920×1200

cod 1920

80 fps im Schnitt – bei 1920×1200 sieht COD4 einfach Hammer aus

Race Driver Grid 1280×1024

grid 1280

20 FPS mehr als die 9800 GX2

Race Driver Grid 1920×1200

grid 1920

fast identische FPS wie in der 1280er auflösung – das Spricht für die Karte

Crysis Bench 1280×1024

crysis

mit 40 FPS vernünftig Spielbar

Crysis Bench 1920×1200

crysis 1920 1200

33 FPS im Durchschnitt – auch bei dieser Auflösung Spielbar

Geräuschpegel und Temperatur

Wenn man sich so eine Karte zulegt hat man eigentlich nicht vor sich ein Silentsystem zuzulegen. Im Ruhebetrieb ist die Karte eigentlich nicht hörbar. Verlangt man ihr aber etwas ab kann sie schon ein wenig störende Geräusche machen. Bei einem gut belüftetem und gedämmten Gehäuse sollte das aber kein Problem sein. Ausserdem hat man meistens Kopfhörer beim Zocken auf den Ohren.

So heiss wie es überall diskutiert wurde, wird sie gar nicht. 59°C im IDLE und maximal hatte ich 74°C unter Last. Eine gute Gehäusebelüftung ist natürlich wieder vorrausgesetzt.

 

Fazit:

AMD-ATI hat mit der HD4870X2 sich den Grafikkartentron zurück geholt. Preis/Leistung stimmen voll und ganz, für 400-450€ ist sie erhältlich. DieKarte ist für alle verfügbaren und kommenden Games eine sehr gute Wahl. Wer wenig Spielt oder nur Spiele wie die SIMS zockt, für den ist dieseKarte völlig Overpowered. Empfehlen kann ich diese Karte für Leute die in hohen Auflösungen ab 1280×1024 aufwärts spielen. Bis 1280×1024 reichen auch die 8800GT´s bzw HD4850er oder 4870er völlig aus.

Im Vergleich mit ähnlichen Systemen mit 2x HD4870 im Crossfire ist mir aufgefallen das eine HD4870X2 schneller ist als 2 HD4870 im Crossfire. Reife Leistung der Konstrukteure.

+ Preis/Leistung

+ SM 4.1 DX 10.1

+ wirkt und ist sehr Hochwertig

+ in hohen Auflösungen der Renner

- kein Leisetreter

- Treiber momentan noch nicht ausgereift

- passt nicht in jedes Gehäuse

Alles in allem eine absolutes Sahneteil, für aktuelle Highendsystem nur zu empfehlen

VN:F [1.9.22_1171]
Bewertung: 5.0/5 (Aus 1 Stimme)
AMD-ATI Testsample HD4870X2, 5.0 out of 5 based on 1 rating

Tags:
Kategorie: Hardwaretests

51 Kommentare:

  1. Deine Einschätzung des Preis-/Leistungsverhältnisses ist nicht ganz korrekt.
    Da, wo diese Grafikkarte hergestellt wird, entspricht deren Kaufpreis einem mittlerem Jahreseinkommen.
    Zum Vergleich müsstest Du für eine in Deutschland hergestellte Grafikkarte etwa 40.000 Euro bezahlen.

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  2. @SPAM

    häääääh? Wayne?!

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  3. Langsam glaube ich, daß nicht nur CPU-Lüfter ab und zu gereinigt werden müssen, um eine normale Funktionsweise zu gewährleisten.

    Man wird nun mal überall betrogen. Bei Ämtern zahlt man etliche Euronen für ein Blatt Papier, das man im Büroartikel-Laden viel billiger bekäme. Warum macht man das? Oder beim TÜV: Zig Öcken für einen kleinen Aufkleber. Der Porschehändler zickt herum, wenn ich mit dem Kilopreis für Metall anfange, Spielehersteller wollen für ihre Produkte mehr, als ein DVD-Rohling kostet, und im Kino muß ich für 2h Sesselpupsen 8 Taler löhnen. Die Welt ist einfach schlecht!

    Zur Karte:
    Super Leistung, aber was für ein Brocken! Werde meine Garage räumen und auf eine externe Version warten.

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  4. Netter Test! Nette Karte :) ..

    Hey Spezi, eine kleine Frage an dich. Ich betreibe neben meinem Blog auch noch die Seite http://www.victorypoint.de, auf der unter anderem eben auch Hardwaretests zu bewundern sind. Solltest du Interesse haben, magst du dich per Mail an dod(at)victorypoint.de mit mir in Verbindung setzen ob wir den Test dort nich auch veröffentlichen dürften? VP ist weder profitorientiert noch werbefinanziert, wäre also ein privater Spaß – aber würde mich freuen :) ..

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  5. boah, nicht schlecht. ist ja schon mal richtig top. :woot:

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  6. @Dod klar wieso nicht

    wegen veröffentlichen musst du Andy fragen

    aber ich denke mit ner kleinen werbeinblendung im test sollte das kein problem sein

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  7. :woot: wenn ich mal gross bin kaufe ich mir auch so eine Grafikkarte … nur ATI darf nicht drauf stehen da bekomme ich immer so kleine rote Pikel

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  8. @Vangelis: Das sind sogenannte Pixelfehler ;-) Kommt aber auch bei nvidia vor.

    @Dod: Wie Spezi schon sagte – mit ein wenig Werbung und einem Link zu uns, kannst Du das verwenden.

    VN:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  9. schickes Teil? na ja,sieht sehr billig aus!

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  10. vll solltest du sie mal in der hand halten ;)

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  11. wo bleibt übrigens der test zur 280gtx ?

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  12. @spezi hatte sie gestern in der hand,bähhh!
    und ich kann meine meinung nicht ändern!!!!!
    Das teil sieht neben meiner GTX280XXX aus wie ne mhhhh,ach was das teil fählt dann nicht mehr auf,und noch was der stromverbrauch ,oh man da können wir ja die atomkraftwerke noch lange nicht still legen :D :D
    Mein pc ist bei Andy,wegen abstürze in windows!!!
    Werde ihn vorläufig nicht wieder bekommen,andy hat bestimmt sein spaß mit dem pc!
    der fehler wird bestimmt an der neun Raptor liegen!!!! :(
    noch nen Sonnigen urlaub spezi!!!!!

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  13. @andy kannst ja die Mhz vom cpu noch ein bischen schöner gestalten :whistle: !!!!

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  14. @Killer:
    Bisher läuft Dein PC ohne jegliches Problem und sehr schnell! Hab noch alle möglichen Updates, 3D Marks und Techdemos installiert.
    Auch runterfahren per “Powerknopf – Drücken” geht hier problemlos.

    VN:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  15. @hmm bei mir per powerknopf geht das net :(
    ist aber schon immer so bei euch funst es und bei uns net!!
    hast du ne g15(die alte) dann schließ die mal an,weil beim powerknopf drücken ist das display der g15 gleich dunkel und der rechner macht nichts mehr bzw es kommt ein blauer bildschirm!
    oder haben wir wieder feuchten strom?????? :D

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  16. @Killer:
    Vielleicht solltest Du den Stromstecker mal andersrum reinstecken!?!? ;-)
    G15 (alt) haben wir schon lange nicht mehr, können das also nicht ausprobieren!

    VN:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  17. die gtx 280 sieht aus wie von tupperware designed

    was meinst du mit sonnigen urlaub ?

    ich seh immer noch kein test von deiner karte hier ^^

    du weisst schon das deine gtx 280 nur eine gpu hat und das 2 gpus nun mal ein wenig mehr strom brauchen ;)

    du hast keine ahnung was du da redest :D

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  18. @spezi also 1 gpu hat fast die gleiche leistung wie 2gpu´s!!!! :p
    MEIN PC IST NICHT @ HOME KANNST DU nicht LESEN?
    Du hast ja fantasie,TUPPERWARE???????? :o
    Ps:JA JA Spezi!!!!! :D :D :D

    @Andy komme dann mit der g15 mal vorbei,weis nur net wann!!!
    tust mir leid ganz allein im laden!!!!! :(

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  19. killer nur nebenbei ;) ich hab heut vor deinem pc gesessen ;) und ihn schneller gemacht so wie du es verlangt hast ;)

    3dmark vantage hast du jetzt dank physx 13500 punkte (vorher 11000 knapp )

    und 4x 3,3 ghz (ohne spannungserhöhung)

    die hd4870x2 ist 30% schneller als die gtx 280

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  20. Jo, da hat der Spezi recht! Bei höherer Übertaktung lief das System dann nicht mehr stabil und wir wollten es nicht übertreiben, um die Hardware nicht zu beschädigen.

    Bei 4×3.6 GHz und einer Erhöhung der Corespannung wurde die CPU recht heiß und schliesslich stürzte der PC beim Prime Test ab. Vielleicht wäre mit einem besseren CPU Kühler noch mehr drin.

    Spezi und ich kamen aber schlussendlich zum Ergebnis, dass das System auch ohne bzw. mit kleiner Übertaktung mehr als ausreichend schnell ist ,-)

    VN:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  21. und was sagen jetzt die physx punkte aus? und die spannungserhöhung? und die grafikkarte? und der benchmark? ich will mir auch so ein system kaufen weiß aber nicht genau was ich mir kaufen soll, mir ist es eigt. egal ob niwida oder ati mein board schmückt. ich will jetzt nur von fachkundigen personal eine auskunft was ich mr holen soll.

    oh gott killer, da musste ein hwl oc’ler dein rechner takten weil du es nicht gebacken bekommst. echt lächerlich.

    greets dat odi

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  22. odi stänkert schon wieder :angel:

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  23. @ odi
    Der pc hatte schon ne Übertaktung von mir,auf 4x3GHz!!!!!! :p
    wollte nur noch mehr punkte!!!!!!
    @spezi
    Und warum machst du kein test gleich mit!!!!!
    Ich habe zur zeit,keine zeit dazu!!!!! :(
    @Odi
    nvidia gtx280XXX,ASUS P5E,DDR2 4x2GB A-DATA extreme Edition ,600W
    be quiet StraightPower Netzteil,1TB(1000GB)Samsung HD103uj,
    300GB WD3000GLFS(VelociRaptor),300GB SEAGATE Barracuda.10,
    Soundkarte creative Soundblaster X-FI Platinum,S-ATA Laufwerke,Vista 64,
    und viel spaß beim zocken!!!!!
    Die ati kannst du dir ja auch nehmen,aber die läuft noch net richtig ohne zu zucken!!! :D :D :D

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  24. danke für den post aber jetzt hast du mir bestätigt das du einfach keine ahnung hast von hardware. oh man ist das lustig.

    aber eins noch wie hast ud 4x3ghz hinbekommen? solch iene cpu suche ich noch die mir 4x3ghz ausspuckt.

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  25. @ odi
    Intel® Core2 Quad Q6600 @3000MHz(jetzt3300MHz)so besser!!!
    das is kla das ich zusammen net 12000MHz habe!!!
    und werde bitte nicht ausfallend ja!!!!! :evil:

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  26. ausfallend? ich werde nicht ausfallend, ich kann nur dein blödsinn nichtmehr lesen. du machst ein auf, ich habe den geilsten rechner der welt, du hast ihn einfach nicht. die gtx280 ist zu teuer für das was sie bringt, komm einfach mal von dein trip runter und kauf mal produktiv. teuer ist nicht mehr gleich das beste, es geht auch billiger. das verstehst du aber nicht.

    ausserdem wollte ich dir nur helfen, denn du bist die lachnummer hier mit dein aussagen. du könntest DER fanboy schlechthin sein von niwida und intel, denn bei dir hat das marketing ja wunderbar funktioniert. was rede ich hier eigt. solche mitläufer wie dich gibt es ja wie sand am meer. hauptsache teuer. ohne worte und mach bitte ein test mit deiner potenzverlängerung, ich will mal lachen.

    Bei 4×3.6 GHz und einer Erhöhung der Corespannung wurde die CPU recht heiß und schliesslich stürzte der PC beim Prime Test ab. Vielleicht wäre mit einem besseren CPU Kühler noch mehr drin.

    schonmal an ein neues netzteil gedacht? 600 watt sind zuwenig bei ner 280 und nen 6600 auf 3,6ghz.

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  27. der cpukühler is wirklich mist

    nico bleib ma aufen teppich, es is nur nen rechner und keine alte ^^

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  28. Richtig, ein 600 Watt-Netzteil ist was für Luschen.
    Legt da besser mal Starkstrom an, dann brutzelt funzt es auch richtig! :lol:

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  29. @Spam
    Apropro Stromverbrauch: habe gestern ein MSI Wind PC mit dem neuen Intel Atom – Prozessor bekommen – max. 35W Verbrauch!
    Mehr dazu demnächst (wenn ich Zeit habe)!

    http://www.ahct.de/index.php?seite=produkte&gruppe=7&produkt=777

    VN:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  30. ohhh andy darf ich da mal mein strommessgerät ranhängen? der zieht mehr als angegeben. :D

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  31. Würde mich auch mal interessieren, ob die Werbeaussagen stimmen (max. 35Watt).
    Es ist auch nur ein 60W Netzteil verbaut.

    VN:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  32. @Andy:
    Sehr interessantes Gerät. Erinnert vom Konzept und Leistungsumfang an den Mac Mini, in dem auch Mobiltechnologie zum Einsatz kommt und der auch ein externes Netzteil hat. Kostet aber nichtmal die Hälfte. Außerdem soll es den MSI Wind PC auch in den Gehäusefarben weiß und pink geben. Was mich allerdings etwas stört, ist, daß das Gerät keinen DVI-Ausgang hat.

    @Odi waN:
    Du unterstellst MSI also Betrug?
    Aber Du hast Recht, ich wiege auch immer alle Produkte aus dem Supermarkt zu Hause nach.
    Die Welt ist nun einmal schlecht …

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  33. @spam

    du weißt aber schon das der macmini total schrott ist. unterstützt nichtmal die gängisten formate.

    das ist kein betrug sonder realität. intel macht immer leere versprechungen.

    kannst ja mal selber nachlesen woran es hapert, am chipsatz.
    http://www.hardwareluxx.de/story.php?id=8102

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  34. @Spam:
    Das mit dem fehlenden DVI ist mir als erstes schon negativ aufgefallen! Bei höheren Auflösungen dürfte mit dem VGA Anschluss die Bildqualität leiden!

    VN:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  35. @Odi waN:
    Warum ist der Mac Mini Schrott? Welche Formate unterstützt der nicht?
    Man kann darauf Mac OS, Windows XP, Windows Vista, Linux oder Unix installieren.
    Gleichzeitig sieht er gut aus, nimmt er keinen Platz weg, verbraucht kaum Strom und macht keinen Lärm.
    Ist das nichts?

    P.S.: Und im Gegensatz zum MSI Wind PC hat der Mac Mini auch einen DVI-Ausgang.

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  36. da gebe ich lieber 500€ für nen sony vgx-tp1 e aus. design ist besser, hat mehr hdd drin, hat dvi/hdmi. hat vista drauf. da kann das macmini leider nicht mithalten, aber das weiß ja jeder der sich nur ein wenig mit multimedia auskennt.

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  37. Auf dem Mac Mini kann ich Vista installieren.
    Und wie installiere ich Leopard auf dem Sony?

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  38. @spam:

    kannst du deien eigene logik selbst folgen? wieso soll ich mir ein schlechteres gerät kaufen, mac mini, wo ich mir dann vista installiere und mich freue. anstatt gleich ein viel besseres gerät, sony, und vista drauf habe und es genauso viel kostet. wieso sollte ich da leopard installieren? ich sehe kein nutzen im htpc bereich für leopard?! erklär es mir bitte. ausserdem hat das sony nicht nur vista sondern ist direkt auf multimedai gebaut und wurde von sony verändert. immo ist das sony OS einfach das beste was man haben kann im htpc bereich. also komm mal runter von dein apple trip, die waren mal gut. qualität, funktionalität ist bei apple nicht mehr gegeben und deshalb einfach zu teuer. du hast dir ebstimmt auch ein apple iphone gekauft und freust dich das alle 5 min das OS abschmiert. es sind ja alle apple jünger auf den zug aufgestiegen. als bessere und viel bessere alternative ist ds sony ericsson xperia x1. naja gut man brauch ja nicht mit einem apple fan über apple=schelcht reden. dabei war ich selbst mal ein apple fan.

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  39. @Odi waN:

    Die Logik lautet: Nur auf einem Mac kann ich Leopard installieren. Und ohne Leopard macht der Rechner mir keinen Spaß. Von daher kannst Du die Festplattengrößen oder Taktfrequenzen der Rechner miteinander vergleichen, soviel Du willst, Du vergleichst dabei immer Äpfel mit Birnen.

    Trotzdem kannst Du, wenn Du willst, auf einem Mac natürlich auch Vista installieren.

    Und nein, ich habe kein iPhone, der Mobilfunkrappel ist bei mir runter, seit ich mal nachgerechnet habe, wieviel Geld ich in meinem Leben schon für diese meist überflüssige und nervige Technologie ausgegeben habe (der wahre Luxus ist, nicht immer und überall erreichbar zu sein).
    Bin übrigens nach Grenzöffnung Anfang 1990 mit meinem Mobiltelefon in der DDR gewesen und hatte nirgendwo Empfang damit. Ende 1991, als es dann Mobilfunk auch in den “neuen Bundesländern” gab, haben sie mich überall nur doof angeschaut mit meinem “Knochen”, besonders die Kiddies in der Disco.

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  40. wenn es für dich nur leopard gibt, dann versuch uns nicht von leopard zu überzeugen und versuche erst garnicht dir ein urteil über vista zu bilden. bleib bei deinem apple und wir bleiben bei unseren zeug. wenn du hier schlechte vergleiche machst zwischen ost und west dann mach es aber es interessiert keinem. danke

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  41. ich bin für leopard II der geht ma richtig ab ^^

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  42. die schweden baller seit jahren mit dem leo3 rum. der is noch besser. ;)

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  43. Nur mal so am Rande: hier geht es um GRAFIKKARTEN.

    Sollte ich demnächst Zeit finden, gibts einen Beitrag zum MSI-WIND PC – da passt so eine Diskussion wesentlich besser!
    Also Mädels, hebt Eure Argumente für später auf ;-)

    VN:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  44. P.S.
    Gerade die erste HD4870X2 verkauft (aber nicht das AMD Testsample, sondern eine Club 3D für 419,-)

    VN:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  45. sehr schön :)

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  46. Hallo
    Ich möchte mir die 4870 x2 auf jeden fall zulegen, sogar die übertacktete 4870 X2 OC von MSI!-geil oder? :p
    Die übertacktete Version wird dann auch noch mal ein bischen schneller sein als die normale 4870 X2 ! 8O :evil:

    Hast du etwas von Mikrorucklern bemerkt,denn in test schreiben Sie,dass Sie es hätte und bei yiu tube sehe Ich kein bischen von den Mikrorucklern.

    mfg

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  47. @Jonas:
    Von youtube Videos kann man nicht unbedingt auf die echte Qualität schliessen!

    Wegen Rucklnern muss der Spezi mal antworten …

    VN:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  48. mikroruckler sind noch da

    ich persönlich habe nichts mitbekommen, aber nachgemessen wurden sie

    mir fällt nichts auf spielt sich ganz normal

    auch nvidias 9800gx2 hat mikroruckler :)

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  49. Hallo

    Das ist ja gut, dass mann Sie nicht mit dem Augen spüren kann, ob es messbar ist, ist mir dann völlig schnuppe.

    Also kann man Crysis (und auch Crysis Warhead und Far Cry 2) flüssig auf höchsten Detaisl spielen?

    mfg

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  50. Hallo

    Hast du den Cod 4 Brenchmark mit aktiviertem Crossfire gemacht? – Normal ist der Crossfire Modus in Cod 4 Singleplayer nicht aktiviert ( wird auch nicht unter option -2 grafikkarten aktiviert !), bei der 4870 X2 + aktiviertem Crossfire sind die Fps 45 Prozent schneller bei 1900×1200 !

    Wenn du es nicht gemacht hast oder nicht weist wie man Cf bei Cod4 Singleplayer aktiviert,kannst ja hier posten

    ach ja, geiler test!

    mfg

    VA:F [1.9.22_1171]
    Bewertung: 0 (aus 0 Stimmen)
  51. [...] AMD-ATI Testsample HD4870X2 – 50 comments [...]