Referenzreview: PoV/TGT GTX680 Ultra Charged

Hey meine Lieben Freunde,

heute hab ich was für die Gamer Fraktion. ;)

PoV/TGT ließ mir ein Sample ihrer GTX680 Ultra Charged 4GB zukommen.

Was diese Grafikkarte so leistet, wie laut sie wird... was sie von den anderen GTX680ern abhebt und wie hoch wir sie Takten können, werden wir nun gemeinsam herausfinden.

Bitte nehmt etwas Rücksicht darauf, dass dies mein erstes Review über bzw. für Grafikkarten ist.
Ich nehme es als Referenz für alle folgenden Grafikkarten. ;)

Deswegen werde ich diese Grafikkarte auch nicht mit einer Referenz Karte messen, weil diese es sein wird.

Das liegt daran das ich gern nur die Daten nehmen möchte, die ich mit meinen eigenen Augen sehe bzw. mit dem jeweiligen System persönlich ermittle.

Wenn ihr gewisse Abschnitte überspringen wollt, hier die Links zum jeweiligen Abschnitt:



  • 1. TECHNISCHE DATEN
  • 2. UNBOXING
  • 3. Die PoV/TGT GTX680 Ultra Charged, IMPRESSIONEN I
  • 4. Impressionen II
  • 5. Impressionen III, die PoV/TGT GTX680 Ultra Charged "nackt"
  • 6. Einbau einer Grafikkarte
  • 7. Die Testsysteme (Technische Daten)
  • 8. Was sind Benchmarks alà 3DMark?
  • 9. 3DMark 03, 06, Vantage und 3DMark 11 Scores
  • 10. Die "3DMark's" im Detail
  • 11. Gaming Benchmarks (Vorstellng inkl. der einstellungen)
  • 12. Tabelle mit AVG (durchschnittlichen) FPS
  • 13. Overclocking und Temperaturen
  • 14. Fazit



     

    VORWORT:


    Bevor ich euch mit den Daten eins um die Ohren Pfeffer, wollte ich eben noch ein paar Worte dazu sagen.

    Viele Zeitschriften usw. benennen NVIDIA's Cuda Cores mit "Shader-Einheiten".

    Is ja grundsätzlich richtig, aber ich würde lieber bei der Bezeichnung von NVIDIA bleiben.
    Da diese "Shader-Einheiten" aber auch für NVIDIAs Cuda Schnittstelle gedacht sind, finde ich einfach, dass der Name Cuda-Cores besser passt.

    Wollte euch das nur eben Mitteilen, nich das nachher einer kommt und mich fragt:
    "Ey... wat sind Cuda-Cores?!"

    Ein Gamer bzw. PC-Kenner wird wissen was ich damit meine.
    Ein Großteil der Leute kennt sich aber vielleicht nich so gut mit der Materie aus und will gern wissen was es ist. ;)

    Gut NVIDIA bietet hier natürlich auch die "richtigen" Cuda-Karten (Tesla,- und Quadrokarten) für Rechenzentren, oder halt Workstation Produkte an, aber auch  die Geforce Reihe beherbergt eben diese Cuda-Recheneinheiten!
    Genutzt werden sie bei den Geforce Produkten eher zur Berechnung der Shader usw.

    Da aber auch die Geforce Produkte mittlerweile sehr viele Programme (wie z.b. Adobe Photoshop, Cinema 4D, Programme für Video Dekodierung usw.) mit Berechnung der Cuda-Cores unterstützen, sollte man dies erwähnen.

    Das GPGPU Computing hält also mehr und mehr Einzug in Heimische Rechner.
    Sei es für Gamer, "Normale" Heimanwender oder auch Büro Rechner.

    Also: Cuda-Cores = Shader Einheiten.

    Wenn jemand genauer wissen will, was Cuda ist bzw. sein soll, dem empfehle ich diese Seite:
    NVIDIA Cuda


    PoV/TGT geht mit ihrer GTX680 Ultra Charged ebenso diesen Weg. Mit dieser Grafikkarte erhält man nicht nur als Gamer (o.ä.) eine sehr starke Gamingkarte, sondern auch eine Geforce, die im Bereich GPGPU ordentlich Power unter der Haube hat.

    Zunächst werden wir aber mal die Daten einer PoV/TGT GTX 680 Ultra Charged GTX680 mit einer GTX 680 und den eigentlichen NVIDIA Spezifikationen gegenüber stellen.
    Dort sehen wir dann auch direkt schon eine Abweichung der "Norm".

    Dies betrifft besonders die Taktraten der GPU (dem Grafikchip), aber auch bei dem verbauten Arbeitsspeicher.

    Was ihr evtl.  vorher auch wissen solltet,
    der Takt der Cuda-Cores, ist 1:1 mit dem Chip Takt der Grafikkarte "gekoppelt".



    back to top

     

    TECHNISCHE DATEN:


    Modell NVIDIA Geforce GTX 680 (Ref) PoV/TGT GTX 680 Ultra Charged
    Codename GK104 GK104
    Direkt X Version 11.1 11.1
    Open GL Version 4.2 4.2
    Programmierumgebung CUDA CUDA
    Fertigungstechnik / Chipgröße 28 nm / 294 mm² 28nm / 294mm²
    Transistoren Grafikchip (Mio.) 3.540 3.540
    GPU Takt 1.006 Mhz 1.110  MHz
    GPU Boost Takt  1.058 Mhz 1.176  MHz
    Cuda-Cores (Shader) Takt 1.006-1.058 MHz 1.110-1.176 MHz
    Takt Grafikspeicher  3.000 MHz 3.000Mhz
    CUDA-/SIMD-/Textureinheiten 1.536 / 8 / 128 1.536 / 8 / 128
    Rasterendstufen (ROPs) 32 32
    Speicheranbindung (Bit) 256 256
    GDDR5 VRAM 2.048 MB 4.096 MB
    PCI/E Stromanschlüsse 2x 6-polig 1x 8-polig, 1x 6-polig
    TDP laut Hersteller 195 Watt 200Watt


    Wie wir auf den ersten Blick sehen, sind die Daten im Großen und Ganzen Identisch.

    Aber beim zweiten Blick erkennen wir, dass der GPU Takt um etwas über 100MHz höher ist und der Boost sogar fast an die 1,2Ghz ran kommt.

    Hinzu kommt, der Speicher wurde von 2 auf 4GB verdoppelt, dennoch bleibt der Takt des Speichers, wie bei der NVIDIA Referenz, auf 3.000MHz. Die Speicheranbindung bleibt ebenfalls bei 256bit.

    Vergleichen wir auch mal fix anhand eines kleinen Diagramms:



    Was einigen evtl. etwas seltsam vorkommen wird, is der sogenannte GPU-Boost.

    Was es damit auf sich hat und was es sonst noch für Neuerungen beim GK104 Grafikchip gibt, lassen wir uns mal von NVIDIA selbst erklären.

    Öffnet dazu bitte folgenden Link:
    NVIDIA präsentiert neue Grafikkarten-Generation mit Kepler-Architektur.

    Oder Alternativ und auch bei: TweakPC, NVIDIA GTX680 (GK104) im Test
    (inkl. videos und wirklich sehr vielen, ausführlichen, infos zu den jeweiligen features des GK104)

    Schauen wir uns doch mal die Verpackung an.



    back to top

    UNBOXING:



    Als erstes hat  man wie immer die Verpackung in der Hand. Bei der PoV/TGT muss man schon auf das ein oder andere Detail achten. Die Box is ursprünglich (Original) von PoV und wurde von der Overclocking Firma TGT um ein paar "Aufkleber" (Details) erweitert.







    Ich habe mal ein Bild (zum vergleich) von der Original PoV Verpackung verlinkt:

    Bild der Originalen PoV GTX680 Verpackung (Quelle: TweakPC)

    Vergleichen wir nun die beiden Kartons, sehen wir den Unterschied.

    Auf der PoV/TGT Verpackung sind vier Aufkleber zu erkennen:


    Beim ersten Bild (links) wurde ein großer 4GB Ram Aufkleber hinzu gefügt, direkt darunter erkennt man auch, das auf dem 2.048MB ein 4.096MB Aufkleber drüber geklebt wurde.

    Das zweite Bild (rechts) zeigt uns  das TGT Logo, namens Ultra Charged und direkt darunter den Aufkleber mit der Aufschrift: LOW LEAKAGE SELECTION.

    Was soll uns das aber nun sagen?!

    Ich habe mal bewusst versucht es allein heraus zu bekommen, schließlich bin ich ja ein Endkunde und möchte gern wissen was ich mir da kaufe. Mr. Google gefragt und ein paar Foren durch geschaut... hier gingen die Meinungen auch meist auseinander.

    Also hab ich die Seite von TGT aufgerufen und mir die Unterschiede selbst angeschaut. Zu meinem Erstaunen waren unter den Bezeichnungen die Grafikkarten teilweise gleich hoch getaktet.
    Wo is nun der Unterschied?! *grübel

    Was mir aufgefallen ist, viele der Grafikkarten von TGT Tuning haben einen anderen Kühler verbaut.
    D.h., hier bekommt man schon mal keinen Referenz Kühler, sehr Nice!

    zu folgendem Schluss komm ich selbst:
    TGT Tuning bezeichnet ihre Handselektierten Chips mit 4 verschiedenen Versionen:

    1. Performance Boost (handselektierte Chips Overclocked ab Werk)
    2. Charged (handselektierte Chips Overclocked ab Werk)
    3. Ultra Charged* (handselektierte Chips Overclocked ab Werk)
    4. Beast* (handselektierte Chips Overclocked ab Werk)

    * erhalten zussätzlich das Label LOW LEAKAGE!

    Was die direkten Unterschiede sind lässt sich evtl. so erklären, die Karten sind ALLE ab Werk Overclocked.

    Aber die Unterschiede liegen aber scheinbar (evtl.) darin:

    1. Der Unterschied zwischen Performance Boost und Charged ist mir nicht Ersichtlich, denke das hat mit der Hitzentwickelung zu tun. Die Charged werden evtl. nich so warm wie die Performance Boost. Dementsprechend wäre noch etwas Overclocking Potential gegeben. Was ich aber an dieser Stelle erst mal nur Vermute!

    2. Charged und Ultra Charged, hier is der Unterschied für mich in der Voltage Ecke zu suchen.
    Die Ultra Charged erhalten das Label  "LOW LEAKAGE SELECTION".
    Das bedeutet wohl, dass diese Karten eine geringe Leck rate haben.
    Ich als Nicht-Profi, kann mir darunter nix vorstellen und denke, es hat evtl. etwas mit der Grundspannung der GPU zu tun. Bei den Low-Leakage Produkten könnte also eine GPU selektiert worden sein, die statt 1,2V nur 1,1V für eine gleich hohe Taktrate benötigt.
    Hier könnten also z.B. Overclocker eine Möglichkeit haben, höhere Taktraten zu erzielen.

    3. Unterschied zwischen Ultra Charged und der BEAST Variante liegt aber klar auf der Hand. TGT Tuning verpasst einer BEAST einen Wasserkühler und erhöht meist noch den Takt des GDDR Rams. Bei einer GTX680 BEAST wäre der Takt des Speichers z.b. 6400MHz statt wie bei der Ultra Charged 6000MHz. Außerdem ermöglicht die Wasserkühlung eine effizientere und schnellere Art der Kühlung. Was noch höhere Taktraten ermöglichen KÖNNTE!

    Voraussetzung ist hier aber eine vorhandene Wasserkühlung, in die diese Grafikkarte eingebunden werden kann.

    (lacht nich, das hab ich selbst schion mal erlebt! jemand fragte mich ernsthaft warum seine GraKa im Idle schon auf über 73° klettert, obwohl sie ja eine WaKü besitzt. naja... ich musste schmunzeln.)

    Hier sei noch mal gesagt, dass sind alles Vermutungen! 
    Als Endkunde versucht man sich halt schlau zu machen, aber man findet leider keine direkten Hinweise zu den Unterschieden.
    Ich wollte hier einfach nur mal versuchen zu erklären, worin die Unterschiede aus meiner Sicht zu suchen sind.

    Werfen wir nochmal kurz nen blick auf die Verpackung, ich find die hat was. :D
    das Logo von PoV is in Gold gehalten, das signalisiert auch, dass es sich bei dieser Karte, im inneren des Kartons, um ein High End Modell handelt.
    (Bei einer GTX660Ti wäre dieses Logo z.b. Silber (da "mid-range" modell).)








    Auf dem nächsten Bild könnt ihr gern mal eure Fantasie spielen lassen, was seht ihr oben rechts in der Ecke?! (sieht man, wenn man die verpackung etwas im licht hin und her schwenkt, besser)
    Seht ihr Schneeflocken, "Lüfter" oder vielleicht Blumen... überlasst es eurer Fantasie.
    Jeder kann sich vieleicht was anderes vorstellen. ^^


    Wir Männer sagen uns eigentlich eh nur... "Alter mach auf das Teil und Zoooooockkkk!"

    Richtig so!!! :D

    Also machen wir die Verpackung mal auf...


    Wie wir sehen is unser Baby gut geschützt in seinem "Bettchen".
    Also schon mal Sicher vor Stößen geschützt.

    Dennoch kam die Grafikkarte hier an und war recht Kalt. Bei der kalten Jahreszeit aber kein Wunder, die Transporter der DHL, UPS oder was auch immer, stehen ja nich im Beheizten Garagen/Lagerräumen oder so.

    Also legen wir die Karte erst mal beiseite und lassen sie auf Raumtemperatur kommen.
    (gefahr von kondenswasser. KANN, wenn z.b. kaltes metall auf warme feuchte luft stößt passieren.)

    Was fand ich noch so vor...

    Einmal ein Quick Installation Manual. Dies erklärt uns schnell und einfach den Einbau und die Handhabung der Grafikkarte. Das Ganze ist mit Bildern und auch in verschiedenen Sprachen Verständlich erklärt. U.a. auch Deutsch. Des Weiteren fand ich dann noch eine Treiber CD.



    Das war dann also der Inhalt.

    Das ist wirklich schon alles, ich blickte ins Handbuch... schaute auch nochmal im WWW nach.
    Es ist aber tatsächlich so, das PoV dieser Karte keine weiteren "Extras wie z.b. einen DVI-VGA oder PCI-E-Kabel beilegt.

    Es steht auch im Handbuch, das diese Sachen Optional erhältich sind: 


    Etwas find ich ehrlich gesagt schade, da manche Hersteller wenigstens noch 2x 4pin Molex auf 6pin Adapter dabei legen.

    Okay mein "No-Name" Netzteil hat zum Glück 1x 6pin + 2pin und 1x 6pin Stecker, aber was ist wenn nicht?!

    Was wäre wenn mein Netzteil nur 2x 6pin Anschlüsse hat?! Hmm...

    Dann hätte ich wohl lieber mal genauer geschaut, was die Grafikkarte für Spezifikationen hat und was alles im Lieferumfang enthalten ist.

    Ein Blick auf der Seite von TGT Tuning zur PoV/TGT GTX680 Ultra Charged sagt uns sofort, womit wir es zu tun haben.

    Dort sehen wir unten auf der Seite folgendes:


    Hier stehen wirklich ALLE Infos drin, die wir brauchen.

    Unter dem Punkt Anschlüsse sehe ich auch sofort, oh ich brauche ein:
    6-Pin- und ein 8-Pin 12V PCI-E-Stromanschluss.

    Warum ich das jetzt erwähne?

    Weil die GTX680 in den NVIDIA's Spezifikationen stehen hat:
    2x 6pin Anschlüsse.


    Es handelt sich hier aber um eine Übertaktete und von Hand selektierte GTX680.
    Da sie sehr hohe Taktraten erreichen kann, braucht sie auch etwas mehr an Strom! ;)

    Im Bereich Zubehör lesen wir auch direkt, dass keine weiteren Adapter oder so mit geliefert werden.

    Also bitte drauf achten, das euer Netzteil einen 6pin + 2pin (8pin) und einen 6pin Stecker hat.
    TGT empfiehlt sogar 42A auf der 12V Schiene. Außerdem noch ein 600W Netzteil.

    Wobei ich vermute, wenn man sich ein gutes zulegt würde man auch mit 550W hinkommen. Oder wenn man weitere High-End Komponenten verbaut und evtl. noch weiter Übertakten möchte, z.b. CPU und GPU, dann sollte es vielleicht auch etwas mehr Watt haben.

    Mein billiges CombatPower CP-750W hat jeweils 23A auf den 12V Schienen (V1 und V2) und soll 750W bringen. Mal sehen wie das ganze läuft oder ob ich noch mehr Power brauche und das CP-750W mit einer GTX680 und einem Core i7 3770k (+overclocked auf 4,85Ghz) schon am Limit läuft.

    Was auch noch wichtig ist, im Gegensatz zum Referenz Modell belegt dieses Biest hier 3 Slots/Steckplätze! Das is eigentlich extrem wichtig als Info, weil so kann ich schauen ob ich diese GTX680 überhaupt in mein Case bekomme, oder ob ich evtl. Schwierigkeiten bei meinem Mainboard mit PCI Steckplätzen oder anderen Bauteilen des Boards bekomme. (dazu später mehr!)


    Genug Gelabbert jetzt, wir schauen uns mal das Baby an.

    Und Leute... das Baby auszupacken bzw. in der Hand zu halten, war... HAMMER! :P


    back to top

     

    Die PoV/TGT GTX680 Ultra Charged, IMPRESSIONEN I:


    Als erstes schaut man der GTX680 ja meist auf die Lüfter und die Kühlung.

    Das schaut bei der PoV/TGT GTX680 4GB Ultra Charged dann so aus:

    Das sieht doch schon mal richtig gut aus oder?

    3 Lüfter und ein dicker Alukühler sind zu sehen.
    Das Referenz Design hat eigentlich nur einen Lüfter drauf!

    Genaue Daten finde ich hier nicht zu, also welche Durchmesser die Lüfter haben, welche Drehzahl usw. Auch zur Kühlleistung finde ich bei TGT keine wirklichen Angaben.

    Ich dachte dann erst an den Lüfter von Acrtic Cooling, dem Accelero Xtreme III.
    Der Kühler ähnelt dem von TGT verbauten GPU Kühler stark, er ist es aber nicht!!!

    Angaben zur Kühlleistung, Drehzahl usw. suchen wir auch vergebens.

    Okay, schauen wir halt später mal mit ‘nem Tool, wie hoch die Drehzahl im Idle und unter Last sind.

    Nehmen wir die PoV/TGT GTX680 Ultra Charged mal auseinander... oder?! :D

    Nein STOP, erst mal schauen wir uns die Karte im Ganzen an... aber dann nehmen wir sie auseinander! ;)

     Von oben haben wir die Karte schon gesehen, wie sieht es denn von der Seite aus?!


    Sry, aber ich musste noch mal von oben drauf schauen, die Form der PoV/TGT GTX680 Ultra Charged erinnert mich an einen Flugzeugträger... geht es euch auch so?! *grübel

    Macht auf mich jedenfalls einen Mächtigen Eindruck!
    Auch das Spiel zwischen dem glänzenden und matten Schwarz find ich gelungen!

    Das sieht man vielleicht auch auf dem folgenden Bild etwas besser:


    Machen wir mal einen Rundumblick.

    Wenn wir seitlich auf die Karte schauen erkennen wir den mächtigen Alu Kühler und sehen auch einige der Headpipes.

    Was man auf dem nächsten Bild auch evtl. erkennt, diese Karte geht von der "Höhe" her definitiv über 2 PCI Steckplätze, was wir dem Kühler zu verdanken haben.


    Was bringt uns so ein großer Kühler?! Ist die Karte dadurch tatsächlich leiser, bleibt sie dadurch auch kühler als im Referenz design?!  Das schauen wir uns später genauer an. ;)

    Lassen wir erstmals noch ein paar Eindrücke anhand von Bildern auf uns einwirken:



    back to top

    Impressionen II:


    Die PoV/TGT GTX680 Ultra Charged im Detail (außen).

    Rückseite

     
    "Front" der GTX680  (wenn man in das Case rein schauen würde, wäre es die Front)

    Der Boden, schön zu erkennen is hier die Backplate.

    Schauen wir mal von außen, wie der Kühler so aufgebaut und befestigt ist.

    Auf den Folgenden Bildern sehen wir, dass der Kühler aus Alulamellen, 5 Heatpipes und einem Kupferkern besteht.




    Sieht alles sehr gut Verarbeitet aus. Mir sagt es auch sofort, dass aufgrund der Kupferplatte die Heafpipes nicht direkt auf dem Kern der Grafikkarte liegen. Das führt eine geringere Wärmeabfuhr mit sich. Was aber an der kleinen Kupferplatte nicht viel ausmachen dürfte. Wir werden es später sehen, ob die Wärmeabfuhr dennoch gut durchdacht ist.

    Zu nächst gucken wir uns mal die Befestigung der Lüfter an.

    Es gibt Leute die Reinigen die Grafikkarte mit z.b. Luftdruck.
    Was aber tun wenn man so was nicht hat?!

    Wenn wir uns die Grafikkarte von unten ansehen, sehen wir, das die Lüfter oben (innen) mit 4 Klips befestiget sind. (bei nächsten bilder düften es besser erklären)

    Diese Art der Befestigung find ich persönlich etwas blöde, da es einem "Normalen" PC-User das Reinigen der Grafikkarte echt schwer machen könnte!

    Dann muss der Kühler von Hand demontiert werden, man kommt mit einem Pinsel oder Staubsauger schlecht an die Lamellen ran. Außerdem is die Gefahr groß einen der Lüfter zu zerstören.


    Die Klips sind an 4 Ecken vor zu finden. Man kann sie mit einem  Schlitzschraubenzieher nach außen ziehen und den "Deckel" dann abheben.

    VORISCHT!!!
    Nich zu derb nach innen drücken, da die Alulamellen wirklich sehr dünn sind und sich deshalb schnell verbiegen!

    Jetzt überkommt mich auch ein Kribbeln in den Fingern. Ich möchte MEHR sehen, das "Herz" (GPU) dieser GTX680 z.b.

    Ihr wolle es doch auch sehen oder nich?! :D

    Also Schraubenzieher raus und...

    Oh Moment, eine Kleinigkeit noch, hier noch die Anschlüsse für ein SLI Gespann:





    back to top

    Impressionen III, die PoV/TGT GTX680 Ultra Charged nackt:


    Ja richtig gelesen, wir werden die GTX680 jetzt mal "ausziehen" und schauen, was wir alles so finden.

    Ich mache das mal so, wie ich den Kühler Demontiert hab.

    Als erstes hab ich oben den "Deckel" mit den Lüftern demontiert. Dazu hab ich ja etwas weiter oben schon was zu geschrieben. Die 4 Klipse allein sind aber nich genug!

    An dem Deckel hängt ja das Kabel, das die Lüfter mit Strom versorgt und somit auch die Steuerung der Lüfter übernimmt. Das Kabel dient auch dazu, die Lüfter je nach Temperatur hoch oder runter zu drehen. Dies geschieht via Spannung, diese wird je nach fall erhöht oder gesenkt.

    Das Kabel ließ sich auch nicht einfach abziehen, da eine kleine Brücke über dem Kabel montiert ist!
    (auf dem bildern nicht wundern, ich hatte die karte schon komplett demontiert, dies is nur zwecks einer besseren ansicht so gemacht!)


    Find ich eigentlich gar nich mal so schlecht die idee mit der "Brücke". Das gibt dem Kabel noch mal etwas mehr halt. sie lässt sich auch leicht demontieren! Dazu müsst ihr auf der Rückseite nur die zwei schrauben (auf der folgenden abbildung ganz links) lösen:


    ohne diese Brücke kann man also nun leicht den Stecker lösen.


     Und schon wären die Lüfter ab:



    Man sieht auch dieses große Schwarze Feld, dort hätte man platz ein Aufkleber oder Ähnliches drauf zu machen. Z.b. ein PoV, NVIDIA Logo... or what ever.

    Diesen Plazt hätte TGT auch für ihr Logo nehmen können. ;)


    Wenn ihr das geschafft habt, kommt ihr auch sehr gut an die Lamellen des Kühlkörpers!
    (auf dem folgenden Bild wegen veranschaulichung auch schon einen schritt weiter!)


    Hier sieht man schön, dass man auch mit einem Pinsel die Lamellen Säubern kann.
    z.B. den Pinsel von oben nach unten führen. Aber auch hier Vorsicht walten lassen, bedenkt das die Lamellen wirklich sehr dünn sind. Mit dem Staubsauger könnte man jetzt auch absaugen, aber bitte keinen Plastik Aufsatz nutzen und über die Lamellen ziehen.

    Ihr fragt euch jetzt bestimmt warum der Kühler schon Demontiert ist oder?

    Das war der nächste logische Schritt für mich!
    Warum?!
    Weil die Back Plate hinten an ein andere Platte geschraubt is ("front plate"), die auf der Grafikkarte liegt!

    Das sieht man auf diesem Bild gut:


    Der Kühlblock lässt sich einfach durch vier schrauben auf der Rückseite lösen. Man sieht es auf der Rückseite:


    Ihr seht recht und links neben dem Scan Code die zwei Löcher, direkt nach unten sind weitere zwei.
    Diese vier Schrauben lösen und ihr könnt den Kühlblock abnehmen.

    BITTE VORSICHT!
    Durch die aufgetragene Wärmeleitpaste kann der Kühlblock an der GPU Kleben!
    Nicht zu derb dran ziehen, da sich ggf. die Platine der Grafikkarte zu stark durchbiegen kann. Außerdem haltet ihr ja den Kühlblock an den Dünnen Alulamellen fest, diese biegen sich extrem leicht.
    Sry aber ich kann es nicht oft genug sagen, das solche Lamellen echt empfindlich sind. ;)

    Ich mach es so, dass ich den Kühlblock minimal schwenke und dabei vorsichtig ziehe.

    Is das gemacht, halten wir den Kühlblock auch schon in der Hand:



    Kurz mal ein Blick auf die Lamellen, dann seht ihr evtl. wir dünn sie sind:


    Man wollte scheinbar sogar das Verletzungs Risiko reduzieren und hat die Durchgangslöcher der Gewinde am Boden des Kühlkörpers angeschliffen, um so die entstandenen Scharfen Kanten zu brechen. xD


    Auf den ersten Blick muss ich wirklich gestehen, die Verarbeitung des Kühlkörpers ist wirklich TOP!
    es gibt keine wirklichen scharfen Kanten, alles ist fest montiert, nichts ist verbogen und meines achtens auch recht gut durchdacht!

    Wie man evtl. erkennen kann, wurden bei den Gewindebohrungen 4 Gewindeadapter eingesetzt.
    (von innen auf außengewinde, damit man den kühlblock gut montieren kann. diese scheinen aus metall zu sein, eine demontage ist nicht notwendig! das gute an solch einem adapter ist auch, hier kann man die schrauben bei bedarf öfters lösen und anschrauben. ein so kleines und feines gewinde im aluminium würde sehr schnell "ausleihern"!)


    Man erkennt hier auf den Bildern auch die verbaute Kupferplatte. Die Heatpipes liegen also nich direkt auf der GPU und somit is die kleine Kupferplatte eine kleine "Drossel" für die Wärmeableitung. Viel wird es sicher nicht sein, aber man hätte evtl am Material Sparen können, wenn die Heatpipes direkt auf der GPU gelegen hätten.

    Dass es machbar ist, zeigen viele andere Kühler.

    Solch eine Kleine Kupferplatte wird nicht viel kosten, aber der Hersteller würde anhand der Maße, der hergestellten Kühler, einiges an Geld einsparen können. Meine Meinung zumindest. ;)

    Die Kupferplatte ist nicht einmal groß Poliert oder ähnliches, das müsste man bei Aufliegenden Heatpipes ebenfalls nicht zwingend beachten.


    Auf folgendem Bildern sieht man sehr gut, dass die Oberfläche der Platte wirklich sehr raus ist. Also auch einige "Risse" vorhanden sind, in diese drückst sich dann logischerweise auch Wärmeleitpaste.



    Ich finde Wärmeleitpaste Bremst aber auch den Durchfluss der Temperatur.

    Das sind zwar alles nur Kleine unterschiede bzw. angemerkte Mankos, aber im Idealfall kann durch optimieren dieser kleinen Mankos einiges an Temperatur gut gemacht machen.

    Ich würde meinen so gut 4-5° (oder mehr) könnten drin sein.
    (so hatte ich das zumindest bei meiner CPU und dem Kühlblock von der Wasserkühlung! der Kupferboden ware ebenfalls sehr raus, nach dem polieren lag der temperatur unterschied wirklich bei +5°! statt 62° hatte ich nur noch 57°, was schon eine menge ist in meinen augen. und nein, der kühlblock saß vorher nicht falsch auf der cpu, wurde mehrmals de- und montiert.)
    Außerdem wäre das für einen Overclocker schon ein Manko da es heißt:
    "Je kühler ein Chip, umso mehr Overclocking potential KANN vorhanden sein.“

    Niedrigere Temperaturen bedeuten aber meines Wissens auch oft, dass der Chip z.B. eine längere Lebensdauer besitzen KANN.

    Meine persönliche Meinung ist also, je glatter die Fläche umso besser der "Temperaturfluss".
    Es muss weniger Wärmeleitpaste aufgetragen werden und somit ist die Wärmeübertragung "direkter".
    Was beim Aufliegen der Heatpipes wahrscheinlich sogar noch effektiver wäre.

    schauen wir und mal die Heatpipes an:


    Die 5 Heatpipes sitzen unten zwischen der Kupferplatte und dem Alu Kühlkörper. Wie man gut sieht gehen zwei "nach hinten" und drei andere "nach unten". Das erkennt man hier wahrscheinlich besser:



    Diese Art der Kühlung ist eigentlich schon sehr effizient. Also ich bin mal gespannt was die Temperaturen später sagen und was die Lautstärke der Karte macht.

    Aber erst mal wollen wir die PoV/TGT GT680 Ultra Charged ja noch weiter auseinander nehmen... oder?! ;)

    Um alles zu sehen müsste also auch die Back Plate ab. Wir rufen uns kurz in Erinnerung, da waren sechs schrauben zu lösen und auf der anderen Seite befand sich noch eine andere Plate.

    Man sagt ja meistens: Auch ein schöner rücken kann entzücken. ;)
    Also schauen wir uns doch mal die Rückseite genauer an:




    Die Platte is aus dünnem Blech und schwarz lackiert, optisch sehr gut verarbeitet. Sie besitzt einige Schlitze, durch die die entstehende Wärme. z.B. der verbauten Speicher entweichen kann.

    Die Back Plate liegt aber auch nicht direkt auf und es sind auch keine Wärmeleitpads vorhanden, die die Wärme an die Back Plate übertragen würden.

    Man erkennt auch gut die kleinen Wölbungen und "Kunststoff Puffer", die ein direktes aufliegen der Back Plate verhindern. Somit entgeht man der Gefahr eines Kurzschlusses sehr effektiv.


    Dann haben wir nun also einen guten Ausblick auf die Rückseite der Grafikkarte:


    Was gibt es denn auf der Rückseite schönes?! Natürlich nicht viel, womit wir etwas anfangen können.

    Alles ist wirklich sehr gut Verarbeitet, auch die Lötstellen sind sehr sauber wie ich finde.

    Wir sehen z.b. die verbauten Speicher.
    Es handelt sich auf der Rückseite um GDDR5 Speicher aus dem Hause Hynix. Da auf der Vorderseite auch 8 verbaute RAM steine sind (also insgesamt 16), erschließt sich mir, das einer dieser Ram Baustein eine Größe von ca. 250MB Besitzt.

    Multiplizieren wir diesen mal 16, kommen wir auf 4000MB, also rund 4GB an Speicher.

    wen es interessiert, technische daten zu dem speicher findet ihr z.b. hier:

    Was erkennt man noch?!

    Da wäre der 2/3/4/5-Phase PWM Controller aus dem Hause Richtek:

    wer mehr darüber wissen möchte, kann sich hier mal umschauen: 


    Natürlich erkennen erfahrene Leute da noch mehr, aber ich denke für diesen Blog reicht das wohl.

    Was man sich auf dem Letzten Bild noch anschauen kann sind die Lötstellen der Spannungsversorgung.

    Wir erinnern uns, NVIDIA Referenz hat 2x 6Pin, die PoV/TGT GTX680 Ultra Charged jedoch benötigt 1x 6pin und 1x 8pin!

    Nun aber mal weiter im Text, wir wollen ja schließlich das HERZ der GTX680 sehen.
    Weiter oben hatten wir das Bild schon mal gesehen, aber das Herz is ja doch sehr eingesuddelt wie ich finde. Also Raue Oberflächen benötigen zwar etwas mehr Leitpaste, aber das war schon sehr viel des guten. :D


    Aber da is ja auch noch die "Front Plate". Da wir die Back Plate abgeschraubt haben, is die "Front Plate" auch schon lose, allerdings "Klebt" sie etwas fest. Das liegt an den Wärmeleitpads die hier zwischen gelegt wurden. Sie Übertragen die Wärme der Rams usw auf die Plate, gekühlt wird diese durch die Montierten Lüfter am Kühlblock.

    Die Pads kann man auf folgenden Bildern gut sehen:



     

    die "Front Plate" scheint aus Alu zu sein, sie wurde schwarz lackiert und schaut nach gebürstetem Alu aus. Ein echt toller Look, den man aber leider nicht wirklich auf den ersten Blick über die Gesamte Grafikkarte sieht.

    Auch hier hat man wieder Wert auf die Verarbeitung gelegt, was uns u.a. die Gewinde zeigen. Hier wurden scheinbar Gewinde aus festerem Metall eingestanzt. Das Garantiert einen guten und festen Halt, sowie eine längere Lebensdauer des Gewindes.

    Hinzu kommt, dass ich keine scharfen Kanten oder ähnliches vor fand.

    WIRKLICH TOP!

    So nun wäre also der Blick auf die "Vorderseite" der Grafikkarte frei.

    Wie sieht es denn aus mit der GPU, dem HERZ der PoV/TGT GTX680 Ultra Charged?!

    The "Nacked" PoV/TGT GTX680 Ultra Charged:


    Ich denke hier gehen wir auch nich so sehr in die Details, wo was verbaut ist. Soviel Ahnung hab ich selbst auch nich. ;)

    Was wir aber am Layout der Platine erkennen könnten... wenn man auf dem folgenden Bild rechts oben die Ecke anschaut, dort wo die Anschlüsse für die Stromversorgung sind, sieht man das es auch möglich gewesen wäre, einen "Turm" (die anschlüse übereinander, statt nebeneinander) zu bauen. Aber nebeneinander ist hier wohl doch die bessere Lösung. Ein "Turm" würde mit dem Kühlkörper kollidieren und in diesem Fall nur Platz klauen. Es zeigt aber, das hier verschiedene Arten zur Stromversorgung geboten werden.


    Einge der Verbauten Elemente, Mosfet's usw.


    Auf dem Folgenden Bild sehen wir auch die anderen 8 Speicher Bausteine. Und wir kommen dem Grafikchip näher.



    Aus der Nähe betrachtet können wir nicht viel erkennen, dass verdanken wir wohl der ganzen Wärmeleitpaste.

    Also putzen wir das Baby mal... runter mit dem zeugs. ;)

    Da ist er also, der GK-104-400, das Herz der GTX680.


    Ich hab so viel Wärmeleitpaste vorgefunden, dass es für den Zusammenbau mehr als ausreichend war. Das sah dann so aus:


    Auch dies ist eigentlich "viel zu viel" des guten, aber in Anbetracht dessen, das der Kupferblock solche Unebenheiten hat, fand ich es sinnvoller etwas mehr auf zutragen.

    Logischer weise überträgt sich die Wärme durch die Wärmeleitpaste besser als durch Luft. ;)

    Jetzt würd ich sagen haben wir die Karte genug entblößt und bauen sie wieder zusammen.

    Da bin ich einfach in umgekehrter Reihenfolge dran gegangen.

    1. "Front Plate" richtig aufsetzen, mit der Back Plate und den 7 Schrauben Montieren
    2. Wärmeleitpaste auftragen (für mich war es so rum sinniger, da ich die gefahr einer statischen entladung auf die Grafikkarte vermindere)
    3. Das Lüfter Kabel angeschlossen und die Brücke Montiert
    4. Kühlblock mit den 4 Schrauben befestigen
    5. Den "Deckel" mit den Lüftern auf setzen (hier bitte wieder vorsichtig... auf die Lamellen achten! ;)

    So fertig, dann bauen wir das Baby doch mal ein oder?



    back to top

     

    Einbau einer Grafikkarte:


    Kommen wir dann mal zum Einbau der Grafikkarte. Da dies mein Refernz Review zu Grafikkarten ist, wollte ich es gern mit rein nehmen... es gibt leute die sich nicht damit auskennen und denen ich gern helfen möchte. Wer sich also damit auskennt, kann diesen abschnitt gern überspringen. Dann bitte etwas hochscrollen, klick auf "back to top" und den gewünschten abschnitt wählen. ;)

    Eigentlich ist es schnell gemacht, allerdings solltet ihr evtl. ein paar Sachen beachten!

    Die PoV/TGT GTX680 Ultra Charged is recht groß bzw. lang!

    Hier mal ein Vergleich:

    Von links nach rechts sehen wir:

    1. PoV/TGT GTX660Ti Ultra Charged 2GB (ca 203mm lang)

    2. EVGA GTX660Ti SC (ca 241mm lang)

    3. PoV/TGT GTX680 Ultra Charged 4GB (ca 262mm lang)

    4. Asus HD6950 DirectCU II (ca 290mm lang)

    An der HD6950 erkennt man an der Blende, das knapp 3 PCI Slots bedeckt werden.
    Anhand der PCI Slot blende is es der bei der GTX680 (2 PCI Slots) vielleicht nicht sofort ersichtlich. Aber wenn man das rechte Bild anschaut, sieht man, dass der Lüfter über dem 2ten PCI Slot geht.



    Sie hat also eine Länge von ca. 262mm und ist ca. 118mm hoch.
    Somit belegt sie fast 3 PCI Plätze.

    Das heißt wir müssen beim Einbau aufpassen, ob wir auch genug Platz haben.

    Weil wir wissen jetzt z.b. nicht, wird mir eine Grafikkarte irgendwelche Steckplätze für SATA oder so wegnehmen.

    Wie bekommt man das raus?! 

    Folgende Bilder dienen nur zu Info, sie sollen keinen Hersteller Kritisieren oder verunglimpfen!!! 

    Da Mainboards aber auch Grafikkarten im Grunde fast immer den gleichen äußeren Aufbau aufweisen, dienen folgende Bilder einfach nur als Beispiel!

    Ich versuch mal zu erklären, wie ich mir das so vorstelle... bzw. wie ich vorgehe.

    Also man schaut sich einfach mal ein Bild von seinem Mainboard an. 
    (als erstes beispiel mein privates board)



    Die Abstände für die PCI bzw. PCI/E Steckplätze sind genormt!  
    (das bild unten zeigt anhand der zahlen 1-7, was bzw wo pci - pci/e steckplätze sind.)

    D.h. EGAL welches Board, welche Grafikkarte... oder welcher Hersteller, die Abstände zwischen den PCI Plätzen sind wirklich immer gleich!

    Das is schon mal mein erster Anhaltspunkt.
    Da die Abstände vom PCI Platz immer gleich sind, kann ich ungefähr sagen, wie weit eine Grafikkarte "nach unten" geht.  
    (Die "Steckverbindung" einer Grafikkarte ist beim Einbau immer oben... von da aus kann man also abschätzen wie weit sie nach unten gehen würde.)

    Beispiel 1, mein Mainboard:
    (ein etwas älteres Board, sockel 775. markeinführung war ca ende 2009):


    In dem Rot-Gelben Kasten seht ihr jetzt den Steckplatz für die Grafikkarte. (steckplatz nr. 3 (PCI-E 2.0 16x))

    Wenn man nun also die GTX680 in den PCI/E 16x Platz steckt, verdeckt die Karte also theoretisch alles von Steckplatz 3 bis 5. (wir erinnern uns, die GTX680 belegt knapp 3 PCI Plätze.)

    Im Handbuch des Mainboards erfahre ich, wie groß mein Board ist.  

    Meins hat einen ATX Form Faktor und ist ca. 305mm Hoch und ca. 210mm breit.

    Da is also der nächste Punkt!

    Das Board is ca. 210mm breit, die GTX680 is jedoch ca. 262mm lang! 
    Die Grafikkarte geht also über das Board hinaus, sie steht immer diagonal zum Mainboard. 
    Wenn man also frontal drauf schaut, geht die Grafikkarte vom Anfang der Kante links nach rechts vom Board. (teilweise auch drüber hinaus wie wir eben feststellten.)

    Da ich nich wirklich gut im Erklären bin, zeige ich euch einfach mal ein Bild:


    Die PoV/TGT GTX680 Ultra Charged is schon nen ordentlicher Brummer oder?! :D 

    Man erkennt auch gut, dass die Grafikkarte wirklich einiges an Platz benötigt

    Woher weiß ich dann ungefähr, ohne die Karte einzubauen, wo ich evtl. Probleme haben könnte?!

    Nun ist es eigentlich recht einfach, wir haben gesagt:
     

    1. Board = ca. 210mm breit, Grafikkarte ca. 262mm lang.  
    Die Grafikkarte geht also übers gesamte Mainboard!

    2. Die Grafikkarte belegt ca. 3 PCI/E Slots, ergo "denke" ich mir einfach ein Rechteck in dem Bereich und sehe wo es evtl. knapp wird.

    Beispiel, wieder mein privates Board:


    Das grüne Rechteck steht für die ungefähre Größe der Grafikkarte. 
    Die gelben Rechtecke sind Steckplätze die evtl. "Gefährdet" sind/sein könnten.

    Wie man sieht, die Grafikkarte liegt theoretisch auf 4 SATA Steckplätzen und definitiv auf zwei PCI/E 1x Plätzen.

    Also theoretisch  würden mir 4 SATA Anschlüsse weg fallen. Bleiben also theoretisch nur  noch 2 übrig.  Gleiches gilt für die PCI/E Steckplätze,  statt 4 hab ich nur noch 2 (über der grafikkarte).

    Wie sieht es in der Praxis aus? 

    Die zwei PCI-E Plätze fallen wie gesagt definitiv weg, weil für weitere Steckkarten (wie z.b. usb-steckkarte") ist absolut kein Platz.

    Bei den SATA Steckplätzen verhält es sich etwas anders.
    Da die Karte nicht ganz 3 PCI Slots belegt und der "Lüfterdeckel" etwas "abgeschrägt" ist, komme ich ganz knapp mit den unteren 4 SATA Plätzen hin. Die zwei oberen sind jedoch unbrauchbar. 

    Zwar gibt es SATA Kabel die abgewinkelt sind, aber durch den Aufbau des SATA Anschlusses, geht der abgewinkelte teil nach unten.  

    Das liegt an dem "umgekippten L" (die anschlussform auf dem mainboard).  
    Die kurze Seite des "L's" zeigt auf den Mainboard Anschlüssen nach unten, schauen wir uns also den Abgewinkelten SATA Stecker an:



    Wir sehen also, auch hier zeigt die kurze Seite des "L's" nach unten. Somit wird das Kabel nach unten geführt. Wenn ich so ein Kabel also auf die Oberen SATA Anschlüsse stecke, verdeck ich mir logischerweise alle darunter liegenden Anschlüsse.

    Durch die Größe der Grafikkarte, hätten wie bei diesem Board einen Verlust von 6 Steckplätzen.

    Ergo sollte man abwägen, was man an anderen Komponenten im Rechner hat und unbedingt braucht!

    Ich muss also als Endkunde selbst ein wenig überlegen, was ich mit meinem System anstelle und auch anstellen möchte. Brauch ich jetzt z.B. 2 Festplatten und ein SATA DVD Laufwerk, hab ich hier schon ein kleines Problem mit den Anschlüssen.

    Mit dieser Karte ist es zwar möglich die Unteren 4 SATA Ports zu nutzen, das ganze is aber nicht unbedingt als Dauerlösung anzusehen. Warum?

    Am besten schaut ihr selbst:






    Wie man unschwer erkennt, man kommt kaum an die SATA Kabel und schlimmer noch... sie sind nach unten gedrückt und schleifen am Lüfter!

    Das is schwer ungesund für den Lüfter, aber auch für die SATA Steckplätze, sowie die SATA Kabel an sich. Auf Dauer wird irgendwas einen Defekt erleiden.

    Es geht natürlich auch anders!!!
        
    Wer jetzt denkt, wenn die PCI Plätze genormt sind, dann sind es auch die anderen Steckplätze.

    Genormt wird aber meist die Anschlussform, aber nich zwingend wie sie am Ende zustande kommt bzw. in welche Richtung sie geht.

    Beispiel 2:

    Nehmen wir ein aktuelles Board, dies hat laut Hersteller folgende Größe: 
    ATX Form Faktor, Höhe 305mm x Breite = 244mm

    Die GTX680 is also mit ihren ca 262mm immer noch größer als das Board.
    (Man denke nun wieder an die höhe der Grafikkarte ca. 3 PCI Slots)

    Dann ergibt sich folgendes Bild:  


    Auch wieder der gleiche Fall, aber nur bei den PCI-E 1 Steckplätzen.
    2 fallen weg, von 3en bleibt mir also nur noch einer.

    Also bitte immer auf diese PCI-E Plätze achten und schauen wie viele ihr davon braucht. ;)

    Beim Anschluss der SATA Kabel sieht es aber ganz anders aus! 
    Wir sehen rechts, in dem gelben Rahmen, das die SATA Steckplätze abgewinkelt sind und somit direkt nach rechts vom Board weg führen.

    Somit bleiben uns ALLE SATA Steckplätze erhalten!
    Aber bevor ihr versucht mit eingebauter Grafikkarte an den Kabeln rum zu fummeln... lasst es sein, ungeschickte Hände könnten schnell was brechen lassen. Also Grafikkarte raus, dann an die SATA Kabel. ;)

    Das sollte man evtl. hier erkennen:



    Wie man sieht ist nich wirklich viel platz um die SATA Kabel abzuziehen.

    Genug der Threorie, ihr könnt euch selber mal gedanken machen, wieviele und welche Steckplätze auf eurem Board durch die PoV/TGT GTX680 Ultra Charged weg fallen könnten.

    Bevor ihr die Grafikkarte einbaut, hier ein weiter Hinweis:
    (die meisten kennen es schon, ich möchte es aber dennoch gern erklären. ;) )


    Man kann sich durch seine Kleidung (o.ä.) Statisch aufladen.

    Fast jeder kennt es bestimmt, man will seine Frau/Perle/Mann/Typ an die hand nehmen oder evtl auch knutschen und KLATSCH... kriegst erst mal eine gewischt.


    Nein... ich mein natürlich nicht die Hand ^^
    Der kurze, aber doch gut spürbare Stromschlag!

    Genau diese Elektrische Entladung kann bei einer Berührung unter Umständen auf eure Grafikkarte oder anderen PC Komponenten übergehen.  
    Dies kann einen Defekt hervorrufen!!!

    Dem entgeht ihr, wenn ihr z.b. kurz an eine Heizung packt.

    Richtige PC Schrauber müssen... bzw. sind ständig geerdet, um einen Defekt an den PC Komponenten zu vermeiden! Nach dem Erden möglichst wenig bewegen, also bitte nich erst noch mit nem Wollpulli ne std. rum joggen und dann ran an den PC. ;)

    Fachleute aber auch Hobbybastler, die mit Platinen (sogenannte PCB's) arbeiten, sind ständig mit einem erdungskabel geerdet, um eben solch statische Entladungen auf die Komponenten zu vermeiden. :D

    Was auch wichtig sein könnte...

    Manche Menschen finden es ja richtig toll wenn sich was dreht oder so.
    Also drehen sie gern mal die Lüfter und schauen wie laut se werden wenn man ihnen von Hand so richtig Schwung gibt. Oder vielleicht klappert ja was?!

    Bitte NICHT machen!

    Durch eine schnelle Drehbewegung des Lüfters entsteht Storm, dieser kann an die Grafikkarte weiter gegeben werden und ebenfalls einen Defekt hervorrufen!

    Alles gemacht?!

    Na dann können wir die Grafikkarte jetzt ein bauen. ;)

    Ganz wichtig ist nach dem Einbau und dem Hoch fahren des Rechners, den Treiber für die Grafikkarte zu installieren! Zwar könnte man jetzt die mitgelieferte Treiber CD nehmen und den Treiber installieren, aber diese können auch schnell mal "altbacken" sein.

    Also geh ich bei dieser Grafikkarte, da sie einen NVIDIA Grafik Chip besitzt, auf die NVIDIA Website und lade mir den aktuellsten Treiber runter.

    Wenn ihr euch auf der Seite umschaut ist sie eigentlich sehr übersichtlich gehalten!
    Die Treiber findet ihr oben links.

    Wenn ihr mit der Maus auf den "Button" Treiber geht, öffnet sich ein kleines "Register".
    (ich war mal so frei und habe sie unter den folgenden bildern direkt verlinkt, so müsst ihr nich extra suchen)

    Dort könnt ihr wählen zwischen:

    1. Download Treiber
    2. Betatreiber und archivierte Treiber
    3. Partner Zertifizierte Treiber (Workstation)


    Uns interessieren aber eigentlich nur die ersten beiden, da wir "normalen User" nich wirklich etwas mit Workstations usw zu tun haben!  ;)

    Die Seiten unterscheiden sich auch eigentlich nich groß voneinander.
    Das könnt ihr hier sehen:

    Webside beim klick auf: Download Treiber
    Webside beim klick auf: Betatreiber und archivierte Treiber
    Dort auf den Seiten können wir also quasi Einstellen was wir wollen/brauchen oder suchen.

    Die Auswahl der Treiber geht wie folgt,
    bei Download Treiber:

    1. Produkttyp,
    Es gibt hier viele andere Möglichkeiten, die sind aber eher für die Workstations, Mainboards mit nForce Chipsatz usw. Bei Grafikkarten wie wir "Normalos" sie nutzen, gilt immer... GeForce ;)

    2. Produktserie,
    Ihr müsst hier selber schauen welche Serie ihr habt. Bei einer GTX 560 Ti wäre es z.B. die 500ter Series, bei einer 8800 GTX wäre es die GeForce 8 Series usw... Mal kurz zu Leuten die ein Notebook mit einer NVIDIA GeForce Grafikeinheit besitzen, hier bitte immer nach der M Series schauen. ;)
    Für die PoV/TGT GTX 680 Ultra Charged brauchen wir also die 600ter Series.

    3. Produktfamilie,
    hier sind nun eigentlich alle Grafikchips gelistet, die unter die jeweilige Serie fallen.
    Sprich wenn wir die 600ter Series ausgewählt haben, kommen z.B. die GTX 680, GTX 660 Ti usw.
    Welche Grafikkarte ihr da nun habt wisst ihr doch bestimmt oder. ;)

    4. Betriebssystem,
    Das sollte eigentlich schon alles sagen, hier wählt ihr euer Betriebssystem aus, von Windows XP, Windows VISTA, Windows 7 über Linux bis MAC OSX is eigentlich alles dabei. Auch die Wahl zwischen 32 und 64bit ist wichtig! Also bitte drauf achten.

    5. Sprache,
    wat soll ich dazu sagen? Spricht wohl für sich gell. :D

    Das war's eigentlich, mit einem Klick auf den "Suchen" Button bekommt ihr prompt den für euch passenden WHQL Treiber. Diese sind Zertifiziert und sollten eigentlich keine großen Probleme bereiten. Kann aber hin und wieder vorkommen! ;)

    Nun noch auf "Jetzt Herunterladen" klicken, dann "Akzeptieren und Herunterladen", bissl warten bis der Treiber unten is und Installieren.

    Bei Betatreiber und archivierte Treiber:

    Auf der Seite für Betatreiber und archivierte Treiber sind die Punkte genau gleich, aber es gibt noch einen 6sten punkt, hier könnt ihr wählen zwischen Empfohlenen/Zertifizierten, Beta oder auch alle Treiber. Beta Treiber werden schon mal zwischen geschoben und sind eigentlich auch voll funktionsfähig. Sie besitzen manchmal schon Optimierungen für aktuelle Spiele die z.B. gerad erschienen sind. Klar kann es auch hier vereinzelt mal zu Fehlern kommen.
    Ich persönlich hatte noch keine Probleme damit und halte mein Privates System fast immer mit jedem neuen Treiber aktuell. Sei es Beta oder WHQL. Manchmal kommt es mir sogar vor, als seien die Beta Treiber etwas "Freundlicher". Gerad wenn man seine Grafikkarte übertaktet. Is aber nur so mein persönliches Gefühl.

    Wenn es mal Probleme geben sollte mit einem neuen Treiber, geht auf die Seite Beta- und archivierte Treiber, sucht dort dann nach dem älteren, und installiert diesen.
    Wenn ihr auf der Seite alles gemacht habt wie oben und auf "Suchen" klickt kommt folgende Auswahl:


    Dort habt ihr dann die Auswahl für alle verfügbaren Treiber zu eurer Grafikkarte.

    Übrigens, wenn ihr euch immer noch ich sicher seid ob eure Grafikkarte zu dem Treiber passt, oder ihr vielleicht sogar von einer anderen Website direkt auf die Download Seite eines dieser Treiber kommt... dann klickt mal auf der Seite im Reiter unter dem "Jetzt Herunterladen" Button auf "Unterstütze". Dort sind auch ALLE Grafikchips gelistet die unterstützt werden.

    Ein Beispiel, der GeForce 314.14 Driver :


    Das dürfte aber nun wirklich alles gewesen sein was ihr beachten müsstet.

    Kurz noch zur Installation,
    Bei der Installation könnt ihr wählen zwischen "Express" oder auch "Benutzerdefiniert".
    Ich mach es eigentlich immer mit der Express Installation. Sie "überschreibt einfach den alten Treiber ohne etwas zu ändern, falls ihr was im Treiber geändert habt.



    Nur in Ausnahme fällen wenn es mal Probleme gibt würde ich auf die Benutzter definierte Variante gehen. Dort kann man ein Häkchen machen und eine komplette neue Installation vornehmen. D.h. der alte Treiber wird vorher Deinstalliert.  Siehe Bild:




    Ich würd sagen der Rechner ist endlich soweit fertig für die Tests oder? :D

    Hier also nun die Testsysteme, in denen ich die PoV/TGT GTX680 Ultra Charged getestet hab.



    back to top

     

    Die Testsysteme (Technische Daten)


    Als erstes würd ich gern auf mein Privates System zurück greifen, immerhin will ich ja gern wissen wie die Karte auf meinem System laufen würde. Es ist schon älter und basiert noch auf dem Sockel 775.

    Das zweite System wäre von meinem Kollegen, er wollte wissen ob die Karte auf seinem System besser läuft, als auf meinem. Er hatte ein AMD Board, dies Basierte auf dem Sockel AM2.

    Und zu guter Letzt hatte ich noch das Sample von Gigabyte hier. Der Sockel des Mainboards basiert auf dem aktuelleren Sockel 1155 von Intel.

    Das heißt, ich habe die Grafikkarte also mit 3 VÖLLIGST verschiedenen System getestet.

    Hier mal die genauen Daten des jeweiligen Systems:
    (inkl. link für zu den komponenten)

    1... Mein Priv. System:

    CPU: 
    ((2C/2T) standard 2x 2,4GHz, bei mir aber auf 2x 3,3-,5Ghz!)

    Mainboard: 

    Arbeitsspeicher: 
    4GB DDR2 Ram (@400MHz)

    2... Das System meines Kollegen:

    CPU: 
    ((4C/4T) standard 4x 3,2GHz, hier aber 4x 3,8GHz)

    Mainboard: 

    Arbeitsspeicher:  
    4GB DDR2 Ram (@400MHz)

    3...Gigabyte (Mainboard) und Intel (CPU) Sample:

    CPU: 
    ((4C/8T) 4x 3,5-3,9GHz, hier u.a. auch auf 4,8GHz) 

    Mainboard: 

    Arbeitsspeicher: 
    12GB DDR3 Ram (@667MHz)

    Die Systeme sind also wirklich im gesamten Aufbau unterschiedlich.  
    Das einzige, was sie gemeinsam haben ist:

    1.

    750W Netzteil von CombatPower und eine herkömmliche SATA2 HDD (Festplatte).

    2.
    Als Betriebssystem kam Windows 7 64bit zum einsatz.


    Aber warum mach ich das?! ... Ganz einfach, nicht jeder hat ein super aktuelles System, möchte aber vielleicht dennoch gern gute Grafik sehen und Games "flüssig" Spielen*
    *(mit flüssig spielen verhält es sich vom empfinden des menschen her, sehr unterschiedlich. man sagt: "im normal fall is alles über 30FPS (bildern pro sekunde) für das menschliche auge "flüssig" im bildablauf." )

    Man könnte sich so also ein kleines Bild machen, ob und wie groß der Performance Unterschied in Spielen zwischen den Systemen sein kann, wenn man nun so eine Grafikkarte einbaut bzw. einbauen möchte. Muss man je nach CPU schon mit Performance Einbußen rechnen oder nicht?

    Mir persönlich stellt sich also die Frage, würde eine Potente Karte wie die PoV/TGT GTX680 Ultra Charged zum Aufrüsten ausreichen, oder bremsen die anderen Komponenten tatsächlich schon aus?!  

    Ich würd sagen wir fangen mit der beliebtesten Art an, wie man PC Systeme Bencht.

    Darunter sind die wohl bekanntesten Benchmarks von Futuremark. z.b. 3DMark Vantage, 3DMark 11 usw. 



    back to top

    Was sind Benchmarks alà 3DMark?


    Jeder Voll Horst wie meiner einer Installiert zunächst alle Treiber 

    Benchmarks von Futuremark werden gern von Gamern und PC Freaks genutzt um ihr System mit anderen zu vergleichen. 

    Das Programm läuft eine Reihe von Tests durch und bewertet anschließend den Ablauf des Tests mit Punkten (Scores). Die Tests gehen über die Grafikschnittstellen wie z.b. DX9.0, DX10, DX11bis hin zu CPU und "Physikalischen" Tests.

    Bei den Grafikschnittstellen sind die DX11 Grafikkarten z.b. abwärtskompatibel zu DX10, DX9.0 usw. Anders rum geht es nicht! Wenn ihr eine Grafikkarte habt, die "nur" DX10 beherrscht, werden DX11 Tests/Benches und Spiele nicht laufen!

    Die meisten schauen immer auf die Scores und sagen YEAH ich hab 20 Scores mehr wie du, ich bin der King und hab den Längeren... Mein System wird Games besser rocken als dein Krüppel. xD

    Deswegen wollt ich mir das ganze mal genauer anschauen und nehme es mal unter die Lupe. Natürlich mit meiner persönlichen Meinung. ;)

    Wenn ihr mit schauen wollt, könnt ihr gern weiter lesen, ansonsten überspringt diesen Abschnitt in dem ihr auf den Button klickt:

       

    Nehmen wir uns jetzt einfach mal als Beispiel den 3DMark Vantage, dieser bedient die DX10 Schnittstelle und bewertet das System im Ganzen, aber auch im Einzelnen. Darüber hinaus werden auch die Technischen Daten des Systems sowie die jeweiligen Einstellungen des Benchmarks angezeigt.

    Wenn ein Bench durchgelaufen ist geht der Browser auf und ihr seht oben auf der Seite eure Gesamtpunktzahl und mit welcher Grafikkarte bzw welcher CPU gebencht wurde. Darunter und etwas kleiner dann Graphic Score (grafikkarte) und CPU Score (CPU)

    Das sieht dann z.b. bei Vantage so aus:


    Als nächstes seht ihr dann ein Diagramm, dass die Scores eueres Systems mit anderen "Vergleicht".



    Der Orange Balken zeigt uns, wo wir ungefähr stehen. Dieses System steht z.b. bei 111 vergleichbaren Systemen. Das liegt daran, dass ich das Threading des Core i7 3770k im BIOS ausgestellt habe! (erklärung später!) Somit gab es weniger Punkte/Scores. Verglichen wird in diesem Diagramm scheinbar nur der ungefähre Score, nicht die jeweiligen Einstellungen.
    So denk ich mir das zumindest, weil sonst würde das Diagramm wahrscheinlich zu chaotisch werden. ;)

    Ach so über dem Diagramm...

    1. Bei Ihrem Ergebnis sind die folgenden Probleme aufgetreten, es wird daher nicht angezeigt (beispielsweise in Ranglisten).

    Das sagt eigentlich nur aus, das ihr mit einem BETA Treiber gebencht habt. "Anerkannt" werden für offizielle Benchmark Ergebnisse wohl  nur WHQL (von windoof zertifizierte treiber).
    Deswegen wird Futuremark dieses Ergebniss auch nicht mit in die Rangliste aufnehmen!

    Und 2. Wenn ihr einen Account bei Futuremark habt, wird euch auch euer Name angezeigt und was ihr als Beschreibung angegeben habt. Ihr könnt dann euer System auch direkt mit anderen Vergleichen, dazu genügt meist ein Klick auf den Button oben rechts "Zum Vergleich hinzufügen"

    Ganz rechts habt ihr noch die Info wann und mit welcher Version 3DMark Vantage bebencht wurde. Naja und en bissl anderes Infozeugs und Werbung, muss man net unbedingt anklicken. *frechgrins

    Es folgen dann die Daten zur verbauten Grafikkarte und der CPU, allerdings manchmal mit nem kleinem "Fehler":


    Bei der Grafikkarte steht z.b. Core-Takt 705MHz, dies ist nicht wirklich korrekt. Die PoV/TGT GTX680 Ultra Charged taktet mit ca. 1111-1176MHz. Selbst wenn ich den Takt noch höher setze auf z.B. 1200MHz sagt mir 3DMark nen Takt von 705MHz. Ich nehme an das liegt an der neuen Architektur und wurde noch nicht geändert. Inwiefern bzw. Was 3DMark da nun ausliest kann ich mir nicht erklären.

    Bei der CPU allerdings ist alles Korrekt, der Takt war auf 3,8MHz und das Threading Deaktiviert!

    Deswegen steht dort bei Physische/logische Prozessoren: 1/4. (Ein (1) "physischer" prozessor mit 4 physischen Kernen)

    Wäre das Threading an, würde dort stehen: 1/8, Anzahl der Physischen Kerne 4 aber durch das Threading +4 imaginäre (logische) Kerne, das sogenannte Threading.
    (1 CPU (physisch) mit 4 physischen kernen aber 8 threads gleichzeitig (8 "logische" kerne)).

    Scrollt man noch etwas tiefer kommen wieder ein paar Allgemeine Daten wie z.B. das verwendet Betriebssystem, Anzahl und Größe der Arbeitsspeicher usw.



    Wenn man auf der Seite noch etwas runter scrollt, kann man sich auch die Detaillierten Scores bzw. Werte anschauen. Dazu klickt man einfach rechts auf den kleinen Pfeil neben dem "Detaillierte Scores".

    Hier werden ebenfalls die Gesamten sowie die einzelnen Scores angezeigt.
    Aber auch die FPS (bilder pro sekunde), die eine Grafikkarte macht, und die Operations/s.
    (wieviele operationen pro sekunde von der CPU berechnet werden, z.b. für physikalische effekte/gegenstände usw.).

    Und da wird es für mich erst richtig interessant! ;)
    warum? das sag ich euch nachher :P ^^


    Zum Schluß noch eben der letzte Teil auf der Seite, hier erfahrt ihr was für Einstellungen beim Benchen genommen wurden. Da ich aber nur die Kostenlose Version von 3DMark habe, lässt sich hier nix verstellen! Sei es die Auflösung, Kantenglättung usw... Also nur mal fix nen Blick darauf werfen, ist wirklich nur interessant für Leute, die sich 3DMark kaufen!



    So das wäre es eigentlich zu dem 3DMark benches.
    Ich hab eben geschrieben, dass es für mich erst bei den Detailllierten Scores interessant wird.

    Das werde ich euch u.a. weiter unten in diesem Abschnitt erklären:



    back to top

    3DMark 03, 06, Vantage und 3DMark 11 Scores:

    So nun wird es spannend, was leistet die PoV/TGT GTX 680 Ultra Charged in Benchmarks?

    Ich habe auch 3DMark03 und 3DMark06 gebencht, da diese aber schon recht "altbacken sind" schneide ich sie nur kurz an und zeige euch was die GTX 680 mit einem Core i7 3770k (@stock/standard!) in diesen Benches macht bzw. wie viele Scores sie dort erreichen wird.

    Also ich zeig euch die Scores in Bildern und verlinke direkt unter dem Bild zum jeweiligen Benchmark Ergebnis, dann könnt ihr gern später selbst vergleichen oder die Details anschauen!

    Wir fangen an mit der PoV/TGT GTX 680 Ultra Charged 4GB und dem Core i7 3770k @stock/standard Einstellungen an.

    3DMark03 - PoV/TGT GTX 680 Ultra Charged - Core i7 3770k @stock
    3DMark06 - PoV/TGT GTX 680 Ultra Charged - Core i7 3770k @stock
    3DMark Vantage - PoV/TGT GTX 680 Ultra Charged - Core i7 3770k @stock
    3DMark11 - PoV/TGT GTX 680 Ultra Charged - Core i7 3770k @stock
    Was einem sofort ins Auge fällt ist, das im 3DMark06 wirklich wenig punkte gemacht wurden. Woran dies liegt weiß ich leider nicht. Selbst der Prozessor Takt wurde hier nur mit etwas über 1,6GHz erkannt.

    Gleich kommt aber etwas Merkwürdiges wo ich mir dann sagte, ok die älteren 3DMark's (03 und 06) nehm ich nicht weiter mit rein!

    Stellen wir also mal das Threading des Core i7 3770k im BIOS aus und gucken uns dann die Werte an. Also statt der 4 Kerne/8 Threads sind es dann 4 Kerne/4 Threads.

    PoV/TGT GTX 680 Ultra Charged 4GB und der Core i7 3770k NON Threading.

    3DMark03 - PoV/TGT GTX 680 Ultra Charged - Core i7 3770k non threading
    3DMark06 - PoV/TGT GTX 680 Ultra Charged - Core i7 3770k non threading
    3DMark Vantage - PoV/TGT GTX 680 Ultra Charged - Core i7 3770k non threading
    3DMark11 - PoV/TGT GTX 680 Ultra Charged - Core i7 3770k non threading
    Wenn man sich die "Final Scores" mal anschaut, sind das nur minimale Unterschiede wenn das Threading Deaktiviert wird.

    Aber beim 3DMark06 hatte ich FAST die gleiche Punktzahl obwohl in den Details drin steht das die CPU nun mit 4GHz taktet...das machte mich stutzig! Habe dann mal beide Resultate Verglichen und siehe da, trotz angeblich höherem Takt fast die gleiche Punktzahl.

    Ich werde mal weiter unten genauer drauf eingehen und die 3DMark Ergebnisse auseinander nehmen. Aber zunächst die anderen beiden CPUs.

    AMD Phenom 2 x4 955 BE und die PoV/TGT GTX 680 Utra Charged.

    3DMark Vantage - AMD Phrenom 2 x4 955 BE @ 3,7Ghz - PoV/TGT GTX 680 Ultra Charged
    3DMark11 - AMD Phrenom 2 x4 955 BE @ 3,7Ghz - PoV/TGT GTX 680 Ultra Charged
    Hier sehen wir schon das die Scores weiter runter gehen. Also scheint die CPU evtl. zu schwach zu sein?! Ob dem so, und wo es genau hängt, schauen wir uns nachher an!

    Jetzt kommt erst mal der:

    Core2Duo E6600 @~3,3GHz und die PoV/TGT GTX 680 Utra Charged:

    3DMark Vantage - Core2Duo E6600 @~3,3Ghz - PoV/TGT GTX 680 Ultra Charged
    3DMark11 - Core2Duo E6600 @~3,3Ghz - PoV/TGT GTX 680 Ultra Charged
    Wow... also mit einem so "Schwachbrüstigen" 2 Kerner brechen die Scores aber gewaltig ein, versuchen wir mal noch die CPU etwas zu übertakten, viel Raum hab ich trotz Wasserkühlung leider nicht mehr.
    Aber auf 3,5Ghz bekomm ich sie noch, ob aber diese 200Mhz etwas bringen ist fraglich!

    3DMark11 - Core2Duo E6600 @~3,5Ghz - PoV/TGT GTX 680 Ultra Charged

    WUHUUUUU knapp 140 Punkte mehr... der Wahnsinn. xD

    Also ich glaub, der Core2Duo kann definitiv nach Hause gehn.
    Aber wir Testen ihn bei den Games noch mit.

    Außerdem... lasst uns mal die Details der 3DMark Ergebnisse anschauen.



    back to top

     

    Die "3DMark's" im Detail:


    Vergleichen wir mal die Benchmarks untereinander in den Details, dazu hab ich ein u.a. paar Vergleiche und Tabellen erstellt. 

    Das möchte ich gern machen weil mir einige Sachen aufgefallen sind, die ich mit euch mal Diskutieren möchte.

    Hier werden wir nur kurz auf die 3DMark's 03 und 06 eingehen, aber auf die beiden aktuelleren 3DMark's tiefer eingehen!

    Wie vorhin schon mal erwähnt, gab es beim 3DMark06 diesem merkwürdigen Score trotz angeblich geringerer Taktung der CPU mit aktiviertem Threading.

    Siehe hier:


    Wie man sieht habe ich den Bench sogar später nochmal laufen lassen, weil ich dachte iwas hab ich falsch gemacht. Ich habe aber an den Taktraten der CPU wirklich NICHTS verändert und komme damit zu dem Schluss, die Benches 3DMark03 und 06 in Zukunft weg zu lassen. Sie sind eh schon etwas älter, aber für mich war es interessant zu sehen was passiert ^^

    Das macht mich natürlich auch neugierig und ich wollte wissen... was ist wenn die CPU "schwächer wird". Das Threading macht sich ja bei den Benches nicht wirklich bemerkbar wie ich finde. also schauen wir doch mal in die Details, wo bekommen wir mehr Punkte, bekommen wir auch mehr FPS?!

    Dieser Wert sagt mir theoretisch, dass zumindest in den Benchmarks z.b. ein Core i5 3570k genügend Power besitzen könnte, um die PoV/TGT GTX 680 Ultra Charged zu befeuern.

    Wie ich zu dieser Aussage komme?!

    Schauen wir mal bei den Benchmarks die Detail Scores an, ich nehme hierfür einfach mal den 3DMark11, dem Core i7 3770k ohne Threading und mit Threading.

    Weil wegen aktuelle DX11 Grafikschnittstelle usw.
    Außerdem ist die PoV/TGT GTX 680 Ultra Charged ja für DX11 gemacht/gedacht oder wie auch immer man das sehen mag.

    Also schauen wir mal:


    Ich habe bewusst etwas mehr in das Bild genommen um zu zeigen, es ist wirklich das gleiche System! Nur das auf der linken Seite das Threading deaktiviert wurde. Ihr könnt auch gern beide links oben klicken und selbst vergleichen. Der minimal kleinere Takt der CPU fällt natürlich nicht wirklich ins gewicht.

    Aber die FPS lassen erahnen, dass dieser für mich wirklich marginale Unterschied KAUM spürbar sein wird. Über 30FPS eh nicht.

    Den Unterschied zwischen 22,5 FPS und 28,93 FPS im Physics Test wird man auch nicht wirklich spüren, es sei den man vergleicht die Systeme DIREKT nebeneinander.

    Das ruckeln macht sich logischerweise bemerkbar, aber ich kann persönlich nicht sagen ob es gerad mit ca. 23 FPS oder mit 29 FPS läuft. Das sehe ich NUR an den Zahlen.

    Was hat das jetzt mit dem Core i5 3570k zu tun?!

    Ganz einfach, vergleicht mal den Core i5 3570k und den Core i7 3770k.

    Worin liegt der Unterschied?!

    Genau das Threading, der 2MB kleinere Smart Cache und das der i5 3570k 100MHz weniger taktet! Okay der Preis natürlich auch noch, aber der is ja gerad mal relativ! :D

    Wer jetzt nich selbst vergleichen will schaut sich mal eben dieses Bild an und vergleicht die Daten mit einander:









    Der kleinere Cache und die 100Mhz weniger lassen sich durch etwas Overclocken "ausgleichen".

    Dazu muss man nicht mal 500MHz höher gehen. Diesen Spielraum besitzen eigentlich fast alles Core CPU's mittlerweile. Vorausgesetzt man investiert das gesparte Geld (gegenüber dem i7) in eine gute Kühllösung.

    Wenn ich als das Threading des i7 3770k deaktiviere, kann ich quasi einen übertakten i5 Simulieren.
    Übrigens, ich hab festgestellt, dass das Threading die CPU sogar etwas mehr erhitzt, ohne Threading waren es gut 5-8° weniger

    Der i7 ohne Threading lässt dich sogar noch besser Overclocken. 

    Bei mir lief bei der Core i7 3770k auf dem Z77X-UD3H mit dem Threading stabil auf 4,85GHz, ohne groß zu testen wo denn überhaupt die Grenze ist. 
    Hier bitte Vorsicht, für diesen Takt habe ich die CPU mit einer Wasserkühlung gekühlt!

    Da es aber schon ein Plus von knapp 1GHz ist, wählte ich diese Einstellung und Benchte erneut. 

    Was logischerweise zur Folge hatte, dass ich WESENTLICH mehr Punkte bekam! 
    Die Grafikkarte war nicht übertaktet, aber es passierte dennoch etwas für mich recht interessantes.

    Schauen wir uns jetzt mal den 3DMark Vantage (DX10 Benchmark) mit 4,85GHz Threading vs. Non Threading an:
     

     
    Deswegen hatte ich das Threading deaktiviert. Ich wollte es wissen, reicht ein i5 oder nicht. ;)

    Und meiner Meinung nach reicht laut diesen Benches ein i5 3570k locker um die PoV/TGT GTX 680 Ultra Charged zu befeuern. Hier gibt es halt ein paar mehr Punkte für die Physikberechnung. Dabei is es im 3DMark11 sogar so gering, das ich ehrlich sagen muss... ein i5 würde mir persönlich für diese Grafikkarte vollkommen reichen!

    Wie sich das allerdings in Spielen verhält und ob sich das so übertragen lässt, sehen wir später.

    Schauen wir mal was mit den "schwächeren" CPU's passiert, vergleichen wir alle CPU's noch mal anhand von Tabellen.

    Ich sage jetzt mal ganz frech, dass wir insgesamt 4 CPUs haben,

    1. Core i7 3770k (Stock and overclocked)
    2. Core i5 3570k (durch deaktiviertes threading "simuliert"! stock and overclocked)
    3. AMD Phenom 2 x4 955 BE (@~3,7Ghz)
    4. Core2Duo E6600 (@~3,3GHz)

    Und danach geht es an die Games, ich hab ca. 11 Games getestet und auch mit allen "4" CPU's! ;)


    Fangen wir damit an den 3DMark Vantage "auseinander" zu nehmen. ;)

    Als erstes die Scores an sich.

    Dabei hab ich einmal die Finalen Scores genommen und dann jeweils die Grafik bzw CPU Scores einzeln angegeben:


    Hier an dieser Tabelle sehen wir schon sehr gut, wie krass die PoV/TGT GTX 680 Ultra Charged mit den CPU's Skaliert. Von den Scores her sind das schon echt enorme Unterschiede oder?!

    Außer bei dem Core i7 3770k, hier sieht man zwischen dem Threading und dem Non Threading beim Graphic Score nur marginale Unterschiede. Beim CPU Score sieht es schon anders aus!

    Also ich für meinen Teil nehme mir dann gern mal noch die Details zur Brust um zu sehen wo genau die Unterschiede zu suchen sind. Weil während die CPU's beim CPU Score gewaltige Unterschiede zeigen, hält es sich beim Graphic Score noch etwas in "Relation". Gerade der Core2Duo macht mit der PoV/TGT GTX680 Ultra Charged einen "recht" guten Eindruck beim Graphic Score.
    Also gegenüber dem CPU Score is der "Punkteverfall" nicht so gravierend finde ich.

    Werfen wir einen Blick auf die Detaillierten Scores, angefangen mit Jane Nash und New Calico, diese legen eigentlich mehr last auf die Grafikkarte. Wie enorm sind die Einbußen mit einer schwächeren CPU unter DX10 Grafik?


    Man sieht hier sehr deutlich, dass die GTX 680 im 3DMark Vantage mit DX10 Grafik auf CPU's extrem reagiert! Wir haben hier deutliche Unterschiede, zwar liegen wir bei allen Benches über 60 FPS ("bildern pro sekunde") aber der Leistungsverlust ist mir dann doch VISUELL aufgefallen.
    Gerad bei dem Jane Nash Bench sind die FPS fast doppelt so hoch. 


    Man sagt ja eigentlich, dass ein menschliches Auge nicht mehr als ca. 30-40FPS wahrnehmen würde.

    ABER ein Sprung von 62FPS auf 120FPS macht sich anhand der Grafikeffekte DEUTLICH bemerkbar!

    FPS sind übrigens Frames per Second, man sagt auch "Bilder pro Sekunde".

    Stellt euch also vor, dass ihr ein "Daumenkino" in der Hand habt. 

    Wir schlagen es auf und sehen z.B. eine schöne Landschaft. 
    Im Hintergrund sind Berge Wolken usw... im Vordergrund jedoch Bäume, Wiese, Blumen usw.. 
    Der Hintergrund bewegt sich langsam und kontinuierlich mit. Das Gras, die Bäume usw. bewegen sich jedoch ständig z.B. durch "den Wind".

    In einem Buch mit 62 Seiten können wir diese "Bewegung" von den Bäumen, mit weniger Details malen wie in einem Buch mit 120 Seiten.
    .
    Wenn man nun die beiden Bücher in einer Zeitspanne von exakt 1sekunde durchblättert, sieht man auf dem Buch mit den 120 Seiten einen "ruhigeren" und "detaillierteren" Ablauf der Bewegung.

    Höhere FPS bedeuten also u.a. einen detaillierteren Ablauf der Bewegungen/Effekte.

    Ausnahme macht mal wieder das Threading vs. Non Threading, ein Unterschied is kaum, eigentlich garnich aus zu machen.

    In vielen Spielen gibt es aber auch noch die Physik, meist berechnet durch die CPU. 
    Also sollten wir da auch einen Blick drauf werfen, gehen aber erst mal nich weiter drauf ein!

    Logisch is bei diesen Tests natürlich, je besser die CPU, desto besser der Score. Weil eine Leistungsstarke CPU mehr Operationen in der Sekunde bewältigt als eine schwache. Und je mehr Kerne eine CPU besitzt, umso mehr Berechnungen kann sie dann auch eigentlich gleichzeitig durchführen.

    Beim Threading verhält es sich meiner Meinung nach so, dass die CPU mit einem Kern, 2 Berechnungen gleichzeitig durchführen kann, deswegen sagt man wohl 4Kerne/8Threads (4kerne/8berechnungen gleichzeitig).
    Das aber auch nur dann, wenn das entsprechende Programm bzw. Game dafür Optimiert wurde!

    Man schaue hier:


    Da merkt man welche CPU die schwächste ist. Was genau diese Tests so darstellen könnt ihr mal bei z.B. Computerbase lesen.  
    Bei Interesse auf diesen link klicken: 3DMark Vantage - Der Performance Report

      
    Mir is aber dann was Interessantes Aufgefallen, wenn ich diesen Vergleich mit dem aktuelleren 3DMark11 auf Basis von DX11 mache, kommt ein für mich recht interessantes Bild zum Vorschein:


    Man beachte mal den Graphic Score, der is bei allen CPU's FAST gleich. Was'n da los?!

    Dass die Physik Berechnungen usw. niedriger ausfallen ist wiederum logisch das sie meist von der CPU, manchmal auch zum Teil von der GPU, übernommen werden. Aber wenn ich an den 3DMark Vantage mit DX10 denke, da war der Unterschied beim Graphic Score enorm!

    Hier mal ein Direkter Vergleich:


    Oder wer es lieber in % sehen will:


    Während unter DX11 der Score Unterschied zwischen einem Core i7 3770k und einem Core2Duo E6600 gerad mal 8% beträgt, is es unter DX10 mit gut 34% nen echt gewaltiger Unterschied was die Scores betrifft.

    Daraufhin hab ich mir dann die FPS genauer angeschaut, dabei kam dann dies zustande,

    Im 3DMark11 und der DX11 Schnittstelle:


    Also hier brechen die Frames nicht so stark ein wie bei dem 3DMark Vantage mit der DX10 Schnittstelle.

    Auch das können wir auch schnell mal anhand einer Tabelle vergleichen:


    Und natürlich für die, die gern %te sehen wollen:


    Das macht das ganze echt Spannend finde ich. Wie wird das Ganze dann also in Games aussehen?!

    Werden die schwächeren CPU's so stark limitieren wie beim 3DMark Vantage?!

    Gibt es 'ne Chance, das ein Core2Duo E6600 @3,3Ghz die Power einer PoV/TGT GTX 680 Ultra Charged umsetzen kann?! 

    Könnte er vieleicht sogar in Games mit einem Core i7 3770k mit halten?!

    Das is doch spannend oder nich?
    Ein Alter 2 Kern Prozessor gegen den eigentlich Übermächtigen Core i7 3770k mit 4Kernen und 8 Threads.
    Wie wird das ausgehen?!

    Wir werden es erfahren!

    Ihr werdet garantiert Überrascht sein, wetten! ;)

    Also kommen wir jetzt mal zu den Game Benchmarks. ;)



    back to top

     

    Gaming Benchmarks:

    Wie habe ich die Games getestet?

    Im Grunde gehe ich da ganz einfach vor.
    Ich installiere Windows und alle Treiber, dann die Spiele.  
    Verstellt an den Treibern wird absolut NIX!

    D.h. alle Treiber einstellungen usw sind auf Standard eingestellt. Warum?
    Weil nicht jeder sich an die Einstellungen ran traut und wir so auch eine wirklich REINE Aussage treffen können.

    Zum Testzeitpunkt hatte ich den NVIDIA 310.70 Treiber für die PoV/TGT GTX 680 Ultra Charged installiert. Auch hier wurde wie gesagt nix verändert, alles auf den Standard Einstellungen!

    Da wir es aber mit einer sehr Potenten Grafikkarte zu tun haben, habe ich die für mich Höchste Auflösung gewählt, in dem Fall 1920x1080 und in den Grafikoptionen der Spiele immer die Höchstmögliche Einstellung gewählt.

    Außerdem wurde V-Sync deaktiviert, weil es die Frames limitieren würde.

    Um ein für mich Aussagekräftiges Ergebnis zu erzielen, hab ich jedes Game in 3 verschiedenen Levels jeweils ca 15min gespielt. Das Ganze von Fraps im Hintergrund auswerten lassen und am Ende einen Durchschnitt davon errechnet.

    Das mit jedem Testsystem und soweit es mir auch möglich war immer unter gleichen Bedingungen bzw. der gleichen Vorgehensweise.

    Welche Spiele habe ich getestet?!

    Soweit es mir möglich war habe ich so ziemlich die aktuelleren, aber auch ein paar ältere Spiele und einen DX11 Benchmark gebencht. Letzterer hat einen eigenen Bench Ablauf und musste nich von Fraps ausgewertet werden.

    Die getesteten Spiele:

    1. Battlefield 3

    2. Crysis (64bit)
    3. Crysis 2
    4. Diablo 3
    5. Hitman 3
    6. Need for Speed Most Wanted (2012)
    7. Metro 2033
    8. Medal of Honor Warfighter
    9. Prototype 2
    10. Sleeping Dogs

    und zu guter letzt noch den Ungine Heaven DX11 Benchmark.

    Als erstes Fangen wir mit Battlefield 3 an.
    Ich zeige euch zunächst in Bildern die gewählten Einstellungen plus manchmal einen Ingame Screenshot und am Ende den Durchschnitt der FPS anhand einer Tabelle.

     

    Battlefield 3

     

    Crysis

     

    Crysis 2

     

    Diablo 3

     

    Hitman 3

     

    Need for Speed Most Wanted (2012)

     

    Metro 2033

     

    Medal of Honor Warfighter


     

     

    Prototype 2

     

    Sleeping Dogs



    Jetzt wo ihr alle Einstellungen usw kennt, können wir ja auf die Benchmark Ergebnisse eingehen.
      



    back to top

    Tabelle mit AVG (durchschnittlichen) FPS aller Games mit der jeweiligen CPU:


    Dies sind meine ermittelten Werte, Unterschiede zu ähnlichen Systemen sind nicht ausgeschlossen. ;)

    Ich habe wie gesagt po Game einen Durchschnitt aus 3 verschieden Levels genommen. Hier werden wir jetzt sehen, ob das Threading in einem Spiel gut ist oder nicht. Oder ob ein alter 2 Kern Prozessor für die aktuelleren Spiele und einer PoV/TGT GTX 680 Ultra Charged ausreichen wird.

    Wir nehmen mal nur die Durchschnittlichen FPS (sogenannt FPS AVG). Es gibt auch Min FPS und Max FPS, aber die will ich gerad noch nicht nehmen. Vieleicht nachher, mal sehen. ;)

    Eines vor weg, ich habe die Games NICHT mit dem Core i7 3770k auf 4,85GHz getestet, da mir leider die Zeit dazu fehlte. Der Core i7 war ein Sample von Intel und ich hatte für die Tests gerad mal 4 Tage Zeit. Es gab ind diesen 4 Tagen u.a. auch noch eine PoV/TGT GTX 660Ti Ultra Charged zu testen und man hat auch noch ne Familie.  ;)

    Deswegen trotzdem an dieser Stelle, SRY dafür! :/

    Was ich noch sagen sollte ist, ich habe jeweils zwei Tabellen erstellt, einmal mit Diablo 3 und einmal ohne! 

    Warum erkläre ich später ;) 

    Fangen wir mit dem kleinsten Prozessor an:

    Core2Duo E6600 @~3,3Ghz:


    AMD Phenom 2 x4 955 BE @~3,7Ghz:


     Intel Core i7 3770k NON Threading:


    Intel Core i7 3770k Stock/Standard:



    Wir sehen schon teilweise Enorme Unterschiede, gerad wenn man Diablo 3 mit drin hat. Deswegen hatte ich eine zweite Tabelle gemacht und es Weg gelassen.

    Ich finde aber das ein AMD Phenom 2 x4 955 BE @~3,7Ghz im Durchschnitt ganz gut mit einem Intel Core i7 3770k mithalten kann.

    Da das ganze etwas unübersichtlich ist, ich aber so einen Spaß an der Sache habe, hab ich mir natürlich auch die Mühe gemacht euch weitere Tabellen zu erstellen. ;)

    Schaut euch mal den Durchschnittswert der jeweiligen Prozessoren an, wenn wir den aus den 11 getesteten Games/Benches zusammen nehmen:


    Wenn man das ganze mal in % Anzeigt und den Core i7 mit Threading als Referenz (100%) nimmt, passiert folgendes:





    Whooops... was da nun wieder los?! Ich habe es selbst mehrmals verglichen aber es blieb immer bei diesem Bild! Da muss doch iwo ein Fehler sein?! *grübel

    Also obere Tabelle mal drehen und die einzelnen Säulen mit einem Strich verbinden.


    Nun kann man sehr gut sehen, das die AVG FPS beim Core2Duo irgendwo im Durchschnitt extrem einbrechen.

    Das kann doch nur eines bedeuten, die Spiele sind wohl unterschiedlich Optimiert!

    Ich erinnere mich jetzt an die FPS Unterschiede beim 3DMark (dx10 vs. dx11!).
     
    Na dann schauen wir uns mal die einzelnen Games mit allen CPU's an. 

    Als erstes... Diablo 3, die anderen Games werde ich gleich alle in eine Tabelle packen.
    Ihr werdet GARANTIERT Augen machen! Vor allem was das Threading vs. Non threading angeht. ;)

      
    Also man sieht hier sehr schön, die CPUs skalieren schon extrem. Der Core2Duo bremst Diablo 3 um über 50 FPS aus

    ABER ich sage der Unterschied ist nicht für jeden Menschen visuell spürbar, weil wir hier weit über 120 Bilder pro Sekunde sind.

    Es gibt wohl Leute die einen Unterschied erkennen KÖNNTEN, dies wage ich nicht zu bezweifeln. 


    ABER... ich meine, in einem neuen Spiel das diese Personen noch nie gespielt haben, könnten sie mir  nicht sagen, ob sie jetzt mit 120 oder mit 180 FPS spielen.

    Überlegt euch mal bitte... HUNDERTZWANZIG BILDER PRO SEKUNDE!!! 

    Die meisten von uns Zocken an einem Monitor der 60Hz packt. 
    Die Herzzahl eines Monitors kann mit FPS verglichen werden. Im grunde meinen beide Bezeichnungen das gleiche, den Bildaufbau pro Sekunde. 

    Ergo wären es 60 Bilder pro sekunde richtig?! Dafür gibt es ja dann z.B. V-Sync, um eine sogenannte Schlieren bzw. das Tearing zu vermeiden. So etwas passiert öfters mal, wenn ein Monitor mehr Bilder "rein bekommt" als er verarbeiten kann.

    Gehen wir noch weiter, warum wird beim 3D im Kino eine Frequenz von 24Hz gewählt?! 
    Weil man sagt, für den Durchschnitt würde es reichen, da das menschliche Auge im Schnitt ca. 30 Bilder pro Sekunde Verarbeiten kann. Viele merkten aber, dass diese 24Hz doch sehr unruhig sind. 
    Seit dem geht man langsam aber sicher auf 48Hz für 3D in 1080p Full HD.

    Auch heutige 3D LED TV geben Full HD (1920x1080p) 3D nur mit 24Hz wieder, bei 720p haben wir 60Hz, wenn ihr also euren Rechner an solch einem Monitor anschließen würdet, ihr würdet unter 60Hz ein wesentlich ruhigeres Bild erkennen. 

    Ich habe zwar selber gemerkt, dass ein Sprung von 60 auf 120 FPS visuell spürbar/sichtbar ist, nur hätte ich ohne die SICHTBAREN Zahlen niemals sagen können wie viele FPS ich gerad habe. 60FPS sind für mich schon flüssig und ruhig.

    Und wenn ich das Game neu gewesen wäre, es wäre mir nicht aufgefallen das die FPS so hoch sind Den Unterschied hab ich nur "gesehen" weil ich das Spiel schon kannte und somit direkt vergleichen konnte.

    Kommen wir nun zu den restlichen Games, hier alle in einer Tabelle mit der jeweiligen CPU und den AVG FPS:


    Na da sieh mal einer guck, also je nach Spiel und Optimierung sehen die AVG FPS sehr unterschiedlich aus. 

    In einigen DX11 Titeln jedoch sind die AVG FPS Unterschiede sooo gering, das es egal ist, ob ich einen Core2Duo @~3,3Ghz oder einen Core i7 3770k inkl. Threading nehme.

    Ist das wirklich so?!

    Dann schauen wir uns doch mal die Min FPS an.  
    Dies sind die niedrigsten Frames, die in dem jeweiligen Spiel aufgekommen sind. 
    Wir nehmen aber mal nur den Core2Duo E6600 @~3,3Ghz gegen den Core i7 3770k @ Stock.


    Hier sehen wir nun ganz deutlich, je stärker die CPU, umso geringer sind die kleinsten FPS!

    Ausnahmen wo die Min FPS nicht so gravierend im Unterschied sind, sind Crysis, Metro 2033 und Sleeping Dogs. Ein Core i7 3770k @ Stock läßt die PoV/TGT GTX680 Ultra Charged meist über den 30 FPS rennen, während ein Core2Duo E6600 @~3,3Ghz sehr oft unter die 30 FPS Marke fällt und somit ein ruckeln visuell spürbar wird.

    Im Durchschnitt erkennt man es deutlicher, man siehe hier:

     
    Das sind fast 50% die ein Core2Duo weniger an Min FPS bringt als ein Core i7 3770k. Der Core2Duo lässt die Min FPS im Schnitt auf 19 Bilder pro Sekunde fallen, dies wird wirklich jeder Spüren! zwar ist es kein Dauerzustand und macht sich nur ab und an bemerkbar, aber es mindert das flüssige Spiel Erlebnis!

    Der i7 läuft mit der PoV/TGTGTX 680 Ultra Charged im Schnitt über 30 FPS, was ein eigentlich flüssiges Spiel Erlebnis mit sich bringt.

    Und wenn das so zwischen den beiden CPUs aussieht, kann das Threading vielleicht doch etwas bringen? z.B. die Min FPS pushen?!

    Schauen wir mal:


    Hmm... wohl doch nicht so ganz wie man sieht. Teilweise sind die Min FPS ohne Threading höher, manchmal auch geringer, aber im Schnitt sind sie so gering höher, dass man das Threading getrost deaktiviert lassen kann.

    Schauen wir uns den Durchschnitt der 10 Tests an:



    Wie man sogar SEHR SEHR gut sieht, is das Threading des i7 eigentlich ziemlich Sinnfrei für Games. Wir hatten gesehen, das Threading in einigen Games "bremst" und im Schnitt hätten wir gerad mal 1FPS mehr.

    Also wenn mir noch mal jemand um die Ecke kommt und sagt das er NUR für seine Games und ein reines Singleplayer Zocker System DRINGEND einen i7 sucht... den lach ich aus. 

    Sry aber das is für mich Fakt! 

    Das einzige was bzw. wo ein Core i7 Sinn machen würde ist, wenn man z.B. Spiele mit Fraps aufnimmt, viele Programme gleichzeitig geöffnet hat, seinen Rechner als Server hat... oder oder. 
    Aber für ein reines Gaming System ist ein Core i7 in meinen Augen nicht wirklich Performanter!

    Vieleicht bringt das Threading im Multiplayer etwas, aber auch hier denke ich das der Unterschied kaum spürbar sein wird. Leider fehlte mir für diese Tests die Zeit. :/

    In den Spielen Hitman 3, Metro 2033 und Sleeping Dogs ist die DX11 Schnittstelle integriert. 
    Diese Schnittstelle erlaubt es wohl bei guter Optimierung, den Prozessor weitgehend zu entlasten und vieles auf die GPU (Grafikkarte) zu verlagern. 
    Soll heißen, die meisten Berechnungen muss wohl dort eine Grafikkarte übernehmen. 
    Was zwar die FPS drückt, aber die Wahl der CPU scheint hier eher nebensächlich zu sein. 
    Ich vermute, dass die CPU aber mindestens über 3Ghz laufen sollte. 
    Mein Core2Duo macht dies dank einer Wasserkühlung ganz gut mit.

    Kommen wir noch schnell zum Overclocking, dies werd ich aber auch nur noch kurz anschneiden, weil das Review bis hier schon gut 110 Seiten mit fast 11.900 Wörtern umfasst. :D



    back to top

     

    Overclocking und Temperaturen:

    Ich habe mal die PoV/TGT GTX 680 Ultra Charged hoch getaktet. Dies ist eigentlich recht einfach, aber ich rate jedem davon ab, der keine Ahnung von Übertakten hat!

    Ein Defekt der Hardware ist nicht aus zu schließen. Das größte Problem ist, das manche den Arbeitsspeicher ihrer Grafikkarte mit übertakten.

    Hier is wirklich größte Vorsicht geboten, es werden an den Verbauten Arbeitsspeicher keine Temperaturen ausgelesen!!!

    Einzig die GPU Temperatur wird euch angezeigt.

    Es gibt viele Tools die man zum Overclocken einer PoV/TGT GTX680 Ultra Charged nutzen kann. Ich habe mich u.a. für EVGA's PrecisionX Tool und zusätzlich zum auslesen bzw. vergleichen der Temperatur für GPU-Z entschieden.

    Diese Tools lassen viele Einstellmöglichkeiten zu, u.a. auch die Erhöhung des Power Target's. Dies bestimmt wie viel Watt sich die Grafikarte genehmigen darf. Da die Erhöhung dieses Power Targets aber öfters zum Absturz führte, entschied ich mich, nur den GPU Takt zu erhöhen!

    Die einzelnen Games konnte ich mit diesen Einstellungen leider aus Zeittechnischen Gründen auch nicht testen, aber ich habe mal Ungine Heaven laufen lassen. Hier wird auch einiges von der Grafikkarte verlangt und somit kann ich schauen ob es stabil läuft oder nicht! Da ich zu diesem Zeitpunkt auch den Core i7 nicht mehr hatte wären die FPS zahlen eh uninteressant gewesen.

    Auch beim Overclocking (übertakten) unterscheiden sich die Erzielten werte!
    Hier also meine erreichten MHz:

    Mit Erhöhung des Power Targets kam ich auf 1267MHz GPU Takt, die Temperatur betrug Moderate 61°, aber sobald ich Ungine Heaven Startete, brach der Benchmark mitten drin ab.




    Ich dachte zunächst es liegt evtl an der Temperatur, also manuell auf 95% gestellt... hier wurd die PoV/TGT GTX 680 Ultra Charged aber auch sehr laut! Dies brachte aber auch keinen Erfolg.

    Da muss aber doch noch mehr gehen oder nicht?

    Also rum getestet, alles wieder zurück auf Standard und die Lüfter Steuerung auf Auto.

    Nach einigem hin und her habe ich dann raus gefunden, das die Erhöhung des GPU Taktes allein einen stabilen Lauf des Benchmarks zu lies.

    Ergo hab ich nur den GPU Takt um 110MHz erhöht und ich kam mit Boost auf 1300MHz. Das is doch der Hammer oder?! 1,3GHz auf einer GPU... HALLOOOO xD

    Die Lüfter drehten dabei mit moderaten 1980 U/min, dies ist zwar hörbar, aber noch angenehm!
    Der Ungine Heaven Benchmark lief nun auch komplett durch.

    Also machte ich nach dem erfolgreichen Test einen erneuten lauf und machte diesen Screenshot:



    Schaut euch die Temperatur an, 62° bei moderaten 1980 U/min und krassen 1306MHz GPT Takt.
    Die Arbeitsspeicher habe ich absichtlich nicht erhöht, weil durch die Einstellung des PowerTargets eine Erhöhung nicht möglich war.

    Mit dem Core2Duo E6600 @3,3~GHz brachte mir das Ganze aber "nur" gute 3 AVG FPS mehr. Ich vermute, dass mit einem Core i5 bzw Core i7 oder einer entsprechenden AMD CPU ein paar mehr FPS drin gewesen wären.

    Die Temperaturen der PoV/TGT GTX680 Ultra Charged sind eigentlich eh sehr Human. Dank des Großen Kühlers kam ich nie an die 70° heran.

    Im Idle ("leerlauf") lag die PoV/TGT GTX 680 Ultra Charged bei süßen 23-25°. (kann je nach Raumtemperatur o.a. abweichen!)

    Dabei summt der Lüfter auch mit angenehmen 1300U/min, ist also für mich nicht wirklich Störend!
    Siehe Screens:


    Unter Last war sie, wie schon erwähnt, ebenfalls recht leise.

    Dank der Automatischen Lüfter Steuerung agiert sie auch in guten Temperaturbereichen.
    Natürlich wollte ich der Grafikkarte auch mal einheizen und habe Furmark laufen lassen.


    Wie man sehr schön sieht klettert die Temperatur erst recht schnell und dann nur noch sehr sehr langsam. Aber selbst nach gut 5min Furmark war sie bei 67° und 1860 U/min.

    Alles in allem eine sehr gute Leistung würd ich meinen! Kommen wir also zum Fazit.



    back to top

     

    FAZIT:


    Wenn wir nun dieses ganze Review verdaut haben, sollte ein jeder seine eigene Meinung zur PoV/TGT GTX 680 Ultra Charged haben.

    Meine Persönliche Meinung ist, bei einer entsprechend Potenten CPU wie z.B. einem 4 Kern Prozessor ab 3GHz ist diese Grafikkarte eine sehr gute Wahl sein. 

    Flüssiges Spielen mit den höchsten Einstellungen auf 1920x1080 ist mit der Grafikkarte auch in vielen aktuelleren Titeln eigentlich garantiert.
    Dabei dreht die PoV/TGT GTX 680 Ultra Charged den Lüfter nicht wirklich hoch, maximal ca 2000U/min. Dies ist zwar hörbar jedoch nicht wirklich störend.
     Die Temperaturen bleiben selbst bei hohem Overclocking unter 70°, was ein sehr guter Wert für mich ist.

    Frech wie ich bin behaupte ich sogar, dass die Spiele, wenn sie besser optimiert wären, auch mit einer Schwächeren 2 Kern CPU "Spielbarer" wären. 

    Als gutes Beispiel wäre da z.B. Sleeping Dogs. 
    Die Grafik kann sich eigentlich sehen lassen und die Prozessorauslastung ist auch nich wirklich enorm. 
    Selbst ein Core2Duo E6600 @~3,3GHz agiert mit der PoV/TGT im Min FPS Bereich bei guten 37 Bildern pro sekunde.
    Dennoch haben wir gesehen, dass ein Älterer 2 Kern Prozessor mit der Power einer solchen Karte schwer zu kämpfen hat, wenn das Spiel nicht auf die Power einer Grafikkarte optimiert ist.

    Im Durchschnitt (AVG FPS) rennt die PoV/TGT GTX 680Ulta Charged 4GB meist über 30 Bildern pro sekunde. Das finde ich mehr als akzeptabel!

    Ein Core i5 wäre hier die beste Lösung, da dieses sogenannte Threading, was die i7 beherrschen, in Games nicht immer vorteile bringt. (auch nicht wirklich im Min FPS bereich)
    Vorteile würde es evtl nur geben, wenn man z.B. Ingame Szenen aufnehmen möchte.
    Es ist also jedem selbst überlassen welchen Prozessor er nutzt.

    Meine persönliche Meinung ist und bleibt aber:
    Core i7 in einem reinen Gamer System = Nutzlos.

    Zurück zur PoV/TGT GTX 680 Ultra Charged, 

    die Verarbeitung der Grafikarte ist als Sehr Gut anzusehen!
    Keine scharfen Kanten, teilweise sogar von Hand den Grad am Kühlblock entfernt und Optisch auch ein Richtiger Hingucker.

    Die Temperaturen sowie die Lautstärke bewegen sich in einem für mich akzeptablen Rahmen und das zusätzliche Overclocking Potential, bis zu 1,3GHz bei dieser Karte, sind auch absolut nicht zu verachten!

    Der Preis dieser Karte bewegt sich bei ca. 450-500 Euro. 
    Das schon eine Menge Geld ist, aber hier hat man es auch mit einem Potenten Stück Hardware zu tun, das sich definitiv im High-End segment einsiedelt.

    Also das is ganz klar ein Gold Award für die:

    PoV/TGT GTX 680 Ultra Charged 4GB



    An dieser Stelle Vielen Dank an PoV/TGT für das mir entgegen Gesetze Vertrauen!

    Ich hoffe euch hat mein Referenz Review zu Grafikkarten gefallen.
    Es ist sehr lang geworden, dient aber wie gesagt als Referenz.
    Ab hier werden alle weiteren getesteten Grafikkarten in die kommenden Reviews einfließen. D.h. das bald folgende Review zu einer GTX 660Ti wird mit dieser Grafikkarte verglichen, dann die nächste mit den Beiden und immer so weiter.

    Mir hat es sehr, sehr, viel Spaß gemacht die PoV/TGT GTX 680 Ultra Charged mit den Verschiedenen Systemen zu Testen, darüber zu schreiben und diverse Unterschiede darzulegen.

    Für Anregungen, Kritik usw. steh ich natürlich gern zur Verfügung.


    Mit besten Grüßen, euer Sterny von:






  • Teilen

    4 Kommentare:

    Unknown hat gesagt…

    Mal nen fettes Lob an dich und dieses Review. Wer nach dem lesen dieses Artikels immer noch zu wenig Informationen haben sollte, dem ist wohl nicht mehr zu helfen ;-) Super geschrieben,klasse Informationen auch drum herum und tolle Photos ;-)

    Danke Sterny

    T.iCore hat gesagt…

    danke dir großer ;) ... viel drum herum geschrieben ist schon richtig, war hieraber auch ehrlich gesagt... absicht ;) nich um zu verwirren, sondern um sich evtl. en paar gedanken zu machen.

    Unknown hat gesagt…

    Mit drum herum hatte ich Hintergrundinformationen gemeint, und nicht um den heißen Brei herum geschrieben zu haben ;-)

    T.iCore hat gesagt…

    *lach ... das meinte ich eigentlich auch ;) ... ich dachte einfach das sowas mit in ein referenz review sollte. tipps zum einbau, die wahl des prozessors usw. ;)