Rechner für Grafik und insbesondere 3D Bearbeitung

So, hab gestern meinen 2xCPU Rechner mit der GTX 660 meines Home-PC's ausgestattet. Sprich die Quadro 5000, die da drin war, ersetzt. Bisher läuft alles problemlos! Da es nur um den Viewport geht sollte das dann ja auch ausreichen nehme ich an. Rendern tue ich am Ende ja per CPU. GPU macht ja nur mit den richtig krassen Karten sinn. Zumindest wenn ich mir entsprechende vRay Tutorials ansehe.

Da aber eine GTX970 schon <60FPS sinkt, glaube ich nicht, dass dir das ausreichen würde:
Was haben FPS mit 3D und Raytracing zu tun? Wird das da irgendwie wechselwirken? Dachte das es da nur auf die verfügbaren GPU`s und den Speicher ankommt oder? Ich bewege mich da ja nicht durch den Viewport wie durch einen Shooter :D

Alles aber nur eine Vermutung... Die GPU Ausgabe bei vRay macht ja nur mit 2 oder 4 1080ti a 8 GB aufwärts dann Sinn. Dafür kann man dann eben live DOF und andere Spielereien nutzen. Für das Gelkd kaufe ich aber dann doch lieber einen Kleinwagen :D
 
Was haben FPS mit 3D und Raytracing zu tun? Wird das da irgendwie wechselwirken? Dachte das es da nur auf die verfügbaren GPU`s und den Speicher ankommt oder? Ich bewege mich da ja nicht durch den Viewport wie durch einen Shooter :D
Hä? Der Viewport wird gerendert. Die Metrik für die Performance des Renderings ist FPS.

Das, was du meinst, ist Rendering der Ausgabe, nicht des Viewports. Die haben natürlich nichts miteinander zu tun ;)

Zitat aus meinem Link:
we programmed a custom script using AutoIt to start 3ds Max, load the relevant project, change the view mode (Wireframe, Shaded, Shaded w/ Edged Faces), then run a script to rotate the view while recording the FPS (frames per second) of the viewport.
 
So, hab jetzt mal ein paar Testrenderings gemacht.

3D Max 2018 + vRay 3.6

Bild ist um 50% verkleinert)


Die verbaute GTX 660 kackt mit 13 Minuten und 24 Sekunden ganz klar gegen die CPU(s) mit 2 Minuten und 38 ab... Habe gerade keine Lust wieder die Quadro 5000 einzubauen und zu schauen was die bringt. Um einen echten Vorteil zu haben sieht es aber wohl so aus wie ich befürchtet hatte...

Hä? Der Viewport wird gerendert. Die Metrik für die Performance des Renderings ist FPS.

Das, was du meinst, ist Rendering der Ausgabe, nicht des Viewports. Die haben natürlich nichts miteinander zu tun
Also der Viewport den ich meine ist auf dem Screenshot unten rechts angesiedelt. Quasi das was meine vRay Kamera sieht. Dioe braucht ja keine 60 fps zu bringen, bei großen Szenen waren es aber teilweise nur noch 1 Frame die Minute, das war arg scheisse :D Bei den FPS kommt es nicht auch auf die MhZ des Speichers der GraKa an oder? Dachte das die Anzahlt der GPUs und die MENGE des Speichers für 3D evtl eine größere Wichtigkeit hat. Deswegen mein Einfand/Frage...

 
Wie viele pcie Steckplätze hast du denn noch frei? Zumindestens beim Octane GPU-Renderer kann man da bunt alle Nvidia Karten die man hat (und die CUDA-Render Kompatibel sind) zusammen stecken, und der verteilt den render-workload dann auf alle verfügbaren GPUs. Kannst ja mal schauen ob Vray das nicht auch kann...

Und natürlich ob das überhaupt Hardware-mäßig geht bei dir. Du benutzt doch noch diese HP-Workstation, oder? Da weiß ich jetzt nicht wie gut das funktioniert.
 
Wie viele pcie Steckplätze hast du denn noch frei? Zumindestens beim Octane GPU-Renderer kann man da bunt alle Nvidia Karten die man hat (und die CUDA-Render Kompatibel sind) zusammen stecken,
So wie ich das in Erinnerung habe noch einen weiteren. Die Karten sind ja eh auch so groß das sie zwei Blenden haben, also doppelt so viel Platz wie eine "normale" Karte einnehmen. Mehr passt da wohl nur rein wenn man einen eigenen Tower hat und den Rechner selber zusammengestellt hat.

Auf jeden Falls scheint das mit vRay zu gehen! Also mehrere unterschiedliche Karten gemeinsam zu nutzen:



Da eine gute Karte mit 11 GB Ram, also damit es überhaupt einen Vorteil bringt, ~ 1000€ kosten fällt das ja eher weg :cool:

Was ist mit so einer Karte? Ist die besser wie meine GTX 660? Mist, da stand was von 99€ war aber Verarsche
 
Zuletzt bearbeitet:
So, ich mal wieder! :D

Langsam bringe ich hier alles an seine Grenzen, hab gerade eh etwas Geld übrig und würde mir jetzt also definitiv ne Alternative zu meiner 660ger kaufen wollen. Hab zu vRay folgendes gefunden:



Im Endeffekt ist die Auflistung folgende

  1. NVIDIA GeForce GTX TITAN X
  2. NVIDIA GeForce GTX 970
  3. NVIDIA GeForce GTX 980
  4. NVIDIA GeForce GTX 750 Ti
  5. NVIDIA GeForce GTX 780



Denke eine GTX 980 wäre wegen der CUDA Cores und dem Ram ganz nett. Wenn ich danach jetzt suche finde ich aber irgendwie preislich viele Unterschiede. Ne Gigabyte GF GV-N98TG1 mit 6GB für ~ 400€ und daneben ne MSI V317-008R NVIDIA GeForce GTX980 Gaming Grafikkarte mit 4 GB für über 500€ :unknown:

Würde also noch mal pber einen definitiven letten Tipp bitten was RAM, Marke und Preis angeht dann kann ich endlich was bestellen.

Würdet ihr eher neu oder gebraucht kaufen?

Oder ne , laut der Seite ~300% schneller als die 660 und für ~330€ zu haben

Gebrauchgt für 430€

Oder ne Titan XP mit 12 GB! für 400 gebraucxht:
 
Zuletzt bearbeitet:
Die 980 ist uralt, was die Schwankungen auch erklärt. Ist gerade eh ein undankbarer Zeitpunkt für Grafikkarten durch die ganzen Miner.

So neu ist die 1080 jetzt auch nicht und auch die Ti hat schon ~1 Jahr auf dem Buckel.

Gebraucht kaufen btw. eher nicht, gerade bei so teuren Karten. Wahrscheinlichkeit das du eine kriegst die unzählige Stunden drauf hat und immer unter Volllast zum minen gelaufen ist, ist recht hoch ^^
 
Oke, naja 700€ ist definitiv zu viel. Was ist mit der 1060? Gibts hier für 440 mit 6 GB. oder die

Gibts da irgendwo ne Liste nach Aktualität? Bei Amazon usw. versteh ich nur Bahnhof
 
1080 Ti (Nachfolger der 1080)
1070 Ti (Nachfolger der 1070)
1060
1050 Ti

Die 1060 ist 'ne zum zocken bequeme Mittelklassegrafikkarte. Mit 4K + Ultra braucht man der aber nicht kommen.

Für die Generation davor (900er) siehe Abuls Link.

Die Next Gen (GTX2000/Ampere) ist zwar angekündigt für Frühjahr 2018, aber noch ist nichts in Sicht. Da aber eh erst mal die Möchtegern-High-End Modelle (2070, 2080) rauskommen um den Kunden später dann noch mal das Geld aus der Tasche ziehen zu können (durch Markteinführung der 2070/2080 in der Ti Version) müsste man erst mal gucken wie sich die 2070/2080 im Vergleich zur 1070/1080 Ti schlägt.

Kompliziert? Nö. Immer aufsteigend.

30 -> Office
50 -> Einsteigergaming / Anfang Mittelklasse
60 -> Mittelklasse
70 -> Gehobene Mittelklasse / Anfang High-End
80 -> High-End
X -> Überteuerter Shit High-End ++

Das Schema ist eigentlich auf jede Generation anwendbar ;)
 
Also wär die 1060 mit 6GB ja gar nicht so verkehrt...

Gaming ist mir Wurscht, gehrt nur um Raytracing mit vRay und 3DsMax. Also CUDA Cores und RAM. Das ist wichtig. Und halt im Preisrahmen von 200 bis maximal 400€
 


Was ist den dein Gesamtbudget mittlerweile und was brauchst du jetzt genau an Komponenten? 32GB RAM kommen aktuell z.B. mit rund 300€. Vernünftiger i7 kostet auch 310€. Fehlt noch ein entsprechendes Board, Kühler, Netzteil etc.
 
Glaub es gibt da ein Missverständnis. Einen Rechner hab ich ja schon mit 2 CPUS und 32 GB Ram. Geht ja nur um die Grafikkarte welche mir in 3DsMax unter die Arme greift bei Szenen mit 1.000.000+ Polygonen sowie Lighttracing. Die CPUs mit den 16 Kernen geht da schon gut ab. Da gibts momentan auch keine preisliche Alternative. Einzeln sind die jett nicht so schnell aber alle zusammen gehen halt schon ab. Mit meiner CPU bin ich halt echt mit guten Zeiten dabei.

vgl https://ngb.to/threads/27893-Rechne...dere-3D-Bearbeitung/page3?p=763379#post763379 (4 Sekunden langsamer als ein i7 6800k).

Das einzige ist jetzt halt meine Grafikkarte, da geht imho halt noch mehr. Oder siehst du das anders?

Budget ist wie gesagt bei 200 bis 400€
 
Update:

hab vorher die GTX 1060 mit 6GB gekauft. Um einen Vergleich zu haben hab ich gestern anhand einer Szene die ich gerade bearbeite ein paar Vergleichsrenderungs gemacht. Hat mich jetzt einfach interessiert. Warum und wieso die jetzt so ausgefallen sind weiß wohl keiner da zu viele Faktoren rein spielen. Folgende Szene (für alle die es interessiert):



Vray Adv. 3.60.03

altes System (2x Xeon(R) CPU E5-2670 0 @ 2.60GHz + GTX 660 2GB)

Vray Adv. 3.60.03

CPU: 24m 48s

vRay RT

CPU: 15m 48s
GPU: 33m 58s
CPU+GPU: 12m 15s

neues System (2x Xeon(R) CPU E5-2670 0 @ 2.60GHz + GTX 1060 6GB)

Vray Adv. 3.60.03

CPU: 16m 15s (erhablich schneller, denke das kommt weil die Irradiance-Map und der Light-Cache von der GPU berrechnet wird)

vRay RT

CPU: fehlt noch
GPU: 16m 11s
CPU+GPU: 9m 2s (leider nur marginal besser aber das kann auch an der Szene liegen)

Also witzigerweise sind die Ergebnisse mit der CPU am besten. Von 24 Minuten auf 16 Minuten. Immerhin 8 Minuten schneller! Das macht bei 100 Frames auch 800 Minuten! Oke, könnte mehr sein aber immerhin etwas. Um noch mehr raus zu holen müsste es dann halt wohl echt ne 12 GB oder mehr Karte sein aber das Geld werde ich sicherlich nicht investieren. Die 400 € bringen mich jetzt auch nicht um.
 
Was hast du denn bezahlt? Etwa echt die 400€?

Aktuell ne Grafikkarte kaufen ist schon wie Geld verbrennen.
 
Ja, 400€. Wieso? Zu viel? Bei Amazon kosten die doch auch um den Dreh :unknown: Ob ich jetzt 350 oder 400 zahle ist mir am Ende auch egal. So hab ich im Laden einen Ansprechpartner (welchen ich als N00b auch eher mal brauche :D) und von der Steuer kann ich es eh abschreiben.

Was wäre denn ein vernünftiger Preis gewesen?

PS: Und ich brauch die halt jetzt und nicht in 5 Monaten. Das so was vor Weihnachten besser ist kann ich mir auch denken.
 
Ja, das hat mir der Typ im Laden auch gesagt. Das es vor Weihachten die selbe Karte füre 280€ gab. Die Frage ist was bringt mir das im Nachhinein? :D

Wenn ich so schlau wäre zu wissen was in Zukunft ist hätte ich mir vor ein paar Jahren 20 Bitcoins gekauft :D

Im Endeffekt ist es auch egal. Die Karte hab ich jetzt eh wieder 10 Jahre. Ob ich da jetzt 200 € mehr oder weniger dafür gezahlt hab ist relativ. Aber ja, wären auch 40 Kästen Oettinger gewesen :D
 
Zurück
Oben