Rechner für Grafik und insbesondere 3D Bearbeitung

Das mit dem Thema Stomsparen ist immer relativ. Hierzu zählen alle S-States, also auch wie weit er runtertaktet wenn wenig Load, etc. Aber im Ruhezustand sollte an sich nur noch die Netzwerkkarte mit Strom versorgt werden um auf den angesprochenen WOL reagieren zu können. Kann und sollte man so machen, das passt!

Zu deinen Benchmarks: natürlich spielt die Grafikkarte hier auch eine signifikante Rolle. Aber eben auch die Optimierung der Software - wie gut ist die Multicore-Unterstützung. Dazu eben auch die Punkte der Architektur und Befehlssätze, hier kann je nach Anwendungsbereich irgendeine Gleitkomma-Optimierung und sonstige Späße die man im Alltag kaum bemerkt massive Vorsprünge bringen. Und eben den Kerntakt nicht vergessen - selbst bei gleicher Arhitektur hat ein i7 nunmal einen signifikant höheren Basistakt, ohne Turbomodus, wohlgemerkt ;) Vor allem darf man nicht ausser Acht lassen - je nach operation bremsen denn L2 und L3 cache die CPU aus - wenn alle Kerne parallel laufen kann das der Flaschenhals sein. Mehr Kerne bedeuten nicht immer automatisch mehr Leistung.
 
  • Thread Starter Thread Starter
  • #62
Mich wundert es halt das ein i7 5820K ( ), der jetzt nicht gerade billig ist, eine ziemlich hohen Takt aufweist und dazu noch recht neu ist, mit über der doppelten Zeit abstinkt. Sprich pro Prozessor ja sogar langsamer sein muss. An meiner NVIDIA Quadro 600 kann es ja sicherlich nicht liegen so alt wie die ist :D Aber gut, mir solls recht sein :cool: Sprich wenn ich hier jetzt noch ne bessere GraKa einbauen bin ich mit meinen zwei XEONs evtl bei 30 Sekunden was ja gigantisch wäre wenn ich mir die Zeiten der anderen Rechner so ansehe :D

Hier z.B. ne NVIDIA Gforce GTX 960 mit 2GB hat z.B. 2300 gflops vs 245 gflops :D Kostet auch gerade mal ~140€ gebraucht

It is highly recommended to use the CUDA engine on nVidia GPUs.
Rendering on multiple GPUs is supported and by default V-Ray RT for GPU will use all available OpenCL/CUDA devices. See the sections below how to choose devices to run V-Ray RT GPU on.
V-Ray RT for GPU has been tested on a number of graphics cards including:

GeForce 980, GeForce 970, GeForce 960, GeForce 750ti, GeForce 750m, GeForce 680 GTX, GeForce 580 GTX, GeForce 590 GTX, GeForce 570 ,GeForce 480 GTX, Titan X, Titan Z, Titan Black, Tesla k40, Tesla k80, Tesla C2050, Tesla M60, Quadro M6000, Quadro M5000, Quadro M4000, Quadro K5200, Quadro K6000, Quadro K4200, Quadro K4000, Quadro K2000, Quadro 2000M, AMD R9 Fury X, AMD R9 Fury Nano, AMD Fury R9 390X, AMD R9 380X, AMD W9100.

If V-Ray RT for GPU cannot find a supported OpenCL/CUDA device on the system, it may silently fall back to CPU code. To see if the V-Ray render server is really rendering on the GPU, check out its console output.

Quelle:

PS: Was ist denn jetzt z.B. der Unterschied zwischen einer und z.B. einer ? Sind ja immerhin 50€ unterschied :unknown: Beiden haben 2GB
 
Zuletzt bearbeitet:
@godlike: Die Lüfter z.B.

Nimm die Günstigere und das passt. Aber bei mir ist die Gigabyte nur 10€ günstiger.
 
  • Thread Starter Thread Starter
  • #64
Ah Oke, naja da die Karte ja nur beim Rendern auslastet wird, also nicht ein paar Stunden am Stück, sollte das ja passen. Wobei es da noch die Version mit 4GB gäbe: Evtl noch besser. Wobei nach bringt das kaum was.
 
Eine kleine Anmerkung zur 960 - *solltest* Du auch ab und an mal ein aktuelles Spielchen wagen wollen nimm eine mit 4GB Ram. Zumindest wenn Du eine höhere Auflösung als FHD anstrebst. Bleibbts beim Rendern ist es fast egal bzw. vernachlässigbar.
 
Für dein Vorhaben eher unnötig.

Die Lüfter sind beide okay, aber ich meine MSI ist ein ticken leiser.
 
  • Thread Starter Thread Starter
  • #67
Also Spiele spielen werde ich wohl definitiv nicht. Wobei ich zu Hause eine GTX 660 eingebaut habe. ISt die 960 nicht nur geringfügig besser? Wenn ja könnte ich ja auch die Quadro 600 gegen die GeForce GTX 660 tauschen und mir die 120€ sparen bzw. das Geld in einen Monitor stecken. Die Quadro 600 sollte ja WQHD unterstützen. Oder gleich ne :unknown: die hat wieder . Auf was zur Hölle achtet man denn da?
 
Hmm... die 960 ist wiederum eine neue Architektur bzw. ein neuerer Chip. Normalerweise würde ich Dir zur 960 raten, grade was h265 etc angeht. Beim Thema Rendering bin ich nicht drin, kann gut sein dass hier die Unterschiede nicht gravierend sind. teste das doch einfach mal, steck die 660 mal rein und rendere ein Referenzbild.
 
  • Thread Starter Thread Starter
  • #69
Naja im Vergleich zur Quadro 600 wird die GTX meilenweit besser sein. Dachte eher im Vergleich zur GTX 960 aber die hab ich ja noch net. Erst wenn ich sie gekauft habe :D

Und wieder ein , diesmal zur GTX 1060. Gibts ja auch schon für 200€ in der Bucht und ist als die GTX 660.

Im Endeffekt scheint der ganze Zauber aber wohl eh nur was für das Viewport-Gedöns was zu bringen und ich bau mir die GTX 960 rein
cgsociety.org schrieb:
The GTX 970 is great for 3D - I used one for several years with Max, Substance Painter, Zbrush and it performed fine. You seem to be under that impression that the GTX cards are just for games. They are also very good for viewport performance. As far as rendering - unless you are specifically GPU rendering your processor is carrying the load with renders - not the GPU.


--- [2017-02-07 11:02 CET] Automatisch zusammengeführter Beitrag ---

Noch mal ne Frage zur Grafikkarte - auch wenn ich die erst in einer Weile kaufe werde da mir ein besserer Monitor erst mal wichtiger ist:

NVIDIA Quadro VS GTX

Was ist denn jetzt der Unterschied zwischen ner NVIDIA Quadro XXXX und einer GTX XXX Karte? Wieso sind die Quadro Karten so abartig teuer? Ne Quadro K5000 kostet bei eBay locker 450€ wobei ne GTX 960 nur 150 kostet aber . Muss man das verstehen?
 
Zuletzt bearbeitet:
Die Nvidia Quadros haben speziell optimierte OpenGL-Treiber, wodurch sie in professionellen CAD-Anwendungen (Sachen wie Siemens NX, Catia, Creo & Co) schneller sind als ihre Consumer-Brüder. Hardware-Unterschiede gibt es meist nur wenige (z.B. ECC-VRAM) und die Compute-Leistung ist im wesentlichen auch identisch - dafür haben sie natürlich die richtige DeviceID, damit die schnellen Treiber aktiv werden ;). Im Prinzip sind das Produkte für die Industrie (wo die Preise auch niemanden groß jucken).

Wenn ich das richtig im Kopf habe nutzt 3DS Max Direct3D zum Rendering, da ist's dann eh egal (oder gibt es in dem Bereich inzwischen auch "Pro"-Optimierungen?)
 
Nur als Gedankengang - ließen die sich den prinzipiell nicht umflashen bei identischem Chipsatz? Man müsste ja quasi nur die Devie-ID modifizieren... ;)
 
  • Thread Starter Thread Starter
  • #72
Die Nvidia Quadros haben speziell optimierte OpenGL-Treiber, wodurch sie in professionellen CAD-Anwendungen (Sachen wie Siemens NX, Catia, Creo & Co) massiv schneller sind als ihre Consumer-Brüder.
Ja, das habe ich auch gelesen. Aber: Wieso sind die dann so günstig? Also wenn ich medizinische Berechnungen durchführe oder AutoCAD für große Projekte bastel ich doch nicht mit ner Quadro-Karte für 1K wegen 15% Verbesserung - dann stell ich mir einen 100k € Rechner in die Firma und hab 1000% mehr Leistung in dem Bereich :unknown: Aber vom Prinzip her hab ich es schon kapiert. Für 3DsMax spiel das alles wohl keine Rolle hab ich gelesen.

Wenn ich das richtig im Kopf habe nutzt 3DS Max Direct3D zum Rendering
Also zum Rendering nutzt 3DsMax ja eher einen Renderer alla vRay, Mentalray usw., jeweils mit eigener Architektur usw. Der Viewport, also das was ich quasi Live beim bauen meiner Szene sehe, der läuft mit Direct3D - .

Alles in Allem kommt es wohl viel auf den benutzten Renderer an. iRay von NVIDIA kann natürlich mit einer GTX 1080 Titan oder so mehr profitieren als Mentalray was vorwiegend auf die CPU zurückgreift. Also beim Rendern, nicht im Viewport. Da habe ich gelesen das, also wenn es nur um den Viewport geht - also die max. Polygon Anzahl, Active Shading usw., es nicht mal einen großen Unterschied macht ob ich da jetzt ne GTX 960, 970, 1060 oder so drin hab. Aber das finde ich früh genug raus. Von der Quadro 600 ist ja noch ne Menge Luft nach oben :D

Gutes Beispiel dafür ist GEAR_2012 aus dem vRay Benchmark-Thread:

Meine 2 XEON 2670 mit 2,6 GHz und ner lächerlichen Quadro 600 brauchen 0h0m53s für die Szene, seine 2 x 2620 und ner viel besseren Quadro 4000 brauchen hingegen über 4 Minuten. Ob es da also ne brutale 1080 GraKa überhaupt raus reisen würde...
 
Zuletzt bearbeitet:
Nur als Gedankengang - ließen die sich den prinzipiell nicht umflashen bei identischem Chipsatz? Man müsste ja quasi nur die Devie-ID modifizieren... ;)

Grundsätzlich ja, die Device ID lässt sich per Software aber in der Regel nur in einem sehr eingeschränkten Bereich modifizieren. Um aus einer Consumer-GTX-Karte eine Profi-Quadro-Karte zu machen muss man die Hardstraps (Kombination einiger SMD-Widerstände auf der Karte) modifizieren. Bei älteren Karten ist das aber ein ganz gut "erforschtes" Gebiet, braucht im Prinzip nur eine ruhige Hand und vernünftiges Equipment.
 
Oha da komme ich late zur party hier, ist ja alles schon bestellt. :D
Wollte auch nur sagen dass du mit dem iray Renderer in 3dsmax die gleichen Mentalray-Materialien benutzen kannst die du bereits für Mentalray renderings benutzt. Die Exposure Controls musst du allerdings neu anpassen, manchmal auch die Intensität von Lichtquellen. Ist leider ziemlich unkommentiert alles, aber sowohl als Viewport als auch zum rendern durchaus geeignet. Ich nutze es wie den Mentalray, mit ein paar minor-tweaks in den RenderSettings.

Der Linus erklärt den Quadro/GTX unterschied hier ganz gut & schnell:

Und kick mir mal die max Datei von deinem modellierte LKW-Rad rüber, dann setze ich mal meine alte Möre drauf an (8 Core AMD), würde mich mal interessieren was die an Zeit benötigt. :)
 
ein 100k€ PC? Meinst du einen Mainframe? Warum denkst du, dass entsprechende Firmen alle drei Jahre so viel Geld haben?
 
  • Thread Starter Thread Starter
  • #76
ein 100k€ PC? Meinst du einen Mainframe? Warum denkst du, dass entsprechende Firmen alle drei Jahre so viel Geld haben?
Jo klar. Selbst ne gute Maschine für Raytracing (Pixar und Co) kostet alleine schon 60k.

Bild aus ElricM-Seti Thread:



In der Forschung, also da wo die Quadro Karten wohl abgehen, sind 100k jetzt ja keine brutal hohe Summe. Besonders wenn Vater Staat da am basteln ist :D

Oha da komme ich late zur party hier, ist ja alles schon bestellt.

Fast alles ja ;) Grafikkarte und Monitor fehlen noch, kannst also noch einsteigen :D

Wollte auch nur sagen dass du mit dem iray Renderer in 3dsmax die gleichen Mentalray-Materialien benutzen kannst die du bereits für Mentalray renderings benutzt.
Oh das ist gut zu wissen. Erst recht da ich meine Szenen auf vRay umgestellt hab :D vRay hat halt schon mega geile Funktionen und Zeug (Light-Some, vRay-Lichter als Flächen, vRay-HDRIs, Softbox-Materialien usw.) Bin mit den ersten Ergebnissen echt zufrieden und flott gehts auch. Falls du vRay haben solltest kannst ja mal die Benchmark hier im Thread probieren.



Ich hänge dir auch mal meinen Reifen an, lass mal schauen was dein PC da macht :)

Anhang anzeigen bullige-reifen-9.rar
 
ach, ich dachte jetzt im Grafikbereich. Forschung und Hollywood haben das Geld natürlich, aber ein Ingenieursbüro wird sich nicht alle paar Jahre 100k€ Equipment kaufen. Die Workstations dort kosten zwischen 20-30k€.
 
  • Thread Starter Thread Starter
  • #78
Ne, im Grafikbereich bringen die Quadros ja gar nicht so viel, darum schrieb ich das ja mit dem 100k Rechner. Also das selbst ein paar Quadro-Karten den Kohl nicht fett machen würden.

Oke mal zum Monitor. Suche was ab 27". Gerne auch 28" oder evtl 32". Je nach dem. Preislich wollte ich wenn es geht unter 350 bis 400€ bleiben da ich sonst langsam arm werde :D Auflösung Minimum 2560x1440. Bitte kein 2560x1080 die Teile finde ich schrecklich! Und wenn es geht höhenverstellbar. Pivot wäre nice2have aber kein muss. Reaktionszeit relativ egal da ich keine Spiele spiele, IPS-Panel sollte es sein und von den Anschlüssen HDMI, Displayport und USB wäre cool.

Die Frage ist ob ich da überhaupt was finde oder ob ich viel zu wenig Geld einplane :unknown:

Sowas in der Art? oder ?
 
Zurück
Oben