Beratung zum HTPC / Gaming-PC Bau/Kauf

  • Die 18 und 20er haben aber eine Platte mehr und damit ist man schon am Limit.

    Ich hab 5 von denen im 8 Bay qnap und 7 meiner 6TB Platten WDRED noch als Backup im Schrank.

    Es gibt nicht wenige die aufgrund der immer höheren Schreib und Plattendichte bei HDD von erhöhten Ausfallraten ausgehen.


    Diese Seagate in der Sata Version läuft seit einem Jahr nachdem eine von 8 WDRED ausgefallen war.

    Sie rattert ab und an relativ laut. Preis / TB ist eben Top bei der Exos Serie egal ob 16 oder 20 TB.

    Wenn du 16er statt 18er nimmst ist bei 4 Platten bei Raid 5 die maximale Gesamtkapazität auch nur 6TB kleiner. Das ist nicht dramatisch.


    Die 18er und 20er sind noch relativ neu am Markt. Die 16er laufen halt schon viel längerin NAS Systemen.

    Ich habe bislang alle meine HDD bei MF gekauft. Das war damals für ca 250 € für die 16er. Wer dann 150€ für 6 TB bezahlt ist halt auch selber schuld..... zumal wenn man dann mehrere davon kaufen muss / möchte^^

  • Gut, das ist natürlich ein Argument. Ich bin nicht von "so kleinen" Systemen ausgegangen, wusste den Punkt der höheren Anzahl an disks aber auch nicht. Bei 20 statt 16TB sparst du halt alle 5 HDD ein ohne einen wirklich aufpreis pro TB.

    auch gewerblich als User "Speaker Base" unterwegs

  • Für 199,- bekommt auch recertified / refurbished Exos 16TB. Generell neige ich aber dazu gerade USB-Platten nur größtmöglich zu kaufen. Ich hatte z.B. bei 8TB über einen sehr langen Zeitraum die gleiche WD gekauft. Die späteren hatten dann erst keine WD Red mehr, waren dann WD White und noch später hatten die alle kein Helium mehr drin und wurden deutlich heißer. Das Risiko wiederverwertete alte zu bekommen, steigt bei solchen Platten dann wieder.

    auch gewerblich als User "Speaker Base" unterwegs

  • Moin,



    ich wollte einmal fragen, ob irgendeiner bereits eine RTX 4060ti mit MadVR nutzt und die Erfahrungen einmal teilen könnte?


    Möchte meine 2070 Super ersetzen, mit der ich Bernds Settings nicht ganz ruckelfrei betreiben kann. Bspw. mit NGU sharp mit very high und sehr hohem shadow/highlight recovery ist die Karte über den Anschlag und ruckelt. Überall weniger habe ich sie mit 70-75% Last gemäß Afterburner ruckelfrei im Betrieb. Hätte aber schon diese Regler mehr zum Anschlag geschoben und denke dass dies mit der 4060ti möglich sein sollte, wenn es schon die 3060ti können soll, oder?


    Die 4060ti wird ja immer billiger, verbraucht weniger Strom als eine 3060ti…. die 8 GB-Variante gibt es im Angebot gerade für ca. 399 EUR zum black Friday. Würde gerne zuschlagen. Sie ist rein vom Gaming schon ca. 25-30% schneller als meine RTX 2070 super, was das native Rendering betrifft. DLSS 3.0/3.5 ist noch der Bonus. Denke daher, dass die Karte für meine Anwendung optimal wäre – klar mehr geht immer… 4070 ist aber noch deutlich teurer und für ACC nicht nötig und in MadVR habe ich die Bildverbesserer (die ganzen Schärfetools und Artefaktebeseitiger) ohnehin auf Aus stehen, da diese exorbitant Leistung benötigen


    Zusammenfassend mein Rechner erfüllt zur Zeit 3 Dinge:


    • Sim Racing mit Assetto Corsa Competizione @3440x1440 (kein weiteres Gaming)
    • Etwas Videoschnitt, etwas mkv-Bearbeitung mit mkvToolnix
    • MadVR 113 mit Decklink Quad HDMI Recorder fürs 4k Tone mapping im Heimkino, BlueRay upscaling


    3060ti ist eigentlich raus – sie ist mindestens gleich teuer zur Zeit wie die 4060ti und hat auch keinen nennenswerten Vorteil in ACC zur 2070 super… Und wie war das mit der FP32-Leistung von 22 TFlops (4060ti) vs. 16 TFlops (3060ti). Hatte hier gelesen, dass FP32 der Leistungsmesser in MadVR sein soll? Meine 2070 super hat 9 TFlops.


    Ich weiß, CPU müssen wir nicht diskutieren - ist rein für MadVR too much, aber ACC ist im Rennen mit vielen Gegnern stark prozessor-lastig. Die FPS brachen mit meinem Xeon-Prozessor von 100 im Training auf 35 im Rennen mit vielen Gegenern ein… unspielbar. Der neue muss nicht mehr viel leisten, um die 100 Frames zu halten und gerade Schnitt/Rendern etc. mit der neuen CPU sau schnell. War für mich somit kein Fehlkauf


    Rechner




    be quiet! Pure Base 500DX Midi Tower ohne Netzteil schwarz




    MSI Tomahawk WIFI Intel Z690 So. 1700 Dual Channel DDR4 ATX Retail




    Intel Core i5 13600K 14 (6+8) 3.50GHz So.1700 WOF




    2TB Samsung 980 Pro M.2 PCIe 4.0 x4 3D-NAND TLC (MZ-V8P2T0BW)




    32GB (2x 16GB) G.Skill Trident Z Neo DDR4-3600 DIMM CL16-19-19-39 Dual Kit




    be be quiet! Pure Loop 2 FX 360mm All-in-One




    750 Watt be quiet! Straight Power 11 Modular 80+ Gold




    RTX 2070 Super







    Kino




    Denon X8500HA zum HDMI-Splitter (wegen HTCP) zum PC zum JVC N5, alles zusammen macht 364ms Audio-Delay bei 6 frames in advance in MadVR

  • Eine gebrauchte 3090 wäre + 100% eine 3080 ca. +85%.

    Schau mal nach wieviel watt deine 2070 im Afterburner beim Spielen (ich glaube ACC zieht noch relativ wenig Strom ohne FPS Begrenzung.

    Danach vergleichst du das mit dem MADVR UHD schauen.

    Bei meinen Vergleichen verbraucht meist 100% mehr Gaming Last oder Furmark Benchmark viel mehr Strom als die MADVR Anwendung bei identischer Auslastung.

    Falls die MADVR last nur 70% ergibt dann kannst du als Vergleich die ingame FPS mit RTSS (bestandteil vom Afterburner so festlegen dass die Last vergleichbar ist).


    Eine 3090er bekommt man sogar auch mit Undervolting zu sehr guten Verbrauch ohne Leistung zu verlieren (entweder nur durch Spannungsreduktion und Taktvorgabe.

    Durch 5 oder 10 % weniger maximaltakt und noch weniger maximaler Spannung ist einiges möglich.

  • danke für den Tip NEO. Ich habe einmal geschaut bei Ebay, für wieviel Geld die gebraucht über den Tisch gegangen sind - zwischen 700 und 770 EUR. Das ist aber leider außerhalb des Budgets. Würde ich ältere Titel in UHD zocken, führt kein Weg an dieses Kraftpaket vorbei. Dank DLSS reicht momentan in ACC sogar noch die 2070 Super.


    Da hier im Forum scheinbar die 4060ti/MadVR Kombi noch nicht oft genutzt wird, werde ich es selber ausprobieren - habe sie mir vorhin bestellt und werde berichten, zumindest dahingehend, wie sich bei meinen momentanen Einstellungen die Auslastung in Relation zur 2070 super verhält und mit welcher Auslastung sie Bernds Setting beherrscht, also wenn ich im HDR-Bereich die hohen Recovery-Regler wie von ihm voreingestellt benutze - hier kommt meine Karte ja leider nicht mehr mit allen HDR-Profilen klar.

  • habe sie mir vorhin bestellt und werde berichten, zumindest dahingehend, wie sich bei meinen momentanen Einstellungen die Auslastung in Relation zur 2070 super verhält und mit welcher Auslastung sie Bernds Setting beherrscht

    Freue mich auf dein Feedback!

    Was für ein Mainboard benutzt du? Ich frage wegen der PCIe-Anbindung der 4060Ti.

  • So, ich habe die RTX 4060 ti bekommen und einmal mit MadVR gegen die 2070 Super getestet. Prozessor war der i5 13600K, der sich aber bei MadVR natürlich langweilt. Seine Auslastung schwankte bei beiden Karten zwischen 5-7%, womit er kaum über Idee liegt. Gemessen habe ich einmal mit einem Leistungsmessgerät - und zwar das ganze System - also nicht, was die Grafikkarte verbraucht. Im Idle nach dem Hochfahren liegt am System eine Leistung von ca. 85 Watt (woran der Anteil der GPU um die 20 Watt hat, die 2070 etwas mehr, die 4060 ti etwas weniger). Über die Differenzen zum Idle-Verbrauch kann man schon grob erkennen, was die GPU nimmt.


    Einstellungen HDR:

    Hill Conservative (Fer15)

    shadow recovery: high

    highlight recovery: high


    Chroma upscaling:

    Fall 1: NGU sharp, very high

    Fall 2: Jinc, mit aktiviertem anti-ringing filter


    Artefakte-Verbesserungen:

    Keine


    Wegen 21:9 Leinwand…


    Videoprozessor-Einstellungen: Video Conversation: V210 > P010, damit MadVR in der Lage ist, alle Formatwechsel machen zu können – also die schwarzen Balken oben und unten immer eliminiert. Beamer ist dabei immer auf Maximum – also 2,39:1 eingestellt.


    Da 21:9 Filme weniger Inhaltspixel als 16:9 Filme besitzen, habe ich den Test mit den beiden Formaten gemacht - markiert ja die obere und untere Grenze der Videoformate (nimmt man mal 4:3 raus) und damit den Performance-Bereich.


    Testfilme zwei Klassiker in 4K


    16:9 - E.T.

    21:9 - True Romance


    Die Ausgangssituation war ja, dass ich mit der 2070 Super beim Croma-upsampling die NGU-Einstellungen nicht wirklich nutzen konnte. Insbesondere bei 16:9 waren viele Aussetzer da – aber auch bei 21:9 mit 82% Auslastung war das nicht immer stabil – keine Ahnung warum das nicht ausreicht in der Praxis.


    Zusammenfassend kann man sagen, über ein Viertel schneller und dabei noch ein Viertel weniger Leistungsaufnahme auf dem Gesamtsystem.




    Die Reduzierung der Leistungsaufnahme bei den Grafikkarten selbst, ist natürlich deutlich höher - zieht man mal grob ca. 65 Watt Leistungsaufnahme der restlichen Komponenten ab. Dann komme ich unter Jinc auf 30 bis 31% geringere Leistungsaufnahme der 4060ti und unter NGU 35 bis 36%. Mehr als 20 EUR im Jahr, wenn die Kiste 3 Stunden pro Tag im Schnitt läuft ist die Einsparung somit aber nicht. Immerhin nach 5 Jahren 100 EUR und ein gutes Gewissen. Ich schaue aber auch wirklich viel Film oder fahre einiges an Runden unter Assetto Corsa Competizione.




    Je höher die Last auf den Karten – also unter NGU, desto höher auch die Stromeinsparung. Die Afterburner-Werte schwankten ein paar Prozentpunkte hin und her, daher soll mal die Genauigkeit nur einen groben Anhaltspunkt geben. Die Messwerte beim Stromverbrauch waren aber relativ konstant.


    Ich finde die Effizienz der 4060ti top und die Leistung nun auch mit NGU Chroma upsampling sehr gut. Zugegeben würde ich wahrscheinlich nicht einen Blindtest zwischen Jinc und NGU bestehen. Somit kann man MadVR natürlich auch weiterhin mit einer 2070 Super betreiben mit ein paar Kompromissen beim Chroma upsampling, was wahrscheinlich etwas überbewertet wird. Hatte auch von Experten hier gelesen, dass dies keinen riesigen Effekt hat. Das muss jeder für sich dann wohl entscheiden.


    Ich für mein Teil behalte die 4060ti und die 2070 Super wird verkauft…

  • Nachtrag vom 03.12. - hat sich erledigt, Frage beantwortet


    Möchte für meinen künftigen HTPC das GD07 Gehäuse von Silverstone. Der Hersteller gibt eine maximale Breite von 133 mm bei Grafikkarten vor. Einige MSI RTX 3060ti sind in Ihren Spezifikationen mit einer Breite von 140 mm angegeben. Passen diese dann nicht in das o.g. Gehäuse oder rundet MSI hier nur unglücklich auf? Foto 1 ist das Gehäuse, Foto 2 die Karte. Kann bitte jemand Auskunft geben?



Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!