Beiträge von Shogun1978

    Nach langer Zeit ein Update: Materialmangel, Corona und mehrere andere Stolpersteine haben den Bau um ganze 6 Monate zurück geworfen... Einzug ist damit erst ab März 2022. Immerhin ist der Kinoraum so umgesetzt worden, wie ich mir das vorgestellt habe. Der Trockenbauer stellt die Profile für die Wand zwischen Kino und Kino-Technik/Serverraum. Also Wanddicke habe ich (bei doppelter Beplankung mit Rigips) 40 cm definiert. Der Technikraum wird 1,54 m breit. Der Rest wird damit Kino :-) Das mit der Absenkung war denke ich die richtige Entscheidung, die Deckenhöhe ist richtig gut, auch für die hintere Reihe.


    Da es zu teilweise unverschämten Preissteigerungen gekommen ist, kommen erstmal die Kinderzimmer in EIgenleistung dran (das war eigentlich als Leistung vom Bauträger geplant). Erst dann das Kino... also weitere 12 Monate warten :angry:


    Dafür gibt es ein neues Projekt (dass kostengünstiger als ein Kino ist), was mich begleiten wird. Ein Multiroom Audio System im Eigenbau (kabelgebunden mit Lautsprechern in der Decke - ist alles schon in der Rohbauphase vorbereitet worden). Ab Oktober 2022 dann hoffentlich: Start des Heimkinobaus.

    Ja eh, ist aber noch immer kein "Cache". Read = unnötig. Write = sinnvoll.

    Kann man tatsächlich nicht pauschal sagen: es gibt Systeme, die ein sogenanntes Prefetching. Beispiel: du liest ein File mit 10 GB, dann würde ein Prefetching pauschal einfach den Cache mit mit den 10 GB (wenn du soviel Cache hast) vollmachen. Damit liest du deine Daten aus dem Cache (was ja nichts anderes als RAM darstellt) statt von der Platte. Das kann schneller sein, muss aber nicht. Bei unseren Streaminganwendungen ist sowas meistens nicht notwendig. Also ist die Antwort ob read Cache sinnvoll oder nicht: kommt drauf an 😊 (ist übrigens auch meine Lieblingsantwort auf die Fragen meiner Kunden 😂)

    Das wäre mal interessant. Eigentlich hatte ich wirklich geplant vorne natürlich den Center plus die zwei Lautsprecher rechts und links. Hinten auch rechts und links Surround. Dazu sollen die Wand vorne und hinten ein DBA bilden (daher auch die 40 cm dicke Wand hinten - vorne habe ich noch nicht im 3D Modell eingeplant). Dazu dann links und rechts der Sitzreihen jeweils ein ein Lautsprecher, macht also vier Lautsprecher auf der Wand.


    Die Tür als Reflektor wird schwer, da es sich um eine 24er Wand mit nach außen öffnender Tür handelt. Da muss ich mir noch was überlegen. So langsam bekomme ich nur das Gefühl, dass es wohl auf 5-6 Plätze rauslaufen wird, sonst wird es an den Seiten zu eng. Aber vermutlich muss ich das dann sehen, wenn mal alles steht. Heute hat der Tiefbauer angefangen :dancewithme

    Ist dann außen am Kino ne Stufe bzw. Stufen die nach oben ins Kino führt/führen?

    Nein, das ist der Clou: da das Kino unter der Terrasse liegt, hatte ich zwei Optionen: entweder niedrigere Deckenhöhe (haha, is klar... meine Frau lacht, ich lache, jeder Heimkinofan lacht ;-) ) oder man legt das Kino tatsächlich tiefer als den Rest vom Haus. Ergo: das Kino liegt ca. 34 cm tiefer als der Rest vom Haus. Somit müsste man eigentlich einen Schritt nach unten machen (also über eine Stufe runter. Da wir aber hinten ins Kino reingehen, kommt man ebenerdig auf dem Podest raus :-) Die vordere Sitzreihe liegt auf Heimkino-Bodenniveau und die hintere Reihe auf Bodenniveau vom restlichen Haus :-)

    Es wird langsam konkreter, kommende Woche startet ENDLICH der Hausbau (yeah... :freu::poppy::think:


    Zur Feier des Tages habe ich mich das erste Mal mit SketchUp versucht - intuitiv ist anders, aber nach einigen Stunden Fluchen, Vodka und Tutorials gings dann. Anbei mal ein paar erste Gehversuche, auch mal mit einer "repräsentativen" Frau mit 170 cm Größe. Wie man sehen kann ist der Eingang nun hinten rechts (im perspektivischen Bild) auf ca. 34 cm Höhe (vom Raumboden ausgemessen). Man kommt rein, hat dann hinten eine Vierer-Reihe (mit Love-Seat in der Mitte), vorne dann drei Sitze. Die Tür öffnet sich nach außen (danke für die Tipps hinsichtlich Fluchtweg und Platz), trotzdem ist der Platz zwischen Tür und hinterer Sitzreihe mit ca. 60 cm doch etwas knapp... Leider kann ich die Tür nicht weiter nach vorne Richtung Leinwand verschieben. Die Treppen rechts und links sind ca. 70 cm breit. Geplant sind Sitze von Leadcom mit 555 mm Sitzbreite. Da ich noch akustische Maßnahmen durchführen werden (rechts und links) gehen dort sicher auch noch ein paar Zentimeter verloren. Ich überlege jetzt die vordere Reihe als Vierer auszuführen... bin mir aber nicht sicher wegen der Lautsprecher an den Seiten. Auf Höhe der hinteren Reihe ist ja die Türe - da wird das ohnehin nicht mit Lautsprechern klappen. Bin gerade etwas unsicher, wie ich das anders machen könnte.

    Ich denke er meint das SSD keinen "wear/Verschleiß" haben wenn nur gelesen wird.

    Also die mechanische Komponente wird entfernt was es für unsern Anwendungsfall, 1 mal beschreiben und dann nur mehr lesen ideal machen würde.

    Absolut korrekt. Bei den günstigen SSDs ist die Anzahl der TBW (Terrabytes Written) interessant, der MTBF Wert wie man ihn von HDDs kennt, ist uninteressant. Folgendes Beispiel:

    2000GB WD Blue 2.5" (6.4cm) SATA 6Gb/s 3D-NAND TLC: 185 Euro - 500 TBW

    2000GB WD Red SA500 NAS SATA SSD, 2.5": 247 Euro - 1300 TBW


    Jetzt kommt noch die Garantie dazu, denn die TBW gelten für den Zeitraum der Garantiedauer, welche bei beiden HDDs bei 5 Jahren liegt. Füttert man nun diesen Kalkulator (https://wintelguy.com/dwpd-tbw-gbday-calc.pl), ergeben sich diese Werte:


    DWPD: WD Blue 0.137, WD Red 0.356

    GB/day: WD Blue 273.973, WD Red 712.329


    Das bedeutet, dass ich die Blue 0,1x pro Tag komplett vollschreiben kann (DWPD = drive writes per day) oder halt pro Tag 274 GB schreiben darf. Im Schnitt über 5 Jahre... Bei der Red sind es dann 0,3 x pro Tag vollschreiben bzw. am Tag 712 GB...


    Somit ist für unseren Anwendungsfall die Blue vollkommen ausreichend, da die Filme auf die SSD geschrieben und danach nur noch gelesen werden. Performance bringt das keinesfalls, denn die HDDs reichen locker für unsere Anwendung "Streaming". Der Vorteil liegt im Stromverbrauch: SSDs ziehen beim Lesen/Schreiben ca. 3 Watt. HDDs (je nach Typ) 6-8 Watt. Schreiben/Lesen ist aber nicht das Thema, Idle/Leerlauf ist das Thema. HDD: ca. 3-5 Watt, SSD: 0,06 Watt... dazu noch der nicht vorhandene Verschleiß (wie bei mechanischen HDDs üblich). Nehmen wir mal kurz 10 HDDs vs. 10 SSDs, dann kommen wir beim Idle Strom auf 0,6 Watt bei SSDs gegenüber 30 Watt bei HDDs... Dazu noch der kleinere Form-Faktor (i.d.R. 2,5" vs. 3,5")


    Einen "Nachteil" haben SSDs aber doch: die müssen halt regelmäßig Strom haben, da sonst die Bits "kippen" könnten. Heißt aus 1 wird 0... passiert das bei zu vielen Bits, werden die Informationen unlesbar. Aber das war's dann auch schon.

    Mit UnRAID habe ich mich noch gar nicht auseinandergesetzt. Die meisten meiner Kollegen verwenden ZFS - aber haben auch nicht solche Datenmengen. Da geht's aber auch weniger um Performance als mehr um Verfügbarkeit. In Sachen Skalierbarkeit warten die meisten meiner Kollegen auf Erasure Coding :-D


    Das mit den Spindowns der HDD ist so ein zweischneidiges Schwert. Start-Stop KANN auf die Haltbarkeit der Disks gehen, muss aber nicht. Der Vorteil ist - gerade bei vielen Platten - der geringere Stromverbrauch. Eine 10 TB Seagate HDD zieht im Leerlauf ca. 5 Watt. 10 Platten machen da 50 Watt aus - im Standby geht der Verbrauch auf unter 1 Watt runter. Bei SSDs spielt das dann keine Rolle mehr. Insofern macht es Sinn - aus energetischen Gründen - die Disks besonders nachts herunterzufahren. Aber, wie gesagt, angeblich geht das zu Lasten der Haltbarkeit (was ich bisher aber nicht feststellen konnte - und ich hab nun schon einige Disks im Betrieb gehabt). In meinem NAS habe ich 3TB 2,5" HDDs von Toshiba (werden leider nicht mehr hergestellt), die ziehen im Leerlauf nur 1,5 Watt. Schöner Kompromiss :-) Hoffentlich bringen die mich noch über die nächsten 3-5 Jahre, dann sind SSDs in TB Größe erschwinglich - gerade bei den Read-Intensive SSDs, die ja für eine Filmsammlung perfekt sind.

    Ich würde auch ein Array mit 15x 10 TB (Raid-Z3 mit ZFS/TrueNAS) aufbauen. Alternativ 2x 10x 8 TB (2x Raid-Z2), wobei das von den Kosten gleich aussehen wird und nur der Stromverbrauch höher liegt (mehr Disks=mehr Strom). Bei zwei Arrays würde ich dann trotzdem keinen Pool drüber legen - ist ein Array weg, ist der Pool weg.

    Ja das sehe ich genauso, ich betreibe seit einigen Jahren die HDD aus USB-Platten, einfach weil sie deutlich günstiger sind. ich hätte jetzt grob kalkuliert, dass das 24er Fantec + Board am Ende so viel kostet wie ein 8bay NAS und mehr Platz für die Zukunft bietet, daher die Idee.

    Mit einem Eigenbau liegst du wahrscheinlich günstiger - oder bekommst mehr für das gleiche Geld. Was teuer ist, sind die HDDs. Das Mainboard mit CPU, RAM und ggfs. einer Netzwerkkarte (falls mal mehr Bandbreite benötigt, i.d.R. aber nicht notwendig) sowie HBA für weitere Platten sind ein Posten. Aber bei 24 HDDs fallen die Kosten für das System selbst kaum ins Gewicht. Zwei Fragen: welche Distribution möchtest du denn verwenden? Und was ist der primäre Anwendungsfall? Nehmen wir mal an, du hast ausschließlich Filme darauf - sonst nichts. Keine Datenbank (Influx oder MySQL für Kodi), nur wenige gleichzeitige Zugriffe (keine 20 Leute daheim) - dann reicht wahrscheinlich ein C3558 Prozessor, 16 (max. 32) GB RAM und ein oder zwei LSI Adapter. Dazu die HDDs, das Fantec Gehäuse und das war's. Nutzt du das Storage für andere DInge (Influx für Smart Home-Daten bspw. Home Assistant, VMs sollen darauf betrieben werden, Docker Container...) würde ich zum Xeon D-2123IT mit 64-128 GB RAM greifen. Ggfs. sogar die NAS Software als VM.

    Die Erfahrung hab ich auch gemacht - per WLAN hat der Spaß dann aber auch schon ein Loch... Das mit dem HDMI Dongle hab ich mit einer GTX750ti auch hinbekommen, aber naja... schön ist anders. Schade, ich hatte gehofft, dass sich da was getan hat.

    Ich nutze das System auch für meinen Job als Testplattform. Geplant ist eine NFS oder iSCSI-Anbindung für einen kleinen SSD-Pool (2+1 oder 4+1 Raid-Z1) für Datenbanken, Testserver etc. Das soll dann auf einer dedizierten Maschine laufen. Generell kann ich deinen Eindruck nur bestätigen, die Kombination, die du in Betrieb hast (habe auch ein Fantec Gehäuse, Supermicro-Board mit E3-1260Lv5 und 64 GB ECC RAM), läuft tadellos. Für eine Privatperson schon fast overkill, aber eine solide Sache, wenn man mehr als ne Syno oder Qnap haben möchte (beides auch nicht schlecht!). Dadurch, dass ich aber immer am RAM-Limit lebe und aktuell noch einen zweiten Server habe, denn ich per Redfish-API bei Bedarf hochfahre (aus Home Assistant heraus), wollte ich das im Haus dann mal umbauen. Ein Knackpunkt mit FreeNAS in VMware ist halt: wenn du VMware einen NFS Share oder iSCSI Share geben möchtest, wird es beim Reboot ein wenig blöd. Aber sollten alle VMs vom lokalen Storage booten und nichts auf dem NFS liegen, ist das stressfrei. Bei mir sollen es halt am Ende zwei Server, ein NAS und ein weiteres Backup-NAS sein. Also vier Systeme, von denen eins (Backup-NAS) in einem anderen Raum steht. Die zwei VMware Server greifen auf das Haupt-NAS-System zu und nutzen es als Shared Storage. Damit kann ich dann auch einfacher und reibungsloser Testen, Updates für ESX installieren etc.

    Wenn du wirklich ein Eigenbausystem planst, dann schau dir auch mal den Raid-Calculator hier an: https://wintelguy.com/zfs-calc.pl


    Da kannst du ein wenig rumspielen um zu ermitteln, welche HDD/Raid-Kombination am besten für dich ist. Wenn du Tipps für den Bau oder die Komponentenauswahl brauchst, sag Bescheid - ich hab das schon einmal durch und setze das für das Haus auch nochmal um (Ende diesen Jahres vermutlich).


    Das alte Raid würde ich übrigens als Backup behalten. Hab das mit meinen alten Disks auch gemacht und betreibe jetzt ein Arry mit 8x3TB (Raid-Z2) und einmal 6x4TB (auch Raid-Z2) als Backup. Sicher ist sicher...

    Okay das bedeutet, wenn ich das richtig verstehe, dass ich am Ende für 24 Festplatten z.B. 6x SAS-Port brauche, oder wenn das Mainboard z.B. 8 S-ATA-Anschlüsse hat, noch 4x SAS Ports. Da die Karten alle scheinbar maximal 2x Multilane SAS Ports besitzen, brauche ich also mind. noch 2 PCI-E Ports oder wenn zu wenig S-ATA Anschlüsse da sind 3x PCI-E um mit 3 dieser Karten, den Bedarf abzudecken?!

    Viele Wege führen da nach Rom :-) Aktuell sieht es bei mir (noch) so aus, dass ich ein FreeNAS/TrueNAS als virtuelle Maschine im ESX laufen lasse. Das wird sich aber ändern. Generell bin ich ein Freund der (zugegeben deutlich teureren) Supermicro-Boards. Warum? Weil die einen IPMI-Port für Remote-Management haben, somit muss ich keinen Monitor anschließen bzw. gar nicht erst in den Keller. Wir haben uns hier im Mehrfamilienhaus bei der letzten Umrüstung vom Kabelanschluss (Baum auf Stern) direkt noch eine Leitung von der 4. Etage/Dachgeschoss in den Keller legen lassen. Da steht jetzt das Rack. Ist schon schick, dass ich im Fehlerfall da nicht runter muss. Aber zurück zur Aufgabenstellung:

    Ein guter Atom C3000 Prozessor reicht für den Hausgebrauch aus. Bei Bedarf ein stärkerer D-2123IT - ist dann auch die Frage des Idle-Stromverbrauchs (wobei die CPU bei den 24 Platten wohl weniger ins Gewicht fällt). Wer selbst bauen möchte landet zwangsläufig bei Openmediavault oder FreeNAS (bzw. jetzt TrueNAS). OVM basiert auf Debian Linux und verwendet im Standard ext4 im SW-Raid (madm). Damit bin ich vor ca. einem Jahr mal richtig auf die Schnauze gefallen. Also setze ich nun ZFS als Filesystem mit integriertem Raid ein. Das kann man zwar auch in OVM realisieren, da aber nur über eine Plugin. TrueNAS basiert auf Unix (FreeBSD) und setzt standardmäßig auf ZFS. Von daher setze ich nun TrueNAS ein und bin bisher mehr als zufrieden. Lediglich beim RAM muss man aufpassen. Hier gilt bei ZFS: viel hilft viel - wobei der RAM Bedarf von den genutzten Features abhängt. De-Duplication bspw. zieht unfassbar viel RAM, bringt für uns Heimkino-Junkies allerdings wenig bis keinen Mehrwert. Da lieber eine HDD mehr kaufen und den teuren RAM sparen.

    Zum Anschluss der HDDs: im Moment setze ich einen LSI 9211-8i SAS2008 Controller (ca. 100 Euro) mit 8 Ports ein. Das liegt daran, dass ich den PCI-Adapter per PCI-passthrough an die TrueNAS VM durchreiche, da machen die Onboard-Controller oft Stress.


    Für den Neubau bieten sich aus meiner Sicht zwei Boards besonders an:

    https://www.supermicro.com/en/…otherboard/A2SDi-8C-HLN4F

    oder

    https://www.supermicro.com/en/…otherboard/X11SDV-4C-TP8F


    Das erste Board liefert 12x SATA und 4x GBE (plus dedizierten IPMI-Port für das Remote Management, kann man im Unifi-Umfeld schön auf ein dediziertes Management VLAN packen). Dazu eine 25W (max. TDP) Atom CPU mit 8 Kernen. RAM kann man reinstecken bis der Arzt kommt (glaub bei 256 GB ist Schluss). Dazu ein PCI-Steckplatz - den kann man mittels Riser-Card aber noch erweitern auf zwei Steckplätze - und die PCIe x4 Lanes reichen locker für den LSI aus. Davon zwei Stück dran und man kommt auf schicke 26 HDDs. Zwei der Onboard-Ports würde ich für ein gespiegeltes Betriebssystem auf zwei kleinen SSDs nutzen.


    Für alle, die an der Fleischtheke auf die Frage "darf's ein bisschen mehr sein" mit "Ja" antworten, die greifen zum zweiten Board. Das Ding bring ne 4 Core / 8 Threads (durch Hyperthreading) Xeon CPU mit. Die verlangt auch etwas mehr Strom (bis zu 60W TDP) , ebenfalls bis zu 256 GB RAM und neben den schon bekannten 4x GBE LAN kommen noch zwei 10 GBE Ports mit RJ45 und zwei 10 GBE Ports mit SFP+ - also kann man bis zu 4x 10 GBE + 4x 1 GBE da rausholen *sabber*. Das Board bietet ebenfalls 12x SATA plus zusätzliche NVMe Slots - da würde ich dann Boot-Drives oder Cache reinpacken (letzten braucht man aber eher selten). Die beiden PCI-Slots liefern Platz für weitere LSI-Adapter - da könnte man dann auch noch NVMes mit anschließen (wer's braucht).


    Soweit meine 5 Cent dazu :-)


    P.S. Kleiner Nachtrag: das mit dem SAS und SATA bzw. NL-SAS oder NL-SATA hat was mit den Lanes zu tun. SATA Platten haben nur einen Datenkanal zum Controller, SAS hat zwei. Sowas findet man i.d.R. im Serverumfeld (wo man sowas auch eher braucht). Wenn also eine SAS/SATA Backplane im Gehäuse vorhanden ist, kann man mit SATA oder SAS Controller die SATA-Platten (die man üblicherweise im Consumer-Umfeld bekommt) anschließen. Bei den SAS-Connectoren gibt es aber ein paar Besonderheiten. Bspw. gibt es SAS Kabel, die den LSI mit der Backplane verbinden (HBA-to-Backplane) oder aber umgekehrt (Backplane-to-HBA). Hier muss man ganz genau aufpassen, welche Kabel man kauft, sonst geht gar nichts. Das ist dann wichtig, wenn der SAS-Port an der Backplane anders aussieht als der an dem Controller (HBA). Also entweder direkt das passende Kabel vom Hersteller des Gehäuses nehmen oder beim gut sortierten Händler eurer Wahl in der Beschreibung schauen (bei Amazon steht das i.d.R. bei den Kabeln mit Bild dabei).

    Sieht fast so aus wie bei mir - nur dass die Filmauswahl an 2-3 Punkten abweicht ;-)


    Aber Spaß beiseite, das ist eine echt coole Sache. Ich habe mir eine zentrale Datenbank aufgesetzt, damit alle Kodi-Abspielgeräte auf dem gleichen Stand sind.