Kontingent wie bei Exchange? Geht das?

  • :)

    Auf User ein Kontingent wär gut. Hab Postfächer jenseits von gut und böse. 60-80gb kein Problem.

    Über 2.000.000 Dateien insgesamt . Wer bietet mehr ;) kommen nun der Grenze von 1 TB.

    Läuft aber alles super stabil und schnell auf NLSAS Platten.

    Platten Vergrößerung würde gehen, Speicher is günstig. Aber ne Rücksicherung wird dadurch auch nicht schneller....

    Ideen?? Kleiner Brainstorming.:/

  • Dateien, oder Mails?

    Wir haben laut Strongbox aktuell 9.889.104 Mails in der Sicherung die zusammen 986,1 GB in der Strongbox Sicherung belegen, bzw. bei der letzten Basissicherung belegt haben, seit dem kommen täglich ca 16 GB mehr Strongboxumfang hinzu.

    Gleichzeitig belegt die gesamte David Installation mitsamt Programmcode - welche ein separates Laufwerk hat - auf den SSDs dank Windows Server 2016 Deduplizierung nur rund 650 weil bei einer Deduplizierungsrate von 52% laut Windows Server aktuell 700 GB eingespart werden.

    Laut Explorer hat allein der Ordner Archive ein Volumen von 9.929.157 Dateien in 31.537 Unterordnern und würde 1,22 TB an Platz auf den SSDs belegen wenn nicht dedupliziert würde

    Ich persönlich sehe da kein Problem drin und denke statt über Quota eher darüber nach den SAS SSDs noch eine PCIe NVME M2 SSD im Raid 1 zur Seite zu stellen um damit das erstellen des Strongbox BasisImages zu beschleunigen, denn das dauert aktuell doch schlicht zu lange :o

    Der Volltextindex umfasst zur Zeit 1.256.470 Mails in 12.112 Ordnern (da ist allerdings ne ganze Menge Zeugs ausgeschlossen ;) die DB Datei hat dabei eine Größe von 8,16 GB, also noch Luft bis zur 10GB Grenze des SQL Express ;)

    Ja, eine Rücksicherung im Fall des Falles ist durchaus ein gewisses Thema, bleibt aber dank SSDs noch im überschaubaren Rahmen.

    PS: es wären sicher noch deutlich mehr Dateien wenn wir nicht großzügig Gebrauch von automatischer Ablage und Zusammenfassung älterer Ordner machen würden ;)

    Einmal editiert, zuletzt von riawie (11. April 2019 um 15:20)

  • Kontingente wären ne feine Sache... ich würde auf jeden Fall davon Abstand nehmen Kontingente via FSRM zu setzen. Das ist in Kombination mit David sicherlich ein Schuss ins Knie mit Anlauf.

    Grundsätzlich sollte man auf Eingang/Ausgang Ordnernd die Ablage aktivieren, das reduziert zumindest die Anzahl der Files enorm und reduziert etwas die Probleme bei einem Recovery.

  • Moin, @riawe

    Mails, inkl. Anhänge.

    bzw. bei der letzten Basissicherung belegt haben, seit dem kommen täglich ca 16 GB mehr Strongboxumfang hinzu.

    Dann ist die ja in 2 Monaten exakt doppelt so groß 8| - 2TB also?

    a, eine Rücksicherung im Fall des Falles ist durchaus ein gewisses Thema, bleibt aber dank SSDs noch im überschaubaren Rahmen.

    Aber die SSD ist doch intern? Was ist wenn bei euch die Bude abfackelt? Der Server geklaut wird, oder Wasser von der Decke kommt, Brand im Serverraum, Verschlüsselungstrojaner … etc etc.. Dann musst du doch ne volle Rücksicherung von außerhalb mitbringen? Und da ist zumindest bei uns noch USB 3.0 der Flaschenhals... also für den 1TB brauchts locker nen Tag....

  • Dann ist die ja in 2 Monaten exakt doppelt so groß - 2TB also?

    offenkundig :)

    Aber die SSD ist doch intern? Was ist wenn bei euch die Bude abfackelt? Der Server geklaut wird, oder Wasser von der Decke kommt, Brand im Serverraum, Verschlüsselungstrojaner … etc etc.. Dann musst du doch ne volle Rücksicherung von außerhalb mitbringen? Und da ist zumindest bei uns noch USB 3.0 der Flaschenhals... also für den 1TB brauchts locker nen Tag....

    LOL, ich hau mich weg ;)

    Die PCIe SSD über welche ich zusätzlich nachdenke soll ja im wesentlichen dazu dienen das einmal pro Quartal stattfindende Strongbox Basis-Backup deutlich zu beschleunigen.

    Die Datensicherungen liegen online auf versioniertem Speicher welcher via 2x 10 GB Glasfaser angebunden in einem anderen Brandabschnitt steht.

    Wenn ich das Backuplaufwerk per USB anbinden würde müsste es 1. im gleichen raum stehen wie der Server und 2. täglich zum Server getragen werden wenn ich Deine anderen Bedingungen erfüllen wollen würde.

    Davon abgesehen schafft natürlich auch USB heutzutage mehr als 1 TB in 7 stunden, man muss dann allerdings schon mal die richtigen Laufwerke dafür nutzen und sollte mindestens auf USB 3.1 statt USB 3.0 für die Schnittstelle achten, allerdings käme ich da nicht auf die Idee Backups per USB zu machen, weil ich wert drauf lege das Backup zuverlässig täglich zu erstellen, ohne mich drauf verlassen zu müssen das jemand zum Server latscht und dank Versionierung auch sicher vor Verschlüsselungstrojanern zu haben.


    Am Ende des Tages ist es doch so das uns die Postfachgrößen der User durch Projekte, deren Laufzeiten und den damit verbundenen Mail Volumen diktieren wie groß unsere Mailstores werden.

    Unsere Nutzer sortieren z.B. alle Projektbezogenen Mails in einen große Gruppenordnerstruktur weg, auf welche dann alle an den Projekten beteiligten Nutzer Zugriff haben, dadurch werden die einzelnen Postfächer schlank gehalten, aber das Problem des Archivvolumens ändert das kein Stück.
    Bedingt durch verschiedene geschäftliche Notwendigkeiten müssen alle Projektbezogenen Mails auch über sehr lange Zeiträume live zugreifbar bleiben.

    Zum Glück spielt uns der technologische Fortschritt bei der ganzen Geschichte in die Hände und so rüsten wir halt immer wieder die Hardware des Servers auf, so das die User weiterhin ein gutes Erlebnis beim Zugriff haben.

    Das einzige wo ich wirklich immer wieder mit Engelszungen drum kämpfen muss ist das verstanden wird das auch wenn wir noch nie ein Desaster hatten es wichtig ist das auch Backups möglichst rasch erstellt werden können und ebenso zügig einspielbar sein sollten, für den Fall das wir doch mal ein Desaster erleben.

    Und nur der Vollständigkeit halber: jede abgeschlossene Strongbox die nicht mehr erweitert wird wandert zusätzlich das sie mir über Jahre live zur Verfügung steht noch auf ein Magnetband welches in einem anderen Gebäude gelagert und für 10 Jahre aufbewahrt wird. Diese Bänder werden darüber hinaus auch immer mal wieder zum Test eingelesen um sicherzustellen das sowohl die Bänder als auch die Laufwerke um sie einzulesen im Ernstfall auch halten was von ihnen erwartet wird.

    Das ganze Prozedere erklären wir dann natürlich auch noch jährlich den verschiedenen Auditierungs Leuten die so im Auftrag der verschiedensten Audit Pflichten immer wieder turnusgemäß bei uns aufschlagen ;)

    All das schaff ich aber eben mit einem Tobit Server immer noch echt spielend, während ich da mit einem Exchange in der Cloud nicht mal wüsste ob ich es überhaupt so wie erforderlich schaffen würde, immerhin kann ich da nie überprüfen ob mich der Cloud Anbieter nicht belügt wenn er mir zusichert das die Daten hübsch fein in unterschiedlichen Gebäuden gelagert und vor Verlust geschützt sind.

    Und on Premise ist beim Exchange ja auch nicht mehr lange, beim Tobit hingegen ist das Systemimmanent ;)

  • Das klingt nach einem netten Konzept, für 98% aller David Installationen aber wohl ziemlich oversized ;)

    Immer auch dran denken dass die Strongbox keine Config sondern nur Daten enthält. Beim Desaster Recovery musst du also auch irgendwie das System selbst aus einem Image zurück schreiben.

  • für 98% aller David Installationen aber wohl ziemlich oversized

    Wer 1 TB an Daten in seinen Archiven hat sollte dafür auch ein Datensicherungskonzept haben das zu 1 TB an Daten in den Archiven passt ;)
    Für wen das dann oversized ist sollte sich überlegen ob er das insgesamt anders aufstellen kann.
    Schließlich gibt es da auch noch die Verpflichtung alle Mails die in geschäftlichen Vorgängen involviert waren für 10 Jahre im Originalzustand zu archivieren. Vielleicht kann bei solchen Sitationen dann aber schlicht dieses Archiv + dem auch dazu gehörenden Datensicherungssystem der Rettungsanker für eventuelle Datenverluste im David sein.
    Dazu allerdings muss auch das überhaupt erst mal vorhanden sein, was es ja dummer Weise bei vielen schlicht auch nicht ist :o
    So oder so braucht es einen Weg der zum real anfallenden Datenaufkommen passt.

    Immer auch dran denken dass die Strongbox keine Config sondern nur Daten enthält. Beim Desaster Recovery musst du also auch irgendwie das System selbst aus einem Image zurück schreiben.

    das ist für mich eh klar und selbstverständlich gibt es auch dafür entsprechende Vorkehrungen ;)

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!