Archiv der Kategorie: Enterprise

Automatisches Einhängen von Exchange Postfächern in Outlook

Outlook ab Version 2010 unterstützt das automatische Einhängen von Postfächern, wenn diese auf dem Exchange Server freigegeben wurden. Wenn man ein Postfach im Exchange per Vollzugriff für andere User freigibt (z.b. ein INFO Postfach oder ähnliches), dann erscheint dieses bei den Berechtigten Usern automatisch nach kurzer Zeit im Outlook.
Dies unterliegt allerdings einigen Einschränkungen. Erstens funktioniert das mit älteren Exchange Versionen nicht (erst ab Exchange 2010) und zweitens funktioniert es nicht, wenn man eine Sicherheitsgruppe statt einem User hinzufügt.
Abhilfe? Wie früher: Rechtsklick auf das Postfach -> Datendatei Eigenschaften -> Erweitert -> Erweitert und dann die Postfächer einzeln hinzufügen.
Das kann ganz schön nervig sein, wenn man das bei jedem User einzeln machen muss. Vor allem, wenn man mal eins vergisst.

Das Thema kann man ein wenig Abkürzen. Um zu verstehen, woher Outlook weiß, welche Postfächer es automatisch zuordnen soll, muss man sich mal einen User im Active Directory, dessen Postfach freigegeben wurde, genauer angucken. Wenn man die erweiterte Ansicht im Active Directory aktiviert hat, kann man die LDAP Felder sehen. Dort gibt es ein Feld mit dem Namen: msexchdelgateLinkList. In diesem Feld werden die delegatenames der Benutzer eingetragen, denen das Postfach automatisch zugeordnet werden soll.
Gruppen kann Outlook aber leider nicht auflösen. Auch trägt ein Exchange 2007 hier nichts ein – das Feld gibt es aber (zumindest in einer meiner Testumgebungen).

Was kann man jetzt machen? Genau. Einfach per Hand eintragen. Funktioniert mit Outlook 2010 und 2013 und Exchange 2007, 2010 und 2013.

Für Exchange 2007 muss man allerdings das Skript anpassen, dass die Exchange 2007 Addins geladen werden:

ersetzen durch

Die Gruppen aufzulösen und per Hand einzutragen ist allerdings recht müßig, daher habe ich mir das einfach gemacht und ein PowerShell Script geschrieben, das das für mich erledigt:

Was gibt es hier zu sehen? Das Feld $DomainController muss mit einem DC gefüllt werden, der für die Abfrage genutzt werden soll und $Domain sollte den NETBIOS Domainnamen enthalten.
Damit das Script ein wenig schneller läuft und nicht alle Nutzerberechtigungen bearbeitet werden kann man die User/Gruppen, denen die Postfächer freigegeben werden, noch einschränken. Wer das nicht möchte, der Löscht |where User -like „NETBIOSDOMAINNAME\MAIL GRP*“ aus dem Script. Ansonsten kann man das Prefix an seine eigenen Konventionen anpassen.

Bisher hatte ich mit dem Script noch keine Probleme. Natürlich muss man das Script regelmäßig ausführen, entweder per Cronjob oder nach dem Ändern von Zugriffsberechtigungen.

Das Skript aktualisiert alle User (die den Berechtigungen entsprechen). Löscht ggf. also auch User aus der Liste raus. Wenn man einen Filter einsetzt, darf man nicht die Gruppe raus löschen, sonst wird das automatische Einhängen für das Postfach nicht rausgenommen.

Wie lege ich die Postfächer jetzt sinnvoll an?
Eine Sicherheitsgruppe erstellen, z.b. MAIL GRP Info und im Exchange der Gruppe Vollzugriff geben. Wenn jetzt ein User Zugriff auf das Postfach haben soll, dann wird der User einfach der Gruppe hinzugefügt. Da muss man nicht mal mehr in den Exchange gehen. Natürlich funktionieren auch verschachtelte Gruppen.

Storage Spaces die Zweite

Ich habe ein paar weitere Benchmarks mit den Storage Spaces gemacht. Dieses Mal habe ich dynamische Datenträger im Raid 1 gegen Storage Spaces im Mirror antreten lassen.

Testaufbau

Ich habe wieder den Xeon E3-1230v3 mit 8GB ECC Ram unf dem X10SL-7 im Einsatz. Dieses Mal hängen allerdings die Festplatten an dem Chipsatz Controller und es sind auch andere Festplatten:
4x Seagate ST2000DL003-9VT166

Damit kann ich beide Szenarien parallel laufen lassen und testen. Der Aufbau des Raids mit den dynamischen Datenträgern braucht relativ lange um abzuschließen, es müssten ca. 5 Stunden gewesen sein. Die Storage Spaces Mirror Konfiguration war sofort einsatzbereit.

Bei mir kommt es eigentlich nur auf reine lineare Schreibleistung an, aber in diesem Fall werde ich auch noch ein paar andere Benchmarks testen. Ich habe in meinem Domainserver 2 Festplatten mit 2TB und dynamischem Raid1 als Datenhalde, bin aber mit der Performance sehr unzufrieden, vor allem, wenn eine der VMs Last erzeugt.

Testergebnisse

Aber zuerst der ATTO Benchmark.

Storage Spaces in Mirror Konfiguration
Storage Spaces in Mirror Konfiguration

softraid1

Bisher dachte ich eigentlich, dass das Windows Raid1 mit dynamischen Datenträgern gar nicht so verkehrt ist, aber jetzt bin ich doch anderer Meinung. Die Ergebnisse spiegeln auch meine bisherigen Erfahrungen wieder, wobei ich (mit anderer Hardware) durchaus auch lineare Lesezugriffe mit ca. 100MB/s ausführen kann.

Tja, da habe ich gestern geschlafen. Aus irgendeinem Grunde hatte das dynamische Raid 1 kein Laufwerksbuchstaben und ich habe ausversehen einen 16GB USB2 Stick getestet… Uuups 😉

Ich werde demnächst noch mal andere Benchmarks testen um andere Zugriffspatterns zu benchmarken.

Man möge verzeihen, wenn ich nicht so umfangreich, wie diverse Zeitschriften oder Technikblogs teste, die Ergebnisse hier sind nur für meine persönliche Erinnerung gedacht ;)Nichtdestotrotz freue ich mich natürlich über Ideen und sinnvolle Testszenarien.

Windows Storage Spaces und Geschwindigkeit

Erst einmal: Wer wünscht sich nicht die eierlegende Wollmilchsau als Fileserver. Platten rein und alles wird gut. Möglichst billig das Ganze. Ja.

Windows Server 2012 hat es eingeführt und die R2 Version verbessert: Storage Spaces.Unter Windows 8/8.1 gibt es sie auch, aber das ist für mich nicht so interessant, da meine Workstation möglichst schlank bleiben soll.

Was braucht man?

Zuerst Gehäuse, Netzteil, Mainboard, Festplatten, CPU und Speicher 😉

Ich habe lange überlegt, wie ich anfangen soll. Kleines Board kaufen wir nen AMD E-350 und mit einem Raid Controller aufwerten oder doch was potentes?

Im Endeffekt bin ich bei einem Supermicro X10SL7-f gelandet. 2x SATA 3, 4x SATA 2   und 8x SAS 2 bereitgestellt von einem Onboard LSI Controller, der auf den IT-Mode umgeflasht wurde. IT Mode bedeutet, dass die Platten ohne Raid direkt ans Betriebssystem durchgereicht werden – so, wie es von Microsoft für Storage Spaces empfohlen wird.

Übrigens ist das Board jeden Cent wert: Die KVM over IP Funktion funktioniert herausragend, Interner USB3 Port (für z.B. ESXi), Onboard SAS, insgesammt 14(!) SATA kompatible Anschlüsse, 2x Onboard LAN.

Als CPU gibt es einen Xeon E3-1230v3 mit einem BeQuiet Dark Rock Pro (lag noch rum), 4x2GB ECC Ram und einem 430W Netzteil von BeQuiet . Das System ist auf einer Samsung 840 EVO 120GB installiert. Die EVO Serie hat sich bei mir als recht zuverlässig rausgestellt und als Startplatte reichts. Wenn die irgendwann mal sterben sollte, muss das System halt vom Backup auf eine neue zurück gespielt werden. Probleme mit der Downtime habe ich als Privatperson dann zum Glück nicht.

Der ECC Speicher lag noch rum, sonst wären es wahrscheinlich eher 32Gb geworden, aber zum Testen reicht es erst mal. Die CPU ist für ihre Leistung ein guter Fang – auf der einen Seite Unterstützung für ECC Speicher, auf der anderen Seite Quadcore mit HT (!). Alternativen wären Pentium Dual Core oder i3-4xxx. Für einen Fileserver halte ich ECC Speicher durchaus für wichtig. Lieber ein paar Euronen mehr ausgeben, als nachher korrupte Daten haben.

Bilder vom zusammenbau spare ich mir mal – jeder, der schon mal nen Rechner zusammengebaut hat, kennt den Spaß. Und immer schon an einen guten Luftstrom denken – ne Menge Festplatten können viel Wärme erzeugen! Wichtig ist dabei nicht, dass die Lüfter Flugzeugtriebwerke nachmachen, sondern, dass sie einen kontinuierlichen Luftstrom abbekommen.

Weitere Konfiguration

In meinem Fileserver sind – zumindest jetzt in der Testphase 8x 4TB WD Red. Für 8 Platten laufen sie erstaunlich ruhig und erzeugen sehr wenig wärme (Im Verhältnis zu den 6x 1.5TB Seagate aus meinem alten Fileserver auf jeden Fall!)

Die Platten sind zu einem einfachen Storage Space mit einfacher Parity zusammengefasst und als Dateisystem nutze ich ReFS – vor allem deswegen auch der ECC Speicher. Es bringt ja nix, wenn die Daten auf dem Speicher sicher liegen, wenn sie später im Arbeitsspeicher korumpiert werden…

Erste Benchmarks

Die ersten Benchmarks sind durchaus enttäuschend.

Windows Storage Spaces mit 8x 4Tb im Parity Modus
Windows Storage Spaces mit 8x 4Tb im Parity Modus

Enttäuschend? Bei über 1,3GB/s Leserate? Ja. In meinen Dateikopiertests hat sich leider auch das Ergebnis von ATTO bestätigt, ich komme beim Schreiben leider kaum über die 70MB/s Marke, obwohl die CPU bei 0,8Ghz kaum mehr als 4% Auslastung hat. Schuld hierdran scheint das Parity zu sein. Das Thema wird im Netz vielfach diskutiert und ich werde demnächst noch mal eine SSD als Journal und Write Cache ausprobieren, mit der Hoffnung, dass ich die 2x1Gbit im Trunk ausgelastet bekomme. Auf der anderen Seite werde ich auf dem System später eh kaum Schreibzugriffe haben, sondern vor allem Lesezugriffe.

Es gibt ein paar Tricks um die Schreibgeschwindigkeit zu erhöhen – entweder durch ein RAID 50 (da verliere ich dann allerdings die Kapazität von 2 Festplatten) oder RAID 10 ( Kapazität /2). Es gibt aber wohl auch Tricks, wie man den Schreibcache verändern kann, so dass die Schreibraten wesentlich höher sein sollen. Aber das ist mir zu heikel – Wenn ich dann mal einen Stromausfall habe, ist die Wahrscheinlichkeit für korrupte Daten wesentlich höher – was ich auf diesem System natürlich vermeiden möchte.

Wenn ich das SSD Caching mal ausprobiert habe, kommt auf jeden Fall ein Folgepost 🙂