Schlagwort-Archive: open-e

iSCSI SAN für ESXi auf Basis von open-e – Teil 5

Das Verbinden eines ESX(i) 4 Servers mit dem iSCSI SAN ist recht einfach über den vSphere Client machbar.

Netzwerkadapter einrichten

Im vSphere Client wechselt man zuerst auf den Reiter „Configuration“ und wählt dann in der Rubrik Hardware „Networking“ aus. Im rechten Teil des Fensters ist nun „Add Networking“ zu wählen.

T5_ABB1

Im nächsten Dialog wählt man als Verbindungstyp „VMkernel“.

T5_ABB2

Als nächstes steht die Auswahl der Netzwerkkarte für das SAN aus. Es ist zu empfehlen mindestens eine dedizierte NIC dafür bereit zu stellen.

T5_ABB3

Nun kann man noch den Namen für das virtuelle Switch vergeben – alle anderen Optionen sollte man hier nicht auswählen.

T5_ABB4

Selbstverständlich braucht der Adapter auch eine IP – diese gibt man in der folgenden Maske zusammen mit der Subnet Mak ein.

T4_ABB5

… kurz die Zusammenfassung prüfen und das neue Netzwerk mit einem Klick auf „Finish“ anlegen. Das ganze sollte danach so aussehen:

T5_ABB6

Storage Adapter einrichten

Um den Storage Adapter (iSCSI Software Adapter) einzurichten wechseln wir zu dem Menüpunkt „Storage Adapters“ und wählen dort den iSCSI Software Adapter aus.

T5_ABB7

In dem sich öffnenden Fenster sollten zuerst die CHAP Credentials Hinterlegt werden.

T5_ABB8

Nun wechseln wir auf den Reiter „Dynamic Discovery“ und fügen über den „Add“ Button unseren iSCSI Host Server hinzu (IP des open-e Servers an der verbundenen NIC).

T5_ABB9

Nach einem Klick auf „close“ will der ESX einen rescan des host bus adapters (HBA) durchführen. Dies lassen wir ihn selbstverständlich tun.

T5_ABB10

Sollte die Liste der gefunden Devices wie bei mir leer sein, so hat der Dynamic Discovery Prozess nicht funktioniert.

T5_ABB11

Wie das passieren kann weiß ich leider nicht, aber das Umschiffen des Problems ist recht simpel. Man geht dazu erneut in die Properties des iSCSI Software Adapters und wählt dort den Reiter „Static Discovery“. Über einen weiteren Klick auf „Add“ kann man seine Targets von Hand hinzufügen.

T5_ABB12

Nachdem dieser Schritt für alle Targets erledigt wurde, sollten diese in der Liste zu sehen sein:

T5_ABB13

Datastore Anlegen

Zum Schluss müssen die soeben verbundenen LUNs noch als Datastores eingebunden werden. Hierzu wählt man im Menü den Punkt „Storage“ und danach „Add Storage“.

T5_ABB14

Die nächste Auswahl ist dann natürlich „Disk/LUN“.

T5_ABB15

Gefolgt von der Auswahl des gewünschten LUNs

T5_ABB16

Der ESX analysiert nun das neue LUN und stellt fest, dass dieses derzeit leer ist.

T5_ABB17

Im nächsten Schritt darf man seinem Datastore einen Namen verpassen.

T5_ABB18

Den Vorschlag zum block size auf der folgenden Seite sollte man in aller Regel übernehmen (es sei denn man weiß sehr genau was man da tut…)

T5_ABB19

Jetzt sind wir nur noch eine Zusammenfassung von unserem neuen Datastore entfernt.

T5_ABB20

[Update]

iSCSI SAN für ESXi & Hyper-V – Teil 1

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 2

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 3

iSCSI SAN für Hyper-V (Win2k8R2 core) auf Basis von open-e – Teil 4

iSCSI SAN für ESXi auf Basis von open-e – Teil 5

Multipath I/O (MPIO) mit Windows 2008 R2 Server Core und iSCSI

iSCSI SAN für Hyper-V (Win2k8R2 core) auf Basis von open-e – Teil 4

In diesem Artikel geht es darum einen Win2k8 R2 Hyper-V (core) Server mit dem SAN zu verbinden. (mit der GUI kann das ja jeder 🙂 ). Wie man einen HyperV-core-Server installiert und konfiguriert kann man hier nachlesen.

Speichernetzwerk

Für die Anbindung des Hyper-V an das SAN empfiehlt es sich mindestens eine dedizierte, möglichst schnelle, Netzwerkverbindung bereit zu stellen. Ich verwende in meinem Beispiel eine Crossover Verbindung zwischen den Maschinen. Die IP-Range dieser Netzwerkkarte liegt im 192.168.3.0/24 Bereich:

T4_ABB1

Die Netzwerkkarte auf meinem Hyper-V System muss daher ebenfalls in dieses Netz gehoben werden:

Auflisten der vorhandenen NIC’s

Setzen der IP

netsh interface ipv4 set address name=“<ID>“ source=static address=<StaticIP> mask=<SubnetMask>

T4_ABB2

iSCSI Initiator Dienst starten

Um den iSCSI Initiator dauerhaft zu starten sind zwei einfache Befehle notwendig:

Wichtig: Das Leerzeichen vor auto muss da sein!

T4_ABB3

LUN verbinden

Zuerst müssen wir uns mit dem SAN-Portal verbinden:

T4_ABB4

Nun lassen wir uns alle verfügbaren Targets auflisten:

T4_ABB5

Nun melden wir uns an einem der Targets an:

(ja, die Sternchen und Leerzeichen sollen da sein!)

T4_ABB6

Das Target permanent Verbinden:

T4_ABB6a

Auflisten des soeben verbunden Targets:

T4_ABB7

LUN formatieren und einbinden

Unser HyperV Server hat nun eine neue Festplatte verbunden. Um diese nutzen zu können, ist es nötig (wie bei einer „normalen“ Platte) diese zu partitionieren und zu formatieren. Mangels GUI machen wir auch dies über die Komandozeile. Das Tool der Wahl ist dabei diskpart.

T4_ABB8

Wie man sehen kann wurde unsere Disk 1 (die liegt im SAN) bereits eingehängt.

Nur noch wenige Schritte bis die Disk verwendet werden kann:

T4_ABB9

[Update]

iSCSI SAN für ESXi & Hyper-V – Teil 1

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 2

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 3

iSCSI SAN für Hyper-V (Win2k8R2 core) auf Basis von open-e – Teil 4

iSCSI SAN für ESXi auf Basis von open-e – Teil 5

Multipath I/O (MPIO) mit Windows 2008 R2 Server Core und iSCSI

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 3

In diesem Teil der Serie geht es darum die Grundeinstellungen von open-e vorzunehmen und das SAN auf die Bereitstellung von LUNs für meinen ESXi und Hpyer-V 2008 R2 vorzubereiten. Im ersten Schritt werde ich dafür zwei 250 GB SATA Spindeln zu einem RAID 0 verbinden (für temporäre Teststellungen, daher nur RAID 0).

Einrichten eines Software RAID

Um open-e konfigurieren zu können verbindet man sich über einen Browser (via https) auf das Webinterface. Nach dem Login (Defaultpassword: admin) befindet man sich in der Schaltzentrale des Servers. Über Setup – S/ W Raid kommt man auf nachfolgende Seite:

T3_ABB1

Unter “Create new S/W RAID unit” aktiviert man nun einfach die gewünschten Festplatten (in meinem Fall Unit S001 und Unit S000), wählt den Raid Level (bei mir New RAID 0) und klickt zum Abschluss „create“. Der Status der Platten wechselt nun auf „in use, Unit MD0“ und im linken Menü taucht das Raid MD0 auf.

Einrichten einer Volume Group

Das neu erstellte RAID kann nun einer Volume Group hinzugefügt werden hierzu klickt man auf Configuration – volume manager – Vo. groups.

T3_ABB2

Nach dem hinzufügen des RAIDS zu der Volume Group wird dieses erst mal formatiert. Abhängig von der Größe der Platten und deren Performance kann das etwas dauern. Bei meinen 250 GB Platten ging es rech flott… Grundsätzlich kann man mehrere RAIDs zu einer Volume Group zusammen führen, aber das nur am Rande.

Einrichten eines iSCSI volumes

Nach dem Anlegen der neuen Volume Group erscheint im linken Menü „vg00“ durch einen Klick auf die Volume Group erhält man die folgende Ansicht:

T3_ABB3

Als Action wählt man nun „new iSCSI volume“ aus und stellt im unteren Teil des Fensters die Größe des neuen Volumes ein.

Anlegen der iSCSI Targets

Für die soeben angelegten LUNs werden nun auch noch iSCSI targets benötigt. Die richtet man am einfachsten über Configuration – iSCSI target manager – Targets ein. In der sich öffnenden Maske sollte man jedoch zuerst einen „CHAP user“ (linkes Menü unten) anlegen um den Zugriff auf das LUN entsprechend absichern zu können.

T3_ABB4

Wichtig an dieser Stelle, soll das LUN mit dem iSCSI Initiator von Microsoft verwendet werden z. B. für den Hyper-V, so muss das Passwort zwischen 12 und 16 Zeichen lang sein.

Das Target selbst ist recht schnell erstellt. Man wählt entweder den Default Name oder vergiebt einen eigenen und bestätigt diese Auswahl danach mit „apply“.

T3_ABB5

Um das Target mit einem LUN und einem CHAP user zu verbinden klickt man nun im Menü auf der linken Seite auf das soeben angelegt Target.

T3_ABB6

In der Maske fügt man ein oder mehrere LUNs zu dem Target hinzu und aktiviert die CHAP Authentifizierung (… und wählt natürlich einen Benutzer aus).

Hardwareraid Hinzufügen

Nachdem ich das Softwareraid wie oben beschrieben konfiguriert hatte, habe ich das System ausgeschaltet und einen richtigen Raid-controller mit einem RAID 10 (mit neuen Disks) angeschlossen. Open-e hat diesen direkt erkannt und entsprechend im System verfügbar gemacht. Der zusätzliche Speicherplatz konnte somit wie oben beschrieben konfiguriert und verfügbar gemacht werden. Damit ist auch das Erweitern des Storage eine recht einfache Sache die ohne großen Umstand erledigt werden kann.

[Update]

iSCSI SAN für ESXi & Hyper-V – Teil 1

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 2

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 3

iSCSI SAN für Hyper-V (Win2k8R2 core) auf Basis von open-e – Teil 4

iSCSI SAN für ESXi auf Basis von open-e – Teil 5

Multipath I/O (MPIO) mit Windows 2008 R2 Server Core und iSCSI

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 2

Open-e war der Gewinner meiner Produktevaluierung. In diesem Artikel geht es nun darum ein Storage auf Basis von open-e zu installieren und die Grundkonfiguration vorzunehmen.

Versionen

Als Basisversion bietet open-e derzeit die Version DSS V6 Lite an. Diese Version ist kostenlos und bietet daher auch keinerlei Support oder ähnliches. Für Fragen steht jedoch das open-e Forum mit Rat zur Seite. Eine weitere Einschränkung stellt die maximale Größe des Storage dar. Bei der kostenlosen Lite-Version ist diese auf 2 TB begrenzt. Des Weiteren wird nur eine NIC (ohne Teaming od. Bounding) , kein Hardwareraid, keine Replication, nur eine CPU und keine UPS unterstützt.

Die Vollversion inkl. Support ist jedoch zum Glück nicht übermäßig teuer und schaltet alle von mir gewünschten Funktionen (und vieles mehr) frei. Derzeit kostet die Open-E DSS V6 für max. 8 TB 771,00 € was angesichts der damit gebotenen Leistung ein fairer Preis ist.

Hardware

Wie jedes Produkt hat natürlich auch open-e Hardwareanforderungen, die für einen stabilen Betrieb erfüllt sein müssen. Als erstes braucht man eine x86 kompatible CPU mit mindestens 1 GHZ – ich verwende für meine Tests einen AMD CPU mit zwei Cores und jeweils 2,x GHZ. Es müssen zudem mindestens 1 GB RAM in dem System vorhanden sein – ich spendiere meinem System 2GB RAM. Als Systemfestplatte kommt bei mir ein 8 GB Flash drive zum Einsatz. Der Storage besteht in der ersten Teststellung aus 2 Festplatten (Softwareraid) und wird danach durch ein Hardwareraid mit 4 weiteren Platten (RAID 10) erweitert.

Installation – get the bits & bytes

Bei der Installation hat man zwei Möglichkeiten. Zum einen kann man die Installation über eine CD (iso-image) durchführen oder man verwendet das Archiv für die Installation via USB Stick. Da mein Storage System kein CD Laufwerk hat, habe ich mich für letzteres entschieden.

Die Files bekommt man hier: http://www.open-e.com/get-dss-v6-lite/

Neben den Installationsdateien stehen im Downloadbereich auch gleich noch ein sehr hilfreicher Quick-Start Guide und das reguläre Manual zum Download bereit. Leider fehlen in den Dokumenten PDF Sprungmarken sodass man manuell navigieren muss.

T2_ABB1

Installation – USB Stick vorbereiten

Nach der Installation entpackt man das erhaltene *.zip File einfach auf einen mindestens 1 GB großen USB Stick. Direkt im Root des USB Sticks sollte sich danach ein Ordner mit dem Namen „boot“ befinden. Öffnen Sie diesen und führen Sie (unter Windows) die bootinst.exe aus um den Stick bootbar zu machen.

Abhängig vom verwendeten Betriebssystem erhalten Sie hier eine Fehlermeldung: „Accessing phyiscal drive: Access is denied“:

T2_ABB2

Diese Fehlermeldung entsteht aufgrund der fehlenden Rechte (man muss local Admin sein). Die Datei muss also mit Adminrechten ausgeführt werden. Unter Windows Vista und Windows 7 muss man zudem (über die rechte Maustaste) explizit angeben, dass dieses Programm mit Adminrechten laufen soll (Stichwort UAC).

Mit den notwendigen Rechten läuft das Tool dann auch problemlos durch und man erhält ein bootbares Medium mit dem man fortfahren kann:

T2_ABB3

Installation – Booting the system

Der komplexe Teil der reinen Installation ist nun abgeschlossen. Die noch durchzuführenden Schritte sind recht einfach.

USB Stick einlegen

System von USB Stick booten

Die erste Auswahlliste bestätigen (oder ein paar Sekunden warten)

Die zweite Auswahlliste mit „run Software installer„ bestätigen

Lizenz bestätigen

Installationsfestplatte auswählen

Lizenzkey eingeben

… und fertig

Leider vergibt das System automatisch nur statische IP Adressen (lt. Manual soll auch DHCP gehen – das war aber bei keinem meiner Tests der Fall) ohne dem Benutzer während der Installation die Möglichkeit zu geben darauf Einfluss zu nehmen. Nach Abschluss der Installation kann man über CRTL + ALT + N die per Default vergebenen 192.168er IP’s aber ohne großen Aufwand ändern.

[Update]

iSCSI SAN für ESXi & Hyper-V – Teil 1

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 2

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 3

iSCSI SAN für Hyper-V (Win2k8R2 core) auf Basis von open-e – Teil 4

iSCSI SAN für ESXi auf Basis von open-e – Teil 5

Multipath I/O (MPIO) mit Windows 2008 R2 Server Core und iSCSI

iSCSI SAN für ESXi & Hyper-V – Teil 1

Jeder der schon mal in meiner Wohnung war weiss, dass ich zwischenzeitlich ein recht umfangreiches Testlab betreibe. Mein Testlab bildet die Basis für die ganzen Experimente von denen ich einige ab und an vorstelle. Das Herzstück des Testlabs sind drei dual-socket (+dual core) Server welche über hyper-v und ESXi meine Testlandschaft bereitstellen. Schon vor ein paar Jahren habe ich die Festplatten dieser Systeme in ein zentrales Storage ausgelagert. Dieser Storageserver (eigenes LAN) stellte den Speicherplatz bis jetzt über NFS-Shares bereit. Leider ist das nicht so wirklich sicher und zudem fehlen NFS Funktionen, die ich zukünftig gerne nutzen möchte.

Mein neues Projekt heißt also: „Finde eine vernünftige und bezahlbare iSCSI Lösung für Standardhardware die mir min. 6 TB an Speicher bereitstellen kann.“

So wie sich das gehört,  fange ich mal mit einer groben Anforderungsliste an:

  • Unterstützung der iSCSI Standards
  • Bereitstellung von min. 6 TB Speicher sollte möglich sein
  • Unterstützung von Software- und Hardwareraid
  • Verständliches Managementinterface
  • Erweiterbarkeit des Speichers
  • Vernünftiger Datendurchsatz
  • Keine Limitierung von Netzwerkanschlüssen oder Unterstützung von min. 8 NIC‘s
  • Unterstützung von „persistent reservations“ (wichtig für MS Cluster)
  • Die vorhandene Hardware muss verwendet werden können (das Budget für neue Hardware ist leider nicht groß genug um ein SAN zu kaufen…)

Nachfolgend die Produkte, die nach einer ersten Internetsuche auf meine Liste gekommen sind.

Openfiler

Das wohl bekannteste open source Projekt zu dem Thema NAS & SAN ist openfiler. Die Software unterstützt in der kostenlosen Version beliebig viel Speicher und stellt diesen über diverse Protokolle (NFS, SMB, WebDAV, FTP und natürlich iSCSI) zur Verfügung. Einschränkungen bezüglich der Raid-Unterstützung bzw. Erweiterung sind nicht vorhanden. Es gibt auch keine Limitierung von Netzwerkanschlüssen und da das System auf einem „normalen“ Linux aufsetzt läuft das Ganze auch auf meiner vorhandenen Hardware. Leider scheidet openfile trotz alle dem aus, es unterstützt nämlich keine persistent reservations zudem ist die Menüführung des Managementinterfaces sehr gewöhnungsbedürftig.

FreeNAS

Nicht ganz unbekannt ist auch das open source Projekt FreeNAS. Die Webseite zu dem Produkt ist bei weitem nicht so gut / informativ wie die von Openfiler. Das Produkt selbst wird aber aktiv gepflegt und bietet ebenfalls eine beachtliche Menge an Features. Das Produkt ist sonst weitgehen mit Openfiler vergleichbar bietet jedoch noch eine weitere Einschränkung – software raid gibt’s nur als RAID 0, 1 oder 5.

Open-e

Open-e ist ein kommerzielles Produkt mit einer kostenlosen (eingeschränkten) Version. Ein guter Freund hat mich darauf aufmerksam gemacht und das Produkt so in meine Vergleichsliste gebracht. Die Webseite des Herstellers macht einen sehr guten Eindruck und bietet alle notwendigen Informationen. Leider reicht die kostenlose Version der Software nicht aus um meine Anforderungen zu erfüllen (kein Hardwarraid, nur eine NIC, zu wenig Speicher, keine persistent reservations etc). Die kostenpflichtige Version Open-E DSS V6 bietet jedoch alle gewünschten Funktionen (und noch vieles mehr).

Fazit

Da open-e die derzeit einzige Lösung in meiner Liste ist, welche alle Anforderungen erfüllt, werde ich mein Testlab – SAN mit diesem Produkt ausrüsten und mittelfristig betreiben. Die beschriebenen kostenlosen Produkte bieten jedoch, wenn man auf einige wenige Features verzichten kann, eine sehr gute Alternative die man bei einer Produktevaluierung auf jeden Fall betrachten sollte.

Ausblick

Ich werde in den nächsten Tagen weitere Artikel online stellen in denen ich meine Erfahrungen beim Konfigurieren von open-e selbst und natürlich auch von ESXi und Hyper-V im Zusammenspiel mit open-e schildern werde.

[Update]

iSCSI SAN für ESXi & Hyper-V – Teil 1

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 2

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 3

iSCSI SAN für Hyper-V (Win2k8R2 core) auf Basis von open-e – Teil 4

iSCSI SAN für ESXi auf Basis von open-e – Teil 5

Multipath I/O (MPIO) mit Windows 2008 R2 Server Core und iSCSI