Schlagwort-Archive: iSCSI

Multipath I/O (MPIO) mit Windows 2008 R2 Server Core und iSCSI

Nachdem ich in meinen letzten Artikeln den grundsätzlichen Aufbau eines SANs und das Verbinden eines Hyper-V Servers mit selbigem beschrieben habe, werde ich heute dafür sorgen, dass die Verbindung richtig performant wird. Ich habe daher mein SAN und meinen Hyper-V Server mit zwei Netzwerkkarten verbunden (in meinem Fall CrossOver – aber das ist nicht wirklich relevant). Ziel ist es nun meinen Windows 2008 R2 Server Core dazu zu bekommen beide Karten gleichzeitig dazu zu verwenden das SAN anzusprechen. Selbstverständlich muss das SAN das auch verstehen – das ist bei der von mir verwendeten Lösung “open-e” gegeben.

Zuerst müssen wir auf unserem Hyper-V Server das MPIO feature installieren. Das erledigt folgender Befehl:

ocsetup MultipathIO /norestart

image_thumb-5989654

(… wie der Name der Option /norestart vermuten lässt unterbinden wir im ersten Schritt einen Reboot – natürlich kann man den Server auch rebooten, das kommt aber eh gleich…)

Nun sorgen wir dafür, dass alle Verbundenen LUNs auf MPIO umgestellt werden – man kann das auch über die ISCSICPL-Oberfläche erledigen, aber so gehts schneller 🙂

Vorsicht: Der Befehl fürht dazu, dass der Server ohne eine weitere Nachfrage neu startet.

mpclaim -r -i -d "MSFT2005iSCSIBusType_0x9"

image_thumb1-6283558

Nach dem Neustart prüft man am besten kurz ob wirklich alle LUS’s auf MPIO umgestellt wurden:

mpclaim -s -d

image_thumb2-4462578

In der vierten Spalte dieses Listings kann man zudem erkennen welche load balance Richtlinie aktiv ist. Das in meiner Aufstellung verwendete “RR” steht für Round Robin – in den meisten Fällen wird dies auch die beste Auswahl sein.

Nun wechseln wir auf die grafische Oberfläche der iSCSI – Konsole. Dies erreiche wir durch Eingabe des Befehls:

iSCSIcpl

image_thumb3-5668453

Um die MPIO Option für eine bestehende Verbindung zu konfigurieren, ist es notwendig, einen weiteren Pfad zu dem Device einzurichten. Hierzu wählt man das device aus und klickt auf “Connect”. Bei dem sich öffnenden Fenster muss die Option “Enable multi-path” aktiviert werden!

image_thumb4-4033966

Über die Einstellungen unter “Advanced” kann man alternative Route auswählen und wenn nötig die Authentifizierung dafür einrichten:

image_thumb5-7942542

Nachdem man die gemachten Eingaben bestätigt hat, kann man recht einfach prüfen ob alles wie gewünscht funktioniert hat:

mpclaim -s -d [Device#]

image_thumb6-1274766

Mausfreunde können das ganze auch über iSCSIcpl prüfen:

image_thumb7-5755180

image_thumb8-4359762

image_thumb9-9353377

That’ it. Unser Hyper-V ist jetzt über zwei Netzwerkverbindungen mit dem SAN verbunden. Selbstverständlich kann man die Schritte für jede weitere Netzwerkkarte analog durchführen und erhält somit immer mehr Durchsatz (Solange die Platten im SAN schnell genug sind ;-)).

Weiterführende Informationen:

Technet Seite mit der Befehlreferenz für MPCLAIM

Blog Post mit der Beschreibung wie man ein Windows 2008 R2 core an ein SAN anbindet

iSCSI SAN für ESXi auf Basis von open-e – Teil 5

Das Verbinden eines ESX(i) 4 Servers mit dem iSCSI SAN ist recht einfach über den vSphere Client machbar.

Netzwerkadapter einrichten

Im vSphere Client wechselt man zuerst auf den Reiter „Configuration“ und wählt dann in der Rubrik Hardware „Networking“ aus. Im rechten Teil des Fensters ist nun „Add Networking“ zu wählen.

t5_abb1_thumb-6520677

Im nächsten Dialog wählt man als Verbindungstyp „VMkernel“.

t5_abb2_thumb-4006903

Als nächstes steht die Auswahl der Netzwerkkarte für das SAN aus. Es ist zu empfehlen mindestens eine dedizierte NIC dafür bereit zu stellen.

t5_abb3_thumb-1925308

Nun kann man noch den Namen für das virtuelle Switch vergeben – alle anderen Optionen sollte man hier nicht auswählen.

t5_abb4_thumb-7575358

Selbstverständlich braucht der Adapter auch eine IP – diese gibt man in der folgenden Maske zusammen mit der Subnet Mak ein.

t4_abb5_thumb1-7689795

… kurz die Zusammenfassung prüfen und das neue Netzwerk mit einem Klick auf „Finish“ anlegen. Das ganze sollte danach so aussehen:

t5_abb6_thumb-2403552

Storage Adapter einrichten

Um den Storage Adapter (iSCSI Software Adapter) einzurichten wechseln wir zu dem Menüpunkt „Storage Adapters“ und wählen dort den iSCSI Software Adapter aus.

t5_abb7_thumb-7872703

In dem sich öffnenden Fenster sollten zuerst die CHAP Credentials Hinterlegt werden.

t5_abb8_thumb-6994204

Nun wechseln wir auf den Reiter „Dynamic Discovery“ und fügen über den „Add“ Button unseren iSCSI Host Server hinzu (IP des open-e Servers an der verbundenen NIC).

t5_abb9_thumb-9766375

Nach einem Klick auf „close“ will der ESX einen rescan des host bus adapters (HBA) durchführen. Dies lassen wir ihn selbstverständlich tun.

t5_abb10_thumb-7817471

Sollte die Liste der gefunden Devices wie bei mir leer sein, so hat der Dynamic Discovery Prozess nicht funktioniert.

t5_abb11_thumb-9380976

Wie das passieren kann weiß ich leider nicht, aber das Umschiffen des Problems ist recht simpel. Man geht dazu erneut in die Properties des iSCSI Software Adapters und wählt dort den Reiter „Static Discovery“. Über einen weiteren Klick auf „Add“ kann man seine Targets von Hand hinzufügen.

t5_abb12_thumb-1849162

Nachdem dieser Schritt für alle Targets erledigt wurde, sollten diese in der Liste zu sehen sein:

t5_abb13_thumb-8715894

Datastore Anlegen

Zum Schluss müssen die soeben verbundenen LUNs noch als Datastores eingebunden werden. Hierzu wählt man im Menü den Punkt „Storage“ und danach „Add Storage“.

t5_abb14_thumb-2251149

Die nächste Auswahl ist dann natürlich „Disk/LUN“.

t5_abb15_thumb-4144720

Gefolgt von der Auswahl des gewünschten LUNs

t5_abb16_thumb-9301459

Der ESX analysiert nun das neue LUN und stellt fest, dass dieses derzeit leer ist.

t5_abb17_thumb-5835338

Im nächsten Schritt darf man seinem Datastore einen Namen verpassen.

t5_abb18_thumb-9832808

Den Vorschlag zum block size auf der folgenden Seite sollte man in aller Regel übernehmen (es sei denn man weiß sehr genau was man da tut…)

t5_abb19_thumb-9897307

Jetzt sind wir nur noch eine Zusammenfassung von unserem neuen Datastore entfernt.

t5_abb20_thumb-5086220

[Update]

iSCSI SAN für ESXi & Hyper-V – Teil 1

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 2

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 3

iSCSI SAN für Hyper-V (Win2k8R2 core) auf Basis von open-e – Teil 4

iSCSI SAN für ESXi auf Basis von open-e – Teil 5

Multipath I/O (MPIO) mit Windows 2008 R2 Server Core und iSCSI

iSCSI SAN für Hyper-V (Win2k8R2 core) auf Basis von open-e – Teil 4

In diesem Artikel geht es darum einen Win2k8 R2 Hyper-V (core) Server mit dem SAN zu verbinden. (mit der GUI kann das ja jeder 🙂 ). Wie man einen HyperV-core-Server installiert und konfiguriert kann man hier nachlesen.

Speichernetzwerk

Für die Anbindung des Hyper-V an das SAN empfiehlt es sich mindestens eine dedizierte, möglichst schnelle, Netzwerkverbindung bereit zu stellen. Ich verwende in meinem Beispiel eine Crossover Verbindung zwischen den Maschinen. Die IP-Range dieser Netzwerkkarte liegt im 192.168.3.0/24 Bereich:

t4_abb1_thumb-4572813

Die Netzwerkkarte auf meinem Hyper-V System muss daher ebenfalls in dieses Netz gehoben werden:

Auflisten der vorhandenen NIC’s

netsh interface ipv4 show interfaces

Setzen der IP

netsh interface ipv4 set address name=“<ID>“ source=static address=<StaticIP> mask=<SubnetMask>

t4_abb2_thumb-8466440

iSCSI Initiator Dienst starten

Um den iSCSI Initiator dauerhaft zu starten sind zwei einfache Befehle notwendig:

sc config msiscsi start= auto

Wichtig: Das Leerzeichen vor auto muss da sein!

net start msiscsi

t4_abb3_thumb-6448995

LUN verbinden

Zuerst müssen wir uns mit dem SAN-Portal verbinden:

iSCSIcli QAddTargetPortal <SAN-IP> <chap-user> <password>

t4_abb4_thumb-4415258

Nun lassen wir uns alle verfügbaren Targets auflisten:

iSCSIcli ListTargets

t4_abb5_thumb-1722648

Nun melden wir uns an einem der Targets an:

iSCSIcli QloginTarget <iqn> <chap-user> <password>

iSCSIcli PersistentLoginTarget <iqn> T * * * * * * * * * * * * * * * 0

(ja, die Sternchen und Leerzeichen sollen da sein!)

t4_abb6_thumb-3346771

Das Target permanent Verbinden:

iscsicli BindPersistentVolumes

t4_abb6a_thumb-1691842

Auflisten des soeben verbunden Targets:

iSCSIcli ListPersistentTargets

t4_abb7_thumb-1516375

LUN formatieren und einbinden

Unser HyperV Server hat nun eine neue Festplatte verbunden. Um diese nutzen zu können, ist es nötig (wie bei einer „normalen“ Platte) diese zu partitionieren und zu formatieren. Mangels GUI machen wir auch dies über die Komandozeile. Das Tool der Wahl ist dabei diskpart.

Diskpart

List disk

t4_abb8_thumb-6175452

Wie man sehen kann wurde unsere Disk 1 (die liegt im SAN) bereits eingehängt.

Nur noch wenige Schritte bis die Disk verwendet werden kann:

t4_abb9_thumb-7946332

[Update]

iSCSI SAN für ESXi & Hyper-V – Teil 1

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 2

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 3

iSCSI SAN für Hyper-V (Win2k8R2 core) auf Basis von open-e – Teil 4

iSCSI SAN für ESXi auf Basis von open-e – Teil 5

Multipath I/O (MPIO) mit Windows 2008 R2 Server Core und iSCSI

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 3

In diesem Teil der Serie geht es darum die Grundeinstellungen von open-e vorzunehmen und das SAN auf die Bereitstellung von LUNs für meinen ESXi und Hpyer-V 2008 R2 vorzubereiten. Im ersten Schritt werde ich dafür zwei 250 GB SATA Spindeln zu einem RAID 0 verbinden (für temporäre Teststellungen, daher nur RAID 0).

Einrichten eines Software RAID

Um open-e konfigurieren zu können verbindet man sich über einen Browser (via https) auf das Webinterface. Nach dem Login (Defaultpassword: admin) befindet man sich in der Schaltzentrale des Servers. Über Setup – S/ W Raid kommt man auf nachfolgende Seite:

t3_abb1_thumb-8708634

Unter “Create new S/W RAID unit” aktiviert man nun einfach die gewünschten Festplatten (in meinem Fall Unit S001 und Unit S000), wählt den Raid Level (bei mir New RAID 0) und klickt zum Abschluss „create“. Der Status der Platten wechselt nun auf „in use, Unit MD0“ und im linken Menü taucht das Raid MD0 auf.

Einrichten einer Volume Group

Das neu erstellte RAID kann nun einer Volume Group hinzugefügt werden hierzu klickt man auf Configuration – volume manager – Vo. groups.

t3_abb2_thumb-9612532

Nach dem hinzufügen des RAIDS zu der Volume Group wird dieses erst mal formatiert. Abhängig von der Größe der Platten und deren Performance kann das etwas dauern. Bei meinen 250 GB Platten ging es rech flott… Grundsätzlich kann man mehrere RAIDs zu einer Volume Group zusammen führen, aber das nur am Rande.

Einrichten eines iSCSI volumes

Nach dem Anlegen der neuen Volume Group erscheint im linken Menü „vg00“ durch einen Klick auf die Volume Group erhält man die folgende Ansicht:

t3_abb3_thumb-8399784

Als Action wählt man nun „new iSCSI volume“ aus und stellt im unteren Teil des Fensters die Größe des neuen Volumes ein.

Anlegen der iSCSI Targets

Für die soeben angelegten LUNs werden nun auch noch iSCSI targets benötigt. Die richtet man am einfachsten über Configuration – iSCSI target manager – Targets ein. In der sich öffnenden Maske sollte man jedoch zuerst einen „CHAP user“ (linkes Menü unten) anlegen um den Zugriff auf das LUN entsprechend absichern zu können.

t3_abb4_thumb-1073472

Wichtig an dieser Stelle, soll das LUN mit dem iSCSI Initiator von Microsoft verwendet werden z. B. für den Hyper-V, so muss das Passwort zwischen 12 und 16 Zeichen lang sein.

Das Target selbst ist recht schnell erstellt. Man wählt entweder den Default Name oder vergiebt einen eigenen und bestätigt diese Auswahl danach mit „apply“.

t3_abb5_thumb-9908002

Um das Target mit einem LUN und einem CHAP user zu verbinden klickt man nun im Menü auf der linken Seite auf das soeben angelegt Target.

t3_abb6_thumb-8491094

In der Maske fügt man ein oder mehrere LUNs zu dem Target hinzu und aktiviert die CHAP Authentifizierung (… und wählt natürlich einen Benutzer aus).

Hardwareraid Hinzufügen

Nachdem ich das Softwareraid wie oben beschrieben konfiguriert hatte, habe ich das System ausgeschaltet und einen richtigen Raid-controller mit einem RAID 10 (mit neuen Disks) angeschlossen. Open-e hat diesen direkt erkannt und entsprechend im System verfügbar gemacht. Der zusätzliche Speicherplatz konnte somit wie oben beschrieben konfiguriert und verfügbar gemacht werden. Damit ist auch das Erweitern des Storage eine recht einfache Sache die ohne großen Umstand erledigt werden kann.

[Update]

iSCSI SAN für ESXi & Hyper-V – Teil 1

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 2

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 3

iSCSI SAN für Hyper-V (Win2k8R2 core) auf Basis von open-e – Teil 4

iSCSI SAN für ESXi auf Basis von open-e – Teil 5

Multipath I/O (MPIO) mit Windows 2008 R2 Server Core und iSCSI

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 2

Open-e war der Gewinner meiner Produktevaluierung. In diesem Artikel geht es nun darum ein Storage auf Basis von open-e zu installieren und die Grundkonfiguration vorzunehmen.

Versionen

Als Basisversion bietet open-e derzeit die Version DSS V6 Lite an. Diese Version ist kostenlos und bietet daher auch keinerlei Support oder ähnliches. Für Fragen steht jedoch das open-e Forum mit Rat zur Seite. Eine weitere Einschränkung stellt die maximale Größe des Storage dar. Bei der kostenlosen Lite-Version ist diese auf 2 TB begrenzt. Des Weiteren wird nur eine NIC (ohne Teaming od. Bounding) , kein Hardwareraid, keine Replication, nur eine CPU und keine UPS unterstützt.

Die Vollversion inkl. Support ist jedoch zum Glück nicht übermäßig teuer und schaltet alle von mir gewünschten Funktionen (und vieles mehr) frei. Derzeit kostet die Open-E DSS V6 für max. 8 TB 771,00 € was angesichts der damit gebotenen Leistung ein fairer Preis ist.

Hardware

Wie jedes Produkt hat natürlich auch open-e Hardwareanforderungen, die für einen stabilen Betrieb erfüllt sein müssen. Als erstes braucht man eine x86 kompatible CPU mit mindestens 1 GHZ – ich verwende für meine Tests einen AMD CPU mit zwei Cores und jeweils 2,x GHZ. Es müssen zudem mindestens 1 GB RAM in dem System vorhanden sein – ich spendiere meinem System 2GB RAM. Als Systemfestplatte kommt bei mir ein 8 GB Flash drive zum Einsatz. Der Storage besteht in der ersten Teststellung aus 2 Festplatten (Softwareraid) und wird danach durch ein Hardwareraid mit 4 weiteren Platten (RAID 10) erweitert.

Installation – get the bits & bytes

Bei der Installation hat man zwei Möglichkeiten. Zum einen kann man die Installation über eine CD (iso-image) durchführen oder man verwendet das Archiv für die Installation via USB Stick. Da mein Storage System kein CD Laufwerk hat, habe ich mich für letzteres entschieden.

Die Files bekommt man hier: http://www.open-e.com/get-dss-v6-lite/

Neben den Installationsdateien stehen im Downloadbereich auch gleich noch ein sehr hilfreicher Quick-Start Guide und das reguläre Manual zum Download bereit. Leider fehlen in den Dokumenten PDF Sprungmarken sodass man manuell navigieren muss.

t2_abb1_thumb-1990403

Installation – USB Stick vorbereiten

Nach der Installation entpackt man das erhaltene *.zip File einfach auf einen mindestens 1 GB großen USB Stick. Direkt im Root des USB Sticks sollte sich danach ein Ordner mit dem Namen „boot“ befinden. Öffnen Sie diesen und führen Sie (unter Windows) die bootinst.exe aus um den Stick bootbar zu machen.

Abhängig vom verwendeten Betriebssystem erhalten Sie hier eine Fehlermeldung: „Accessing phyiscal drive: Access is denied“:

t2_abb2_thumb-9872986

Diese Fehlermeldung entsteht aufgrund der fehlenden Rechte (man muss local Admin sein). Die Datei muss also mit Adminrechten ausgeführt werden. Unter Windows Vista und Windows 7 muss man zudem (über die rechte Maustaste) explizit angeben, dass dieses Programm mit Adminrechten laufen soll (Stichwort UAC).

Mit den notwendigen Rechten läuft das Tool dann auch problemlos durch und man erhält ein bootbares Medium mit dem man fortfahren kann:

t2_abb3_thumb-8615401

Installation – Booting the system

Der komplexe Teil der reinen Installation ist nun abgeschlossen. Die noch durchzuführenden Schritte sind recht einfach.

USB Stick einlegen

System von USB Stick booten

Die erste Auswahlliste bestätigen (oder ein paar Sekunden warten)

Die zweite Auswahlliste mit „run Software installer„ bestätigen

Lizenz bestätigen

Installationsfestplatte auswählen

Lizenzkey eingeben

… und fertig

Leider vergibt das System automatisch nur statische IP Adressen (lt. Manual soll auch DHCP gehen – das war aber bei keinem meiner Tests der Fall) ohne dem Benutzer während der Installation die Möglichkeit zu geben darauf Einfluss zu nehmen. Nach Abschluss der Installation kann man über CRTL + ALT + N die per Default vergebenen 192.168er IP’s aber ohne großen Aufwand ändern.

[Update]

iSCSI SAN für ESXi & Hyper-V – Teil 1

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 2

iSCSI SAN für ESXi & Hyper-V auf Basis von open-e – Teil 3

iSCSI SAN für Hyper-V (Win2k8R2 core) auf Basis von open-e – Teil 4

iSCSI SAN für ESXi auf Basis von open-e – Teil 5

Multipath I/O (MPIO) mit Windows 2008 R2 Server Core und iSCSI