Hyper-V SMB Storage Access Denied Error (0x80070005)

Eine kleine Stolperfalle ergibt sich bei der Remoteverwaltung eines Hyper-V Servers in SMB Szenarien. Sobald der Hyper-V / Clusterfailover Manager Remote ausgeführt wird, muss die Delegierung konfiguriert werden, sonst gibt es bei jeglichem Zugriff auf SMB-Ebene aus der Konsole heraus den Fehler „access denied error (0x80070005)“. Nachdem man alle NTFS und Share Berechtigungen für fehlerfrei befunden hat landet man bei Eingabe des Fehlercodes bei zahlreichen Workarounds die jedoch anderen Ursachen gelten. Im konkreten Fall fehlte die eingeschränkte Delegierung in den Active Directory Objekten der Hyper-V Hosts. Ich habe selbst einige Zeit suchen müssen, bis ich auf der entsprechenden Technet Seite gelandet bin. Deshalb hier der Link was genau durchzuführen ist.

0017

SCVMM Error (2931) all Status on Virtual Machines „Host Not responding“

In einem aktuellen Projekt kommt es in einem Hyper-V 2012R2 Cluster verwaltet durch SCVMM 2012R2 gelegentlich zum Absturz des WMI-Dienstes auf einem Knoten. Die VMs werden ohne Fehler weiter ausgeführt. Im SCVMM erscheint der Fehler

ID 2931 VMM is unable to complete the request. The connection to the VMM agent on the virtualization server (%ServerName;) was lost.

Ein Neustart des Servers behebt das Problem zwar, ist im Betrieb aber unschön. Eleganter ist es die einzelnen Dienste durchzustarten. Der WMI Dienst hat eine Reihe von Abhängigkeiten und lässt sich in dem Zustand nicht einfach Neustarten. Mein Kollege Denny hat das ganze schnell in ein Powershell Script gegossen. Tritt das Problem regelmäßig auf, sollte natürlich etwas mehr Zeit in die Problemanalyse investiert werden.

<#
 .SYNOPSIS
Erstellt von: Denny Rudolf
 
.EXAMPLE
./Restart_VMMServices.ps1
 
.NOTES
Der SCVMM braucht nach erfolgreicher Ausführung des Skriptes einige Minuten zur Aktualisierung des Status.
 #>

#1 Abschnitt: Kill der laufenden Prozesse für Hyper-V und VMM Agent
Kill -processname vmms -Force
Kill -processname vmmAgent -Force

#2 Abschnitt: Beenden von Diensten und abhängigen Diensten
Stop-Service -Name WinRM -Force
Stop-Service -Name vmms -Force
Stop-Service -Name SCVMMAgent -Force

#3 Abschnitt: Neustarten des WMI Dienstes
Restart-Service -Name Winmgmt -Force

#4 Abschnitt: Start der Dienste und abhängigen Diensten
Start-Service -Name WinRM
Start-Service -Name vmms
Start-Service -Name SCVMMAgent

KB2920189 Fehler bei Gen2 VMs

Das aktuelle Update KB2920189 führt bei Generation 2 VMs mit eingeschaltetem Secure Boot zu einem Fehler während der Installation. Wird das Update mit mehreren anderen Updates installiert schlagen alle fehl. Derzeit gibt es noch keine Überarbeitung des Updates, jedoch folgenden Workaround.

  1. VM Herunterfahren
  2. Secure Boot in den Eigenschaften der VM deaktivieren
  3. VM Starten und Update installieren
  4. VM erneut Herunterfahren
  5. Secure Boot in den Eigenschaften der VM aktivieren
  6. VM Starten

Das Update betrifft

  • Windows RT 8.1
  • Windows 8.1
  • Windows 8.1 Enterprise
  • Windows 8.1 Pro
  • Windows Server 2012 R2 Datacenter
  • Windows Server 2012 R2 Essentials
  • Windows Server 2012 R2 Foundation
  • Windows Server 2012 R2 Standard
  • Windows RT
  • Windows 8
  • Windows 8 Enterprise
  • Windows 8 Pro
  • Windows Server 2012 Datacenter
  • Windows Server 2012 Essentials
  • Windows Server 2012 Foundation
  • Windows Server 2012 Standard

Vorhandenen VMs in SCVMM2012R2 IP-Adressen aus einem IP-Pool zuweisen

Im Betrieb einer VMM Infrastruktur steht man gelegentlich vor der Aufgabe einer vorhandenen VM weitere Netzwerkadapter oder andere Netzwerke zuzuweisen. Möchte man dabei einen IP-Pool zur Vergabe der IP-Adresse verwenden, ist diese Option ausgegraut.

0015

Es gibt natürlich einen Weg über die Powershell. Hier beschrieben ist die Abfolge mit grafischer Powershell Ausgabe. Ihr müsst im Skript nur euren VMM Server ergänzen. Im ersten Schritt wählt ihr euren IPPool aus, nachfolgend die VM und den gewünschten Netzwerkadapter. Anschließend wird aus dem IPPool eine freie Adresse herausgesucht und dem virtuellen Netzwerkadapter zugewiesen.

$VMMServer=“VMM-Server“

$IPPool = Get-SCStaticIPAddressPool -VMMServer $VMMServer|Select-Object |Out-Gridview -PassThru

$VM=Get-SCVirtualMachine -VMMServer $VMMServer|Select-Object -Property Name|Out-Gridview -PassThru

$vNICs=Get-SCVirtualNetworkAdapter -VMMServer $VMMServer -VM $VM.Name|Out-Gridview -PassThru

$IPAddress=Grant-SCIPAddress -StaticIPAddressPool $IPPool -GrantToObjectType VirtualNetworkAdapter -GrantToObjectID $vNICs[0].ID -Description $VM.Name

Set-SCVirtualNetworkAdapter -VMMServer $VMMServer -VirtualNetworkAdapter $vNICs -IPv4AddressType Static -IPv4Addresses $IPAddress.Address

0016

Sofern ihr später wieder auf eine manuelle IP-Adressvergabe wechseln wollt, nutzt folgenden Weg. Dabei muss der Netzwerkadapter den Status Connected aufweisen.

$VMMServer=“VMM-Server“

$IPPool = Get-SCStaticIPAddressPool -VMMServer $VMMServer|Select-Object |Out-Gridview -PassThru

$VM=Get-SCVirtualMachine -VMMServer $VMMServer|Select-Object -Property Name|Out-Gridview -PassThru

$vNICs=Get-SCVirtualNetworkAdapter -VMMServer $VMMServer -VM $VM.Name|Out-Gridview -PassThru

Set-SCVirtualNetworkAdapter -VMMServer $VMMServer -VirtualNetworkAdapter $vNICs -IPv4AddressType Dynamic

 

Hyper-V Server 2012 / 2012 R2 disable CSV Cache

In einem aktuellen Projekt hatte ich vor der Infrastrukturfreigabe Probleme mit der Storage Performance. Der 6 Knoten Cluster war jedoch vom Feintuning soweit eingerichtet, der CSV Cache war bereits aktiviert. Für die Fehleranalyse und Performance Tests ist der CSV Cache eher hinderlich. Im Technet etwas versteckt kann der CSV Cache unter

2012 R2 mit (Get-Cluster). BlockCacheSize = 0

2012 mit (Get-Cluster). SharedVolumeBlockCacheSizeInMB = 0

ausgeschaltet werden.

Cloud Computing Testumgebung für 1300 EUR

Wer kennt das nicht, früher am Anfang der Virtualisierungsspielerei war noch ein einziges Gerät ausreichend. Auf diesem hat man seinen Hypervisor zum Laufen gebracht und war glücklich nun einige VMs betreiben zu können. Demnächst folgt noch ein Blogbeitrag zum Thema Testumgebung auf dem Notebook, denn im Projektgeschäft kann ich darauf nicht ganz verzichten.

Nachdem ich in der Vergangenheit in der Firma stets Jäger alter Hardware war, befand ich mich irgendwann in einer Ressourceneinbahnstraße. Ich überlegte mir, wie viel Geld man wohl in die Hand nehmen müsste, um eine Testumgebung aufzubauen, mit der nahezu alle Funktionen einer modernen Privat Cloud Umgebung mit Microsoft Cloud OS aufzubauen. Der Fokus lag dabei ganz klar auf maximalen Ressourcen, aber die Infrastruktur sollte überall (auch zu Hause) betrieben werden können. Damit fallen i.d.R. gebrauchte Server heraus. Zwar gibt es diese schon für moderates Geld, aber Stromverbrauch und Lautstärke sind wohl weniger was fürs Arbeitszimmer. Also was brauchen wir für eine private Cloud? Zum einen zwei möglichst identische Hostserver die später im Cluster laufen werden, zum anderen ein zentrales Storage, einen Switch und einen Router, paar Netzwerkkabel. That’s it. Meine Testumgebung ist bereits 1,5 Jahre alt, deswegen könnten einzelne Komponenten mittlerweile nicht mehr verfügbar sein. Nachfolger zu finden sollte aber kein Problem sein. Die Preise sind Nettopreise.

Hostserver

Was gehört in den Hostserver? Eine kleine SSD und viel RAM und viele Netzwerkkarten. Ich habe bei der Auswahl auf einen Prozessor mit APU geachtet, um auch RemoteFX zu testen. Das Mainboard sollte über onboard Grafik verfügen und 5x Netzwerkkarten (bevorzugt PCIe) aufnehmen können.

Mainboard – 60 EUR

AMD APU – 70 EUR

4x DIMM 8 GB DDR3 – 200 EUR

60 GB SATA3 SSD – 40 EUR

5x NIC 1 GBit PCIe – 40 EUR

Gehäuse mit Netzteil – 40 EUR

Zentrales Storage System

Im ersten Aufbau wurde eine kleine 4 Bay QNAP beschafft. Allerdings waren die Lese- und Schreibwerte im Testaufbau sogar noch deutlich schlechter als auf dem Datenblatt vermerkt. Als ich mich mit dem Thema SMI-S Integration in VMM beschäftige, musste ich mich endgültig von der QNAP verabschieden. An dieser Stelle sei vermerkt, nur neue QNAP Modelle unterstützen SMI-S Integration siehe http://eu1.qnap.com/Storage/Manual/QNAP_SMIS_Provider_ENG.pdf

Die Alternative war schnell gefunden: einen Windows Storage Server. Dazu kam noch eine SSD um den Write Back Cache und Tiered-Storage zu nutzen. Das Ergebnis WOW. Demnächst folgt noch ein Blog der sich um das Thema Performance von Windows Storage Server dreht. Bei dem Storage gehe ich einfach mal davon aus, jeder hat irgendwo noch einen PC herumstehen der folgende Spezifikationen mindestens erfüllt:

Dual Core 64 Bit CPU

4 GB RAM

1 GBit onboard LAN

2 freie PCIe Slots

insgesamt 6 SATA Ports (alternativ einen zusätzlichen SATA Controller für 15 EUR)

Das Gehäuse sollte über gute Belüftung verfügen. Alternativ sollte aufgrund der Festplatten ein zusätzlicher Gehäuselüfter installiert werden. Den PC erweitern wir um:

60 GB SATA3 SSD – 40 EUR

2x NIC 1 GBit PCIe- 16 EUR

4x 2 TB SATA3 HDD – 240 EUR

Netzwerk

Normalerweise steht an Netzwerktechnik auch immer etwas „herum“. Zumindest ein Router mit anständigem Router OS sollte vorhanden sein. Bei einer Neuanschaffung würde ich eine Leistungsstarke CPU und 2x GBit/s Anschlüsse wählen, da ein Teil des Netzwerkverkehrs später über den Router transportiert wird. Der Switch sollte über 16-24 GBit/s Ports verfügen, verwaltbar sein und VLAN, QoS oder LACP sollten für das Gerät keine Fremdwörter sein.

16 GBit Switch – 100 EUR

In der Summe erhaltet Ihr für rund 1300 EUR oder etwas mehr, wenn gar keine Technik vorhanden ist, eine Testumgebung mit der viele Szenarien des Cloud Computings evaluiert werden können. Nahezu alle technischen Artikel in diesem Blog sind mit dieser Testumgebung nachgestellt worden. Viel Spaß beim Nachauen.

Testnetzwerk Netzwerkplan

Testnetzwerk Aufbau