VMWare Workstation vs VirtualBox

Od jakiś 4 lat używam praktycznie na co dzień VMWare Workstation. Ostatnio miałem jednak poprowadzić kurs z maszyn przygotowanych na Hyper-V. Jako że nie cieszyła mnie za bardzo perspektywa oczekiwania kilkunastu godzin aż kilka maszyn wirtualnych się przekonwertuje, postanowiłem zaryzykować z VirtualBoxem. I tu zaskoczenie – to działa. Co więcej, działa lepiej niż na Vmware – przynajmniej takie moje subiektywne odczucie.

Postanowiłem więc dać VMWarowi jeszcze jedną szansę – instalacja SBSa 2011. VMWare się poddał po 4 godzinach, a Virtualbox zainstalował w 2.
Zaciekawiony tematem postanowiłem poszukać jakiś benchmarków w sieci. I tak znalazłem porównanie kilku HyperVisorów – Virtual machines performance comparison: vmware vs virtualbox vs kvm vs xen 

Patrząc się na stosunek wydajność/cena, gdzie wydajność jest porównywalna, a cena jednego to jakieś 200$ więcej od drugiego(który jest darmowy), to raczej nie będe się zastanawiał nad dokupieniem upgradu jak już wyjdzie nowsza wersja vmware – mi funkcjonalność VirtualBoxa chwilowo wystarcza.
No chyba że znowu będe symulował klaster NLB wpięty fizycznie do przełączników CISCO – wtedy dobra obsługa 8 kart sieciowych, czy to wbudowanych, czy wirtualnych, czy podłączanych do maszyny wirtualnej przez USB się naprawdę przydaje.

Backup ISA TMG

ISA i TMG to takie fajne serwerki, które łatwiej jest postawić od początku niż przywrócić z kopii zapasowej. A jeszcze prościej zrobić jeden obraz z systemu, a następnie odtworzyć z obrazu, i wgrać najnowszy konfig. Ale jak więc zabezpieczać konfig ISA/TMG? Dość prosto i szybko można to zrobić skryptem, pamiętając o kilku rzeczach:

  • Backup konfiguracji powinien być trzymany na oddzielnym serwerze, najlepiej backupowanym przez coś innego
  • Pojedyńcza kopa zapasowa ma 7-8 MB, co przy kopii codziennej daje 3G na rok, a tygodniowej 420MB
  • Folder docelowy dobrze jest skompresować, wybierając odpowiednią flagę NTFS-ową na folderze, wtedy ilość miejsca z 7MB spada do 2.5MB, przy czym kolejne backupy będą zabierały jeszcze mniej
  • Jeśli certyfikaty będą eksportowane, to znajdą się również w konfiguracji TMG
  • Przy tmg, routing jest trzymany w konfiguracji TMG, więc przed importowaniem trzeba go wyrzucić z pliku netsh

A poniżej skrypt:

’bAckupisa/tmgtofile
Const destination = „C:bck”
Const passwd = „12345678”

Const fpcExportImportPasswords = &H00000001
Const fpcExportImportUserPermissions =&H00000002
Const fpcExportImportServerSpecific= &H00000004
Const fpcExportImportEnterpriseSpecific = &H00000008
      fpcOptionalData = fpcExportImportPasswords Or _
      fpcExportImportUserPermissions Or _
      fpcExportImportServerSpecific Or _
      fpcExportImportEnterpriseSpecific
date = replace(Date,„/”,„_”)
Set root = CreateObject(„FPC.Root”)
Set firewall = root.GetContainingArray
firewall.ExportToFile destination & date & „_ISA_CONFIG.XML”_
                     ,fpcOptionalData,passwd

Set wshShell = WScript.CreateObject(„WScript.shell”)
wshshell.run „cmd/c „” netsh int ip dump > ” & _
              destination & date & „ip.nsh”””
wshshell.run „cmd/c „” netsh int ip show dns > ” & _
             destination & date & „dns.txt”””

Puste konsolki mmc

Ostatnio, przy zabawię z ISA 2006 (Windows 2003 R2 SP2) pojawił mi się dziwny problem – zniknęły pola w konsolce mmc. Drzewko było widoczne, ale nie można było zobaczyć jakiegokolwiek ustawienia konfiguracji:

Podobny problem spotkał konsolkę mmc services.msc:

Google radzi w takich wypadkach uruchomić, vbscript.dll, oraz mshtml.dll

regsvr32 jscript.dll & regsvr32 vbscript.dll & regsvr32 mshtml.dll

Niestety nie pomogło.

Moją uwagę jednak zwróciło to, że powinniśmy przerejestrować komponenty odpowiedzialne za wyświetlanie html-a w systemie, razem ze skryptami. Chwilka zastanowienia, szybki rzut oka na logi systemowe – i tak, ostatnio z aktualizacji spłynął IE 8. Po odinstalowaniu, sytuacja wróciła do normy – konsolki zaczęły się wyświetlać normalnie.

SSD a prędkości

 Ostatnio miałem okazje pobawić się dyskami SSD – jednym Kingstonem 64GB, o sugerowanej prędkości 100/80; i drugim G.Skill 256GB o prędkościach odpowiednio 200/180MB.

Na pierwszy rzut poszedł kingston. Rzeczywiście, waga dysku, jak również wszechobecny plastik zamiast znanych z hdd aluminiowych obudów robi wrażenie. Na duży plus dysku można zaliczyć w szczególności cenę – 400zł za 64GB to już cena którą normalny użytkownik jest w stanie zapłacić.  Kolejną miłą niespodzianką w wersji testowanej jest załączona kieszeń 2.5″, oraz bootowalna płytka do szybkiego przeniesienia zawartości poprzedniego dysku na nowy. Kieszonkę oczywiścię wykorzystałem do przetestowania SSD – HD Tune pokazał ok 20MB/s. Po przełożeniu do kieszonki wykorzystującej eSATA, transfer wyraźnie się poprawił, i pozostawał na poziomie 94MB/s.

Po skolonowaniu dysku czas było zobaczyć co tak właściwie daje SSD.Do testów wykorzystałem moją stareńką już Toshibę m400 – Core 2 Duo T7200, 2GB RAM, Windows 7. Na dyskach hdd, nawet 7200, pod Windows 7 dało się zaobserwować dosyć częste momenty gdy system stawał, a jedyne co można było obserwować to diodę dysku twardego.I to przy obciążeniu CPU na poziomie 20-30%. Do tego czas otworzenia programów, czy startu systemu, pozostawiał dużo do życzenia – zanim system wystartował, i uruchomił wszystkie programy, a co za tym idzie umożliwił pracę mogłem nie tylko zrobić kawę, ale praktycznie ją w połowie wypić.

Jakie wrażenia z SSD? Po pierwsze system startuje zdecydowanie szybciej. I to odczuwalnie szybciej. Po zalogowaniu programy po prostu się pojawiają, przy czym od razu można korzystać z funkcjonalności systemu – uruchamiać inne programy, dostać się do Menu Start czy Mojego Komputera – bez konieczności czekania aż wszystko się załaduje. Praca z komputerem staje się po prostu przyjemnością, bez potrzeby ciągłego patrzenia się na diodę dysku, czy analizowania jaki program aktualnie próbuje się do dysku dobić. Moja Toshiba zyskała praktycznie drugie życie.

Oczywiście sa też małe minusy – czas instalacji programów które maja tysiące plików po 1kb się wydłużył. Ale na szczęście czasy gdy programy miały tysiące plików praktycznie minęły, i tylko przy portach z linuxa jeszcze  da się tę tendencje zaobserwować.

Kolejnym dyskiem do testów był G.Skill 256GB. Jak poprzednio, na pierwszą linię poszedł test USB. Wyniki były troszeczkę lepsze – ok 30MB/s. Przy teście eSATA wyniki podskoczyły do 99MB/s. 99? Miało być przecież 200. Hmm… szybki rzut oka na parametry dysku. Winą okazał się kontroler – zamiast prędkości SATA (150MB/s), po prostu pokazał że korzysta z UDMA 5. Było to o tyle dziwne, że komputerem testowym była ledwie dwuletnia stacjonarka oparta o procesor Q6600 i płytę asusa. Do tej pory myślałem że jeśli płyta główna ma złącza SATA, to powinna obsługiwać maksymalną przepustowość tego interfejsu. Jak się jednak okazuję, SATA to tylko złącze i rozszerzenia komend, czy obsługa hot-plug. No i oczywiście negocjacja prędkości, przy czym zachowanie prędkości maksymalnej nie jest wymagane. Tak więc moja stacja testowa obsługuje maksymalnie UATA5, czyli transfer do 100MB/s. W sumie trudno się dziwić – w czasie gdy powstawała nikt nie słyszał o szybkich dyskach SSD, a standardowy hdd działa na poziomie 60-70 MB/s na początku dysku, do 30-40 na końcu.

Jako że stacja testowa nie miała odpowiedniej mocy do testów, postanowiłem wykorzystać Toshibę – jednak wynik okazał się podobny. Cóż, obsługa prędkości SATA I (1.5Gb/s, przy czym realnie ok 170MB/s) została wprowadzona dopiero w chipsetach Intela 965, a toshiba bazuje na 945. Pozostaje mi jeszcze przetestować na firmowym Lenovo czy uda się wykorzystać pełen potencjał dysku.

Podsumowując – SSD warto kupić. Ale najpierw trzeba przeanalizować czy sprzęt do którego chcemy wsadzić SSD jest w stanie obsłużyć odpowiednią klasę dysku. Czy kontroler SATA w systemie jest w stanie obsłużyć dyski SSD II Generacji (ok 100/80) – standardowy kontroler, III Generacji (<200, <160)- kontroler obsługujący SATA I, czy IV Generacji ( czyli III generacja z buforem zapisu, oraz raidem na kościach 200>, 160>) – SATA II.

Zaufany certyfikat za darmo?

Ostatnio dużo sie zmienia w świecie zaufanych wystawców certyfikatów. Najpierw GoDaddy przepuścił ofensywę na pozycje, na których okopały się Thawte, Verisign czy Equifax, wypuszczając najprostsze zaufane certyfikaty za 50$ rocznie (a nie jak inni >150$). Po jakimś czasie ceny spadły nawet < 30$ rocznie, co skutecznie wykosiło konkurencje dla najtańszych certyfikatów. Odstraszać jedynie może niezbyt „poważna” nazwa wystawcy.

Ale to nie wszystko – 22 sierpnia Microsoft do listy zaufanych urzędów certyfikacji dopuścił StarCom. Oznacza to, że wszystkie wersje Windows 2008 R2 oraz Windows 7 mają już wbudowanego tego wystawcę. A starsze systemy operacyjne automatycznie dostają aktualizacje za pomocą Windows Update.

Co nam daje StarCom? Darmowe certyfikaty poziomu 1. Zaufane przez większość przeglądarek z IE, oraz także przez Google Chrome, Mozillę FireFox, czy Safari na jabłku . Niestety brakuje jeszcze wsparcia dla zaufania w Operzę, czy istnienia w domyślnych magazynach na Windows Mobile.

Oczywiście certyfikaty poziomu 1mają wady – weryfikowana jest tylko nazwa domeny wystawcy, a informacje o organizacji nie są wyświetlane przy certyfikacie.

Ale i tak lepszy certyfikat poziomu 1, niż lokalny. W szczególności, kiedy jest za darmo.

https://www.startssl.com/

NewSid nie potrzebny?

Klonując dyski z systemami Windows, Microsoft od zawsze ostrzegał nas o konieczności używania narzędzia systemowego Sysprep. Narzędzie to, oprócz sprzątania zależności sprzętowych w systemie, miało też generować nowy SID.

Oczywiście nie wszyscy admiistratorzy używali sysprep. Niektórzy, wliczając w tym mnie, woleli używać narzedzia firmy Symantec – ghostwalk. Prostsze i przyjemniejsze – zamiast sprzątać w całym systemie, po prostu zmieniało SID komputera w trybie offline.

Później przyszła era internetu i prostych narzędzi z Sysinternals – w tym graficznego narzędzia NewSID. Proste, okienkowe, i działało. SID komputera był bez problemu zmieniany, podobnie jak nazwa komputera.

Aż pewnego pięknego dnia Mark Russinovitch zadał sobie pytanie – do czego jest wogóle komputerowi zmiana SID-a? Przecież konta systemowe, czy konta specjalne mają taki sam sid na każdym komputerze. A jednak się wszystko działa. Wykorzystując to że Microsoft kiedyś przejął Sysinternals, Mark postanowił zapytać się grupy produktoweco daje zmiana SID-u, i dlaczego jest wymagana. Nikt mu nie odpoiwedział. Po kilku testach które wykonał, okazało się że zmiana SID-u na komputerze nie jest wykorzystywana. Przez sieć przy uwierzytelnianiu nigdy nie są przekazywane SID-y w czystej formie. Jedyny wyjątek stanowią urządzenia przenośne, ale kto jeszcze wierzy że uprawnienia na pendrivie przy zapisie NTFS będą respektowane przez system operacyjny, a użytkownik nie nadpiszę ich po prostu korzystając z uprawnień administracyjnych na innej stacji?

W związku z tym NewSid został wycofany, nie przez to że nadszedł jego kres, a po prostu dla tego że wymiana SID-u na komputerze była jedną wielką mystifikacją microsoftu mającą na celu zmuszenie administratorów do używania sysprepa – chociażby po to aby wymusić aktywacje systemu.

Zachęcam też do orginalnego artykuły Marka Russinovicha  – The Machine SID Duplication Myth