Skip to Content

IT nieuczesane.
category

Category: article

czemu winda zjada tyle miejsca na dysq?

bardzo często w argumentacji przeciw windowsom pada oskarżenie o to, że windows jest potwornie zasobożerny co do RAM i HDD. o pamięci było już jakiś czas temu – a więc czas na obalenie kolejnego mitu – pochłanianie miejsca na dysq.
na blogu ekipy windows 7 pojawił się świetny art poświęcony w całości tematowi miejsca na dysq: disk space – i zaliczam go do serii „lektura obowiązkowa”. zastanawiam się czy go przetłumaczyć na polski – co o tym sądzicie?

w skrócie co tam można znaleźć:
najczęstszym wytłumaczeniem ilości miejsca zajmowanego przez windę jest text w stylu ‚przecież jest nowa era i dobie 1T dysków nie trzeba się martwić’. takie sformułowanie nie pada w tym arcie – co od razu daje wielkiego plusa i wytrąca broń z ręki zaciętych geeków, którzy będą walczyć do ostatniego niepotrzebnie zajętego bajta na dysq. osobiście o ile zgadzam się z takim stwierdzeniem, o tyle również uważam, że jako argument trąci lamerstwem.
w zamian znajdzie się tam tabelka pokazująca który komponent ile na dysq zajmuje:

jest też ciekawy opis funkcji katalogu WinSxS, który raportowany jest przez system jako wielo-gigabajtowy folder [u mnie np. ~6GB]. w rzeczywistości jest on pełen hardlinków, a więc de facto zajmuje koło 4ooMB. na temat samego offline patchingu trzeba by kiedyś skrobnąć – tym bardziej, że jak widzę nie łatwo to wygooglać.
bardzo fajny tips, o którym nie wiedziałem: zainstalowałeś SP1? nie będziesz odinstalowywał? uruchom vsp1cln.exe – który czyści backup z przed SP. mi zaoszczędził prawie 9ooMB.
na koniec można znaleźć informacje na temat tego, czego można spodziewać się w w7 – i tak inżynierowie obiecują zmianę modelu instalacji sterowników [prawie 1GB to sterowniki drukarek!] – sugeruje się aby większość była tylko on-line co imho jest dobrym posunięciem… o ile będzie opcja instalacji w stylu ‚add all drivers offline’ – czy to na samej płycie, czy możliwość zassania takiej paczki i instalacji. mimo wszystko nie wszyscy mają pełny dostęp do netu. pojawiają się informacje o zmianie sposobu przechowywania hiberfil.sys oraz lepszy interfejs do zarządzania zajętością miejsca przez restore pointy.

brzmi smacznie.

btw: o ile sprawdzałem, standardowe instalacje najpopularniejszych dystrybucji linuxowych – ubuntum, fedora czy openSUSE – zajmują na dzień-dobry więcej miejsca niż vista. podstawową różnicą jest fakt, że linux pozwala na bardzo granularny wybór instalowanych ficzerów. odinstalowanie z visty niemal wszystkiego w ‚programs and features’ nie spowoduje, że system stanie się malutki i leciutki. ale jeśli ktoś uważa się za geeka i prawdziwego twardziela – może skorzystać z aplikacji odchudzających, które przede-wszystkim wycinają sterowniki, i wyłączyć restore pointy – to powinno zmniejszyć footprint o jakieś 5o%.
btw2: w jednym z projektów dla klienta zostałem poproszony o odchudzenie obrazu. pierwszym miejscem w jakie sięgnąłem był vLite. problem polega na tym że przy instalacji pojawia się info „non for commercial use”. napisałem do twórcy i napisał, że emes nie wspiera tego rozwiązania i w zasadzie jego stosowanie łamie licencję. upewniłem się w emesach – i faktycznie przy zastosowaniu produkcyjnym, jak to się ładnie określa „nie jest wspierany” – co przy takich projektach oznacza po prostu „nie używać”. ręczne wyrzucenie sterowników – a więc de facto zrobienie tego, co m.in. robi vLite – nie jest takie trywialne. imho – emes mógłby qpić vLite i dołączyć go oficjalnie do pakietu MDOP.

w2k8 R2 a VDI

dwie konferencje: PDC, która się niedawno zakończyła oraz WinHEC, która jeszcze trwa – to dwie największe konferencje które zawsze przynoszą wiele informacji nie tylko o tym co jest – ale [może nawet zwłaszcza] o tym co będzie. Jednymi z głównych tematów jest w7 i w2k8 R2. Jest to drastyczna zmiana w strategii emesa – aby tak wcześnie o betach mówić tak dokładnie [o ile na WinHEC zawsze było dużo takich newsów, PDC sqpiał się raczej na teraźniejszości] – a newet je rozdawać!(SIC!) – na WinHEX ma być rozdawany w7 M3.
można było się spodziewać lawiny newsów dotyczących produktów – i tak też się dzieje – na temat w2k8 r2 pojawił się zalew informacji, i są one bardzo, bardzo interesujące – funkcjonalności, które się pojawią to kolejny poważny krok. chyba emes wziął sobie do serca szybkie wypuszczanie nowych wersji, bo 2 lata [w2k8 r2 wedle roadmap ma być w q1 2k1o] na taki upgrade to nie tak dużo:
feature overview na binq
strona domowa w2k8 r2

No i chwilę później pojawia się ciekawa informacja na binq dot. RDP. Zmienia się nazwa z Terminal Services na Remote Desktop Services a zmienia się, ze względu na przemodelowanie idei, i podejścia do zdalnego pulpitu jako-takiego. Już od jakiegoś czasu na slajdach emesowych Remote Desktop pokazywany był jako fragment infrastruktury wirtualnej. trochę dziwne… ale w sumie jest to jakiś poziom abstrakcji – a w końcu taka jest rola wirtualizacji: stworzyć dodatkową, abstrakcyjną warstwę, uwalniający od ścisłego związq z innymi warstwami – sprzętowymi, lokalizacyjnymi etc.
zapowiedzi nowych funkcjonalności pokazują, iż zrobiony będzie jeszcze jeden krok dalej:

„Extending Remote Desktop Services to provide tools to enable a Virtual Desktop Infrastructure (VDI). The in-box Remote Desktop Services capability is targeted at low-complexity deployments and as a platform for partner solutions, which can extend scalability and manageability to address the needs of more demanding enterprise deployments. Combined with Microsoft Hyper-V Server, System Center Virtual Machine Manager, App-V within MDOP, and VECD licensing, Microsoft provides a complete end to end VDI solution.”

muszę poszukać jakichś technicznych materiałów, bo ten bełkot nie do końca pokazuje ideę jaka za tym stoi – zalew marketingowego shitu jak widać dopadł również binka – najpierw zamydlić oczy kolorkami a potem pokazać o co tak na prawdę chodzi. trochę więcej pojawia się w następnym akapicie:

„A connection broker infrastructure, which extends the Session Broker capabilities already found in Windows Server 2008, and creates a unified admin experience for traditional session-based remote desktops and (new) virtual machine-based remote desktops. The two key deployment scenarios supported by the Remote Desktop Connection Broker are persistent (permanent) VMs and pooled VMs. In the case of a persistent VM, there is a one-to-one mapping of VMs to users; each user is assigned a dedicated VM which can be personalized and customized, and which preserves any changes made by the user. Today, most early adopters of VDI deploy persistent VMs as they provide the greatest flexibility to the end user. In the case of a pooled VM, a single image is replicated as needed for users; user state can be stored via profiles and folder redirection, but will not persist on the VM once the user logs off. In either case, the in-box solution supports storage of the image(s) on the Hyper-V host.”

tylko jak rozumieć „virtual machine-based RD”? z opisu wynika, że chodzi o przygotowanie każdemu użytkownikowi środowiska w postaci ‚wirtualnej stacji roboczej’. cienki klient, odpala się maszynka wirtualna, klient się łączy i pracuje na swoich ustawieniach. WOA… jak z obciążeniem środowiska? idea cienkich klientów była modna ok. 1o lat temu – przetrwały niszowo rozwiązania typu cytrix… huh. no może z tą niszą to trochę przesadzam – nie mam danych ile osób w taki sposób pracuje, ale z drugiej strony trochę w różnych firmach bywam i cytrix nawet jeśli jest – występuje jako dodatek do istniejącej infrastruktury AE [actually existent (; – na razie używa się ‚VM’ bo bardziej naturalna jest ta fizyczna część, ale jak dalej tendencja się utrzyma, to może być odwrotnie q: ]. jeśli dobrze rozumiem pomysł emesa, to zastanawiam się, czy nie jest to zwrot q wymarłym ideom, będący bardziej chwytem marketingowym – „mamy pełne rozwiązanie VDI” – niż realnie przydatną w codziennym życiu technologią. ale z opinią powstrzymam się póki przynajmniej nie poczytam dokumentacji technicznej.

..a najbardziej cały czas zastanawia mnie kidaro…. jakiś pojedynczy przeciek jakiś czas temu i cisza… informacje o tym będą pojawiać się w ramach MDOP/DDPS a o tym dużo ciszej się mówi, ale tam również póki co cisza. a szkoda – bo imho to byłoby z punktu widzenia klientów realną wartością i wielce pożądaną funkcjonalnością…

Cloud Computing

z cyklu „trudne słowo na dziś”:
coraz częściej pojawia się na różnych site’ach sformułowanie: Cloud Computing, po polskiemu czasem określane „systemami klałdowymi” lub bardziej po polsku „systemy chmurowe”. Idea wyrosła z jednej strony z idei „cienkiego klienta” i środowiska terminalowego, z drugiej z nowoczesnego medium jakim jest Internet. I tak „cloud” pochodzi od obrazka chmury jaką oznacza się Internet na rysunkach, Computing – to oczywiście przetwarzanie danych. Chodzi więc o usługi udostępniane online – przy czym nie chodzi o usługi w sensie np. portali społecznościowych, a usługi bussinessowe takie jak właśnie szeroko rozumiane przetwarzanie danych uwzględniając aplikacje office’owe i obliczeniowe aż po zwykłe magazyny. Od jakiegoś czasu mówi się, iż google pracuje nad „systemem internetowym” – poprawna obecnie nazwa to „system chmurowy” – czyli cienki klient z przeglądarką internetową, a cała reszta dostępna online (cloud applications) – kalendarz, klient poczty, aplikacje officeowe i co tam klient sobie jeszcze zażyczy.

To tak w dużym skrócie. Rzeczywistość jest dużo bardziej złożona i tak np. cloud computing postrzegany jest jako forma wirtualizacji – w końcu daje to niezależną od sprzętu i systemu warstwę aplikacyjną. Podobnie również jak i inne kwestie wirtualizacji – ma już swój model warstwowy, składający się z kilq komponentów:

  • Aplikacja
  • Klient
  • Infrastruktura
  • Platforma
  • Usługi
  • Magazyn danych

Wymienione pojęcia wyglądają mętnie w tak okrojonym przedstawieniu dla tego odsyłam bardziej zainteresowanych do artu na wikipedii. Tych mniej zainteresowanych uświadomię tylko, iż chodzi o pokazanie jak bardzo zaawansowane (świadomościowo) są technologie, definiując potrzeby w różnych warstwach i dostarczając różne rozwiązania zależnie od poziomu wymaganego przez klienta. Jest więc to niewątpliwie pojęcie które warto dołączyć do swojego słownika gdzieś pod słowem kluczowym „wirtualizacja”.
Zaletami takich rozwiązań są głównie: uniezależnienie się od platformy systemowej, pozbycie się sprzętu „z domu” przenosząc ciężar utrzymania na dostawcę – co wprowadza inne postrzeganie outsourcingu, zmiana sposobu płatności (per wykorzystanie) i nowe możliwości licencjonowania (np. za wykorzystane godziny etc). Możliwości – poprzez wprowadzenie kolejnej warstwy abstrakcji – wydają się nieograniczone, dostarczając możliwość zbudowania bardzo elastycznej infrastruktury.

Dodatkową ciekawostką jest fakt podgrzania atmosfery przez eMeSa – Steve Ballmer oficjalnie poinformował iż pracują nad „Windows Cloud”:

We’ll need a new operating system. Just as we have an operating system for the PC, for the phone, and for the server, we need a new operating system that runs in the Internet. I bet we’ll call it Windows something. We’re going to announce it in four weeks. We might even have a trademark by then. So, for today I’ll call it Windows Cloud. And Windows Cloud will be a place where you can run arbitrary applications up in the Internet that runs .NET.

zarzadzanie virtual server

art staje się co nieco spóźniony, ale mimo wszystko polecam – zarządzanie Virtual Server.
Art napisałem po doświadczeniach w pracy z VS na swoim sprzęcie – a korzystać z niego muszę bardzo często. Większość osób wykorzystuje do takich celów VPC, ponieważ VS jest mało wygodny. ten art pokazuje jak skonfigurować sobie środowisko tak, aby wykorzystać zaawansowane możliwości VS mogąc nim zarządzać jak VPC.

SuperFetch

ostatnio kilq znajomych postanowiło zanurzyć nogi w nowej rzece – czyli zainstalować vista. oczywiście byłem na ‚pierwszy ogień’ – czyli jak coś nie działa albo się nie podoba, to niewiedzieć czemu mi się za to oberwało q: jednym z podstawowych zarzutów było ‚ale gówniany system – zajmuje mi całą pamięć’. dla tych wszystkich osób polecam lekturę z bloga technetowego GT dotyczącą mechanizmu SuperFetch – która pokazuje zalety nowego mechanizmu, tłumaczy czemu tej pamięci nie ma, i czy to na pewno dobry mechanizm i dla czego tak.

dodam jeszcze, że uzupełniającym mechanizmem cacheującym jest readyboost.

Ja i Mac czyli mój pierwszy raz ;)

Na początek małe oświadczonko: Cały tekst ma charakter edukacyjny i instalacja została przeprowadzona do celów testowych. Nie można legalnie zainstalować Mac OS na systemach PC i każdy kto to robi, robi to na własną odpowiedzialność.

Tytułem wstępu:

Przychodzą takie dni, że chce się spróbować czegoś nowego bądź powrócić do pionierskich i szczenięcych czasów kiedy nowy system operacyjny instalowało się z wypiekami na twarzy często po kilka razy sprawdzając różne opcje czegoś nowego i nieznanego. W moim przypadku nastąpiło można by rzec podobnie – otóż chciałem zobaczyć i przetestować Logic Pro – program dla którego muzycy kupują Maca i który jest obiektem westchnień wszystkich pecetowych muzyków. Z drugiej strony chciałem sprawdzić czy faktycznie można bez większych problemów zainstalować Mac OS’a na zwykłym PC.
Niniejszy artykuł na to mam nadzieję odpowie.
Na początek konfiguracja testowa:
MoBo: EVGA 650i Ultra
Procesor: C2D6550 (podkręcony ze standardowego 2,33 na 3,00 GHz)
Pamięć 2x1Gb (800Mhz)
Grafika: Gforce 8600GT
HD: 2x 320GB (1x SATA, 1x ATA)
Dzwięk: Delta Audiophile 2496
E-MU 0202

 1. Przygotowania

Na „rynku” obecnie jest odstępnych kilka dystrybucji systemu. Ja po przeczytaniu kilku porad i artykułów wybrałem do testów dystrybucję Kalyway Leopard 10.5.2 DVD Intel Amd (sse2/sse3) EFI V8 – jak numer mówi jest to Leopard w wersji 10.5.2
Zanim przystąpilem to instalacji zrobiłem pełny backup partycji systemowej oraz przygotowałem czystą partycję formatując ją w FAT32 i ustawiając jakio primary.

2. Instalacja
Coż – z pewną dozą niesmiałości włożyłem wypalony obraz ISO do czytnika i odpaliłem – instalator po chwili wystartował bez problemu witając mnie logiem powitalnym i podstawowymi narzędziami przed instalacją każdego systemu. Tutaj miła niespodzianka – jest do wyboru język polski:)

Z menu wybrałem Disk Utility w celu przygotowania partycji – instalator pokazał prawidłowo wszystkie partycje – przygotowaną uprzednio partycję pod nowy system sformatowałem w HFS+ Journaled. Po formatowaniu czas przejść do wyboru składników instalowanego systemu – jako, że nie miałem kompletnie pojęcia co jest od czego i co powinienem wybrać zostawiłem tak jak jest wybierając tylko jaką kartę graficzną posiadam.
Proces instalacji przebiegł całkiem szybko – około pół godziny i to wszystko. Pora na restart.

2. Pierwsze uruchomienie

Z jeszcze większymi wypiekami na twarzy przystąpiłem do restartu – po bootowaniu zostałem powitany boot managerem podstawionym przez apple – dodam, że podstawowo został podstawiony Leopard jako system główny;) No ale idźmy dalej. Po bootowaniu pojawia się logo apple – znak, że system się odpala (tutaj głęboko odetchnąłem bo tyle się naczytałem o problemach ze startem…) po chwili ukazała się piękna animacja w 3D witająca w różnych językach mająca na celu pewnie żebym poczuł się dumny że mam maca;) Ahh ten marketing.
Po chwili ekran konfiguracji podstawowych rzeczy – konfiguracja klawiatury – i tutaj pierwszy zgrzyt – komunikat „nacisnij klawisz który znajduje się po lewej stronie shifta” – jezu jaki to klawisz?? Na mojej klawiaturze nie ma niczego po lewej stronie lewego shifta;) wcisnąłem dosłownie byle co – następny komunikat „klawiatura nierozpoznana” – no ładnie myślę – nie będę miał czym pisać;)
No ale idzmy dalej następne okno, okno wyboru klawiatury – wybrałem Polish Pro. Po paru następnych ekranach (m. in wybór strefy czasowej, czy przetransferować ustawienia z innego maca bądź iDiska) przyszedł ekran rejestracji. I tutaj coś co mi się bardzo nie spodobało – trzeba podać pełne dane łącznie z adresem domowym telefonem itp. I nie można zostawić pól niewypełnionych! Nie wiem po co im to może kwiaty przysyłają użytkownikom nowo zakupionych maców? Nie spodobało mi się.
Ok. wszystko ustrawiłem przeklikałem się i…
3. Działa!

No tak działa – żadnego restartu wszystko działa – polska klawiatura, mysz śmiga wszystko  (no prawie wszystko wykryte) Chodzę jak dziecko we mgle co tu kliknąć i w co. Sprawdzam w About i okazuje się ze mam MacPro 3.1 – nie wiem co to znaczy może posiadacze maca mnie oświecą ale napis „pro” mi się spodobał ;)
Co do działania jeszcze – napisałem, że prawie wszystko działa gdyż nie działały 2 rzeczy – karta dzwiękowa Audiophile 2496 oraz sieć. W zasadzie na pierwszą z rzeczy byłem przygotowany bo karty dzwiękowe na PCI nie działają- to wyczytałem – integry nie sprawdzałem ale widziałem, że wykrył poprawnie – natomiast karta dzwiękowa na USB działa bez problemu. Co do sieci to z tym większy problem – moja sieć na płycie głównej jest z tych nielubianych przez Apple – czipset nforce w wersji 6 dla intela jest tym chyba najbardziej problematycznym. Generalnie trzeba sprawdzać na HCL jakie podzespoły współpracują z jakimi dystrybucjami bo generalnie jest problem ze sterownikami. Ja znalazłem częściowe rozwiązanie problemu sieci omijając po prostu kartę sieciową dzięki podłączeniu modemu kablowego za pomocą kabla USB. Co prawda nie rozwiązało to definitywnie problemu sieci gdyż zdarzają się rozłączenia netu i trzeba resetować poprzez wyciągniecie wtyczki usb. No ale nie do tych celów stawiałem maca.

4. Pierwsze wrażenie

Coż – pozytywne, ba… bardzo pozytywne interfejs bezbłędny i co ważne szybki – mam wrażenie, że system plików HFS jest szybszym systemem od NTFS – wnioskuje to po szybkości skanowania katalogów – ale to subiektywne wrażenie nie potwierdzone testami.
Dla porównania – po wejściu do systemu zajętość pamięci kształtuje się na poziomie 702 Mb czyli porównywalnie do WinXP którego jestem posiadaczem. Co mi się od razu spodobało i jest idealne to zoom systemowy – jest to coś co w Win przy mojej natywnej rozdzielczośći 1650×1050 bardzo mi brakowało – zoom jest realizowany sprzętowo i jest to funkcja systemowa! REWELACJA.

Ok. to tyle – to część pierwsza – wrażenia z użytkowania oraz generalnie z systemu Mac OS X z punktu widzenia osoby pracującej na Windowsie będą później – jak dobrze poznam system i popracuję w nim parę tygodni.

Aha i jeszcze jedna rzecz – Mac widzi wszystkie dyski i partycje poprawnie z tym, że te w NTFS są tylko Read-only, za to Windows nic nie widzi – w sensie jakby żadnej partycji macowej nie było.

Jeżeli ktoś chce się czegoś więcej dowiedzieć na powyższy temat to:

http://wiki.osx86project.org/wiki/index.php/Main_Page

http://forum.insanelymac.com/

trivial SSO for Windows

a raczej pseudo-SSO ale działa jak marzenie. Trick, który zaraz przedstawię jest tak trywialny, że jak aż jest mi głupio jak mogłem na to sam nie wpaść dawno temu. A wszystko przez to, że sądziłem, że działa to inaczej… eh. Człowiek uczy się całe życie (:

Problem:
Stacja stand-alone (workgroup). Komputer mobilny, działający głównie w kilq sieciach – niech to będzie np. domena „firma.com” oraz domowa sieć. Dostając się do udziałów sieciowych, portali intranetowych, ISA SecureClient, czy innych aplikacji wymagających uwierzytelnienia NTLM – pojawia się ramka prosząca o user/pass do logowania. I tego chciałoby się pozbyć. O dziwo po zahaczeniu ‚zapamiętaj’ i tak wyskaqje za każdym razem – grrrrr…

Rozwiązanie:
dla większości typów logowanie wystarczy utworzyć token credentials z użytkownikiem i hasłem. Dla opisanej powyżej sytuacji potrzebny będzie pojedynczy dla domeny i zależnie od systemu/ustawień albo jeden , albo jeden dla każdego kompa w domu (za chwilę szczegóły). Zarówno w XP jak i w Vista dodaje się hasełka przez control panel -> users. W Vista jest opcja ‚manage your network passwords’ na pasku zadań.
Manage Your Network Passwords
użytkownika oczywiście należy wpisać w postaci domainuser dla domeny lub .. no właśnie – do przetestowania: dla vista hostnameuser dla stacji lokalnej. XP powinien być bardziej wyrozumiały i wpisanie po prostu nazwy użytkownika i hasła powinno wystarczyć, dzięki czemu w sieci domowej jeśli wszędzie jest ten sam user z takim samym hasłem – powinno zahulać.
Najmilszą informacją jest fakt, iż można wpisywać hasła dla hostów, używając wildcardów, a więc dla domeny wystarczy w polu ‚logon to:’ podać nazwę postaci *.firma.com.
PassManager-logon2
To rozwiązuje większość problemów – pozostaje jeszcze kwestia dostępu do stron w Intranecie – jeśli nadal wyskaqje okienko logowania, to najprawdopodobniej adres strony nie jest dodany do ‚local intranet’ ponieważ standardowo dla stron w tej grupie przesyłane jest hasło.
PassManager-localIntranet

Et voila!
Koniec pytań o hasło… no prawie – niestety metoda nie działa dla Outlook w RPCoHTTPs ):

PS: Workgroup
Zawsze lubiłem osobom na qrsie zadawać pytanie: ‚Co to jest domena?’ – najprostsze pytania bywają najtrudniejsze. Na to pytanie, opisowo, jakoś daje się wybrnąć. Na pytanie ‚a co to jest workgroup?’ – w zasadzie nigdy nie uzyskałem prawidłowej odpowiedzi. Odpowiedź ta jest dość trywialna – nie ma czegoś takiego jak ‚workgroup’ – to po prostu string będący filtrem, używanym przy narzędziach GUI do wyświetlenia komputerów, które też mają taki string q: w czasach WINSów i wszechobecnego NetBIOSa wpis o takiej nazwie był rejestrowany w tejże dupnej usłudze. artefakty typu ‚net view’ jeszcze z takich rzeczy korzystają – ale spłaszczając mechanizm do efektu, można powiedzieć że ‚workgroup’ to po prostu filtr.

czy nazwa kompa w lesie może się duplikować?

Na tak postawione pytanie, o każdej porze dnia i nocy odpowiedziałbym: oczywiście, że tak! przecież OID obiektu oraz FQDN – dwa jednoznacznie identyiqjące obiekt atrybuty – są różne.
Interfejs tego nie zabrania. Wszystko również wygląda na prawidłowe… a jednak sytuacja taka doprowadza do powstawania błędów logu na kontrolerze domeny:

Event ID: 11
source: KDC
There are multiple accounts with name cifs/COMPUTERNAME of type DS_SERVICE_PRINCIPAL_NAME.

… i faktycznie – po dokładnym sprawdzeniu, okazuje się, że jeśli w domenie i poddomenie są kompy o tej samej nazwie, to mają taki sam cifs… to dość oczywiste – powstaje jednak pytanie jak to możliwe, że sobą kolidują?!
po małym śledztwie ustało mi się ustalić iż:

  • żaden standardowy interfejs nie pokazuje SPNa typu ‚cifs’. jeśli użyje się np. adsiedit to atrybut ‚servicePrincipalName’ na automatycznie rejestrowane wartości HOST/computername oraz HOST/computername.fqdn – ale nie cifs. skąd on zatem?
  • CIFS – czyli Common Internet File System jest tematem ciekawym sam w sobie. Np. niewiele osób wie, iż jest to standard otwarty, opracowany przez kilka firm, nigdy jednak nie zatwierdzony – zresztą poczytajcie sobie w linq do wiki. warto! w skrócie – SMB (Simple Message Block) jest Microsftową implementacją CIFSa. W związq z tym, rekord SPN typu ‚cifs’ musi zostać zarejestrowany, ponieważ inaczej komp nie będzie się w stanie uwierzytelnić. Jest on zahardcodowany z rekordem ‚HOST’ i nie da się go usunąć. Pełna lista SPNów ‚wbudowanych’ w rekord ‚HOST’, z informacją, która usługa z nich korzysta jest tutaj.
  • o samych SNPach niedawno pisałem a propos kerberosa, uściślał też te informacje gibon. Przy okazji tego grzebania znalazłem bardzo fajny wpis nt. SPN, który udowodnił jedno – temat jest trudny, bo nikt nie wpadł na to, żeby go prosto wyjaśnić. A sprawa jest na prawdę trywialna – a zatem lektura obowiązkowa!
  • pozostaje kwestia duplikacji. Wynika ona z faktu, iż atrybut servicePrincipalName jest atrybutem replikowanym przez GC. A zatem podczas logowania idzie zapytanie do GC, tam faktycznie znajduje się zduplikowany SPN dla ‚cifs’… no i babol.

tyle w kwestii tego, co udało się w śledztwie wykryć. Pozostają pytania, na które odpowiedzieć mi się nie udało:

  • gdzie jest art microsoftu, który wprost mówi że ‚można’ lub ‚niemożna’ zakładać takich samych nazw kompów na przestrzeni lasu?
  • no i pytania zależne od odpowiedzi. jeśli oficjalnie ‚można’ to jak pozbyć się takiego błędu. jeśli ‚niemożna’ to czemu interfejs na to pozwala a informacji na ten temat nie ma w qrsach ani nigdzie oficjalnie łatwo do znalezienia?
  • no i ostatnie – ok. mam błąd w logach. no i co z tego? czy na coś to wpływa? kiedy powstanie błąd? jak poważny to błąd i czy można go olać?

***UPDATE
z linq od gibona: http://blog.joeware.net/2008/07/17/1407/ można przeczytać takie zdanie:

So anything else? I think not, this is good… What did we learn?

1. Don’t duplicate machine names in a forest, period.
2. If you have duplicate SPN issues, use AdFind to find all computers with the name in the SPN.
3. Duplicate SPNs means kerberos is already not working right for those machines so cleaning it up isn’t going to break anything worse.

dzięki!
btw. blog joeware zgłasza się jako niebezpieczny…

trochę podstaw o RAID

…w ujęciu praktycznym.

To są wolne myśli, zebrane po ostatniej awarii u klienta. Pracowałem z IBM xSystems 345 z ServeRAID6 ale informacje są raczej uniwersalne.

  1. pierwsza i najważniejszą rzeczą przy pracy z błędami macierzy jest backup. Trywializm, ale w chwilach awarii czasem nie myśli się do końca trzeźwo – tutaj ma to o tyle drastyczne znaczenie, że niektórzy uważają, iż redundancja zwalnia ich z konieczności trzymania backupu. W tym przypadq po pierwsze były backupy, po drugie obyło się bez nich, ale po pierwsze: jak strzeli kontroler, potrafi czasem zniszczyć struktury informacji na dyskach [lipek może się pochwalić takim przypadkiem, wcale nie tak dawno q:], po drugie – komunikaty i informacje wypisywane przez kontroler są często bardzo mylne, lakoniczne czy wręcz enigmatyczne – i wystarczy raz źle nacisnąć nie ten guzik… i po danych. RAID to fajne założenia, i duże bezpieczeństwo ale jak coś huknie, to trzeba pamiętać, że pod spodem jest tylko sprzęt z prymitywnym, BIOSowym interfejsem.
  2. drugim prozaicznym problemem jest ‚zawsze miej płytkę diagnostyczną/startową do serwera’. Ściągnięcie z netu CD startowej do danego modelu może trwać wieki. Szukanie takiej płyty to również duża strata czasu. Jest ona niezbędna, ponieważ niektóre modele kontrolerów dysponują bardzo ograniczonymi możliwościami z poziomu BIOS, dopiero soft z płyty pozwala na realną diagnostykę i konfigurację. Tutaj bardzo „fajne” zachowanie płyty do IBM, wykazujące jak ciężkimi ideami kierują się duże korporacje – niektóre głupoty microsoftu to piqś przy tym, co prezentuje IBM. Otóż zestresowany awarią admin odpala płytę i co widzi? ekran instalacji systemu operacyjnego. Trzeba wybrać konkretny system operacyjny i rozpocząć ‚jakby instalację’. Dopiero potem jest opcja konfiguracji ServeRAID ale najbardziej rozwalający jest ekran z napisem ‚CLEAR ALL DISK DATA’ z opisem, iż to usunie wszystkie dane z dysków. Do wyboru guziki ‚next’ i ‚back’. I trzeba po prostu wiedzieć, że po kliknięciu ‚next’ pojawia się kolejny ekran z opisem ‚skip this step’… ale to trochę tak jakby kogoś dla żartu wyrzucić z samolotu i w połowie drogi powiedzieć mu ‚a tu masz spadochron’. Dodam jeszcze, że płyta ma również opis ‚drivers’, ale kiedy sprawdzi się płytę to stery są, owszem, ale wymagają dyskietek [SIC!] bo nie ma opcji rozpakowania ich na dysk. Do tego są to stery do instalacji a nie dla samego systemu – przynajmniej ten konkretny dla RAID. Masakra!!
  3. struktury RAID to dyski fizyczne i logiczne. Dyski fizyczne przyjmują statusy ‚defunct’ oraz ‚ok’ [lub inne równoznaczne określenie]. Ważne jest aby pamiętać, iż ‚defunct’ nie jest wcale równoznaczny z ‚dysk jest uszkodzony i nie-do-użycia’. Oznacza to, iż został wykryty błąd i dysk został wyłączony z działania. Powinna być dostępna opcja ‚bring online’ i dopiero po włączeniu przekonamy się czy działa, czy nie. Dyski logiczne z kolei przyjmują standardowo statusy ‚offline’, ‚online’ oraz ‚critical’. To ostatnie nie oznacza wcale, że macierz działać nie będzie – oznacza brak redundancji i informację w stylu ‚jak teraz coś się spieprzy to jesteś w dupie’.
  4. kolejną śmieszną opcją są komunikaty wyświetlane przez kontroler. W przypadq tego konkretnego, podczas włączania dysków z defunct do online pojawia się piękna informacja iż ‚jeśli włączysz ten dysk to utracisz wszystkie dane z macierzy! czy jesteś pewien?!’. No i oczywiście trzeba być pewnym, ponieważ nie dość, że dane wcale nie giną, to jest to jedyny sposób na przywrócenie poprawionej macierzy do działania. W każdym razie w tym przpadq wszytko zahulało.
  5. z tym defunctem to w tym przypadq w ogóle było nieciekawie, ponieważ oba dyski z RAID1 pokazywały iż są nie-do-użycia. Zgaduj-zgadula i trzymanie kciuków, trafiliśmy za pierwszym razem. Wymiana jednego dysq, bring online [uwaga, utracisz dane!] i za chwilę wszystko działa, system się odpala, a drugi dysk jest w stanie ‚resyncing’. Znów trzeba po prostu wiedzieć
  6. kolejnym ciekawym zachowaniem jest właśnie resync. Operacja ta trwa czasem nawet wiele godzin [dla dysq 36GB, ultrawide SCSI, to było ok 1h przy niewykorzystanym kompie]. Jeśli włączy się tą operację można tak siedzieć i gapić się… albo po prostu zrestartować kompa i pracować. I to znów sprawa, która dla osoby nie miającej do czynienia z RAIDami może kosztować długie godziny. Resync po uruchomieniu wykonuje się w tle, można spokojnie restartować maszynę – cały układ będzie działał na dobrej części a w międzyczasie resyncował na nowy dysk. Jest oczywiście niebezpieczeństwo – jeśli coś strzeli w trakcie to game over, więc jeśli czas się ma – warto poczekać. Ale zazwyczaj czasu się nie ma q:
  7. podczas wykonywania resynca jednego dysq logicznego, nie można wykonać żadnych operacji macierzowych na pozostałych strukturach. W przypadq o którym piszę, uszkodzone były dyski z dwóch struktur logicznych, więc trzeba było czekać aż skończy się resync pierwszego, żeby naprawić drugi.
  8. RAIDy mają tą niemiłą cechę, że jeśli padnie jeden dysk, bardzo szybko lubi paść następny. Dla tego tak długo, jak tylko to jeszcze w ogóle działa należy: odłączyć dostęp do dysq dla użytkowników [obniżyć obciążenie], zrobić backup – i dopiero w następnej kolejności bawić się w zmiany dysków, resync itd. O ile to oczywiście możliwe – czasem system jest na tyle krytyczny, że należy podjąć ryzyko i zrobić to w locie – teoretycznie to właśnie jest poprawne działanie, ale przy powiedzmy macierzy z dyskami 2ooGB i pełnym obciążeniu, resync może trwać kilka godzin – jeśli coś się w tym czasie stanie, a prawdopodobieństwo jest zwiększone, poprzez mocniejsze dociążenie wszystkich dysków….
  9. ostatnim bardzo częstym problem… błędem… nie wiem jak to nazwać – może niedopatrzeniem – jest fakt, iż ponieważ po uszkodzeniu pojedynczego dysq w macierzy wszystko działa prawidłowo – często jest to przeoczane przez adminów. Tu znów wymaga jest profilaktyka – powinno się założyć jakieś event-trapy lub inne mechanizmy, które szybko poinformują o takiej sytuacji. Bo inaczej mamy RAIDa, który z bardzo dużym prawdopodobieństwem wkrótce przestanie działać…

wszystkie powyższe informacje nie są żadnym konkretnym guidem ani nie zawierają niby nic specjalnego, jednak podczas awarii – liczy się każda chwila a jeśli sytuacja jest stresowa… bywa ciężko. Mam więc nadzieję, że te kilka trywializmów będzie przydatne dla ew. czytających, którzy się z RAIDami nie zmagali – a niestety jest to praca toporna i ryzykowna, więc najlepsza pozostaje profilaktyka… i telefon do przyjaciela (;

IT Bullshit Bingo

Dziś edycja specjalna. Bez polskich znakow, z maca i na goraco.
Z gory uprzejmie prosze o odpierdolenie sie wszystkich bojownikow makintoszy, mam dostep do maka i chce cos napisac na szybko, a nie przekonfigurowywac caly ten pierdolony system, zeby literki napisal, źśółń – to na wszelki wypadek, zeby mi ktos nie wmawial ze nie umiem wlaczyc polskiego pro.
Mialem dzis niewatpliwa przyjemnosc uczestniczyc w dosc miedzynarodowej konferencji, a w zasadzie warsztatach, gdzie ludzie naprawde z calej europy cos tam sobie opowiadaja. Wystepuje tu w roli czarnucha do polaczania kabli i dzieki temu mam dosc dogodna pozycje do komentarzy.
Sprawa pierwsza: co nie dziala. Chronologicznie
Mialem 4 laptopy, jednego macbooka, jeden rzutnik i nieograniczona ilosc telefonow wykrytych po blutucie, o ktorym za moment.
Pierwsze niezadzialalo wyjscie audio z laptopa prezentacyjnego, powodujac u mnie lekka nerwowke i ektremalne wkruwienie jakiegos CEO, ktory akurat prezentowal film. Na szczescie poradzilismy sobie z tym filmem z maca, na ktorego przelaczalem sie za pomoca prywatnego spiltera VGA, ktory przynioslem z domu, bo na miejscu akurat takiego nie mieli (Mariott).
Potem nie dzialal superwazny film wcisniety mi na 5 minut przed prezentacja. Superwazny film byl nagrany na nieopisanej plycie, jeden laptop mial zepsute audio out, na macu, po przegraniu (250 MB w 6 minut – moze to Rumunska plyty cd byla??) film nie zostal rozpoznany jako film (pewnie nie mialem dodatku lasica, ktory rozpoznaje rumunskie filmy). Udalo sie go odpalic na 3 z kolei laptopie. Wkurwienie bylo mniejsze.
Podczas dwukrotnie sprawdzanej videokonferencji za pomoca iChata z Chicago z jakas wazna szycha, po puszczeniu kolesia na pelen ekran, mac z nieznanych przyczyn ucial 1/3 ekranu, na szczescie koles siedzial krzywo i nikt sie nie zorientowal. Biorac po uwage ile kosztuja rozwiazania do telekonferencji firm takich jak Polycom i porownujac to z kosztem lacza z hotelu, uwazam ze poszlo zajebiscie.
Podczas przerwy podeszlo do mnie zagubione dziewcze, podejrzewam z Rosji, sadzac po cyrlicy w telefonie, proszac mnie o przegraie zdjec z telefonu, za pomoca blututa oczywiscie. PC wykryl telefon, posrod 9 innych, wymusil podanie czterocyfrowego kodu, podlaczyl go do PC i na tym sie skonczylo. Podejrzewam, ze nie umiem obslugiwac tej technologii, bo nie wiedzialem jak przegrac te zdjecia. Mac tez wykryl ten telefon (15 innych tez), przydzielil mu 8 cyfrowy kod. Moglem go uzyc w macu jako modem do polaczen gprs albo dial-in, oraz jako zdalnego kontrolera prezentacji. Opcji przegrania zdjec nie bylo. Na szczescie juz nikt z telefonem nie przychodzil.
Sprawa druga: logistyka i organizacja.
Dostawalem prezentacje i filmy we wszystkich mozliwych formatach: mpg na cd, dvd video, pamieci USB. Nie wiem na czym polega fenomen, ze niektorzy potrafia miec przygotowany film na plycie opisanej informacjami (data, temat, format), ktora odpala sie wszedzie, a inni przekazuja nieopisana plyte (wspomiany rumunski CD), z 250 – megowym MPEG’iem, ktory ma zalosna jakosc i odpala sie tylko na co drugim sprzecie. Nieduzym pocieszeniem jest fakt, ze nie tylko u nas nie dziala.
Chwala Bogu, ze wszystkie prezentacje byly w PPT, tu kolejny wielki uklon dla Billa i jego chorej, zaborczej monopolistycznej i jedenoczesnie zbawiennej dla swiata wizji. Gdyby nie ten pieprzony, obecny wszedzie, drogi i znienawidzony Ms Office takie miedzynarodowe wydarzenia nie mialy by technicznej mozliwosci zaistnienia. Gdyby pojawil sie jakis wyzwolony Szwed z prezentacja w Open officie, chyba posikalbym sie ze smiechu.
Kolejne spostrzerzenie: wszechobecny pierdolnik na pulpicie, ktory jest glownym miejscem przechowywania danych jest standardem. To wiecej niz standard, to zelazny, miedzynardowy wzorzec organizacji danych.

ABSOLUTNY BONUS na koniec. Niestety niezwiazany z prezentacja.
Obiekty: nowka sztuka BlackBerry 8800 (orange) i nowka sztuka Dell Lattitude D430 w wersji full wypas (6500 netto).
Zadanie: podlaczyc blackberry do lapa i zsynchronizowac. Stawianie lapa, konfiguracja i klon trwaly 3 dni. Po podlaczeniu blackberry po USB, system wywala bluescreen, natychmiast. Zjebalem autora instalacji i kazalem zrobic to jeszcze raz – instalka, konfiguracja, klon – kolejne 3 dni.
Tym razem sam wzialem obiekty, blackberry zabralem dyrektorowi, wstawilem do niego inna karte sim i przez bite 2 godziny konfigurowalem synchronizacje. Sprawdzilem to w kazda strone.
Final operacji: ide do dyrekcji, klade lapa na stol, wkladam karte SIM dyrektora do jego blackberry, podlaczam po USB i… system wywala bluescreen, natychmiast. SYSTEM WYPIEPRZA sie DO BLUESCREENA, Z POWODU KARTY SIM W TELEFONIE. sam nie wierze w to co pisze ale takie sa fakty. Chyba warstwowy model budowy aplikacji nie zadzialal. Oczywiscie obejdziemy to jakos, ale powoli dostaje paranoi.
To tyle z pola walki z technologia. Na wnioski nie mam sily.