jak usunąć plik z kropką na końcu?

generalnie się nie zdarza, ale czasem coś założy taki złośliwy plik – z kropką na końcu. w moim przypadq takim złośliwcem okazał się nie kto inny jak pan emes word. próbując usunąć taki plik zawsze dostaje się komunikat ‘file not found’. przy poleceniu dir /ah plik widać – teoretycznie ma atrybuty system i hidden. w praktyce wszystko co wiadomo co o tym pliq to ściema, ponieważ API nie potrafi takiego plikq odczytać. do tego stopnia, że nie potrafi też odczytać ACL.

anyway, rozwiązaniem jest połączenie dwóch tricków – użycie pełnych ścieżek dostępu do partycji oraz kasowanie drzewa [które imho działa jak linuxowy unlink ale tylko zgaduję]. zakładam, że plik znajduje się w katalogu WTF:

d:> dir d:infectedFolderWtf /ah
Volume in drive D is xxxxxxx
Volume Serial Number is xxxxxxxx 
Directory of D:infectedFolderWTF
2010-12-28  11:37    <DIR>          .
2010-12-28  11:37    <DIR>          ..
1601-01-01  00:00                 CAW1AJKH.
[…]

rmdir \?d:infectedFolderWTF /q /s

eN.

RTOS na smartphonie?

już jakiś czas chodziło mi po głowie pytanie – czyż do smartphonów niebyłby idealny system czasu rzeczywistego? zmniejszony czas reakcji na eventy, optymalizacja na działania użytkownika, event-driven.. jakoś tak pasuje. o tym przekonać się będzie można już wkrótce ponieważ ma niedługo pokazać się na rynq BlackBerry Playbook z QNX na pokładzie! ukarze się jak tylko QNX będzie wspierał dualcore.

eN.

SCCM i synchronizacje

Ostantnio walczyłem z Software Updates i Asset Intellignece z SCCM w środowisku gdzie jest proxy. Żeby przeglądać logi korzystałem oczywiście z genialnego narzędzia Trace 32 będą cego częścią toolboxa do SCCMa.

Ale pojawiła się kwestia: jak wymusić synchronizację SUP-a albo AISP-a?

jak to w SCCMie, jest to schowane w gałęzi Update Repository… I nigdzie indziej… chyba Winking smile

WSUS-SCCM

root AI trzyma polecenie synchronizacji katalogu, ale trzeba pamiętać, że można ją robić max raz na dobę.

backdoor w openBSD?

to dobre. niejaki Gregory Perry napisał email do Theo De Raadt (założyciel i przewodniczący projektów openBSD i openSSH), w którym stwierdza, iż 1o lat temu FBI podqpiło kilq developerów pracujących nad openBSD i zamieścili kilka backdoorów w kodzie IPSEC. kod był wielokrotnie weryfikowany i zapewne modernizowany, ale póki co nie ma oficjalnych informacji dementujących to doniesienie. jeśli jednak okaże się ono prawdziwe, wstrząśnie to rynkiem opensource, z dość prozaicznego powodu – skoro kod jest weryfikowany przez tyle osób a i tak można przemycić taką dziurę, to jaką mamy gwarancję, że nie jesteśmy śledzeni?

z informacją zwlekał tyle czasu ze względu na NDA (Non Disclosure Agreement), który niedawno wygasł. już na drugi dzień pojawiły się oficjalne stanowiska wymienionych osób: "I will state clearly that I did not add backdoors to the OpenBSD operating system or the OpenBSD crypto framework (OCF). […] It is a baseless accusation the reason for which I cannot understand.". podobnie wypowiada się reszta wskazanych osób. 

niemniej… daje do myślenia, n’est pas?

eN.

opera 11

…jest śliczna, jest szybka, w końcu ma dodatki. niestety dodatków na razie mało [nie ma ietabs], nie obsługuje kerberosa. ale przynajmniej nie wysyła nic do serwerów googla ani nie uruchamia się tyle czasu (; a więc do potestowania za … kilka miesięcy. aż będzie IEtabs dla O ^^

Opera 11 już dostępna.

eN.

kinect nie tylko do grania

rynek gier zaczyna obrasta pomysłami nowych kontrolerów i gry ludzkim ciałem. pierwsza fala to fascynacji wii, teraz PS move i XBox kinect. jednak żaden z pomysłów nie ma takiego potencjału jak kinect – dzięki wydaniu darmowego sterownika – freenect – potencjał ten zaczyna znajdować zastosowanie w praktyce. zastosowany w projekcie STARMAC Project Hybrid Systems Lab na uniwersytecie w Berkeley.

kiedy usłyszałem o kinekcie spodziewałem się, że cała tajemnica tkwi w jakimś softwarze – genialnym algorytmie świetnie budującym przestrzeń 3D z otrzymywanych przez kamerę danych, a owy kinect jest niczym więcej niż kamerą. pomysł jednak bardziej rozbudowany. kamera jest de facto wyłącznie do przekazywania obrazu, robienia zdjęć etc. podstawowym systemem, dzięki któremu budowane jest odwzorowanie jest rzutowane podczerowne światło strukturalne. światło strukturalne (Structured Light) to siatka [lub inny ustalony wzór]. dzięki pomiarom odchylenia odchylenia od struktury można zbudować obraz przestrzeni [przeszkód]. nakładając na to dodatkowo kolory z kamery mamy pełny obraz. całość rozwiązania ukryta w pudełq, które przekazuje już przetworzone dane – dzięki czemu sama konsola nie jest dodatkowo obciążana, a przy okazji, dzięki prostemu sterownikowi, można znaleźć tak ciekawe zastosowania (:

kilka ciekawostek o kinekcie:

  • jest w stanie śledzić [teoretycznie] do sześciu osób
  • w tym czasie może wykrywać u dwóch osób po 2o punktów ruchu do śledzenia gestów
  • daje obraz 3oHz, RGB, 8bit VGA o rozdzielczości 64ox48o kolor lub 11bit VGA monochrom
  • ma 2o48 poziomów czułości, co przekłada się na na limit od 1.2 do 3.5m [z softwarem eMeS]
  • teoretycznie da się to wyśrubować do o.6 do 6m

eN.

I/O w process explorerze

spodziewałem się, że po pojawieniu się w PE wskaźnika operacji I/O – wykresy sieci i dysq – w końcu będzie można przekonać się co młóci dyskiem. bardzo często podglądając procesy System Idle ma 9o+% a komputer jest totalnie nieresponsywny. a tutaj takie niemiłe zaskoczenie – już kilka razy sprawdzałem i SystemIdle ponad 9o%, obciążenie dysq i sieci minimalne a jedyne co działa to qrsor myszy. przy okazji dioda od dysq praktycznie nie gaśnie.

io

no i o co cho? czy PE pokazuje błędne odczyty, czy też te operacje dzieją się na tak niskim poziomie, że ich nie jest wstanie odczytać? i jaki to miałby być niby poziom? jedyne co mi przychodzi do głowy to procesy wewnątrz maszyny wirtualnej, ale czy w takim przypadq nie powinien pokazywać obciążenia z procesu vpc? zresztą przy robieniu tego screena [i ledwie dychającym kompie] żadna maszyna uruchomiona nie była.

no i to by było tyle z genialnego zastosowania );

eN.

“chmura” aka “cloud” – czysty marketing?

Od ok. roku bardzo dużo mówi się o cloud computingu czyli o “chmurach”. pojawia się wiele artykułów gdzie co i róż pada “rozwiązanie w chumrze”, “chmury prywatne”, “chmury publiczne”, Windows Azure, Hyper-V i wiele innych pojęć. Kiedy zacząłem szukać po oficjalnych portalach okazuje się, że jak zwykle wszystko jest zamydlone marketingiem – nikt nie raczy w prosty sposób wyjaśnić co tak na prawdę kryje się pod pojęciem “cloud computing”, czym jest “chmura” jak ma się do tego Windows Azure etc. Najlepiej wyjaśnia to na swoim blogu Mariusz Kędziora, dla tego pozwolę sobie zbiorczo zamieścić linki:

Dla tych, którym czytać się nie chce, w bardzo dużym skrócie:

“Cloud computing” to obecnie używana nazwa do usług hostingowych. Ze względu na pojawienie się wielu nowych technologii oraz dojrzałości tego rynku, wytworzył się cały warstwowy model “chmury”. Hosting był do tej pory kojarzony z platformą Web lub jakąś aplikacją, jednak czasy się zmieniają (; na dzień dzisiejszy można sobie wyobrazić scenariusz, gdzie całe środowisko jest “w chmurze” – jedyne czego firma będzie potrzebować to cienki klient do podłączenia się do serwera. Scenariusz rysuje się tak:

Przychodzi nowy pracownik do firmy. Osoba z IT loguje się do System Center Virtual Machine Manager Self-Service Portal, gdzie z gotowego szablonu tworzy nowy komputer. Komputer jest oczywiście maszyną wirtualną działająca na Hyper-V. SCVMM tworzy nową instancję maszyny, z predefiniowaną konfiguracją. Użytkownik przy pomocy cienkiego klienta łączy się do swojego środowiska pracy. Na komputerze jest zainstalowany Microsoft Office. Obecnie jest już kilka firm na rynku, które oferują hostowane wersje Sharepoint, Exchange, Lync (dawny OCS) czyli całe biurowe środowisko pracy użytkownika. MS Office ładnie integruje się ze wszystkimi wymienionymi usługami a więc wszystkie pliki mogą być trzymane “w chmurze” – właśnie na SharePoint. Dzięki temu, że wszystko jest zdalne, po skończeniu pracy, maszyna użytkownika jest usuwana zwalniając zasoby.

To nie jest Science-Fiction – już teraz istnieją rozwiązania pozwalające technologicznie na taki scenariusz. Z punktu widzenia biznesu jest to zwolnienie firmy od odpowiedzialności za licencje, sprzęt, gwarancję itp itd. Pozostaje odpowiedzieć na pytanie zadane w tytule – czy to jest czysty marketing?

Wiadomo, że nie ma “złotego rozwiązania” dla wszystkich. Rozwiązania cloudowe są jednak na tyle dojrzałe, że warto interesować się nimi już dziś – na pewno może przynieść to firmie oszczędności, nawet jeśli wykorzysta się tylko fragment rozwiązania – np. część usług hostowanych u zewnętrznych dostawców. Dzięki temu likwiduje się potrzebę:

  • kupna sprzętu
  • licencji na wsparcie
  • zapewnienie redundancji dla usług krytycznych
  • licencji na systemy operacyjne dla serwerów
  • oprogramowania serwerowego [np. Exchange Server]
  • licencji dla użytkowników
  • powierzchni dyskowej
  • koszty obsługi tych usług – zatrudniania specjalistów, czas potrzebny na dbanie o środowisko, zabezpieczenie środowiska

Dla dużych firm, które jednak wolą mieć własną infrastrukturę jest “prywatna chmura”, czyli dynamiczne centrum danych pozwalających na zbudowanie samemu opisanego scenariusza.

Widać, że “chmura” nawet jeśli jest rozdmuchanym hasłem – nie dzieje się tak bez powodu. To może po prostu przynieść wymierne korzyści.

eN.

ten wpis również na technet