Skip to Content

IT nieuczesane.
category

Category: w-files

znikająca drukarka

drukarka sieciowa HP, podłączona w biurze w oddziale. lokalnie działa normalnie, ale z różnych względów ma być na printserverze w centrali. i zaczynają się dziwne objawy: drukarka działa przez ok 1min po czym zwykły timeout. drukarka znika z sieci. wystarczy wejść w opcje konfiguracji i dokonać jakiejkolwiek zmiany i drukarka znów pojawia się na chwilę. po czym znika.

zgłoszenie do wsparcia HP – można było przewidzieć odpowiedź. standardowy bełkot bez żadnej wskazówki.

próbowałem skanować ruch sieciowy, ale bez możliwości zdefiniowania portu monitorowania na switchu nie da rady. router zbyt prymitywny i nie miał tcpdump czy czegoś w podobie. ogólnie wszystko wyglądało prawidłowo.

problem rozwiązał qmpel… okazało się, że na switchu był ustawiony nieprawidłowy gateway. po ustawieniu prawidłowego, drukarka zaczęła działać jak trzeba.

to rozwiązanie pozostawia jednak więcej pytań niż odpowiedzi. pewnie nie będzie czasu już nad tym posiedzieć:

  • konfiguracja TCP/IP na switchu nie jest obligatoryjna – jest to [a w każdym razie AFAIK powinno] być wyłącznie jako interfejs zarządzania. poza tym switch powinien być przeźroczysty
  • nawet jeśli ten GW był do czegoś wykorzystywany – skąd to dziwne zachowanie, że przez jakiś czas [1-2 minuty] działało ok i przestawało?
  • drukarka miała prawidłowo ustawiony GW, a skoro komunikacja była zrywana oznacza to, że switch ingeruje w ramki albo ma buga na poziomie obsługi IP! /:

jedynym sposobem byłoby przywrócenie konfiguracji, ustawienie portu monitorującego i wysniffowanie ruchu. dodam tylko, że to switch Dell. pozostaje w kategorii w-files.

eN.

7 czy 8?

ponieważ minął miesiąc odkąd zmagam się regularnie z 8ką „produkcyjnie”, krótkie podsumowanie. najważniejsze pytanie: przesiadać się, czy nie?

odpowiedź dla mnie: tak, przesiadać się. ponieważ:

  • jest hyper-v. server na lapsie jest problematyczny. chodzi głównie o różne freeware’y, które na wersji server się nie instalują. no i trzeba się bawić w dokonfigurowywanie kilq opcji… lepiej mieć wersję kliencką.
  • jest szybszy. niby korzysta z tych samych mechanizmów cache ale jakoś magicznie aplikacje mniej „młócą”. że start jest szybszy – to średnio istotne, bo nie robi się tego często, ale że aplikacje uruchamiają się szybciej, a to daje widoczny luksus podczas codziennej pracy.

i to tak na prawdę koniec zalet jak na tą chwilę. poza niuansami typu ‚zintegrowana obsługa iso’ lista wad jest długa i jeśli miałbym zaproponować klientowi/firmie – będę póki co proponował poczekać. brak bezpośredniego wsparcia dla wielu modeli i masy sprzętu [to norma na początq cyklu życia – zmieni się w ciągu kilq miesięcy] oraz – przede wszystkim: brak funkcji, które faktycznie zwróciłyby wartość migracji, wartości dodanej – to podstawowe powody.. [czy też raczej po prostu brak powodów]. odradzać nie zamierzam – jest system co najmniej tak samo dobrym jak w7.
co do nowego menu „start” to osobiście uważam, że biznesowo nie jest to dobry pomysł, jednak wiem, że są osoby, którym to nie przeszkadza. czekam z niecierpliwością jak odniesie się do tego biznes – czyli na statystki mniej-wiecej za rok. tak czy inaczej nie brałbym tego jakoś specjalnie jako aspekt do ‚migrować czy nie’. pewnie userów da się przyzwyczaić, a w razie co classic shell jest free – również do użytq komercyjnego, więc można sobie łatwo poradzić.

trochę gorzej wygląda kwestia Windows Server 2o12… tutaj z jednej strony aż się chce krzyczeć ‚migruj ASAP’ – zwłaszcza, jeśli ktoś ma Hyper-V. z drugiej jednak jeśli ktoś ma do tego DPMa to musi sobie poczekać jeszcze kilka miesięcy bo nie ma wsparcia dla ws12. niemniej w przypadq serwera zmiany są drastyczne i przesiadka na nowy system jest na pewno warta rozpatrzenia.

eN.

quo vadis Microsoft?

Microsoft od zawsze budował swoją potęgę na kompatybilności – pomimo uwsteczniania, wyrównywania do gorszych, starych opcji, niestabilności systemu i wszelkich wad, jakie wynikają z zachowania kompatybilności ze starymi aplikacjami – dawało to olbrzymi rynek aplikacji i pozwalało na gładkie, krokowe migracje.
drugim ważnym aspektem jest tożsamość i świadomość celu. na założeniu Gatesa z lat 7o-tych „chcę aby PeCet był każdym domu” zbudowano tą firmę…

no i minęły te 3 dekady. nie tylko PeCet zagościł w [niemal] każdym domu – i zasługa eMeSów jest w tym niewątpliwie wielka, ale zdążył się lekko zdezaktualizować na rzecz tabletów czy innych urządzeń mobilnych. obserwuję ruchy MS – w końcu to mój chleb powszedni, i jestem coraz bardziej przerażony. ta firma się gdzieś gubi. podobno kryzys wieq średniego następuje gdzieś w okolicach 4otki ale im najwyraźniej zaczęło się wcześniej.
zacznijmy od kompatybilności – Vista zmieniła mocno podejście do aplikacji. tak mocno, że zabolało. niestety developerka nie jest w stanie nadążyć za zmianami – do dziś duża cześć aplikacji zakłada, że na komputerze pracuje jedna osoba i ma uprawnienia admina. zmiany jakie zaszły w Vista były więc drastyczne – inne biblioteki to pikuś, ale zmieniony model bezpieczeństwa i UAC po prostu zabijają. nie dziwota – skoro nie można sobie poradzić z wieloużytkownikowym środowiskiem to zrozumienie niuansów działania systemu przerasta większość aplikacjo-klepaczy [nie chcę obrażać Developerów, przyrównując do takich tanich rzemieślników]. to zerwało mocno nić kompatybilności – w jak wielkim stopniu skomplikowało to procesy migracji miałem okazję się przekonać przy kilq projektach. osobiście uważam to za dobry ruch i kiedyś trzeba zrobić skok do przodu. wyszedł Windows 7 i świat wrócił do normy. Vista odegrała rolę środowiska przejściowego i testów ubijając pole dla w7. i jakoś tak 2-3 lata temu zaczęło się dziać coś dziwnego.
rodzina Forefront została rozbita, sklejona, zmieniona. ciężko mi na dziś dzień powiedzieć co przetrwało a co nie – najpierw ją rozdmuchiwano a potem dokonano aborcji na Stirlingu tuż przed narodzinami, TMG jest w fazie agonalnej, coś tam przepisana do System Center… działka security przeszła tyle operacji w ciągu ostatnich kilq lat, że nie jestem w stanie powiedzieć czy ma jakąś przyszłość. nawet cały ten AV – niby jest, niby jest enterprisowy FEP… ale raporty pokazują, że z jakością nie jest dobrze.
z interfejsem modern UI, to już strzał w kolano. nagle firma obudziła się z ręką w nocniq, zauważając, że na świecie pojawiły się tablety. więc teraz na „ura” próbują wszystkie urządzenia zrównać z tabletami. co za idiotyzm. to tak, jakby nagle zauważyć młotek i zamiast wkręcać śruby, kazać je wbijać. jak dziecko, z nową zabawką, które uważa że cały świat teraz będzie właśnie tak wyglądał. oglądałem wczoraj webcasto Windows 8 Professional. z 1,5h prezentacji dowiedziałem się, ze kafelki można układać, że można je przestawiać, że kafelki są ładne, że kafelki można konfigurować do własnych potrzeb, że kafelki… czy na pewno chodzi o wersję „professional”?
produkty zmieniają nazwy, jednego dnia przedstawiany jest jakiś roadmap a następnego ten sam produkt zmienia rodzinę, wszystko jest jakoś bez głowy modernizowane – wygląda to tak, jakby jakiś ‚dyrektorek’ bez pojęcia zaczął krucjatę technologiczną próbują udowodnić, że to marketing dyktuje gusta ‚a w tym sezonie modne są tablety’.
drugim modnym słowem jest chmura. jak ktoś nie zdążył zmigrować sharepointa do najnowszej wersji ale ma już w8 – to sorry. nie będzie integracji. sharepoint workspaces dla wersji SP2o1o nie integruje się z w8, jest za to nowy produkt – private cloud, panie – skydrive pro. tylko, że ten z kolei nie jest kompatybilny ze starszym SP. a więc wszystko albo nic – migruj całe środowisko, serwery, stacje klienckie i aplikacje, albo nie migruj w ogóle, bo tracisz funkcjonalność.

boję się pomyśleć co będzie dalej i jaka nastanie moda. czy Windows 9 Server po uruchomieniu na serwerze będzie pokazywał klawiaturę ekranową i książkę adresową, bo będzie wyrównany do smartphona? czy zamiast nowego office będzie tylko o365, a rola File Server będzie konsolą do zarządzania kontami na skydrive? odnoszę wrażenie że eMeS stracił tożsamość i nie za bardzo potrafi sobie poradzić w nowych czasach miotając się od pomysłu-do-pomysłu.
jak w każdym życiu, są gorsze i lepsze okresy – mam nadzieję, że przyszły rok będzie bardziej słoneczny. ma wyjść XBOX72o – liczę, że się nie zawiodę. świąteczno-noworoczne życzenie? żeby to, co słyszę na temat planów przyszłego modelu płatności za system operacyjny okazało się tylko plotką….

eN.

Myth busters: cheap disk space

bardzo często czytając artyqły dotyczące różnych decyzji co do rozwiązań architektury produktów trafiam na zadania typu: “disk space is very inexpensive and IT shops can take advantage of larger, cheaper disks to reduce their overall cost”.

to konkretnie art dot. brak SIS w Ex2o1o. nie dywagując z faktem czy jest on faktycznie potrzebny czy nie – w końcu liczby nie kłamią – zastanawia zjawisko samego mitu dotyczącego tanich dysków… uczestniczyłem bardzo niedawno – w ciągu ostatniego roq – w kilq zaqpach macierzy. najtańsze macierze do zastosowania produkcyjnego zaczynają się od 3o-4o tysięcy PLN, z dość małą powierzchnią dyskową. ot proszę – zupełnie pierwszy-lepszy link jaki znalazłem do zerknięcia: macierz netapp, 24TB – 1o.ooo€. w promocji. to bardzo niedużo za taką powierzchnię. nie wiem jak przy netappach, bo nie pracowałem z nimi, ale w macierzach HP czy Dell czy EMC, informacja że korzysta z dysqw SATA wcale nie oznacza, że qpimy na allegro zwykłe dyski po paręset PLN. to są specjalne, dedykowane dyski do macierzy, które kosztują oczywiście kilka razy więcej. poza tym, takie 24TB nie da się rozszerzyć. trzeba qpić dodatkową półkę. ah. przecież przydałaby się jakaś redundancja… czyli na dzieńdobry, jak chcemy zasilić wcale niezbyt wielką firmę w porządny storage dla Exchange, musimy wyłożyć 1oo.oooPLN – to tak licząc wcale niewygórowane ceny i zupełnie średniej klasy macierze. no ale firma jest nowoczesna i chciałaby zwirtualizować serwery. przecież maszyny też muszą leżeć na jakiejś macierzy…

no dobra, ponosi mnie. ale przeliczając to na PLN per TB:

1oo.oooPLN za 24TB, co daje ok 18TB przestrzeni użytkowej [RAIDy i inne takie – nie wliczam snapshotów!! co by odjęło dodatkowe 3o-5o%!] to jest ok 5,5KPLN za 1TB. czy to jest mało – oceńcie sami.

owszem – są jakieś tanie NASy, na zwykłe dyski SATA po kilkaset PLN. policzmy zatem tani Synology DS2411+. tutaj mamy rząd wielkości mniej – jeden kosztuje 5kPLN. dysk 2TB to ok. 45oPLN. daje to ok 2okPLN przy założeniu, że redundancja jest priorytetem – kiedy pracuje się na komponentach tak niskiej klasy przy produkcyjnym zastosowaniu. znów licząc bez żadnych dodatków, i zwykłym RAID5 z pojedynczym sparedrive, wychodzi ok.18TB przestrzeni użytkowej. dzięki temu można pięciokrotnie obniżyć koszty – i cena za 1TB to ok. 1,1kPLN.

biorąc pod uwagę, że wymagania dużej firmy są duże, a mniejszej firmy są mniejsze – relatywne odczucie ceny 1,1kPLN czy 5,5kPLN za 1TB przestrzeni, pozostanie tak samo *obiektywnie* duży. kto nie wierzy – niech przekona zarząd do zaqpu macierzy.

i niech mi nikt nie pisze pierdół, że ceny dysqw są relatywnie niskie, że ‘it’s not an issue those time’ czy inne takie, bo normalnie mam ochotę wydrukować te bzdury i wcisnąć w gardło tym pismakom…

eN.

There is a problem with this website’s security certificate

standardowy komunikat IE informujący, że coś jest nie tak z certyfikatem. dodatkowo dwie opcje: wejdź lub wyjdź. opcja kontynuacji obarczona jest informacją żeby tego raczej nie robić, że to niebezpieczne i tak dalej…

no dobra… ale chciałbym zobaczyć ten certyfikat żeby móc podjąć decyzję i co w ogóle jest nie w porządq. tylko żeby go zobaczyć muszę najpierw wejść.. czyli teoretycznie jest już za późno…

jaka w tym logika?

eN.

Szyfrowanie poczty certyfikatem x5o9

*UPDATED…again*

pamiętam, że na uczelni – czyli ponad dekadę temu – każdy gówniarz, włączając mnie, wiedział co to PGP, miał certyfikat i się tym bawił. oczywiście ponieważ nasze dane były bardziej super fajne niż super tajne, po dwóch-trzech miesiącach każdy się nudził zabawą i certyfikaty poszły w zapomnienie… a było tak:

Projekt PGP został zapoczątkowany w 1991 przez Philipa Zimmermanna i rozwijany z pomocą społeczności programistów z całego świata[1].

Wydarzenie to stało się pewnym przełomem – po raz pierwszy zwykły obywatel dostał do ręki narzędzie chroniące prywatność, wobec którego pozostawały bezradne nawet najlepiej wyposażone służby specjalne.

Wikipedia

Ponad 2o lat temu powstała idea, aby przeciętny obywatel mógł zabezpieczyć swoją pocztę.wtedy chodziło o zabezpieczenie się przed rządem – to było jeszcze echo po zimnej wojnie. po tylu latach bezpieczeństwo jest niemal wbudowane w każdy produkt i dostępne wszem i wobec, więc można przyjąć, że bułka z masłem coś takiego skonfigurować…

podstawowym problemem PGP jest zaufanie do certyfikatu, które opiera się na wymianie kluczy – nawzajem lub przez jakieś ‘zaufane miejsca’. mało wygodne przy użyciu ‘publicznym’ – lepiej skorzystać z zaufanych serwerów Root CA, które poświadczają tożsamość. w sumie na oddzielną dywagację, bo standardowy certyfikat można wystawić na “reksia kosmonautę” – i tak nikt nie wyryfiqje tożsamości przy najniższej klasie bezpieczeństwa… ale o nie o taki cel wpisu. chodzi o ideę szyfrowania wiadomości jako-takiego, oraz o weryfikację na ile to jest zadanie proste po 2o latach od rozgłosu, jaki osiągnęło PGP…

testy dotyczyć będą certów x5o9.

 

Ceryfikat

po pierwsze okazuje się, że zniknęły z rynq praktycznie wszystkie portale wydające darmowe certyfikaty do poczty z firm, które są globalnie w Trusted Root CAs. zostało comodo i masa ‘odsprzedawaczy’ którzy kierują na stronę comodo. jak dłużej się poszuka, znajdzie się “coś tam”:

  • CAcert – ale jak można ufać komuś, kto nawet nie potrafi ustawić kodowania znaków na stronie? poza tym RootCA jest dystrybuowany społecznie, a więc trzeba go ręcznie importować
  • startssl – początkowo go nie znalazłem, wymaga podania sporej ilości danych, rejestracja nie jest automatyczna.

no więc niech będzie comodo – w sumie co za różnica…. potem przetestowałem na certyfikacie startssl – i nawet się udało… ale to za chwilę.

Klient

po drugie żadna poczta publiczna webmail nie obsługuje certyfikatów – gmail, live/hotmail czy inne wynalazki. a więc pozostaje to poza zasięgiem większości userów. warto byłoby zerknąć na klienty na urządzenia mobilne, ale to zostawiam innym [będę wdzięczny za informacje – może korzystacie z jakiegoś klienta wspierającego szyfrowanie?]. więc przetestujmy na najpopularniejszych stacjonarnych klientach poczty.

dla testu stworzyłem dwa konta na jakieś tam skrzynki i wygenerowałem certyfikaty comodo i startssl. dwa konta w windows, oczywiście zaimportowane na krzyż po certyfikacie prywatnym jednego i publicznym drugiego. bułka z masłem…

[po trzecie] no może nie do końca – nie dla common-usera. ponieważ windows nie pozwala ani przesłać pliku .cer, ani kiedy się go zzipuje, rozpakować. trzeba wejść we właściwości i go odblokować – kolejne utrudnienie, które dla kogoś z IT może być śmieszne, ale dla przeciętnej osoby wymaga sporo wysiłku. pozostaje jeszcze jedna sprawa – skąd taki cer wziąć. i znów – dla mnie oczywiste jak wyeksportować część publiczną – ale nie jest to metoda ‘użytkownikowa’. raczej zaliczyłbym to do ‘zadań administracyjnych’.

idziemy dalej. odpalam Windows Live Mail 2o12 – bez trudu konfiguruje się własny certyfikat. drugi – publiczny, już zaimportowany i sprawdzony – siedzi w other users i wszystko się zgadza, cały łańcuch weryfikowalny, email ok. szyfruję wiadomość, wysyłam… i dupa “Digital ID is missing”. godzina ślęczenia, sprawdzania, bez szans. po prostu się nie da. wszędzie opisy jak wyłączyć szyfrowanie, nigdzie jak je skonfigurować – owszem, gdzieniegdzie opisy jak skonfigurować swój, ale nigdzie jak prawidłowo zaimportować czyjś. brak instrukcji. mam wrażenie, że robię coś źle – więc weryfiqję dalej.

testuje outlooka 2o1o. qrva – to samo! nie do wiary. nie mówiąc o tym, że sama konfiguracja czy szyfrowanie wymaga trochę umiejętności, ze względu na to przez ile okien trzeba się przeklikać w outlooku żeby to skonfigurować – przeciętny user się obsra a tego nie znajdzie. no ale to raczej korpo-aplikacja.
może głupi jestem – nie wykluczam, poza tym jest późno, a ja pracuje 17tą godzinę [ale update piszę następnego dnia i nadal nie jestem pewien – co robię źle?]… jeszcze jeden test:

‘by the book’, czyli tak, jak w zamyśle powinna wyglądać wymiana kluczy… najpierw z certami comodo.
wysyłam z jednego konta podpisaną wiadomość. dochodzi do nadawcy i .. jest prawidłowo zweryfikowana. dodaję kontakt do książki adresowej przez opcje tegoż zweryfikowanego kontaktu… – już trochę mniej oczywiste i trzeba się nieźle przeklikiwać ale w końcu działa! nic dodać nic ująć – super intuicyjny system, security w każdym domu! no to teraz to samo w drugą stronę – dla Live Mail… podpisuje wiadomość, wysyłam, przychodzi, zweryfikowana, przekilqje się przez info o certach i znajduję opcję “dodaj do książki”… i dupa. kontakt jest ale certu nie ma. następnego dnia zrobiłem ten sam test ale z certami startssl: ZADZIAŁAŁO! i to z Live Maile po obu stronach. nie będę już testował czy wczoraj coś namodziłem, czy certy comodo są do d. ale jest jedna rzecz, która mnie bardzo zastanawia: czemu zaimportowany cer nie jest rozpoznawany??

postanowiłem wyciągnąć ciężką artylerię. stawiam własny CA i tworzę template dla szyfrowania poczty. generuję cert z tym samym mailem, exportuję część publiczną instaluję… nie ma żadnych problemów z importem – zarówno outlook jak live mail łykają taki cert bez mrugnięcia ekranem. porównuję certy żeby zobaczyć różnicę:

  • key usage: dla comodo digital signature i key encipherment; dla mojego – tylko key encipherment.
  • enhanced key usage: w obu Secure Email. comodo ma jeszcze własny OID do logowania na swoich stronach. nieważne.
  • CN – ten sam, czyli E=email
  • Application policies: brak w certach z zewnętrznych CA. MCA dodaje ‘Secure Email’

o co c’mon? certutil weryfikuje bez zajęknięcia. jedyna różnica jaką znalazłem to to, że w wygenerowanym przez MCA jest Application Policy, którego nie ma w certach zewnętrznych – ale to nie powinno mieć znaczenia. tej części nie udało mi się rozwiązać.

na koniec biorę pod młotek thunderbirda…

nie lubię tego produktu – jest toporny, brzydki i nie korzysta z systemowego cert stora. o ile kojarzę to dodatkowo TB i FF mają oddzielne cert story! ale pal to licho – nie o to chodzi. próbuję dodać publiczny email cert – dupa. niezaufany. okazuje się, że brakuje ostatniego ogniwa zaufania – dla COMODO email. exportuję ze stora systemowego, dodaję do TB. działa.

Konkluzja

na jakim poziomie trzeba być userem, żeby zacząć korzystać z szyfrowania poczty? można x5o9 zastąpić openpgp czy GNUPG i szyfrowanie wiadomości z linii poleceń. tak, wiem, jest jakiś dodatek do systraya, który jakoś to automatyzuje – ale co z tego? target użycia pozostaje ten sam. zresztą opinię czy jest łatwiejsze czy trudniejsze pozostawię – może będę miał siłę to przetestować?

pomimo dwóch dekad – szyfrowanie poczty pozostaje instytucjom i zdesperowanym. zwykłym, ani nawet trochę mniej zwykłym userom, po prostu się to nie uda. być może drążyłbym jakąś teorię spisq – ale raczej projektu opensource typu mozilla nie podejrzewałbym o przyłączenie się do niego. żaden klient nie ułatwia wymiany kluczy, o ile w ogóle je obsługuje… a może nie ma się co dziwić? ostatnio częściej się słyszy o uzależnieniu od porali społecznościach – ludzi, którzy mają na bieżąco publikowane swoje położenie odczytane z GPS, każda myśl przelana od razu pro publico… ale czy bono to już wątpię. ‘jestem na wakacjach’, ‘właśnie wylało mi się mleko, cholera ale się pobrudziłem’, ‘ale walnąłem kloca! [+zdjęcie]’ … minęło 2o lat i ze skrajnej paranoi i strachu przez rządem, ludzie przenieśli się w epokę totalnej publikacji siebie.

tego nie rozumiałem wczoraj, będąc zmęczony, a dziś wydaje mi się oczywiste – nie ma popytu – nie ma podaży. kto potrzebuje – kupi, albo się nauczy.

eN.

na visio

czemu w visio nie ma obiektu interfejsu sieciowego? ):

eN.

PowerShell jako główna konsola

PowerShell niestety nie może być traktowany jako główna konsola systemu. powód? w przypadq problemów z usługami [np. sieciowymi – taki błąd wygenerowałem] konsola zawisa. w tym samym czasie cmd odpala się bez problemu pozwalając na jakieś akcje/debugowanie problemu.

niestety należy traktować to jako dodatkowe narzędzie.

eN.

Windows 8 Consumer Preview

ehhhh.. gdzie te czasy, gdy miałem czas na testy? nowa wersja klienta nadal pozostaje dla mnie wyrywkowymi newsami. dla tych co mają czas: http://windows.microsoft.com/en-US/windows-8/download

eN.

xcopy /o może zniszczyć dysk iSCSI

tak, tak. ponieważ zdarzyło mi się to już kilkukrotnie piszę q przestrodze. błąd nie jest w 1oo% replikowalny – nie potrafię na razie opisać konkretnych kroków, po których taka sytuacja następuje. a objawy są takie:

  • po podłączeniu dysq iSCSI dobrze byłoby przerzucić dane. możliwości jest wiele – backup, robocopy, xcopy. wybrałem xcopy bo wydawało mi się, że to najłatwiejsze – ten wybór odradzam innym.
  • aby skopiować dane z deskryptorami bezpieczeństwa używa się opcji /o
  • no i tutaj mały niedeterminizm – część danych udało się przegrać, jednak przy większych operacjach dysk znika. co więcej operacja kopiowania czasem nie jest przerywana – nie wiem gdzie system wrzuca te dane, bo błędów nie wyświetla. próba wejścia na dysk kończy się komunikatem ‘acc denied’ a w managerze dysków partycję widać ale nie ma nawet etykiety .

dysk znika. wszystko idzie w kosmos. sprawdzałem podłączając do innego serwera i też- zostaje uszkodzona partycja bez żadnych informacji i możliwości dostania się na nią.

także sugeruję omijanie tego narzędzia w produkcji. tak na wszelki wypadek. ponieważ w w2k8 R2 robocopy jest standardowo zainstalowane zamiast trefnego xcopy proponuję:

robocopy x: y: *.* /mir

eN.