Przyszłośc sieci
Ciekawy art na temat tego, co google planuje zrobić z siecią. Dużo tekstu jak na computerworld. Warto zajrzeć.
http://www.computerworld.pl/artykuly/374127/Czy.Google.znalazl.metode.na.zdominowanie.globalnego.ruchu.sieciowego.html
Ciekawy art na temat tego, co google planuje zrobić z siecią. Dużo tekstu jak na computerworld. Warto zajrzeć.
http://www.computerworld.pl/artykuly/374127/Czy.Google.znalazl.metode.na.zdominowanie.globalnego.ruchu.sieciowego.html
dawno, dawno temu, w odległej galaktyce, bawiłem się nowymi funkcjami w7 – mianowicie bootowaniem z vhd.
ostatnio na małym spotkaniu filmowym GT stwierdził, iż niemożliwie jest zbootwanie systemu z vhd utworzonego za pomocą “Windows Backup and Restore”, ponieważ nie zawiera on HALa. odgrzebałem stary wpis, przygotowałem w wolnych chwilach pliczek vhd z ostatnio robionego backupu i wrzuciłem go na dysk. większość artów opisuje jak dodać vhd do istniejącego bootloadera natomiast tu scenariusz jest trochę inny – mam pusty dysk i na nim tylko vhd. ponieważ bcdedit nie jest łatwy do ogarnięcia najlpiej skorzystać ze ściągi. kluczowym narzędziem w takim przypadq jest ‘bcdboot’, który tworzy nowy bcd. ogólna lista kroków jest taka:
dygresyjna ciekawostka – jeśli używa się powershell to wykonywanie instrukcji kończy się błędem:
“
Invalid command line switch: /encodedCommand
Run "bcdedit /?" for command line assistance.
The parameter is incorrect.
“
problem polega na interpretacji nawiasów klamrowych ‘{}’. trzeba je eskejpować akcentem słabym [grave accent “`”] albo uruchomić sobie cmd [FUJ!].
i jeszcze w ramach dalszej dygresji inne pomocne narzędzie do zabawy z BCD: bootrec
powracając do tematu – po wykonaniu tych kilq prostych instrukcji system ładnie wstaje bez problemów. imho kluczowym elementem rozwiązującym problem HALa jest ostatnia linijka konfiguracji:
bcdedit –set {GUID} detecthal on
podwójnie potwierdzone empirycznie (:
na koniec kolejny wątek poboczny – początkowo próbowałem stworzyć wpisy BCD na żywym systemie. nie jest to proste – wszystkie polecania [np. bcdboot] automatycznie korzystają z system store. sam bcdedit ma parametr ‘-store’ ale ręczna rzeźba to rzeźba w miękkim materiale. raz głupkowato przepisując użyłem parametru ‘import’ … potem przeczytałem jak działa (; wyrezało mi BCD na dysq systemowym. drugi błąd – raz zapomniałem wpisać ‘-store …’ i znów nadpisałem sobie wpisy. warto zrobić przed taką zabawą ‘-export’ ale bez strachu – płyta instalacyjna naprawia takie rzeczy niemal automatycznie (:
eN.
Ostatni sporo walczyłem z SCCMemem. tym, którzy nie znają, polecam artykuły Jacusia D. na http://jacekdoktor.pl/html/cm07.html jednym z nich, który ma wg mnie etykietę “must read” jest dotyczący instalacji tego narzędzia Belzebuba (parafraza opinii neXora ) na 2008/2008R2 – http://jacekdoktor.pl/html/webdav.html
niestety mimo dobrych rad i artykułów nie zawsze to się udaje :/ czasami mimo przeprowadzania 10 lub 20 instalacji dostajemy jakiś nowy błąd. tym razem napatoczyłem się na coś takiego:
SMS Management Point — Error 25006. Setup was unable to create the Internet virtual directory CCM_Incoming
The error code is 80070005
po chwili wyszukiwania okazało się, ze folder C:winsowstasks miał nieprawidłowe uprawnienia. po odpięciu szkodzącego GPO, zatrzymaniu usługi, skasowaniu folderu, uruchomieniu usługi Task Scheduler wszystko (IIS, WebDAV, BITS, Managememnt Point, WSUS) działa jak powinno
dodatkowo jak już się uda Behemota doprowadzić do działania, jest szereg przydatnych narzędzi wspomagających jego działanie. większość można znaleźć tutaj: http://www.myitforum.com/myitwiki/SCCMTools.ashx
dodatkowo right click tools: http://myitforum.com/cs2/blogs/rhouchins/archive/2008/04/09/sccm-right-click-tools.aspx
Console Extensions: http://myitforum.com/cs2/blogs/direland/pages/sccm-console-extensions.aspx
I oczywiście SCCM Toolkit 2.0, który zawiera niezbędne narzędzie Trace 32 http://www.microsoft.com/download/en/details.aspx?id=9257
PS. Uwaga – bardzo lubię SCCM-a i uważam, że dobrze zaprojektowany i skonfigurowany jest fantastycznym narzędziem. większość problemów z nim wynika z kiepskiego wdrożenia lub implementacji rozwiązania.
takie repozytorium narzędzi i linków dot. DFS jakie mi się zebrały podczas ostatnich 3 tygodni.
eN.
początkowo założenie było takie:
miało być tak pięknie, a wyszło jak zwykle. może najpierw słowo wstępu dla tych, którzy z DFSem do czynienia nie mieli:
Distributed File System to [w skrócie] rozproszony system plików z redundancją. idea jest trywialna: definiuje się ‘namespace’ – czyli taki ‘share’, tyle że *nie* wskazuje on na konkretny katalog na konkretnym serwerze. jest wirtualnym tworem, pozwalającym zdefiniować wiele odnośników do kilku prawdziwych udziałów [shares] na serwerach. te kilka udziałów [konkretniej – dane przez nie wskazywane] są automatycznie replikowane/synchronizowane. w rezultacie użytkownik dostaje się pod określną nazwę typu “\domain.adfileserverABC” a system decyduje gdzie znajduje się najbliższy serwer i przekierowuje tam usera. jeśli serwer strzeli, to użytkownik zostanie [po jakimś czasie – to nie działa tak szybko jak klaster] przekierowany na inny, działający udział z tymi samymi danymi.
DFS powstał wraz z Windows 2ooo i wykorzystywał do replikacji usługę FRS – File Replication Services. cały system sprawował się świetnie w scenariuszach w sieci lokalnej, jednak ze względu na słabą wydolność FRS nie za dobrze radził sobie z replikacją przez sieć o słabych parametrach. największym problemem była wstępna replikacja – podczas której muszą zostać skopiowane wszystkie dane.
usługa z wersji na wersję była wzbogacana o nowe funkcjonalności. podstawową było zastąpienie FRS usługą DFSR [Distributed File System Replication] w Windows 2oo3 R2. podstawą ‘genialności’ i przewagi DFSR ma być wykorzystanie algorytmu RDC – Remote Differential Compression.
celem tego wpisu nie ma być deep-down DFSa [jeśli jest takie zapotrzebowanie to mogę taki cykl napisać] a raczej wyżycie się i wykrzyczenie na ten produkt. po raz kolejny eMeS pokazuje jak wspaniała idea i z definicji świetne narzędzie, może zostać spier*&ne i doprowadzić do białej gorączki. otóż po 3 tygodniach od utworzenia niemal najprostszej możliwej konfiguracji, nadal nie udało mi się zreplikować wszystkich danych. DFS jest jak księżniczka na ziarnq grochu – wystarczy pierdnąć w pobliżu serwera, żeby coś nie zadziałało prawidłowo.
scenariusz, jaki sobie wymyśliłem jest bardzo nieskomplikowany: chcę mieć HUB Server w centrali, na który replikowane są dane z serwerów branch-office’owych. te dane, będzie można łatwo zbackupować lokalnie. testy backupu przy pomocy Backup Exec Remote Agent były co najmniej niezadawalające – ponieważ kopia niezbyt dużej dawki danych trwała ok. tygodnia. zdalne serwery połączone są stosunkowo słabymi łączami 2/2MBps. DFS ze swoim wspaniałym DFSR korzystającym super-duper-hiper RDC wydawał się być lekiem na całe zło i nadzieją na system backupu. nie wspominając o oszczędności wynikającej z dużo mniejszej ilości licencji na BE Remote Agent.
Pierwszy fackup na jaki się natknąłem to [imho] beznadziejny model bezpieczeństwa. są dwa typy replikacji – ‘multipuprose’ oraz ‘data collection’:
o ile typ multipurpose wymaga zdefiniowania ‘namespace’ w którym będzie tworzyć się udziały, o tyle typ data collection tego nie wymaga – jest prostym wykorzystaniem DFSR do replikacji danych. jakie są limity:
DFSR, podobnie jak FRS faktycznie robi wpisy w AD i korzysta z niego jako ‘katalogu informacji’ – wystarczy spojrzeć do “CN=DFSR-GlobalSettings,CN=System,DC=domain,DC=ad” żeby zobaczyć, że są tam informacje o grupach replikacji i topologii. zakładając, że nie da się tego zrobić inaczej [dane muszą być w AD i nie można utworzyć DFSa w postaci AD-Free na member serverach] sprawdźmy dalej.
po utworzeniu prościutkiej topologii, synchronizującej pojedynczą strukturę katalogów, okazało się, że nie chce się replikować. w logach sporo błędów. nie trudno było trafić na art ‘top 1o common causes…’, i zlokalizować błąd konfiguracji: za mały rozmiar ‘stage folder’. ‘katalog tymczasowy’ dla DFSR musi mieć rozmiar co najmniej sumy 32 największych plików, które będą replikowane. na tym serwerze był to pewien problem, ale dało radę zrobić. to jednak w pewien sposób determinuje scenariusze wykorzystania DFS – raczej dla małych plików. jeśli na serwerze chcemy przechowywać duże pliki [video, backup, image] to ilość przestrzeni zarezerwowanej dla katalogu tymczasowego musi być olbrzymia. ciekawe, że głupie robocopy czy xcopy nie potrzebuje żadnej przestrzeni i działa prawidłowo – czy nie można wyliczyć hasha [czy co oni tam liczą] korzystając z żywego pliq? na blogu ludziqw tworzących DFS jest wręcz informacja: “idealnym stanem jest przyznanie katalogowi roboczemu wielkości równej sumy wszystkich plików". kiedy zapytałem owe osoby czemu takie wymagania – przecież to rozbój w biały dzień – oficjalne stanowisko jest “dyski są tanie, chcesz mieć DFSa to se qp większe”. hmmm…. chyba nie qpowali ostatnio ultra wide SCSI do trochę starszego serwera ani dysków do macierzy…
co jeszcze zwróciło moją uwagę to interfejs – pod tym trywialnym GUI, gdzie wszystko robi się kilkoma kliknięciami, oraz wspaniałymi whitepapaerami opisującymi genialność usługi, kryje się całkiem sporo wymagań dla których step-by-step guide jest tylko początkiem drogi, a sama usługa może nie działać prawidłowo… z dość znacznej ilości powodów. owe top 1o prezentuje tylko najczęstsze błędy. prawdziwa jatka zaczyna się przy kłopotach z siecią.
pomimo prawidłowej konfiguracji wielkości katalogu roboczego i zniknięciu błędów 4ooo nadal dane nie repliqją się [po 2tygodniach mam 25GB z 4oGB], a logach pojawiają się błedy z kolejnego tysiąca: 5004 i 5014. pojawiają się w tej samej sekundzie – pierwszy mówi ‘straciłem połączenie’, drugi ‘odzyskałem połączenie’. najwyraźniej chwilowy problem z siecią poniżej 1sec wystarczy, żeby re
plikacja nigdy się nie wykonała. teraz pozostaje sprawdzenia co to za problem – skoro wykonanie xcopy nie powoduje zerwań sesji i redundancja na poziomie samego TCP wystarczy, żeby transmisji nie zerwać – czemu super-hiper-duper system replikacji stworzony z myślą o słabych łączach w biurach zdalnych, nie potrafi sobie poradzić?
póki co nie mam finalnej odpowiedzi na to pytanie. nie mogę niestety restartować serwera po kilka razy dziennie, żeby sprawdzić czy tuning parametrów TCP coś zmieni. a może trzeba stuningować całego DFSR?
i tak z prostego wizarda o kilq ekranach i trywialnej usługi zaprojektowanej do tego konkretnego zastosowania, okazuje się, że konfiguracja to modyfikacja masy parametrów na poziomie rejestru, które wpływają na wydajność całego systemu, podporządkowanie całego systemu jednej usłudze… kopiującej pliki!!
a miało być tak pięknie…
eN.
jak zmienić hurtem nazwy grup? aby to zrobić trzeba zastosować drobny trik.
było 1ooo razy i każdy powinien wiedzieć… ale odświeżyć sobie widomości raz na jakiś czas jest dobrze. trik polega na tym, że nie da się stricte zmienić nazwy grupy – można natomiast przenieść obiekt i podać nową nazwę. i tak jeśli wyświetli się ‘dsmod group /?’ to operacji zmiany nazwy nie ma. natomiast przy ‘dsmove /?’ można znaleźć taki przykład:
“
The user object for the user Jane Doe can be renamed to Jane Jones
with the following command:
dsmove „cn=Jane Doe,ou=sales,dc=microsoft,dc=com” -newname „Jane Jones”
“
teraz wystarczy dodać prostą logikę i całość gotowa:
$searcher = New-Object DirectoryServices.DirectorySearcher([ADSI]"")
$searcher.filter = "objectClass=group"
$searcher.SearchRoot="LDAP://cn=MyOU,cn=somewhere,dc=domain,dc=ad"
$searcher.PropertiesToLoad.add("cn")
$searcher.PropertiesToLoad.add("distinguishedname")
$results=$searcher.FindAll()
foreach($r in $results) {
$prop=$r.properties
#here may be some logic. example - fix typo from gruop -> group
if( $($prop.cn).contains("gruop") ) {
dsmove "$($prop.distinguishedname)" -newname $($prop.cn).replace("gruop","group")
}
}
eN.
Jeden z chłopaków (Bartek S.) przygotowywał nam ostatnio krótkie przedstawienie usług, o które wypytywali się klienci. Naprodukował się, jest to poziom podstawowy i przygotowany „dla usera”, ale może komuś sie przyda.
DELL BACKUP
Firma Dell oferuje backup naszych danych na swoich serwerach dzięki usłudze Dell
Backup.
jak to wygląda: otóż przede wszystkim NIE trzeba mieć komputera ich marki by moc
z tego korzystać. wystarczy wejść na stosowna stronę i się zarejestrować. Mamy
kilka oferowanych możliwości zależnych od udostępnionej nam przestrzeni
dyskowej. na początek można wybrać pojemność 2GB za free ale jest haczyk. Każda
ofertę wybiera się na 12 miesięcy a usługa darmowa nie jest przedłużana chyba ze
Dell wyrazi indywidualna zgodę (nie liczyłbym na to). oferowane przestrzenie i
ich ceny są poniżej:
2 GB € 0,00
10 GB € 25,00
30 GB € 35,00
50 GB € 45,00
100 GB € 50,00
Jak wygląda korzystanie z usługi.
w procesie rejestracji podajemy swoje dane i wybieramy interesujący nas rozmiar
(i cenę) przestrzeni dyskowej podajemy preferowana nazwę usera (o ile już taka
nie istnieje) oraz hasło. oczywiście trzeba zgodzić się z warunkami Dell’a które
głównie mówią że nie będziemy trzymać nie legalnych, obraźliwych, nie zgodnych z
prawej materiałów i tym bardziej takich nie będziemy udostępniać. po rejestracji
ściągamy małą aplikacje która instaluje się jako serwis wykonywany
automatycznie. Zarządza ona terminem cyklicznych backup-ów, pozwala na wykonanie
go manualnie bez potrzeby logowania oraz przekierowuje nas na stronkę. mimo ze
zaciągamy aplikacje to i tak cala obsługa naszego konta odbywa się przez www.
stronka jest dość intuicyjna i oferuje kilka bardzo przydatnych opcji takich jak:
– stan zajętego i wolnego miejsca na dysku
– określanie konkretnych plików, folderów oraz typów plików jakie mają się
backupowac i to z rożnych komputerów (możemy backupowac z więcej niż jednej
maszyny)
– harmonogram backupu (co ile np co tydz. w jaki dzień tygodnia, w jakim
przedziale czasu i to jakiej strefy czasowej)
– prędkość backupu (czy ma zapchać całe łącze czy tylko cześć)
przy przywracaniu plików możemy wyznaczyć:
– miejsce gdzie ma być zgrane wszystko lub część plików.
– czy pliki maja wrócić do oryginalnych lokalizacji i czy maja nadpisać już
istniejące i na jakiej zasadzie (czy nadpisać tylko starsze czy jak leci)
nasze dane przechowywane są na serwerze w naszym (lub sąsiadującym) kraju jednak
zastrzega sobie że kopia będzie też na serwerach w USA ale to w trosce o nas.
gdy primary serwer padnie to dane będą przywracane z tych w USA.
Office 365
Usługa oferowana przez firmę Microsoft jaka jest office 365 ma być alternatywa dla „lokalnego” pakietu MS office.
Opcja ta zakłada ze zamiast wykupywać licencje na oprogramowanie oraz by ominąć koszty związane z ulokowaniem i utrzymaniem serwerów poczty Exchange w firmie można za abonamentem korzystać z tych samych usług ulokowanych „w chmurze”. Firma płacąc miesięczny abonament za użytkownika i rodzaj wykupionych pakietów może korzystać z większości programów pakietu office poprzez logowanie się przeglądarką internetowa do firmowej domeny offica 365.
Co oferuje nam office 365:
użytkownik logując się na stronę ma dostęp do takich programów:
– Word
– Excel
– Onenote
– power point
– Sharepoint
– Lync (komunikator, coś jak gg z opcjami konferencji video itp bajerami do kontaktu biznesowego w czasie rzeczywistym)
– Outlook.
Wszystkie programy (po za lync) nie wymagają żadnej instalacji na komputerze. Wszystko odbywa się przez przeglądarkę (tworzenie, edytowanie dokumentów) interfejs jest prawie identyczny jak w wersjach lokalnych co ułatwia użytkownikowi nawigacje po nim. Programy te maja opcje współpracy z zainstalowanymi już pakietami na lokalnych stacjach co umożliwia tworzenie dokumentów w chmurze poprzez programy na stacji roboczej.
Co do programów typu Access i Visio to póki co nie ma opcji ich tworzenia na stronie ale jest możliwość doboru licencji pakietu office proffessional (licencja okresowa na takiej samej zasadzie)
Istnieją dwa typy użytkowników: administratorzy i userzy.
Administratorzy (domyślnie pierwszy stworzony użytkownik będzie miał jego prawa) maja naturalnie więcej możliwości. Mogą tworzyć nowych userow, nadawać im prawa do konkretnych pakietów, programów, mogą nadawać uprawnienia admina innym userom, zarządzać licencjami, uprawnieniami do stron, plików i zasobów. Mogą odzyskiwać część danych usuniętych przez usera (user po usunięciu dokumentu ze swojego kosza tak naprawdę przenosi go do kosza ogólnego gdzie wgląd maja admini i mogą go jeszcze przywrócić. Żywotność dokumentu w koszach jest minimum 30 dni).
Serwer pocztowy. Każdy user otrzymuje swój adres mailowy i skrzynkę o pojemności do 25 GB na usera. Interfejs jest zbliżony do outlookowego i zapewnia większość jego funkcji takich jak obsługa kilku rożnych kont email, tworzenie reguł, folderów, automatycznych odpowiedzi itd. Umożliwia też szybka komunikacje i wymianę danych dzięki czemuś w rodzaju chatu.
Bezpieczeństwo danych firmy. Microsoft zapewnia nas ze nasze dane trzymane są na wysokiej klasy atestowanych serwerach, na kilku naraz (backupowe serwery) oraz serwery awaryjne. Czyli w przypadku utraty danych trzeba kontaktować się z obsługą Microsoftu czynną oczywiście 24/7. Na chwile obecna użytkownik nie ma żadnej opcji swojego własnego backupu. Ma to swoje wady i zalety. Zaleta na pewno jest to ze w przypadku awarii firma nie musi sobie zawracać głowy procesem ratowania się gdyż robi to za nas Microsoft. Wadą jest jednak to ze w przypadku np awarii połączenia internetowego nie mamy swojego lokalnego zapasu plików więc zostajemy bez materiałów do pracy (chyba ze użytkownicy będą pamiętać by każdy nowo stworzony czy edytowany plik w chmurze ściągać od razu na dysk bo taka opcja w programach jest).
Najważniejsza kwestia która świadczy w ogóle o racji bytu offica 365 jest oczywiście cena. Na chwile obecna Microsoft prognozuje ofertę dwóch rodzajów pakietów: small business i enterprise.
Small business – przewiduje maksymalnie do 25 licencji ze standardowym pakietem programów. Obecnie Microsoft zapowiada cenę 5,25€ od usera miesięcznie. Czyli wraz z dodawaniem nowych userow płacimy więcej. Do tego pakietu można dokupić sobie office pro poszerzający nieco programy na stronie o bardziej zaawansowane funkcje oraz upoważnia do instalacji offica proffesional na maszynie. Oczywiście można kupić ich mniej niż jest userow i przydzielić je tym którym chcemy.
Enterprise – przewidziana jest dla większych firm o zróżnicowanych potrzebach. Oferuje 4 gotowe pakiety ale też daje możliwość wykupywania określonych ilości każdej usługi osobno i przydzielanie ich w dowolnej konfiguracji swoim userom. W związku z tym cena też nie jest sztywna wiec Microsoft podaje na chwile obecna ze koszt będzie w zakresie od około 2€ do 25€ per user zależnie od rodzaju i ilości pakietów.
Krótkie podsumowanie
Zalety:
– nie trzeba nic instalować na kompach. Wystarczy internet explorer, user dostaje link, nazwę usera, hasło i może od razu pracować.
– oszczędność w skali lat szczególnie w przypadku poczty (kwestie własnego serwera poczty i rzeczy z tym związane to około 30-50 tys na starcie co w zestawieniu z opcja 5 euro na miesiąc za usera może być bardzo atrakcyjne dla malej firmy)
– duże ułatwienie w komunikacji zespołu, wymianę dokumentami, możliwość pracy wszędzie tam gdzie jest internet bez kombinacji typu VPN itp.
– możliwość pracy na większości obecnych urządzeń mobilnych (smart fonach) np. z systemem Windows, Android itp.
Wady:
– niestety zaleta offica 365 jest tez jego dużą wadą. brak internetu = brak offica = brak dokumentów = brak możliwości pracy.
– aplikacje webowe nie obsługują makr. Przy pakiecie office pro webowe appsy obsługują Excel Services ale do makr niezbędna jest wersja stacjonarna offica.
– opłaty za office 365 można dokonać tylko karta kredytowa lub przelewem tyle ze przelew dopiero powyżej 200€.
Linki z oficjalnymi informacjami i możliwością zakupu:
http://www.microsoft.com/pl-pl/office365/online-software.aspx -strona dla małych firm
http://www.microsoft.com/pl-pl/office365/hosted-solutions.aspx -strona dla średnich i dużych przedsiębiorstw.
Kontakt do autora: pisać komcie do mnie to podam :-)
Gmail bez sieci
Chrome od jakiegoś czasu stał się środowiskiem do uruchamiania aplikacji. Na pierwszy strzał było coś do zabawy. Teraz mamy klienta Gmail. Wywalamy Outlooka?