Skip to Content

IT nieuczesane.

darmowe szkolenia

Microsoft Virtual Academy chyba znają już wszyscy. ale pojawił się jeszcze jeden site warty odwiedzenia: edX

eN.

94 WGUiSW standup session

gwoli przypomnienia – dziś 94 spotkanie WGUiSW. na ostatnim, poziom humoru mocno wyśrubował Damian (:  dziś również Damian i Łukasz na scenie, więc liczę, że będzie równie ciekawie!

ze względu na politykę bezpieczeństwa – nie zapomnijcie się kliknąć na liście, bo może być problem z wejściem.

eN.

to się nie powinno zdarzyć… [combo]

takiego przypadq w-files nie miałem od dawna. od początq do końca – same zagwozdki. a zaczęło się tak…

objawy i pierwsza diagnoza

użytkownik zgłasza, że niektóre maile kierowane do niego, wysyłane są … na prywatną skrzynkę innej osoby. środowisko w hybrydzie exchange a cała sprawa zadziwia, bo zgłoszenie jest od użytkownika onprem.

po krótkim debugowaniu udaje się ustalić, że w AAD użytkownik ma wypełniony atrybut ‚otherMails’. czemu innego użytkownika to da się wytłumaczyć ale czemu Exchange wysyła maile korzystając z tego atrybutu?? czy to oznacza kompromitacją routingu Exchange? mocno niepokojące zachowanie..

schodzimy głębiej

po dalszym dochodzeniu udaje się ustalić kilka innych faktów. większość pominę, bo pomimo, że dały dużo pikanterii do sprawy, i mocno utrudniły całe dochodzenie wprowadzając w ślepe zaułki, sqpię się na najważniejszym. udało się ustalić, że to konto jest widziane jako ‚GuestMailUser’ przez Exchange lub ‚Guest’ w AAD. to już lepiej, ponieważ parę rzeczy da się wyjaśnić: Exchange używa właśnie atrybutu otherMails [który wbrew nazwie jest typu ‚string’ a nie tablicą] do wysyłki, a to oznacza, że pomimo iż sytuacja jest co najmniej dziwna, to nie jest kompromitacja całego tenanta. udało zawęzić się grupę zagrożonych użytkowników do kilqnastu osób.

no to impas: w onprem AD nie ma nigdzie informacji z adresem zewnętrznym, a w o365 nie da się go usunąć, ponieważ obiekt jest synchronizowany, więc zmiany autorytatywnie mogą pochodzić tylko z AD.

dla niektórych użytkowników udaje się skonwertować obiekt na ‚member’ poprzez „set-msoluser -userprincipalname <UPN> -userType member

ale po wyświetleniu pełnego obiektu AAD „get-AzureADUser -searchstring <UPN>|fl” okazuje się, że w atrybucie proxyaddresses cały czas siedzi adres #EXT#. czyli konwersja obiektu jest obejściem problemu, ale niedostatecznym rozwiązaniem.

jak do tego doszło?

no dobra. sytuacja opanowana, maile nie wyciekają. ale jak to się w ogóle mogło zdarzyć?

jak zwykle w takich przypadkach, nie da się tego na 1oo% potwierdzić, ale scenariusz był najprawdopodobniej taki:

  • był sobie tenant, który nie był w pełni zsynchronizowany
  • projekt rozpoczął się od testu SharePoint, gdzie jacyś użytkownicy bawili się, testowali, licho-wie-co jeszcze.
  • ponieważ tenant nie był w pełni zsynchronizowany, ba! zmieniane były UPNy użytkowników, ktoś wysłał zaproszenie do zasobu na SP. użytkownik przyjął to zaproszenie, ale zamiast się zalogować jako user tenanta, zalogował się jako zewnętrzny użytkownik, podając firmowy email. został więc utworzony obiekt Guest, z mailem odpowiadającym mailowi firmowemu
  • po uporządkowaniu UPNów i wymuszeniu synchronizacji część obiektów się nie zsynchronizowała. ktoś popoprawiał obiekty z błędem tak, żeby zadziałał soft-match. teoretycznie podczas takiej operacji, obiekt synchronizowany z onprem, powinien ‚nadpisać’ obiekt Guest i stać się Member. ale tak się nie stało…

co na to Microsoft i czy to się powtórzy?

sprawę oczywiście potwierdzałem ze wsparciem MS żeby mieć jakieś autorytatywne odpowiedzi. potwierdzili scenariusz jak do tego doszło, z zastrzeżeniem, że nie mają pełnych danych z tamtego okresu. sprawdzili jednak, że ktoś manipulował przy obiekcie zmuszając do spasowania z onpremowym.

kolejne zapewnienie jakie otrzymałem, to iż już jakiś czas temu wdrożony został patch, który chroni przed takimi sytuacjami – czyli w trakcie synchronizacji nie może w efekcie dojść do pozostawienia obiektu jako Guest. sytuacja jest tak trudna i ulotna, że nie podejmuję się weryfikacji.

mówiąc w skrócie: to się nie ma prawa powtórzyć.

grande finale

jedynym sensownym rozwiązaniem problemu jest usunięcie użytkowników z synchronizacji, wywalenie ze śmietnika i powtórna synchronizacja. drugim rozwiązaniem byłaby dalsza eskalacja we wsparciu tak, aby użytkownicy nie potracili dostępów [bo przecież ich konta zostaną usunięte i utworzone totalnie nowe obiekty], ale od razu zastrzegli, że to może nawet nie zostać zaakceptowane a na pewno długo potrwa.

no więc usunąłem z synchronizacji… ale na koniec czekała mnie jeszcze jedna niespodzianka. otóż nie byłem w stanie usunąć niektórych kont ze śmietnika. co ciekawe get-msolUser -ReturnDeletedUsers pokazywał, że są tam te obiekty.. ale przy próbie usunięcia wywalało błąd, że obiekt nie istnieje.

a więc na koniec ostatni w-files: po wyświetleniu atrybutów obiektu poza UserPrincipalName znalazłem SignInName. dla użytkowników, których nie udało się usunąć, różnił się on tym, że był zawiera lokalny prefix domenowy – czyli np. zamiast username@logincunion.com było username@logicunion.com.pl . tak wyglądały te obiekty przed wspomnianą wcześniej zmianą UPN, i jak widać gdzieś ta informacja utknęła. i pomimo, że remove-msolUser -RemoveFromRecycleBin ma parametr ‚-UserPrincipalName’ to de facto używa właśnie SignInName …

eN.

przekazywanie wartości – c.d.

jakiś czas temu pisałem o tym, jak powinno się/można przekazywać wartości via pipeline. krótki komentarz…

clue jest takie, że:

  • trzeba włączyć funkcje zaawansowane cmdletbinding()
  • użyć bloku ‚process {}’ dzięki czemu każdy element będzie automatycznie procesowany przez ten blok kodu za każdym razem po ‚wpadnięciu’ do potoku.
  • dzięki temu można usunąć ‚foreach’ bo blok ‚process’ i tak wykona się dla każdego elementu.

warto się sqpić nad konsekwencją tego faktu. tablice przekazywać na [co najmniej] dwa podstawowe sposoby – jako potok oraz jako parametr:

… ale po usunięciu ‚foreach’ ze skryptu, przestanie działać prawidłowo przekazanie przez zmienną wyliczaną…

aby przekonać się o tym, można uruchomić poniższy skrypt, na oba sposoby, różniący się od poprzedniego wpisu tylko weryfikacją czy element jest tablicą:

reasumując

dla zachowania możliwości wykonania zarówno poprzez potok jak i przez zmienną, lepiej zostawić pętlę foreach – nic złego nie robi.

eN.

93.WGUiSW

szybkie przypomnienie dla tych, którzy wybierają się dziś na spotkanie WGUiSW, żeby się zapisać na meetupie. jeśli ktoś używa nicka, wyślijcie imię i nazwisko Pawłowi. osoby nie będące na liście nie zostaną wpuszczone przez ochronę /:

eN.

‚Gorący ziemniak’ – Skype for Business

Disjoint Communications

usługi komunikacyjne dostarczane przez MS zawsze były w dużym dysonansie – z jednej strony całe linie hardware, integracja z komputerem – pełny VoIP i Video Conferencing… na ulotkach. z drugiej… masakra – kto konfigurował OCS czy Lync wie o co chodzi. masakryczny end-user experience z brakiem historii wiadomości w ramach klienta, kłopotami z synchronizacją książki adresowej czy kalendarza, ciężka konfiguracja sieciowa i integracja – zarówno z Exchange jak i centralkami VoIP. Unified Communication było świetną ideą, i nawet w kilq firmach widziałem to dobrze wdrożone i nieźle działające. ale praca przy projektach UC – huh. kamieniołomy. powoli, wraz z pojawieniem się Skype for Business, zaczynało to w miarę sensownie działać a SfB Online wszystko uprościł. ale oczywiście usługi SaaS nie są dla każdego…

Unified Intelligent Communication

aż tu nagle pojawia się Teams. niby narzędzie zupełnie nie związane, ale z jakiegoś powodu decydują się inkorporować SfB w Teams… przepisując kod. raczej korzysta się z gotowców i aplikacje wykorzystują wzajemnie swoje możliwości – te same biblioteki, czy DCOM, żeby nie pisać dwa razy tego samego. to było dość dziwne. efekt dość qriozalny – niby w Teams jest SfB ale wiadomości są zupełnie rozdzielne – wysłane w ramach Teams są tylko w Teams, wysłane via SfB są tylko w .. skrzynce Exchange. od jakiegoś czasu chodziła plotka, że Teams przejmie tą funkcjonalność, ale trochę nie chciało mi się wierzyć… aż tu takie newsy:

wygląda to na niezłą rewolucję w grupach projektowych…

jest kilka takich produktów, które przeszły ciężką drogę w ramach MS, niektóre jej nie przeżyły – jak rodzina ‚forefront’, do której zaadoptowany został MIIS stając się na chwilę FIMem, żeby przetrwać jako jeden z nielicznych jako MIM. to chyba na razie rekordzista w ilości nazw produktowych [MMS -> MIIS -> ILM -> FIM -> MIM]. usługi VoIP/Video zdają się doganiać [LCS -> OCS -> Lync -> SfB -?Teams?].

ciekaw jestem jak to będzie wyglądało? jeśli nie będzie ‚cienkiego klienta’ – cienkiego w porównaniu do Teams, które przecież mają dużo szersze zastosowanie – to usługi takie jak ‚presence’ czy IM będą mało wygodne. w sumie ‚presence’ jest w dowolnym miejscu – czy to outlook, czy SharePoint. a IM? zostanie przerzucone do Teams czy do Outlook? huh. decyzja biznesowo wyjaśnialna, ale dla firm i dla użytkownika końcowego, to będzie gruby bałagan. przestawienie się z ‚klienta IM i konferencji Video’ na ‚aplikację do pracy grupowej’ nie będzie proste…

…ale przecież nie tak dawno pisałem, że wyobrażam sobie, żeby w projektach MS Teams stało się jedynym wykorzystywanym narzędziem. a zatem czekam na łzy grupy projektowej Exchange (;

gorący ziemniak

w sumie to mam więcej pozytywnych emocji o tej decyzji, bo mam wrażenie, że SfB, podobnie jak MIM, to takie gorące ziemniaki, które niby potrzebne, ale nikt ich nie chce i nie do końca wiadomo co z nimi zrobić, więc podrzuca się je do następnego w kolejce. sam produkt dostarcza bardzo fajną funkcjonalność, ale to za mało na samodzielność. więc są adoptowane tam, gdzie podąża w danym momencie trend – a teraz jest hype na Agile i Grupową Komunikację [znowu].

boję się tylko tego, że o ile MS Teams jest świetnym produktem do małych projektów i można go już semi-produkcyjnie używać, to jest masakrycznie niedojrzały. mam nadzieję, że transformacja potrwa wystarczająco długo i spokojnie, żeby zdążył stać się w pełni przemyślanym narzędziem, bo inaczej wyjdzie z tego olbrzymi ‚szwajcarski scyzoryk’ – niby super, z tysiącem gadżetów, ale kto chce nosić takie bydle w kieszeni?

eN.

eN.

92 spotkanie WGUiSW

lato się kończy.. a z dobrych wiadomości – znów po przerwie wakacyjnej wracają spotkania WGUiSW (:

92 spotkanie już dziś – przypominam o tym, żeby zapisywać się meetupie i uniknąć ew. problemów przy wejściu…. https://www.meetup.com/WGUiSW/events/242926494/

eN.

przyszłość mediów streamingowych

kłamsTVo

dla mnie, jak i dla wielu moich znajomych, telewizja jest martwym medium. przyzwyczailiśmy się do ‚żądania treści’ a nie przyswajania tego, co aqrat leci, czy czekania na konkretną godzinę. to takie naturalne – chcę coś obejrzeć, to siadam, otwieram przeglądarkę i włączam. Video on Demand – tak jak Internet jest z definicji ‚na żądanie’. mnie od TV, obok konieczności dostosowania się do tego co aqrat jest, odstraszają przede wszystkim obrzydliwie długie bloki reklamowe. portale oferujące VoD rosną jak grzyby po deszczu, konqrując zarówno w ofercie biblioteki materiałów jak i samej wygody używania i aplikacji czy dostępności apki na coraz powszechniejsze SmatTV. i z jednej strony świetnie, że tak rozwija się ten rynek a wybór rośnie wraz z kolejnymi serwisami…

…ale każdy kij ma dwa końce. ile jesteś w stanie wymienić usług VoD? 5? 1o? a ile ich jest dostępnych? przejrzałem ranking popularności w Polsce i muszę przyznać, że jestem zaskoczony. owszem – nazwy top 1o to słyszałem, ale ich ranking mnie zdziwił… ale pominę tą kwestię, bo trzeba byłoby wgłębić się w to, jak liczone są odsłony i jakie treści w tych usługach, a nie to jest właściwym celem tego wpisu.

mam ochotę na… [teraźniejszość]

słyszałem o fajnym filmie/serialu/programie. chciałbym go obejrzeć. ha! ale gdzie? jeśli jest kilka kanałów dystrybucji, to można usiąść i sprawdzić czy dany materiał jest dostępny. ale w tym gąszczu dystrybutorów to niewykonalne. a więc z jednej strony mam ‚wideo na żądanie’ ale z drugiej to nadal jest ‚żądanie z wybranej, wąskiej grupy’. jak siadam do Internetu, to oczywiście chcę mieć dostęp do wszystkiego – rozwydrzyliśmy dzięki dobrym wyszukiwarkom.

bardzo pozytywnym sygnałem jest, że ludzie coraz chętniej są skłonni płacić a nie piracić. abonament za VoD zazwyczaj jest atrakcyjniejszy od kablówki… pod warunkiem, że zgadzamy się na bardzo ograniczoną bibliotekę. jeśli chcemy mieć dostęp np. do topowych seriali to okazuje się, że trzeba mieć abonament u kilkq dostawców, i nagle okazuje się, że to się już robią poważne kwoty. a więc jest lepiej ale nadal pozostają dwa podstawowe problemy – brak wyszukiwarki pozwalającej sprawdzić jaki dystrybutor posiada dany materiał, oraz sumaryczna kwota na dostęp. tymczasem posiadając jeden z wielu systemów Media Center [jak np. Kodi], wystarczy wklepać tytuł, zostanie wyszukany w jednym z wielu źródeł torrent czy usenet, ściągnie się, dopasuje napisy – i voila. przy odpowiedniej integracji wystarczy np. dodać tytuł do ‚watchlist’ na IMDB czy innym serwisie, i wszystko zrobi się automatycznie. albo dodać newsfeed z ulubionymi serialami – po prostu będą czekać na naszym domowym urządzeniu do obejrzenia. póki co z nielegalnych źródeł.

podstawowym czynnikiem jest łatwość, wygoda i dostępność. za to można, i chce się, płacić. ale jeśli mam płacić i nadal mieć wymienione funkcje w ograniczonym zakresie podczas, gdy za darmo mogę mieć to wszystko bez ograniczeń?

streaming jutro

znów – nie jest celem tego wpisu dysqsja nad moralnością, a wyłącznie biznesowo-technicznie zastanowienie się nad tym, jak to zatem będzie wyglądało? bo będzie na pewno wyglądało inaczej. nie jestem jedyną osobą na świecie, która problem widzi, a jest masa osób, które takie spostrzeżenia potrafi przeqć na biznesplan [szkoda, że do nich nie należę /: ].

jeśli popatrzeć się na rozwój TV to wyglądało to podobnie – najpierw było niewiele kanałów i wielkie WOW. potem, wraz z rozwojem technologii, zaczęło pojawiać się coraz więcej dystrybutorów, i za kanały trzeba było płacić oddzielnie a nierzadko qpować dodatkowe dekodery. technologia satelitarna otworzyła rynek bardziej globalnie. aż w końcu, pojawiły się tzw. ‚kablówki’ które agregują dostęp do wielu dystrybutorów w ramach pojedynczego abonamentu. zaczął się więc boom na dostawców – pamiętam, że jakieś 15 lat temu w niektórych miejscach Warszawy, można było przebierać w dostawcach TV niemal jak w samych kanałach. aż więksi zjedli mniejszych, i pozostało na rynq kilq największych graczy. oczywiście w przybliżeniu – wiadomo, że w skali mikro, jest wiele nisz, wypełnionych niszowymi firmami. ale trend jest widoczny i IMHO dokładnie to samo wkrótce stanie się z mediami VoD – zaczną powstawać abonamenty agregowane, oferujące w ramach pojedynczej opłaty dostęp do np. 5-6 różnych dostawców VoD. następnym krokiem będzie powstanie jakiś publicznych API pozwalających na przeszukanie bibliotek – bo w końcu każdemu dostawcy zależy na tym, żeby móc do niego dotrzeć, łatwiej dowiedzieć się ‚HEJ, TO CZEGO SZUKASZ OBEJRZYSZ U MNIE’. w tej chwili każdy sobie. czemu więc nie ma powstać darmowa aplikacja, która potrafi przeszukać, powiedzmy, 5o dostawców VoD, wyświetlić wyniki, z ceną za wypożyczenie? a dostawca apki odetnie sobie bilecik. następnym krokiem po searchu będzie ustandaryzowanie dostępu do samej zawartości, dzięki czemu będą mogły powstawać playery [czy też, co bardziej prawdopodobne – obecne systemy Media Center], w których wklepiemy tytuł, wybierzemy filtr – czy to program dokumentalny, film, serial … tak jak [LoL] dziś wygląda to dla np. torrentów. player będzie miał wbite informacje o karcie kredytowej, oraz wyqpionych abonamentach, wystarczy kliknąć zgodę na cenę jeśli źródło będzie poza tym, i można oglądać. na końcu, firmy takie netflix, HBO GO, czy wg. rankingów najpopularniejsze w Polsce VoD.pl, player.pl, cda.pl itd – będą po prostu właścicielami bibliotek, a nad tym będą firmy oferujące boundle w zunifikowany sposób – tak jak dziś operatorzy kablówek, czy SAT…

zabawne jest to, że te nielegalne źródła są o eony bardziej przyjazne użytkownikowi już dziś. są niekwestionowanym wzorem tego, jak powinno to działać. tymczasem czeka nas jeszcze jakiś czas ‚grzybów po deszczu’ i granulacji rynq, dziesiątki ‚atrakcyjnych ofert’ z własną apką, własnym pomysłem, własną płatnością… i własną biblioteką [tak jak np. już zapowiadane odłączenie się Disney i utworzenie własnej apki]. oby jak najkrócej.

eN.

 

foreach valuefrompipeline

*EDITED

mały tutorial o przetwarzaniu przekazywanych wartości, który może radykalnie zmienić czas przetwarzania skryptu. wiadomka – pipelining jest podstawowym mechanizmem PS a przy przetwarzaniu wielu elementów, czasem wręcz odruchowo, wpisuje się ‚%’ czyli foreach-object. przykładowo – znajdź wszystkich, którzy mają nazwisko na ‚x’ i wyślij im wiadomość:

a teraz standardowy scenariusz z życia codziennego: dostajemy jakieś listy w postaci pliqw tekstowych. załóżmy, że są w nim nazwy kont, z którymi coś trzeba zrobić. szkielet jest trywialny:

…mija czas i okazuje się, że nasze ‚do-something’ rozbudowaliśmy do postaci skryptu, ponieważ ilość wykonywanych czynności rośnie i oneliner jest zbyt mało wygodny. wartości można do skryptu przekazywać na dwa sposoby – bezpośrednio, jako parametr lub – tak jak powyżej – przez pipelining. druga metoda nie działa ‚od ręki’, wymaga włączenia poprzez specjalny parametr: ‚valueFromPipeline‚ [lub valueFromPipelineByPropertyName… ale to na inny wpis].

żeby pokazać co się będzie działo załóżmy, że mamy listę komputerów i operacja wymaga uwierzytelnienia się do zdalnego zasobu:

w takim przypadq, aby uruchomić skrypt dla całej listy, należy przekazać listę przez parametr:

polecenie w nawiasach ‚( )’ zostanie przetworzone, listing pliq zwraca tablicę stringów string[] i to zostanie przetworzone w skrypcie. jak na razie oczywiste oczywistości. nuda… ale zadanie nad którym pracujemy chcemy coraz bardziej automatyzować, cały proces do którego piszemy skrypty jest dość rozbudowany, a więc nasze skrypty muszą ze sobą gadać – output z jednego chcemy móc przekierować na kolejny. czyli trzeba włączyć pipelining:

jeśli przekażemy wartości przez parametr tak, jak do tej pory, to nic się nie zmieni. ale jeśli przekażemy przez pipe … coś nie halo:

..wyświetli tylko dla ostatniego elementu /: [zwróć uwagę, że skrypt ‚do-something’ wywołany jest bez parametru – valueFromPipeline oznacza ‚jeśli potok wyjściowy jest przekierowany, przekaż go do tej zmiennej oznaczonej valueFromPipeline’ ]

ah! no oczywiście! zapomnieliśmy foreach:

[tutaj już musi być parametr – $_ . a to dla tego, że nawiasy klamrowe ‚{ }’ definiują blok danych, separując potok od polecenia. niby niuans ale pokazuje, że totalnie zmienia się mechanika pod spodem]

hmm… no ale mamy kolejny problem – teraz skrypt przed każdym wywołaniem prosi o dane uwierzytelniające. lama poradzi sobie dodając parametr ‚credential’ i przekazując go podczas wywołania. ale to nie jest zawsze dobry sposób i dobrze wiedzieć czemu tak się dzieje. błąd został popełniony w momencie dodania ‚foreach’ (2). parametr ‚identities’ w skrypcie został sprytnie zadeklarowany jako tablica, a więc powinien tablicę przyjąć. ale dodając ‚foreach’, rozbijamy tablicę na poszczególne elementy i uruchamiamy skrypt wiele razy, przekazując każdą kolejną wartość jako parametr wywołania. a nie o to chodziło.

rozwiązaniem jest dodanie składni ‚begin-process-end’ do skryptu. standardowo skrypt czeka na pojedynczą wartość, po dodaniu tego bloq tworzy ‚pułapkę’ zawartą w bloq ‚process’, która będzie się uruchamiać dla każdego kolejnego elementu. co więcej, ‚process’ zostanie wykonany dla każdego przekazywanego elementu dokładnie tak, jak ‚foreach’, a więc można się pozbyć tego fragmentu:

teraz jeśli uruchomi się ‚do-sthelse | do-something’ – zostaniemy zapytanie o credsy tylko raz, po czym wykonana zostanie część ‚process’, a na koniec jednokrotnie wykona się klauzula ‚end’. wyrzucam ‚gwmi’ żeby pokazać przetwarzanie i zostawiam tylko write-host:

o to chodziło.

co zapamiętać

czym innym jest przekazanie tablicy a czym innym kolejne przekazywanie parametrów tablicy – czyli foreach. jeśli skrypt jest duży, to można dużo oszczędzić. dla tego przy pokaźnych operacjach warto zajrzeć do pomocy, opisu parametrów skryptu i sprawdzić czy deklaracja:

  • pozwala na przekazanie tablicy – np. [string[]]
  • pozwala na przekazanie przez pipe – valueFromPipeline

ponadto trzeba pamiętać, że ponieważ ‚valueFromPipeline’ jest pewnego rodzaju wskaźnikiem ‚TU PRZEKIERUJ WSZYSTKO CO WPADA’ – to może być zadeklarowane tylko raz. zadeklarowanie wielokrotnie nie spowoduje błędu składniowego, skrypt uruchomi się, ale wyniki będą mocno niedeterministyczne…

eN.

Azure Stack GA

cloud computing australia

kilka luźnych myśli…

po pierwsze Azure Stack jest w GA i od przyszłego miesiąca można już zamawiać . oczywiście na liście 46 krajów Polski nie ma. dla tych, którzy jeszcze o Azure Stack nic nie wiedzą – jest to rozwiązanie Appliance, które można wstawić do własnej serwerowni, i korzystać z niego jak z Azure.. .którym w zasadzie jest. odwrócenie starej idei, gdzie firmy dzierżawiły kawałek publicznego Data Center aby mieć je do własnego użytkq. tutaj odwrotnie – wstawia się zabawki dostawcy do własnej serwerowni. ale rozlicza się nadal tak, jak Azure – czyli nie jest to zastępstwo dla Azure Packa, czy dobrze wdrożonego System Center. pomysł zaiste ciekawy, niewątpliwie organizacje, które z powodów wydajnościowych czy bezpieczeństwa chcą mieć dane u siebie, mogą teraz udomowić kawałek Azure (:

pełnej funkcjonalności nie ma, a część funkcji zawsze będzie potrzebowała sięgnąć gdzieś na zewnątrz, ale wiele dodatkowych scenariuszy to otwiera.

najciekawszy art jaki znalazłem dot. dostępności Azure Stack jest analizą rynkową. zabawne jest, że po kilq latach całego zamieszania wokół chmury, nadal powinno się zaczynać od ‚swojej definicji’ chmury. w podlinkowanym arcie pada cytat, że według AWS ‚chmura’ oznacza zawsze i tylko ‚chmurę publiczną’, zastanawiały mnie też małe liczby stojące za przychodami Microsoft ‚z chmury’ co wyjaśniło się w arcie na CNBC, z którego wynika, że Office 365 jest chmurą .. .i nie jest równocześnie O_o . efekt jest taki, że pierwszy art zdaje pytanie czy MS będzie w stanie doścignąć niedościgniony AWS [wartość 14,6 mld USD], w drugim widać, że ‚jeśli liczyć chmurę MS [wartość 6,8 mld USD] razem z Office 365 to wartość będzie 15,2 mld USD’. huh.

podobnie się czułem na prezentacji Archona na  Sysops/Devops gdzie przez pierwsze pół godziny nie byłem pewien o czym mówi… a chodziło to, że moje rozumienie chmury – bardziej PaaS i SaaS, rozmija się z projektami, o których mówił, gdzie aplikacje są budowane bardziej IaaS+docker. to była dobra lekcja (:

podsumowując – mówisz o chmurze, zacznij od kontekstu, czyli co przez to rozumiesz.

a na koniec trochę o ‚Project Olympus‚. jakoś do tej pory nie miałem okazji się z tym zderzyć a temat ciekawy. i znów pokazuje jak to świat stanął na głowie… to jest Open Compute Project – open source’owy projekt architektury data center, gdzie MS jest jednym z największych [największym?] kontrybutorem. i podczas gdy AWS, cytując z podlinkowanego artu:

We run our own custom-made routers, made to our specifications, and we have our own protocol-development team. It was cost that caused us to head down our own path, and though there’s a big cost (improvement)… the biggest gain is in reliability.

…w tym czasie MS staje się coraz bardziej integralną częścią open sourcowego świata, zarówno na poziomie dostosowywania swoich produktów do otwartych standardów, samego kodu źródłowego Linux i wielu aplikacji działających na tej platformie, aż po otwarte standardy hardware.

jest ciekawie.

eN.