Tak wiem, słomiany zapał, zawracanie gitary i obiecywanie… fakt jest taki, że na prawdę chciałem przesiąść się biznesowo na linuxa… niestety Paweł z Twitter Networks miał rację – do pracy niestety tylko Windows się obecnie nadaje. Dlaczego? Jak wiecie prowadzę firmę handlującą sprzętem IT. Klienci maja u siebie różne środowiska. Sporo pracuję zarówno z VMWare, jak i z Hyper-V a nawet czasami się jakiś XEN trafi. Poczta albo jest hostowana wraz z domeną w kolokatorni i jest to jakiś prosty Postfix, albo jest to Exchange z wszystkimi ficzerami typu wspólny kalendarz, skrzynki drukarek, synchronizacja do *.ost czy choćby Active Sync. Niestety właśnie tu poległem na Linuxie. Przez ponad miesiąc pracowałem wyłącznie na Ubuntu i  udało mi się rozwiązać większość problemików jakie napotkałem. Niestety do pracy wybrałem serwer hosted Exchange z uwagi właśnie na rewelacyjnie działający kalendarz i Active Sync. Próżno szukać na linuxa apki która potrafi się z tym dogadać. Udało mi się nawet zainstalować i uruchomić pakiet Office 2010. Outlook się pięknie uruchomił, podłączyłem skrzynkę mailową, kalendarz się zassał i synchronizował… tylko search nie działał w ogóle. Po dłuższych poszukiwaniach okazało się że search w Outlook jest obsługiwany przez Windows Search… i tu podjąłem decyzję o powrocie do Windowsa.

Akurat tak się szczęśliwie złożyło, że odebrałem nowego laptopa więc nawet nie musiałem robić reinstalacji systemu, po prostu przeniosłem pliki i od nowa komplet instalacji.

Z tyłu głowy mam jednak pewną koncepcję. Zaczynam niebawem projekt w pewnej firmie i możliwe że będę budował lab w który chcę przetestować koncept firmy w 100% osadzonej na linuxach, wraz z domeną, własnymi samo aktualizującymi się DNSami, DHCP, serwerem mailowym oferującym autodiscover, odpowiednik Active Sync, pełną obsługę kalendarza wraz z udostępnianiem, do tego odpowiednik Sharepoint, fileserver z deduplikacją, oczywiście webserver, pełny backup (tu możliwe że użyję komercyjnego rozwiązania, choć zobaczymy)… taka utopia środowiska w firmie gdzie nie płaci się za licencje… ale najpierw muszę mieć do tego lab i trochę czasu, a jak wiadomo z czasem zawsze najgorzej.

Chwilę mnie tu nie było. Nawał pracy codziennej mnie dopadł i nie miałem kiedy tak naprawdę przygotować nowego systemu. W międzyczasie już prawie był gotowy wpis odnośnie Skype dla Linuxa, a tu dzisiaj Microsoft zaserwował update Skype for Linux i może się okazać że całość jest już mocno nieaktualna.

Dzisiaj postanowiłem odświeżyć nieco zainstalowane obok Windowsa Ubuntu i niestety zonk. Brak doświadczenia z tym systemem zmusza mnie do reinstalacji. Poprzednio po zainstalowaniu 16.04 w wersji beta miałem problem z managerem pakietów. Musiałem go z palca usuwać i instalować od nowa. Niby wszystko wyszło poprawnie ale po instalacji nowej aplikacji wyszukiwarka systemowa jej nie znajdowała. „Ot błąd użytkownika pewnie” – tak sobie pomyślałem i działałem dalej licząc że się douczę i samo się naprawi.

Niestety dzisiaj podczas instalowania update do ponad 80 pakietów dałem ciała przy konfiguracji GRUB (zapytał mnie podczas update czy chcę zainstalować update na partycjach, podał ładnie które, była też tam karta SD…  i były partycje z Linuxem i Windowsem… oczywiście jako noob linuxowy zaznaczyłem all co się dało i kliknąłem update. Finał jest taki, że Windows bez problemu odzyskałem, to samo dla zawartości karty SD, ale Linux się poszedł walić) i właśnie się ściąga stabilna wersja Ubuntu Desktop lts 16.04.1 którą zaraz będę instalował.

Dla kogoś kto ogarnia Linuxa pewnie wyda się to śmieszne ale pamiętam jak mając 15 lat instalowałem co miesiąc Windowsa XP bo „działał szybciej” i „lepiej gry chodziły”, a później jak już miałem dostęp do sieci pojawił się sasser i dopiero były jazdy. Fakt potrzeby reinstalacji systemu jest dla mnie czymś naturalnym i się absolutnie nie zrażam bo już się trochę nauczyłem i w przyszłości nie będzie to już dla mnie problematyczne.

Ta seria postów nie będzie o tym jak zamieniam swojego desktopa w maszynę linuxową – zbytnio lubię sobie czasami pograć żeby od razu wykonywać tak drastyczny krok.

Zamiast tego zacznę od swojego laptopa.

Maszynka jest leciwa, wyprodukowana w 2009 roku. Latitude E4300 z 4 GB RAM i dyskiem SSHD 500GB. Nic specjalnego. Dla Windows 7 był w sam raz, dla 10 za wolny i nie działa tak jak powinien… a jak będzie dla Linuxa?

Przede mną kilka dużych wyzwań, które poniżej wymienię:

  1. pocztę firmową mam postawioną na Exchange. Niby jest OWA i do maili mogę mieć dostęp z każdego miejsca gdzie mam internet, ale co z pozostałymi plikami PST? co z archiwum?
  2. niestety muszę czasami użyć Visio do stworzenia projektu dla klientów, czy uda się to na Linuxie?
  3. nowa powłoka. Zawsze używałem zwykłego CMD, czasami PowerShella, jak to rozgryźć na Linuxie? Z tego co widzę BASH znacząco się różni.
  4. wydajność na baterii – czy Linux nie jest bardziej żarłoczny i czy nie obciąża za bardzo maszyny?
  5. VPN. Jako lojalista Della wszystkim klientom polecam UTMy SonicWall i je wdrażam,  tylko czy jest Global VPN w wersji Linuxowej i czy działa tak samo?
  6. RDP – do zarządzania serwerami bez RDP się nie obejdzie – czy na linuxie da radę to zrobić i jak to działa w środowisku domenowym?
  7. Active Directory – jeszcze nie wdrożyłem produkcyjnie w firmie, także to pieśń przyszłości, ale jednak trzeba byc na to przygotowanym
  8. iSCSI Initiator – w Windowsie to banalne nawet na desktopie, ciekawe jak działa na linuxie
  9. Spotify – śmiejcie się, ale ja bez muzyki żyć nie mogę – zobaczymy jak zabangla
  10. kodeki – „gdzieś tam” w necie kiedyś czytałem że są problemy z linuxem i odtwarzaniem filmów spakowanych jakimiś kodekami, ciekawe czy to prawda i czy to jeszcze aktualne
  11. dostęp do udziałów SMB i FS – niby taka pierdoła, a jednak pliki by się przydało gdzieś mieć.
  12. BACKUP – ja już od dawna należę do ludzi którzy robią backup i mają go przynajmniej w 2 miejscach
  13. antywirus? – niby to linux i niby nie trzeba i niby mam w to uwierzyć?
  14. pakiet office – nie oszukujmy się open office ma braki i to spore – pytanie czy nauczę się z tym żyć. a moze da radę zainstalować office 2016 na Linuxie?
  15. szyfrowanie pendrive – Kingston DataTraveller Vault Privacy – jedyne miejsce gdzie mogę bezpiecznie trzymać zdjęcia swojego tyłka nie martwiąc się że ktoś je wykradnie- zadziała z pingwinem?
  16. modem LTE – niby taka pierdoła, a pomiędzy Win 7  a Win 10 przestał działać i sterów nie ma… że za stary niby – może jakimś magicznym sposobem Linux go zreanimuje
  17. GG i Skype – komounikatory niestety potrzebne w biznesie
  18. Integracja z OneDrive – tak wiem, dropbox… a moze ja nie chcę dropboxa bo mam telefon z Windows phone i wszystko leci na OneDrive? musi działać i już.
  19. manager haseł – czytałem że jest to fajne rozwiązanie – ja pamiętam jakieś 30-35 haseł do różnych portali, systemów etc. nigdy nie korzystałem z managera, może to będzie fajne rozwiązanie
  20. interface Linuxa – jak się w tym połapać.
  21. i na koniec – która dystrybucja – Debian, Ubuntu, Mint, Fedora?

O wrażeniach opowiem wkrótce

Nie wiem jak Was, ale mnie mocno ostatnimi czasy zaczął wnerwiać Microsoft z Windowsem 10. Na swoim gamingowym desktopie nieumyślnie kliknąłem w ten cholerny przycisk do instalacji 10 i się zaczęło. Problemy ze wszystkim, losowe zwisy, niekompatybilność, „coś” wysyłane codziennie „w świat, brak sterowników od Logitech F710 (gamepad pad – opowiem o tym innym razem) i te cholerne aktualizacje które na pałę się ładują wywalając cały system do góry nogami nawet jak jest w trybie pełnoekranowym.

Nie ujmując Microsoftowi – Windows 7 był po prostu dobry (no może po Service Packu ale jednak był) – nikt nie doczepiał się do działania systemu, nikt nie psioczył na menu start, nikt nie mógł powiedzieć że coś nie działało, sterowników była masa do wszystkiego, jak jeden Ci nie pasował to działał od innego producenta. Od zimnego startu uruchamiał się z dyskiem SSD poniżej 40 sekund, był przejrzysty i intuicyjny. Niestety zgodnie z niepisanym prawem „co druga  wersja produktu w Microsoft jest dobra” nastał kres systemu do pracy i zaczął się METRO interface Windows 8. Powodem zmiany niestety była zmiana prezesa w Microsofcie. Odszedł ze stanowiska Bill Gates i na jego miejsce wszedł Steve Ballmer – nie mówię że to zły manager, wprost przeciwnie, zauważył on kluczową rolę jaką ma pełnić system operacyjny na wielu urządzeniach i postanowił go zunifikować tak aby ten sam OS był zarówno na laptopach, jak i na telefonach a nawet serwerach. Dzięki takiemu patentowi aplikacje mogłyby być pisane na jeden system i działałyby wszędzie – piękna wizja, trochę trudna do spełnienia ale możliwa przy zaangażowaniu odpowiednich środków. No i o te środki poszło. Windows 8 okazał się bardzo innowacyjny – przebudowano ogromną część systemu, zniknęło kochane przez wszystkich menu start, przestały działać sterowniki do wielu urządzeń, aplikacje pisane pod WinXP działały albo i nie, słowem, drugi produkt = klapa. Tuż przed odejściem Ballmera ze stołka prezesa Microsoft została wypuszczona „odświeżona” wersja Windows o numerku 8.1. I znowu zrobiło się stabilnie, i znowu producenci sprzętu zaczęli pisać poprawne sterowniki i znowu wszytko zaczęło w miarę dobrze działać.

Aż nastał czas Satya Nadelli – nowy GM Microsoft ewidentnie jest zapatrzony w sukces firmy Apple i Facebooka i wzorem tych firm postanowił wymusić na użytkownikach przejście na nowy system który lekko rzecz ujmując kuleje. Odwiecznym problemem Microsoftu było instalowanie poprawek do systemu operacyjnego, które użytkownicy po prostu olewali. Powodowało to złe wypadanie w słupkach statystycznych na temat bezpieczeństwa systemów Microsoftu. Pomysł genialny w swojej prostocie „zabierzmy użytkownikom możliwość olania aktualizacji i instalujmy je na siłę”. Cudownie, na prawdę cudownie. Debilątko które to wymyśliło ewidentnie nie ma pojęcia o tym jakie konsekwencje dla użytkowników ma takie rozwiązanie. Małą furtką jest tutaj możliwość przesunięcia w czasie aktualizacji dla wersji PRO i ENT, ale umówmy się często kupuje się do prostych rozwiązań najtańszy sprzęt, bo taki jest akurat potrzebny. Weźmy na przykład taką sytuację – desktop z zainstalowanym Windowsem 10 home pracuje w hali walcowania stali jako maszyna operująca taśmociągami. Ma w środku wsadzone 4 karty po 2 porty COM które operują silnikami na taśmociągach – wbrew pozorom często ma miejsce taka sytuacja. Komputer jest podłączony do sieci lokalnej skąd dostaje wytyczne co i jak. Microsoft wypuszcza łatkę która coś zmienia w okolicy kernela. Admin odsuwa aktualziację ile się da bo wie że nie może sobie pozwolić na to żeby maszyny stanęły. I co się dzieje? Admin w weekend przesadza z alko i nie ma go w robocie 1 dzień. Aktualizacje poszły i po restarcie pozmieniały się numery COM. Fabryka stoi, straty liczone w grubych tysiącach. Albo inny przykład z życia. Odpalasz kompa, odpalasz Diablo 3, expisz kilka minut, wypada jakiś rzadki przedmiot i nagle bluescreen zanim go podniosłeś. Na bluescreen „memory exception” albo „system kernel request” albo jakieś inne gówno które nic nie mówi. Po 20 minutach diagnozy zauważasz w logach „nowe aktualizacje zostały zainstalowane” i to spowodowało bluescreena. Jak pierwszy raz mi się coś takiego zdażyło to założyłem sprawę na supporcie Microsoftu – wiecie co mi odpowiedzieli? Że to z pewnością jest wina sprzętu i mam uszkodzony, bo nie ma żadnych przesłanek wskazujących na system operacyjny. Genialne prawda? Żal.

No więc tego. Okazało się że do pracy Win 10 też się nie za bardzo nadaje. Aktualizacje pakują się na siłę, zazwyczaj w najmniej odpowiednich momentach, wcale tak mało zasobów nie zżera, to jeszcze ilość syfu jaka jest w tle odpalana przechodzi ludzkie pojęcie. Weźmy przykład: nie zapisywałem się do żadnego programu niejawnych testów, w tle proces odpowiedzialny za niejawne testy systemu – 50MB RAM, kilka % CPU, widoczna zajętość dysku i coś wysyłane przez sieć. Nosz qrna, coś nie teges. Może wirus jakiś? Szukam w necie i okazuje się że to normalne i że podpisywałem w umowie że się zgadzam na wysyłanie danych „statystycznych”. BRAWO – jak tak robią to życzę powodzenia. Ja się powoli wypisuje.

 

I tu zrodził się pomysł – przesiadka się na linuxa. Wyzwań jest na prawdę sporo,  ale o tym w następnych postach

Mędrcy z Microsoft powiadają że licencjonowanie ich produktów jest proste – to tylko kilka stron które należy przeczytać i zrozumieć.

 

Jaaasne

 

Ktokolwiek próbował kiedyś ogarnąć licencjonowanie wie że jest to odpowiednik rocket science w świecie IT.

Weźmy na przykład podstawową licencję Windows Server Standard OEM.

Niby nic takiego – po prostu system serwerowy.

Czytając materiały na stronie Microsoft można się dowiedzieć że w ramach licencji możemy stworzyć 2 dodatkowe systemy wirtualne z systemami Windows Server Standard i używać ich w produkcji.

Super – stawiamy fizyczny serwer, na nim tworzymy domenę, DNS, DHCP i dodajemy rolę wirtualizatora Hyper-V aby stworzyć te nasze 2 maszyny wirtualne na bazy danych/CRM i powiedzmy Exchange. Po paru miesiącach przyjeżdżają smutni panowie w garniturach i próbują nam wmówić że mamy nielegalny system i dodatkowo wlepiają nam mandat… i mają rację.

Nigdy nie wierzcie w marketing, ani handlowcom, co więcej nie wierzcie nawet w infolinię producenta oprogramowania która może wam powiedzieć wszystko co chce i nie jest to dla nich zobowiązujące – nawet mailowe potwierdzenie od kogoś z wewnątrz Microsoftu jest niczym w przypadku kontroli oprogramowania w firmie. Jedynym dokumentem który się liczy jest EULA do danego produktu. A EULA do systemu Windows Server 2012 /R2 OEM mówi o tym że użytkownik ma prawo w ramach 1 licencji systemu operacyjnego do 2 w pełni funkcjonalnych instancji.

W tłumaczeniu na nasze oznacza to że na maszynie fizycznej możemy zainstalować 2 maszyny wirtualne z pełną funkcjonalnością systemu Windows Server Standard, a na maszynie fizycznej tylko wirtualizator bez żadnej roli / funkcji czy aplikacji typu SQL, albo na serwerze fizycznym stawiamy system + domena + dns + cokolwiek i tylko 1 maszynę wirtualną na której uruchamiamy dowolną rolę / aplikację.

Skomplikowane?

Nieee jeszcze nie :) naprawdę komplikuje tutaj słowo OEM w nazwie – co tak na prawdę oznacza OEM poza Oryginal Equipment Manufacturer ? i poza tym że jest tańszą licencją od kupowanej osobno? Z założenia OEM jest licencją sprzedawaną wyłącznie z nowymi maszynami, nie może być sprzedawana do sprzętu który już pracuje w produkcji, jest przypisana do maszyny fizycznej i nie może być przenoszona.

W praktyce kupując OEMa należy pamiętać, że po okresie użytkowania odsprzedając sprzęt osoba która go od nas kupuje nie ma legalnej licencji na system operacyjny – prawo do używania oprogramowania OEM ma tylko pierwszy nabywca. Kupując używanego laptopa z systemem OEM tak na prawdę kupujemy sam sprzęt bez licencji na system, choć sprzedawca wciska nam naklejkę i płytę z systemem. To samo z systemami po leasingowymi – licencja OEM się nie przenosi. Microsoft poszedł tu na rękę sprzedawcom wypuszczając specjalną licencję dla swoich partnerów zajmujących się sprzedażą sprzętu po leasingowego – tzw. MARy (skrót od Microsoft Authorised Refubrisher) – jest to licencja tańsza od pełnego nowego systemu, ale ma ograniczenia. Może być sprzedawana tylko przez partnerów MAR wyłącznie z maszynami które są fabrycznie refubrished lub po leasingowymi i nie może być przenoszona (tak jak OEM).

Hyper-V zawarte w systemach Windows Server pozwala dodatkowo na nielimitowaną ilość maszyn wirtualnych (no może tak nie do końca bo jest ogólny limit na ilość maszyn, ale licencyjne nie jest to ograniczone) z systemami na które mamy licencję, możemy zatem bez limitu zainstalować systemów Linux / Unix i nie musimy kupować na nie dodatkowych licencji.

 

Ciekawostką od Microsoftu jest darmowa wersja systemu Winsows Hyper-V Server. Jest to tak naprawdę okrojona wersja systemu serwerowego w którym nie ma środowiska graficznego, domyślnie jest uruchomiona rola Hyper-V i nie ma możliwości doinstalowania żadnej innej roli systemu. System ten pozwala na utworzenie klastra HA i wirtualizację.

Licencyjnie mamy tylko uprawnienia do zrobienia darmowego klastra i zarządzanie nim z innego systemu operacyjnego. Nie są przewidziane żadne darmowe instancje wirtualne, nie ma też wsparcia technicznego. Są natomiast aktualizacje i funkcjonalność klastra HA, nie ma też limitu na ilość maszyn wirtualnych.

Odnośnie darmowego klastra od Microsoftu będę go dokładnie testował w przyszłości o czym z pewnością powstanie wpis.

Shit happens – to co opiszę poniżej zdarzyło się naprawdę. Opiszę Wam całą sytuację i podam rozwiązanie – mi dojście do tego zajęło ponad 3 godziny…

Wyobraźcie sobie środowisko VMWare klienta z kilkoma serwerami w klastrze, środowiskiem VDI, kilkoma wirtualnymi Windowsami i pojedynczym kontrolerem domeny w maszynie wirtualnej na którym jest DNS, DHCP i Print Server.

Wyobraźcie sobie ponadto, że ta wirtualka ma 1 interface sieciowy.

Wyobraźcie sobie, że przez przypadek wyłączacie jedyny interface sieciowy w tej maszynie wirtualnej  – co się dzieje?

Oczywiście sesja RDP od razu przerwana, Print Server przestaje odpowiadać, nikt nie dostaje już adresów IP, próba wejścia na jakąkolwiek stronę kończy się fiaskiem i ogólnie w firmie przestaje działać autentykacja… czyli czarny sen admina w pełnej krasie. Użytkownicy dzwonią cały czas, zaczynają się procesje w imieniu „internet nie działa” oraz „nie mogę się zalogować” ogólna panika i w ogóle armageddon.

W takich chwilach najważniejsze to nie stracić zimnej krwi, zrobić plan działania i go po kolei realizować. Pierwszym krokiem było włączenie interface sieciowego (co od razu powinno naprawić problem). Aby to zrobić trzeba zalogować się do serwera z uprawnieniami admina. No to startujemy vSphere i próbujemy zalogować na konto domenowe (w końcu serwer jest kontrolerem AD) – „Unknown user od bad password” co się okazało – konfiguracja DNS była tak zrobiona, że słuchał tylko na 1 adresie IP i bez niego rola ADDS nie mgła się dogadać z DNS i się wyłączała… słodko… no ale nic, jak nie ma komunikacji z IP to dajmy mu nowa sieciówkę to sobie z DHCP zrobi adres i będziemy mogli wejść na maszynę. Dodałem interface sieciowy z poziomu VMWare, reboot… no tak, DHCP też przypięty do głównego IP serwera. Podnieść interface można jeszcze jako admin lokalny… z poziomu strony logowania  to samo „Unknown user od bad password”, tryb awaryjny to samo. Serwer głuchy jak pień. W tym momencie klient w końcu powiedział że maja polityke w domenie która wyłącza konta lokalne zostawiając tylko domenowe. Mamy więc światełko w tunelu. na szybko ściągnąłem Hirens Boot DVD i narzędziem do ściągania haseł odblokowałem konto admina lokalnego, zresetowałem mu hasło i reboot – od razu do trybu awaryjnego. Wpisuję log i pass… „Unknown user od bad password” no żesz… polityki domeny na kontrolerze domeny ładują się zawsze przed ekranem logowania. Ostatnią rzeczą jaka wpadła mi do głowy były ręczne zmiany w rejestrach systemu (w końcu tam są w Windowsach trzymane informacje o kartach sieciowych). Przekopanie TechNetu i przypadkiem znalazłem coś fajniejszego. Okazało się że istnieje sposób na uruchomienie CMD jako Local System bez logowania do systemu operacyjnego – tego mi było trzeba. Robi się to w banalny sposób

1) odpalamy system z płyty instalacyjnej Windows Server i logujemy do recovery console, albo odpalamy system z jakiejkolwiek dystrybucji Linuxa typu LiveCD, albo z czegokolwiek co da nam dostęp do partycji C:\ systemu serwera

2) robimy duplikat c:\windows\system32\sethc.exe

copy c:\windows\system32\sethc.exe c:\windows\system32\sethc.exe.bac

3) podmieniamy sethc.exe na cmd.exe

copy c:\windows\system32\cmd.exe c:\windows\systme32\sethc.exe

4) restart, odpalenie normalne systemu operacyjnego i na ekranie logowania 5x wciskamy klawisz SHIFT

Na ekranie wyskoczy znajome czarne okienko CMD z tego poziomu można zresetować hasło, włączyć bądź wyłączyć konta i wszystkie inne rzeczy jako Local System. Nie można natomiast nic co wymaga uprawnień domeny – nie można uruchomić nic z MMC, wymusić zmian w domenie itp. Dla przykładu aby zmienić hasło trzeba wydać polecenie „net user *NAZWA UŻYTKOWNIKA* *NOWE HASŁO*”  oczywiście zmieniając login i hasło na takie jakie chcecie. zmiana konta administratora oczywiście w moim przypadku nie zadziałała bo do konta lokalnego nie da się zalogować bo go domena wycięła, natomiast konto domenowego admina jest niedostępne z powodu braku karty sieciowej po której domena mogłaby się sama z sobą dogadać. Trzeba włączyć kartę sieciową. IPCONFIG /ALL nie dał mi absolutnie żadnej odpowiedzi bo pokazuje tylko włączone karty sieciowe… MMC nie działa więc serwer managera nie da się odpalić, Device manager wymaga logowania… masakra. Z pomocą przyszedł najlepszy interface tekstowy którego nikt nie używa WMIC  – czyli rozszerzenie CMD o komendy WMI.

1) najpierw trzeba zdobyć ID karty sieciowej która jest wyłączona. Składnia WMI aby to zrobić to:

wmic nic get name, index

2) namierzamy ID naszego padniętego interface (przyjmijmy, że będzie to 10), aby go włączyć wydajemy komendę:

wmic path win32_networkadapter where index=10 call enable

Po 10 sekundach można zorientować się, że problem z głowy – sieciówka wstała, DNS odpowiada, VDI zaczynają się logować, drukarki dostają ze spoolera zaległe prace, telefon przestał dzwonić i w końcu można się normalnie zalogować.

Wnioski z całej sprawy są dla mnie oczywiste

1) nigdy więcej DHCP, DNS i AD na 1 serwerze… nigdy

2) wyłączenie z domeny na serwerach konta lokalnego admina jest złym pomysłem

3)  jak masz lagi w sesji RDP to nie klikaj zbyt szybko ;)

4) sethc.exe to nic innego jak „Set High Contrast” z ułatwień dostępu  :)

 

Pozdrawiam

Jacek

 

Nowy rok, nowy projekt, nowe wyzwania i możliwości… eee ten, tego… rok owszem nowy, projekt też nowy ale wyzwania i możliwości już kurzem pokryte ;) no nic trzeba zakasać rękawy i wziąć się do roboty.

Z projektem bloga zwlekałem jakiś czas, sam zresztą nie wiem dlaczego, przecież co dzień korzystam z mnóstwa aplikacji i rozwiązań różnych producentów i mam do nich dostęp – warto się tym podzielić ze znajomymi i światem, może komuś pomogę, może rzucę trochę światła na jakiś temat, a może po prostu ktoś znajdzie tu małe miejsce w internecie gdzie nie ma kotów, Royal Baby i TU-154?

W planach na ten rok mam sporo testów sprzętu w tym macierzy Dell Equallogic, Fujitsu Ethernus, EMC VNX, serwery, NASy, switche LAN i SAN i kilka routerów. Do tego będę chciał Wam pokazać jak się klastruje w wykonaniu Microsoft i VMWare i że to wcale nie jest takie straszne, pokażę Wam jak się konfiguruje kilka usług nowego Windows Server, pobawimy się systemami do zarządzania, nowym Officem, wdrożymy Exchange, może hybrydowo z Office 365, z pewnością pokażę Wam czym się różni zwykły program antywirusowy od wersji „z konsolą administracyjną”,  do tego sporo o backupie i licencjonowaniu, żeby nie było mało chcę Wam opowiedzieć jak na prawdę działa spanning tree, DNS, DHCP i kilka innych protokołów, czym się różni LAN od SAN, może coś o warstwach OSI… jest o czym pisać i z pewnością tematy zawsze się znajdą, żeby tylko czasu starczyło na wszystko.

aaa… bym zapomniał – Wszystkiego najlepszego w nowym roku!

Jacek Włodarczyk