SlideShare a Scribd company logo
1 of 15
Download to read offline
IDZ DO
         PRZYK£ADOWY ROZDZIA£

                           SPIS TRE CI   Zarz¹dzanie przechowywaniem
                                         danych w sieci
           KATALOG KSI¥¯EK               Autor: Jon William Toigo
                                         T³umaczenie: Wojciech Federowicz (rozdz. 9 – 11), Danuta
                      KATALOG ONLINE     Ochman (rozdz. 4 – 5), Grzegorz Werner (rozdz. 1 – 3, 6 – 8, dod. A)
                                         ISBN: 83-7361-457-5
       ZAMÓW DRUKOWANY KATALOG           Tytu³ orygina³u: The Holy Grail of Network Storage Management
                                         Format: B5, stron: 264

              TWÓJ KOSZYK
                    DODAJ DO KOSZYKA      W wielu organizacjach wydatki zwi¹zane z przechowywaniem danych to znaczna czê æ
                                         bud¿etu przeznaczonego na informatykê. Sytuacji tej nie zmienia ci¹g³y spadek cen
                                         no ników. Co wiêc jest tego powodem? W wiêkszo ci przypadków brak odpowiednich
         CENNIK I INFORMACJE             narzêdzi lub umiejêtno ci w ród personelu, bezkrytyczna wiara w slogany reklamowe
                                         producentów pamiêci masowych i ograniczenia stawiane przez wspó³czesn¹
                   ZAMÓW INFORMACJE      technologiê. Prawdziwa infrastruktura pamiêciowa — zdefiniowana przez odpowiedni
                     O NOWO CIACH        sposób zarz¹dzania i dzia³ania — w wiêkszo ci firm i organizacji nadal pozostaje
                                         nieosi¹galnym idea³em.
                       ZAMÓW CENNIK      Lektura ksi¹¿ki „Zarz¹dzanie przechowywaniem danych w sieci” pozwoli Ci unikn¹æ
                                         wielu b³êdów powstaj¹cych podczas projektowania i wykorzystywania infrastruktury
                                         pamiêciowej dla organizacji. Znajdziesz w niej obiektywny i interesuj¹cy przegl¹d
                 CZYTELNIA               wspó³czesnych technologii, mo¿liwo ci ich wykorzystania przedstawione z punktu
                                         widzenia u¿ytkownika oraz wskazówki pozwalaj¹ce rozwi¹zaæ dwa najistotniejsze
          FRAGMENTY KSI¥¯EK ONLINE       zagadnienia zwi¹zane z pamiêciami masowymi — dostarczanie pamiêci aplikacjom oraz
                                         ochronê danych przed uszkodzeniem lub utrat¹. Dziêki ksi¹¿ce nauczysz siê oceniaæ
                                         oferowane produkty i wybieraæ tylko te, które przynosz¹ faktyczne korzy ci.
                                         Dowiesz siê, jak uzyskaæ maksymaln¹ wydajno æ pamiêci masowej przy minimalnych
                                         nak³adach finansowych.
                                            • Mit eksplozji danych
                                            • Sieci Fibre Channel
                                            • Technologia IP SAN
                                            • Dobór optymalnej infrastruktury pamiêci masowej
                                            • Sposoby zarz¹dzania pamiêci¹ masow¹
                                            • Zabezpieczanie danych przed utrat¹ i uszkodzeniem
Wydawnictwo Helion                       Je li chcesz zaprojektowaæ efektywn¹, zarówno pod wzglêdem wydajno ci, jak
ul. Chopina 6                            i kosztów, infrastrukturê pamiêci masowej i potrzebujesz przy tym kompetentnej
44-100 Gliwice                           porady — wybierz tê ksi¹¿kê.
tel. (32)230-98-63
e-mail: helion@helion.pl
Spis treści
                Wstęp ............................................................................................... 5
Rozdział 1. Wprowadzenie ................................................................................... 9
                Teoria spisku ..................................................................................................................... 9
                Bran a pamięci masowej: lęk przed standardami i upowszechnieniem........................... 11
                   Kolejny powód do obaw: dominujący gracz ............................................................. 14
                Droga do unifikacji?........................................................................................................ 16
                Wczorajszy dystrybutor, jutrzejszy konkurent ................................................................ 18
                O czym jest ta ksią ka? ................................................................................................... 20
Rozdział 2. Eksplozja danych i sprawy dysku ...................................................... 21
                Mit eksplozji danych ....................................................................................................... 21
                Dekonstrukcja mitu eksplozji danych.............................................................................. 24
                Sieciowa pamięć masowa — fakty i fikcja...................................................................... 27
                Od ewolucji do rewolucji: mit sieci pamięci masowej Fibre Channel............................. 30
Rozdział 3. Oksymoron XXI wieku: sieci pamięci masowej Fibre Channel ............ 33
                Sieci SAN i efektywność przydziału pojemności ............................................................ 35
                Słowo na „w” .................................................................................................................. 37
                Efektywne wykorzystanie pojemności: kolejny Graal..................................................... 39
                A co z zarządzaniem?...................................................................................................... 40
                Wnioski ........................................................................................................................... 45
Rozdział 4. IP SAN — czy rozsądne? .................................................................. 47
                IP SAN i prawo Metcalfa ................................................................................................ 49
                iSCSI: co, gdzie i kiedy? ................................................................................................. 52
                Dlaczego IP SAN?........................................................................................................... 54
                Wnioski ........................................................................................................................... 56
Rozdział 5. W poszukiwaniu sieciowej pamięci masowej:
            wszystkie drogi prowadzą do Rzymu ................................................. 57
                Sieciowa pamięć masowa — zagadka Zen...................................................................... 57
                Blok i plik........................................................................................................................ 60
                Hybrydy NAS/SAN......................................................................................................... 65
                Wnioski ........................................................................................................................... 68
Rozdział 6. Bardziej „inteligentne” platformy pamięci masowej ........................... 69
                Korzyści zapewniane przez infrastrukturę pamięciową................................................... 70
                Bariery wzrostu pojemności dysku i ich wpływ na wybór platformy.............................. 72
                Materiały nośne ............................................................................................................... 76
                Pojemność a wydajność i inne realia ekonomiczne ......................................................... 78
4                                                                       Zarządzanie przechowywaniem danych w sieci


                Realia ekonomiczne ........................................................................................................ 79
                Z powrotem do architektury ............................................................................................ 80
                Kryteria wyboru dysków i macierzy................................................................................ 89
                „Inteligencja” pamięci masowej zaczyna się od świadomego
                  i pragmatycznego wyboru urządzeń.............................................................................. 94
Rozdział 7. Wirtualizacja: nadal brzydkie słowo?................................................. 95
                Krótki przegląd wirtualizacji w technologii informatycznej............................................ 96
                Sieci SAN i wirtualizacja ................................................................................................ 97
                Wirtualizacja oparta na oprogramowaniu w hoście......................................................... 99
                Wirtualizacja wewnątrzpasmowa .................................................................................. 101
                Wirtualizacja zewnątrzpasmowa ................................................................................... 105
                Wirtualizacja oparta na kontrolerze macierzy ............................................................... 106
                Czy przełączniki będą nową platformą wirtualizacyjną?............................................... 107
                Powrót do rzeczywistości .............................................................................................. 109
Rozdział 8. Jak uzyskać prawdziwe korzyści z pamięci masowej?...................... 113
                Co to jest efektywne wykorzystanie pojemności? ......................................................... 114
                Hierarchiczne zarządzanie pamięcią.............................................................................. 116
                Krótki przegląd architektury zarządzania pamięcią masową ......................................... 119
                Zarządzanie skupione na produkcie............................................................................... 119
                Zarządzanie skupione na infrastrukturze
                 albo zarządzanie zasobami pamięciowymi (SRM) ..................................................... 120
                Zarządzanie skupione na aplikacji................................................................................. 122
                Zarządzanie pamięcią masową skupione na danych...................................................... 125
                To nie spekulacje........................................................................................................... 128
                W oczekiwaniu na zarządzanie skupione na danych ..................................................... 129
Rozdział 9. Ostatnie słowo: taśma umarła… prawdopodobnie ........................... 133
                Ochrona danych............................................................................................................. 136
                Kopia zapasowa a kopia lustrzana................................................................................. 137
                Taśma nie jest lekiem na wszystko................................................................................ 141
                Kopia lustrzana to nie „srebrny pocisk” ........................................................................ 145
                Istnieją skuteczniejsze metody tworzenia kopii zapasowych ........................................ 149
                Ograniczanie czasu tworzenia kopii zapasowej............................................................. 151
                DDT: nie pestycyd, ale zupełnie inne DDT................................................................... 151
                Szybsze odzyskiwanie danych....................................................................................... 155
                Wnioski ......................................................................................................................... 161
Rozdział 10. Oko cyklonu .................................................................................. 163
                Bezpieczeństwo pamięci masowej ................................................................................ 165
                ABC systemu zabezpieczeń .......................................................................................... 168
                Co zapewnia większe bezpieczeństwo: IP czy Fibre Channel? ..................................... 173
                Najnowsze technologie.................................................................................................. 178
                Szyfrowanie danych w pamięci masowej...................................................................... 179
                Inne pomysły na zabezpieczanie pamięci masowej ....................................................... 183
                Wnioski ......................................................................................................................... 184
Rozdział 11. Podsumowanie: w poszukiwaniu doskonałości ................................ 187
                Jakieś rozwiązanie musi się przecie znaleźć ................................................................ 191
                Profesjonalizm, pragmatyzm i konsumpcjonizm........................................................... 196
                Co mo na zrobić?.......................................................................................................... 199
                Słowniczek .................................................................................... 201
                Skorowidz...................................................................................... 249
Rozdział 2.
Eksplozja danych
i sprawy dysku
   Przeczytaj dowolne opracowanie poświęcone pamięci masowej — broszurę produ-
   centa, referat analityka, felieton eksperta albo artykuł w prasie bran owej — a praw-
   dopodobnie znajdziesz w nim pewien wcią powracający motyw: twierdzenie o bez-
   przykładnym tempie przyrostu danych. Zjawisko to zwykło się określać popularnym
   mianem „eksplozji danych”.

   Wokół tempa przyrostu danych i jego związku ze strategicznym planowaniem pamię-
   ci masowej oraz zakupami sieciowych technologii pamięciowych urosło wiele mitów.
   Ich propagatorzy twierdzą, e objętość danych podwaja się mniej więcej co rok i e
   właśnie wskutek tego mened erowie IT z całego świata stawiają na sieci pamięci ma-
   sowej (ang. storage area network, SAN).

   Zwolennicy tego poglądu — przede wszystkim producenci urządzeń Fibre Channel
   SAN — starają się uczynić mit eksplozji danych czymś oczywistym, nie poddawa-
   nym dyskusji. Zgodnie ze znanym powszechnie powiedzeniem, często powtarzane
   kłamstwo staje się prawdą. Jak się zdaje, producenci urządzeń FC SAN wychodzą
   z tego zało enia, kiedy próbują dowieść przydatności swoich produktów.

   W tym rozdziale zmierzymy się z mitami i rzeczywistością przyrostu danych w kon-
   tekście sieciowej pamięci masowej. Mamy nadzieję, e pomo e Ci to zachować więk-
   szy krytycyzm, kiedy będziesz przeglądał oferty i oceniał produkty zalecane przez
   wytwórców, analityków i inne źródła informacji w bran y pamięci masowej.



Mit eksplozji danych
   Mniej więcej w tym samym czasie, kiedy opublikowano ksią kę The Holy Grail of
   Data Storage Management (czyli na przełomie roku 1999 i 2000), analitycy właśnie
   zaczynali występować na konferencjach bran owych z dobrze dziś znanym twierdzeniem
22                                                  Zarządzanie przechowywaniem danych w sieci


             o eksplozji danych, która zagra a współczesnym organizacjom biznesowym. Argu-
             mentowali, e we wszystkich organizacjach tempo przyrostu danych jest przewidy-
             walne i wykładnicze. Według opinii ró nych analityków, objętość danych generowa-
             nych przez współczesne firmy miała rosnąć w średnim tempie od 60 do 120 procent
             rocznie.

             Tezy te w pewnym stopniu uwiarygodniło wybiórcze odczytanie sporządzonego na
             Uniwersytecie Kalifornijskim w Berkeley raportu, który — co warto zaznaczyć —
             był sponsorowany przez czołowego producenta z bran y pamięci masowej. Wyniki
             badań wskazywały, e całkowita objętość informacji cyfrowych utworzonych do roku
             2000 podwoi się w roku 20021. Badacze twierdzili, e do końca tysiąclecia wygene-
             rowano mniej więcej 2 eksabajty (1018 bajtów) danych elektronicznych (zobacz tabela
             2.1) i e nale y oczekiwać podwojenia tej objętości do 2002 roku.

Tabela 2.1. Szacunkowa objętość danych cyfrowych w 2000 roku według raportu opracowanego
na Uniwersytecie Kalifornijskim w Berkeley
                                                                                               Tempo
    Nośnik                                      Terabajty/rok,   Terabajty/rok,
                        Typ zawartości                                                      przyrostu
    pamięciowy                                   górna granica    dolna granica
                                                                                      (w procentach)
    Papier              Ksią ki                             8                  1                   2
                        Gazety                             25                  2                   -2
                        Czasopisma                         12                  1                   2
                        Dokumenty biurowe                 195                 19                   2
                        Suma częściowa:                   240                 23                   2
    Błona filmowa       Fotografie                    410 000             41 000                   5
                        Filmy                              16                 16                   3
                        Zdjęcia rentgenowskie           17 200            17 200                   2
                        Suma częściowa:               427 216             58 216                   4
    Nośniki optyczne    Muzyczne dyski CD                  58                  6                   3
                        Dyski CD z danymi                   3                  3                   2
                        Dyski DVD                          22                 22                 100
                        Suma częściowa:                    83                 31                  70
    Nośniki             Taśmy wideo                   300 000            300 000                   5
    magnetyczne         Dyski twarde w                766 000              7 660                 100
                        komputerach PC
                        Serwery wydziałowe            460 000            161 000                 100
                        Serwery korporacyjne          167 000            108 550                 100
                        Suma częściowa:              1 693 000           577 210                  55
    SUMA:                                            2 120 539           635 480                  50



1
    Lyman, Peter i Hal R. Varian, „How Much Information”, 2000. Pobrano spod adresu
    http://www.sims.berkeley.edu/how-much-info 18 sierpnia 2002 roku.
Rozdział 2. ♦ Eksplozja danych i sprawy dysku                                           23


        W bran y pamięci masowej badania te okrzyknięto naukowym potwierdzeniem tezy
        o eksplozji danych. Producenci uchwycili się „empirycznych dowodów” przedstawio-
        nych w raporcie, ale zignorowali fakt, e badacze ostro nie zastrzegli swoje wnioski
        i podali dolny próg szacowanej objętości danych, stanowiący zaledwie jedną czwartą
        górnego progu. Pominęli te milczeniem inne odkrycie profesorów z Berkeley — e
        większość nowych danych nie jest generowana przez organizacje i przechowywana
        w korporacyjnych podsystemach pamięci masowej. Zalew danych cyfrowych był
        przede wszystkim dziełem osób prywatnych, które w akcie „demokratyzacji danych”
        zapisywały zdjęcia z aparatów cyfrowych, filmy wideo w formatach AVI i MPEG,
        ksią ki elektroniczne oraz pocztę e-mail na dyskach swoich komputerów osobistych.

        Producenci uzasadnili więc swoją tezę o eksplozji danych dość wybiórczą lekturą ra-
        portu z Berkeley. Mit ten wykorzystano zresztą szybko do innego celu: miał on wyja-
        śniać, czemu sieciowe technologie pamięciowe — zwłaszcza SAN — są niezbędne
        dla przedsiębiorstw. Jak twierdzili producenci, jedynym sposobem ekonomicznego
        rozwiązania problemu skalowalności (wywołanego eksplozją danych) miała być kon-
        solidacja i centralizacja danych cyfrowych w sieci pamięci masowej.

        Kluczowym argumentem producentów było to, e sieć SAN pozwala przezwycię yć
        ograniczenia topologii pamięci masowej, która obecnie dominuje na rynku: pamięci
        podłączonej do serwera (ang. server-attached storage, SAS). Ró nice między SAS
        i SAN przedstawiono na rysunku 2.1.

Rysunek 2.1.
Topologie SAN i SAS




        W przypadku pamięci podłączonej do serwera (czasem nazywanej pamięcią podłą-
        czoną bezpośrednio — ang. direct-attached storage, DAS) zwiększenie pojemności
        platformy pamięciowej wymaga dodania dysków do macierzy podłączonej do hosta
        z aplikacją. W tym celu trzeba najpierw zamknąć aplikacje działające na serwerze
        i wyłączyć sam serwer. Następnie mo emy ju rozbudować macierz pamięciową
        o dodatkowe dyski; kiedy to zrobimy, ponownie włączamy serwer, uruchamiamy jego
        system operacyjny i rejestrujemy w systemie woluminy rozbudowanej macierzy.
24                                                 Zarządzanie przechowywaniem danych w sieci


           Producenci argumentowali, e skalowanie pamięci SAS w opisany wy ej sposób po-
           woduje wiele kosztownych przestojów. Co gorsza, ze względu na eksplozję danych
           przestoje takie będą coraz częstsze i dłu sze. Potrzebna jest więc alternatywna, „bez-
           zakłóceniowa” metoda skalowania pamięci masowej.

           Według producentów taką alternatywą miały być sieci Fibre Channel SAN. W sie-
           ciach tych rozmiar woluminu pamięci mo na zwiększać bez restartowania serwera,
           poniewa pamięć i serwery są w tym przypadku rozdzielone. Wystarczy dodać więcej
           dysków do woluminu SAN — nawet wtedy, kiedy przetwarza on ądania odczytu
           i zapisu przesyłane przez serwery — eby systemy operacyjne serwerów aplikacji
           oraz działające w nich aplikacje w „magiczny” sposób „dostrzegły” dodatkową pamięć
           i zaczęły z niej korzystać.

           Oczywiście, skalowanie woluminów w sieci FC SAN nie przebiega a tak gładko,
           o czym będziemy mówić w dalszej części ksią ki. Na razie zadowolimy się stwier-
           dzeniem producentów, e dzięki dynamicznie skalowanym woluminom pamięcio-
           wym sieci SAN stanowią technologię infrastrukturalną, bez której nie jest mo liwe
           uporanie się z problemem eksplozji danych.

           Z pozoru argument ten jest zarówno niezbijalny, jak i samopotwierdzający się. Jeśli
           zaakceptujemy początkową przesłankę, czyli twierdzenie o gwałtownym przyroście
           danych, musimy się zgodzić, e potrzebna jest skalowalna topologia pamięci masowej
           — którą, teoretycznie, zapewnić mo e sieć SAN2.



Dekonstrukcja mitu eksplozji danych
           Trzeba jednak e zaznaczyć, e pierwsza przesłanka „dowodu” uzasadniającego praw-
           dziwość mitu eksplozji danych — „przewidywalne i wykładnicze tempo przyrostu
           danych we wszystkich organizacjach” — była i nadal jest wątpliwa. Prawda jest taka,
            e analitycy nie mogą ustalić średniego tempa przyrostu danych w organizacjach.
           Brak im danych empirycznych, więc zamiast nich kierują się informacjami o łącznej
           pojemności produktów pamięciowych sprzedanych na rynku. Innymi słowy, analitycy
           ekstrapolują trendy z bardzo podejrzanych zbiorów danych (prognoz wielkości sprze-
           da y opracowywanych przez producentów).

           Na niedawnej konferencji bran owej miałem przyjemność przewodzić dyskusji pa-
           nelowej, w której udział wzięło kilku znanych analityków rynku pamięci masowej.
           Była to dobra okazja, eby zapytać jednego z nich o podstawy jego prognoz o stupro-
           centowym rocznym przyroście danych. Jego pierwsza reakcja polegała na dyskretnym
           wycofaniu się: „OK, mo e raczej 70 procent rocznie”. Przyciśnięty nieco mocniej


2
    Mit eksplozji danych posłu ył nie tylko do promowania sieci SAN. Był równie wygodną wymówką
    dla wielu informatyków, poniewa wyjaśniał coraz dłu sze przestoje serwerów i rosnące wydatki
    na technologie pamięci masowej. W końcu stał się usprawiedliwieniem praktycznie wszystkich
    problemów z pamięcią masową i serwerami, nawet tych, które nie miały adnego związku
    z pojemnością i wykorzystaniem pamięci.
Rozdział 2. ♦ Eksplozja danych i sprawy dysku                                                  25


        przyznał, e nie da się dokładnie ustalić rocznego tempa przyrostu danych i e większość
        informacji, na których się oparł, dostarczyli sami producenci. Na widowni rozległy
        się śmiechy, a nieco zmieszany analityk dodał: „Có , zapytałem te kilku u ytkowni-
        ków, a oni powiedzieli mi, e te liczby wydają się zgodne z ich doświadczeniami”.

        Od tego czasu analitycy wielokrotnie zapewniali, e ich prognozy przyrostu danych
        znajdują potwierdzenie w wywiadach z klientami, którzy są zarazem u ytkownikami
        pamięci masowej, jak i abonentami usług raportowych oraz analitycznych. Argumenty
        te są pod wieloma względami problematyczne:
               Opierają się na rozumowaniu indukcyjnym. Uogólnienie kilku specyficznych
               przykładów trudno uznać za logiczną podstawę do wskazywania trendów.
               Prawidłowość teorii lepiej jest weryfikować za pomocą dedukcji, a nie
               indukcji, zwłaszcza gdy brak bardzo du ego zbioru danych empirycznych
               o wysokim stopniu wiarygodności (rysunek 2.2 ilustruje ró nicę w obu typach
               dowodzenia).

Rysunek 2.2.
Rozumowanie
indukcyjne
i dedukcyjne




               Zale ą od dokładności danych uzyskanych od klientów. Większość informatyków
               (i dostawców rozwiązań informatycznych) zgodzi się, e firmy zwykle nie znają
               rzeczywistego tempa przyrostu danych w swoich środowiskach pamięci
               masowej. Na firmowych dyskach jest tyle danych przestarzałych, powielonych,
               niepotrzebnych lub nie mających związku z działalnością biznesową,
                 e analizy tempa przyrostu danych — jeśli w ogóle są wykonywane — dają
               znacznie zawy one wyniki. Co więcej, ankietowanie u ytkowników jest mało
               wiarygodną metodą. Respondenci często mijają się z prawdą — aby uzyskać
               więcej funduszy na preferowany sprzęt, aby wykazać się „inteligencją”
               przed ankieterem, aby usprawiedliwić albo ukryć błędne decyzje lub zakupy
               itd. Raporty u ytkowników budzą więc du e wątpliwości.
               Niczego nie dowodzi tak e uzupełnienie informacji z ankiet danymi o wydatkach
               na platformy pamięci masowej. Zastępowanie rzeczywistych ocen przyrostu
               danych informacjami o wydatkach i przychodach związanych z pamięcią
               masową mo e się wydawać właściwym sposobem wyjaśnienia eksplozji
               danych, ale w rzeczywistości jest inaczej. W wielu organizacjach zakupy
               nowych platform pamięciowych nie odzwierciedlają przyrostu danych, ale
               złe zarządzanie tymi ostatnimi. Kiedy na przykład brak efektywnych narzędzi
               do zarządzania pojemnością i pozyskiwaniem pamięci, mo na odnieść
               wra enie, e aplikacje potrzebują nieustannego dopływu nowych dysków
               montowanych w obudowach autonomicznych macierzy pamięciowych.
               Jednak e dzięki dobrym narzędziom do pozyskiwania pamięci aplikacje
26                                                     Zarządzanie przechowywaniem danych w sieci


                 o wysokich wymaganiach mogłyby czerpać dodatkowe zasoby z platform
                 pamięciowych przydzielonych aplikacjom o ni szych wymaganiach. To z kolei
                 zmniejszyłoby zapotrzebowanie na nowe macierze. W takim przypadku
                 nie zmieniłoby się tempo przyrostu danych, ale efektywność korzystania
                 z istniejących zasobów. Jeśli jednak uwzględniamy tylko wydatki na nowe
                 macierze pamięciowe, tempo przyrostu danych nie jest intuicyjnie oczywiste.

           Cynik mógłby pomyśleć, e analitycy bran owi wywołali widmo eksplozji danych
           w zmowie z producentami pamięci masowej. Choć trudno byłoby to udowodnić,
           warto zauwa yć, e mit eksplozji danych stał się mantrą analityków mniej więcej
           w tym samym czasie, gdy opadało zainteresowanie takimi „tematami zastępczymi” jak
           uproszczone klienty3, usługi aplikacyjne pierwszej generacji i „rewolucja dot.comów”.
           Mo e to tylko przypadek, e mit eksplozji danych pojawił się wtedy, kiedy społecz-
           ność analityków potrzebowała nowej „dojnej krowy” — oryginalnego tematu, który
           przyczyniłby się do zwiększenia sprzeda y produktów i usług informacyjnych.
           Z pewnością dla wielu bran owych firm analitycznych eksplozja danych rozpoczęła
           się w bardzo sprzyjającym momencie.

           W rzeczywistości jedyną metodą uzyskania wiarygodnych informacji o tempie przy-
           rostu danych jest konsultacja z u ytkownikami, którzy przeprowadzili wyczerpującą
           analizę bie ących trendów wykorzystania pojemności pamięci masowej. Takie dane
           są trudno dostępne ze względu na ró norakie problemy i koszty związane z ich gro-
           madzeniem. Większość firm dysponuje ograniczonymi informacjami, które mogłyby
           potwierdzać przewidywane tempo przyrostu danych, a wiele twierdzi, e wdro enie
           narzędzi do analizowania topologii pamięci masowej pozwoliło odkryć w szafach i po-
           mieszczeniach ze sprzętem platformy pamięciowe, o których nikt nie wiedział!

           Podsumowując: twierdzenia o eksplozji danych są w du ej mierze nieuzasadnione
           i opierają się na wątpliwych dowodach. Nie da się zaprzeczyć, e w wielu organizacjach
           tempo przyrostu danych jest szybkie, ale ocena tego, jak szybkie, musi pozostać kwe-
           stią domysłów — zwłaszcza przy braku efektywnego zarządzania pamięcią masową.

           W Centrum Lotów Kosmicznych NASA w Goddard (GSFC) zespół badaczy uzbrojo-
           nych głównie w cierpliwość i wytrwałość pracował niemal dwa lata, aby sporządzić
           wiarygodną prognozę przyrostu danych; stwierdzono, e poczynając od roku 2000,



3
    W połowie lat 90. społeczność analityków usiłowała wzbudzić zainteresowanie zjawiskiem nazywanym
    „rewolucją uproszczonych klientów”. Analitycy firmy Gartner Group — a za nimi tak e innych firm
    analitycznych — stwierdzili, e „rozbudowane klienty” z systemem Windows stanowią nadmierne
    obcią enie korporacyjnych zasobów, i zaczęli promować koncepcję uproszczonego terminala
    z przeglądarką WWW i wirtualną maszyną Javy jako zamiennika dla drogich w konserwacji
    „wintelowskich” komputerów biurkowych. Zapoczątkowało to serię przypadków, w których analitycy
    mający obserwować i raportować trendy sami próbowali je tworzyć, aby móc je później monitorować
    i analizować. Po niemal dwóch latach szumu wokół uproszczonych klientów „rewolucja” zakończyła
    się fiaskiem i nawet analitycy z firmy Gartner musieli przyznać, e był to „poniekąd temat zastępczy”.
    (Na sprostowanie składał się jednak zaledwie jeden akapit tekstu, wydrukowany bardzo małą czcionką
    na ostatnich stronach jednego z mniej wa nych biuletynów: koniec rzekomej rewolucji został
    więc ogłoszony znacznie dyskretniej, ni jej początek).
Rozdział 2. ♦ Eksplozja danych i sprawy dysku                                                 27


           codziennie będzie dodawany 1 TB danych4. W skomplikowanym środowisku GSFC
           z pewnością niełatwo było ustalić trendy wykorzystania pojemności pamięci masowej;
           odpowiednie rozdysponowanie skromnych zasobów jest zasługą Miltona Halema,
           uzdolnionego i pracowitego dyrektora ds. informacji, który potrzebował tych danych
           do opracowania strategicznego planu wzrostu i rozwoju infrastruktury informatycznej.
           Niewiele osób — czy to w sektorze państwowym, czy prywatnym — wykazało się
           taką gorliwością podczas ustalania faktycznych informacji dotyczących przyrostu da-
           nych w ich własnych środowiskach komputerowych.

           Jest kilka wyjaśnień tego stanu rzeczy. Wiele osób powiedziało mi, e narzędzia pro-
           gramowe do ustalania trendów przyrostu danych nie spełniają swoich zadań, a bez
           odpowiedniego oprogramowania sporządzenie analizy jest po prostu zbyt trudne. Inni
           zauwa yli, e spod kontroli wymykają się nie tyle dane, co u ytkownicy. Zwłaszcza
           popularność poczty elektronicznej sprawia, e mened erowie nie mogą efektywnie
           nadzorować tempa przyrostu danych, poniewa to u ytkownicy ostatecznie decydują,
           które dane zostaną zapisane, a które odrzucone. Jeszcze inni winą za niekontrolowany
           przyrost danych obarczają brak konsekwentnej lub wymuszonej polityki administra-
           cyjnej: w wielu firmach dyrektorzy ds. informacji zmieniają się co 18 do 24 miesięcy,
           a ka dy nowy dyrektor ma własne preferencje dotyczące producentów, technologii
           i polityki. Co więcej, w wielu organizacjach zarządzanie infrastrukturą informatyczną
           w ogóle nie jest scentralizowane, a korporacyjni informatycy skar ą się, e trudno jest
           nakłonić kierowników działów albo jednostek biznesowych — lub administratorów
           poszczególnych systemów — do współpracy nad ustaleniem tempa przyrostu danych
           albo opracowaniem polityki zarządzania informacjami.

           Analiza ta wskazuje, e w większość organizacji nikt nie ma pojęcia o tempie przyro-
           stu danych we własnym środowisku informatycznym. Wiadomo tylko tyle, e nie-
           kontrolowany przyrost kosztuje. Kiedy aplikacja próbuje zapisać dane, a serwer zgła-
           sza komunikat „dysk pełny”, trzeba zaczekać, a personel techniczny doda dysk do
           macierzy albo zainstaluje kolejny serwer z nową macierzą.



Sieciowa pamięć masowa
— fakty i fikcja
           Panaceum na eksplozję danych mają być rozwiązania określane wspólnym mianem
           „sieciowej pamięci masowej”. Sieciowa pamięć masowa to pojęcie „marketektoniczne”,
           które obecnie obejmuje sieci pamięciowe (ang. storage area network, SAN) oraz pa-
           mięć dołączoną przez sieć (ang. network attached storage, NAS).

           W opracowaniach bran owych (broszurach, referatach, artykułach prasowych itp.)
           sieciowa pamięć masowa jest często opisywana jako rewolucyjne odejście od tra-
           dycyjnej pamięci podłączonej do serwera (czasem nazywanej „pamięcią uwięzioną

4
    Zobacz Jon William Toigo, „Storage Area Networks Still on Washington Wish List”,
    Washington Technology, 11 września 2000, http://www.washingtontechnology.com.
28                                         Zarządzanie przechowywaniem danych w sieci


     w serwerze”). Ogólnie rzecz biorąc, obejmuje ona topologie, w których platformy
     pamięciowe tworzą odrębną infrastrukturę, co pozwala na:
         skalowanie pamięci masowej bez zakłócania pracy aplikacji,
         zwiększenie dostępności pamięci masowej,
         samoczynne zarządzanie pamięcią masową,
         inteligentne i automatyczne pozyskiwanie oraz konserwowanie pamięci.

     Jeden z pierwszych opisów sieciowej pamięci masowej pojawił się w wizjonerskim
     artykule firmy Compaq Corporation, który omówiono w poprzedniej ksią ce z serii
     Holy Grail. Kiedy w latach 90. Compaq nabyła firmę Digital Equipment Corporation,
     wraz z nią przejęła koncepcję sieciowej pamięci masowej znaną jako Enterprise Ne-
     twork Storage Architecture (ENSA), którą w 1997 roku przedstawiono w artykule
     przeglądowym o takim właśnie tytule.

     W artykule zaproponowano infrastrukturę pamięci masowej, która cechowała się wy-
     mienionymi wy ej właściwościami: skalowalnością, dostępnością, zarządzalnością
     i inteligencją. Nikt w Compaq, przynajmniej początkowo, nie tłumaczył zalet infra-
     struktury ENSA eksplozją danych: ENSA miała po prostu zapewniać elegancką i ewo-
     lucyjną strategię zarządzania przechowywaniem danych.

     Artykuł ENSA przewidywał malejące zyski ze sprzeda y coraz powszechniejszych
     dysków twardych oraz konieczność uzupełnienia oferty platform pamięciowych
     o oprogramowanie i usługi. Autorzy prawdopodobnie dostrzegli te zjawisko superpa-
     ramagnetyzmu i jego wpływ na pamięć dyskową.

     Jak wiadomo, od połowy lat 90. dość systematycznie zwiększa się pojemność dysków
     i maleją ich ceny. Według obserwatorów bran y pojemność dysków podwaja się
     mniej więcej co 18 miesięcy, a ceny zmniejszają się o połowę co 12 miesięcy (zobacz
     rysunek 2.3). Tendencja ta była motorem wzrostu sprzeda y produktów pamięcio-
     wych w minionej dekadzie, ale miała ten niefortunny skutek uboczny, e klienci za-
     częli rozwiązywać problemy spowodowane złym zarządzaniem pamięcią, dokładając
     do swoich systemów coraz więcej niedrogich dysków.

     W roku 2000 przypomniano sobie jednak o interesującej właściwości dysków ma-
     gnetycznych: konwencjonalna technologia dyskowa narzucała nieprzekraczalny limit
     powierzchniowej gęstości danych (liczbę bitów na cal kwadratowy, które mo na nie-
     zawodnie zapisać i odczytać z talerza dysku). Ograniczenie to jest spowodowane zja-
     wiskiem fizycznym znanym jako efekt superparamagnetyczny. Przy obecnym tempie
     wzrostu pojemności dysków granica ta zostanie osiągnięta ju w 2005 albo 2006 roku.

     Superparamagnetyzm, mówiąc prosto, to punkt, w którym energia magnetyczna
     utrzymująca bity zapisane na nośniku w ich zarejestrowanym stanie staje się równa
     energii termicznej wytwarzanej przez działanie dysku. Przekroczenie tej granicy po-
     woduje przypadkowe przestawianie bitów i sprawia, e dysk staje się zawodny.

     W przeszłości producenci wielokrotnie rozwa ali kwestię ograniczenia pojemności
     dysków spowodowanego efektem superparamagnetycznym. Kiedy jednak jeden z nich
     ogłosił nieprzekraczalny limit pojemności dysku, a następnie został „poprawiony”
Rozdział 2. ♦ Eksplozja danych i sprawy dysku                                                       29


Rysunek 2.3.
Wzrost pojemności
dysków i spadek
ceny za megabajt




           przez konkurenta, który stwierdził, e dzięki lepszej technologii mo e skonstruować
           bardziej pojemny dysk, kompromitacja okazała się na tyle dotkliwa, e większość
           producentów postanowiła nie mówić o tych sprawach publicznie.

           Pomimo to, kiedy w roku 2000 pisałem artykuł na ten temat dla Scientific American5,
           czołowi producenci dysków — w tym Seagate, Hewlett-Packard, Quantum i IBM —
           niechętnie podzielili się ze mną „najbardziej prawdopodobnym” oszacowaniem limitu
           superparamagnetycznego: według nich miało to być 150 gigabitów na cal kwadratowy
           (Gb/cal2). Jeśli zatem nie nastąpi nieprzewidziany przełom w technologii wytwarza-
           nia materiałów, które stosuje się do wytwarzania nośników, mo na uznać, e naj-
           większa gęstość powierzchniowa, jaką mo e zaoferować bie ąca technologia dysko-
           wa, wynosi 150 Gb/cal2 — a zwa ywszy na tempo wzrostu pojemności (120 procent
           rocznie) granica ta zostanie szybko osiągnięta (zobacz rysunek 2.4).

           Inne „egzotyczne” technologie — takie jak rejestrowanie prostopadłe, wspomagane
           termicznie, bliskopolowe i dalekopolowe (ang. near/far field recording, NFR/FFR),
           wykorzystanie sił atomowych a nawet pamięć holograficzna — były wprawdzie opra-
           cowywane w laboratoriach, ale producenci zgodnie twierdzili, e do czasu wprowa-
           dzenia ich na rynek musi minąć przynajmniej dziesięć lat. Najgorszy scenariusz za-
           kłada, e konwencjonalny dysk magnetyczny osiągnie limit przynajmniej pięć lat
           przed tym, kiedy technologie alternatywne będą gotowe do wykorzystania w korpora-
           cyjnej pamięci masowej.

           Jest bardzo prawdopodobne, e pierwsi wizjonerzy sieciowej pamięci masowej,
           w tym pracownicy Digital Equipment Corporation, którzy zasilili szeregi bran y po
           nabyciu DEC przez Compaq, mieli na uwadze zjawisko superparamagnetyzmu. Aby

5
    Jon William Toigo, „Avoiding a Data Crunch”, Scientific American, marzec 2000, www.sciam.com.
30                                              Zarządzanie przechowywaniem danych w sieci




Rysunek 2.4. Gęstość danych i efekt superparamagnetyczny

        pamięć dyskowa mogła skalować się po osiągnięciu limitu superparamagnetycznego,
        musiałaby skalować się „poza obudową” — czy to obudową pojedynczego dysku, czy
        te macierzy dyskowej. Innymi słowy, sieciowa pamięć masowa była niezbędna do
        podtrzymania dynamiki 120-procentowego wzrostu wydajności przy 50-procentowym
        spadku kosztów. Było to ewolucyjne rozwiązanie problemu.



Od ewolucji do rewolucji: mit sieci
pamięci masowej Fibre Channel
        Niestety, wizja sieciowej pamięci masowej, którą przedstawili autorzy artykułu EN-
        SA (oraz inni pionierzy w firmie Sun Microsystems i nie tylko) została zawłaszczona
        i ukazana w innym kontekście przez pracowników działów marketingu pierwszych
        producentów sieci SAN pod koniec lat 90. i na początku roku 2000. Jak wiele ruchów
        rewolucyjnych w XX wieku, siły marketingowe stojące za technologią Fibre Channel
        nie chciały czekać na rzekomo nieuchronny i ewolucyjny zwrot w kierunku sieciowej
        pamięci masowej. Podobnie jak wielu innych piewców rewolucji ludzie ci próbowali
        wzbudzić zainteresowanie swoją ulubioną technologią, aby przyspieszyć jej zastosowa-
        nie. Wkrótce sieci Fibre Channel SAN zaczęły być opisywane jako „technologia nisz-
        cząca” w stylu Claytona Christensena, która „zrewolucjonizowała” pamięć masową.

        Producenci uchwycili się mitu eksplozji danych, aby promować rozwiązania, które
        tylko w niewielkim stopniu przypominały mechanizmy pamięciowe ENSA (albo po-
        równywalne architektury SAN, lansowane przez projekt StoreX firmy Sun). Technologia
        Fibre Channel została wprowadzona do u ytku przez potę ne stowarzyszenie bran-
         owe jako „szkielet” sieci SAN, choć — przynajmniej początkowo — protokół nie
Rozdział 2. ♦ Eksplozja danych i sprawy dysku                                                        31


           był w stanie utworzyć prawdziwej sieci według jakiejkolwiek definicji tego terminu.
           Zwolennicy sieci Fibre Channel SAN (które w rzeczywistości są przełączaną infra-
           strukturą połączeń typu punkt-punkt) szybko zaczęli dominować na forach, na któ-
           rych dyskutowano o sieciowej pamięci masowej. Pomimo wewnętrznych ograniczeń
           sieci FC SAN, producenci oferowali je jako „jedyne rozwiązanie” problemu rozra-
           stających się danych.

           Jeden mit — eksplozji danych — doprowadził zatem do powstania drugiego: sieci Fibre
           Channel SAN. Dziś sieci FC SAN są prezentowane jako faktyczny standard sieciowej
           pamięci masowej, która oddziela pamięć od serwerów i rozwiązuje wszystkie pro-
           blemy firmy dzięki bezzakłóceniowej skalowalności, uniwersalnej dostępności,
           usprawnionemu zarządzaniu i lepszej ochronie danych.

           Analitycy podsycają emocje, twierdząc, e sieci FC SAN są coraz powszechniej u y-
           wane w infrastrukturach pamięciowych organizacji publicznych i prywatnych: szacowa-
           no, e roczne tempo wzrostu sieci FC SAN ma wynosić 65 procent a do roku 20046.
           Tymczasem pamięć podłączona do serwera ma w tym okresie rosnąć „tylko” o 8 pro-
           cent rocznie.

           Z tego rodzaju prognoz mo na nauczyć się niejednego o iluzoryczności danych staty-
           stycznych. Zwa ywszy, e liczba wdro onych rozwiązań z pamięcią podłączoną do
           serwera jest ogromna, a liczba wdro onych sieci FC SAN wcią niewielka, trzeba
           stwierdzić, e projekcje analityków są zwodnicze. Mówiąc metaforycznie, gdyby centrum
           profilaktyki zdrowotnej wydało oświadczenie, e w tym roku liczba osób cierpiących
           na zwykłe przeziębienie zwiększy się o 8 procent, producenci lekarstw na przeziębie-
           nie byliby zachwyceni perspektywą zyskania milionów nowych klientów. Gdyby na-
           tomiast centrum oświadczyło, e liczba osób zara onych wirusem Ebola zwiększy się
           w tym roku o 68 procent, liczba nowych przypadków (około 10) prawdopodobnie nie
           wywołałaby większego poruszenia w bran y farmaceutycznej, a prace nad opracowa-
           niem sposobów leczenia tej choroby zapewne nie posunęłyby się znacznie do przodu.

           Tak właśnie prezentują się zagadnienia sieci FC SAN i platform pamięci podłączonej
           do serwera: według niektórych obserwatorów bran y, w 2001 roku wdro onych było
           zaledwie 11 000 sieci FC SAN7. Większość z nich zawierała mniej ni terabajt danych, co


6
    Dane te pojawiały się w licznych raportach analityków w 2000 roku. Nowsze prognozy odzwierciedlają
    tylko fakt, e organizacje obecnie zmniejszają wydatki na technologię informatyczną.
7
    Dane te pochodzą z raportu Randy’ego Kernsa, analityka w firmie The Evaluator Group, i zostały
    przytoczone w moim artykule „Data Center and Storage Consolidation”, opublikowanym w czasopiśmie
    Byte & Switch z 17 stycznia 2002 roku — patrz www.byteandswitch.com. Od czasu opublikowania
    szacunków Kernsa brak wiarygodnych danych o rzeczywistej liczbie wdro onych sieci SAN. Większość
    analityków liczy sprzedane porty FC (na przełącznikach) albo sprzedane adaptery magistrali FC,
    aby uzasadnić swoje prognozy wzrostu liczby sieci SAN. Dane te są jednak z natury nieprecyzyjne.
    W rzeczywistości firmy, które wdra ały pierwsze sieci FC SAN, zdą yły ju zastąpić je raz albo
    dwa razy nowocześniejszym sprzętem. Wiele portów FC sprzedaje się „z wyprzedzeniem wymagań”
    ze względu na problemy i ni szą wydajność sieci SAN zrealizowanych jako kaskada mniejszych
    przełączników. Co więcej, sprzeda adapterów FC niekoniecznie odzwierciedla podłączenia sieci SAN.
    Protokół FC zapewnia szybkie połączenia typu punkt-punkt, które mo na efektywnie wykorzystać
    do budowy platform pamięciowych podłączonych do serwera, a nie tylko „sieci pamięci masowej”.
32                                                     Zarządzanie przechowywaniem danych w sieci


           budzi wątpliwości co do tego, czy sieci FC SAN rzeczywiście zostały powszechnie
           zaakceptowane jako faktyczny standard topologii sieciowej pamięci masowej8.

           W następnym rozdziale dokonamy dalszej dekonstrukcji mitologii narosłej wokół sieci
           FC SAN. Zbadamy ewolucję standardu Fibre Channel oraz protokołów pamięciowych
           opartych na IP, które pretendują do miana szkieletu sieciowej pamięci masowej.




8
    Tu przed wydrukowaniem tej ksią ki analitycy ogłosili, e sieci SAN zastąpiły pamięć SAS
    jako czołowa topologia pamięciowa nabywana obecnie przez firmy. Nie wiadomo, na czym oparto
    to stwierdzenie. Trudno powiedzieć, co właściwie się mierzy i co zalicza do sieci SAN. Jeśli analitycy
    liczą porty adapterów FC, ich konkluzje mogą być niedokładne, poniewa technologii Fibre Channel
    coraz częściej u ywa się do bezpośredniego podłączania macierzy dyskowych (do czego zresztą
    dobrze się ona nadaje).

More Related Content

What's hot

Access 2002/XP PL dla każdego
Access 2002/XP PL dla każdegoAccess 2002/XP PL dla każdego
Access 2002/XP PL dla każdegoWydawnictwo Helion
 
Sieci komputerowe. Księga eksperta. Wydanie II poprawione i uzupełnione
Sieci komputerowe. Księga eksperta. Wydanie II poprawione i  uzupełnioneSieci komputerowe. Księga eksperta. Wydanie II poprawione i  uzupełnione
Sieci komputerowe. Księga eksperta. Wydanie II poprawione i uzupełnioneWydawnictwo Helion
 
OpenBSD. Podstawy administracji systemem
OpenBSD. Podstawy administracji systememOpenBSD. Podstawy administracji systemem
OpenBSD. Podstawy administracji systememWydawnictwo Helion
 
Zarządzanie zasobami. Wzorce projektowe
Zarządzanie zasobami. Wzorce projektoweZarządzanie zasobami. Wzorce projektowe
Zarządzanie zasobami. Wzorce projektoweWydawnictwo Helion
 

What's hot (6)

Access 2002/XP PL dla każdego
Access 2002/XP PL dla każdegoAccess 2002/XP PL dla każdego
Access 2002/XP PL dla każdego
 
Sieci komputerowe. Księga eksperta. Wydanie II poprawione i uzupełnione
Sieci komputerowe. Księga eksperta. Wydanie II poprawione i  uzupełnioneSieci komputerowe. Księga eksperta. Wydanie II poprawione i  uzupełnione
Sieci komputerowe. Księga eksperta. Wydanie II poprawione i uzupełnione
 
Systemy plików w Linuksie
Systemy plików w LinuksieSystemy plików w Linuksie
Systemy plików w Linuksie
 
OpenBSD. Podstawy administracji systemem
OpenBSD. Podstawy administracji systememOpenBSD. Podstawy administracji systemem
OpenBSD. Podstawy administracji systemem
 
Zarządzanie zasobami. Wzorce projektowe
Zarządzanie zasobami. Wzorce projektoweZarządzanie zasobami. Wzorce projektowe
Zarządzanie zasobami. Wzorce projektowe
 
Mandrake Linux
Mandrake LinuxMandrake Linux
Mandrake Linux
 

Similar to Zarządzanie przechowywaniem danych w sieci

Okablowanie strukturalne sieci. Teoria i praktyka. Wydanie II
Okablowanie strukturalne sieci. Teoria i praktyka. Wydanie IIOkablowanie strukturalne sieci. Teoria i praktyka. Wydanie II
Okablowanie strukturalne sieci. Teoria i praktyka. Wydanie IIWydawnictwo Helion
 
100 sposobów na tworzenie robotów sieciowych
100 sposobów na tworzenie robotów sieciowych100 sposobów na tworzenie robotów sieciowych
100 sposobów na tworzenie robotów sieciowychWydawnictwo Helion
 
ABC ochrony komputera przed atakami hakera
ABC ochrony komputera przed atakami hakeraABC ochrony komputera przed atakami hakera
ABC ochrony komputera przed atakami hakeraWydawnictwo Helion
 
Firewalle i bezpieczeństwo w sieci. Vademecum profesjonalisty
Firewalle i bezpieczeństwo w sieci. Vademecum profesjonalistyFirewalle i bezpieczeństwo w sieci. Vademecum profesjonalisty
Firewalle i bezpieczeństwo w sieci. Vademecum profesjonalistyWydawnictwo Helion
 
The Shellcoders Handbook. Edycja polska
The Shellcoders Handbook. Edycja polskaThe Shellcoders Handbook. Edycja polska
The Shellcoders Handbook. Edycja polskaWydawnictwo Helion
 
Multimedia w Linuksie. Praktyczne rozwiązania
Multimedia w Linuksie. Praktyczne rozwiązaniaMultimedia w Linuksie. Praktyczne rozwiązania
Multimedia w Linuksie. Praktyczne rozwiązaniaWydawnictwo Helion
 
Struktury danych i techniki obiektowe na przykładzie Javy 5.0
Struktury danych i techniki obiektowe na przykładzie Javy 5.0Struktury danych i techniki obiektowe na przykładzie Javy 5.0
Struktury danych i techniki obiektowe na przykładzie Javy 5.0Wydawnictwo Helion
 
PHP i MySQL. Tworzenie sklepów internetowych. Wydanie II
PHP i MySQL. Tworzenie sklepów internetowych. Wydanie IIPHP i MySQL. Tworzenie sklepów internetowych. Wydanie II
PHP i MySQL. Tworzenie sklepów internetowych. Wydanie IIWydawnictwo Helion
 
Programowanie w języku C. FAQ
Programowanie w języku C. FAQProgramowanie w języku C. FAQ
Programowanie w języku C. FAQWydawnictwo Helion
 

Similar to Zarządzanie przechowywaniem danych w sieci (20)

Okablowanie strukturalne sieci. Teoria i praktyka. Wydanie II
Okablowanie strukturalne sieci. Teoria i praktyka. Wydanie IIOkablowanie strukturalne sieci. Teoria i praktyka. Wydanie II
Okablowanie strukturalne sieci. Teoria i praktyka. Wydanie II
 
100 sposobów na tworzenie robotów sieciowych
100 sposobów na tworzenie robotów sieciowych100 sposobów na tworzenie robotów sieciowych
100 sposobów na tworzenie robotów sieciowych
 
Wielka księga firewalli
Wielka księga firewalliWielka księga firewalli
Wielka księga firewalli
 
Cisza w sieci
Cisza w sieciCisza w sieci
Cisza w sieci
 
Modelowanie danych
Modelowanie danychModelowanie danych
Modelowanie danych
 
ABC sieci komputerowych
ABC sieci komputerowychABC sieci komputerowych
ABC sieci komputerowych
 
Oracle Discoverer
Oracle DiscovererOracle Discoverer
Oracle Discoverer
 
Bezpieczeństwo sieci. Biblia
Bezpieczeństwo sieci. BibliaBezpieczeństwo sieci. Biblia
Bezpieczeństwo sieci. Biblia
 
ABC ochrony komputera przed atakami hakera
ABC ochrony komputera przed atakami hakeraABC ochrony komputera przed atakami hakera
ABC ochrony komputera przed atakami hakera
 
ABC Neostrada
ABC NeostradaABC Neostrada
ABC Neostrada
 
Firewalle i bezpieczeństwo w sieci. Vademecum profesjonalisty
Firewalle i bezpieczeństwo w sieci. Vademecum profesjonalistyFirewalle i bezpieczeństwo w sieci. Vademecum profesjonalisty
Firewalle i bezpieczeństwo w sieci. Vademecum profesjonalisty
 
The Shellcoders Handbook. Edycja polska
The Shellcoders Handbook. Edycja polskaThe Shellcoders Handbook. Edycja polska
The Shellcoders Handbook. Edycja polska
 
Multimedia w Linuksie. Praktyczne rozwiązania
Multimedia w Linuksie. Praktyczne rozwiązaniaMultimedia w Linuksie. Praktyczne rozwiązania
Multimedia w Linuksie. Praktyczne rozwiązania
 
Struktury danych i techniki obiektowe na przykładzie Javy 5.0
Struktury danych i techniki obiektowe na przykładzie Javy 5.0Struktury danych i techniki obiektowe na przykładzie Javy 5.0
Struktury danych i techniki obiektowe na przykładzie Javy 5.0
 
Praktyczny kurs SQL
Praktyczny kurs SQLPraktyczny kurs SQL
Praktyczny kurs SQL
 
PHP i MySQL. Tworzenie sklepów internetowych. Wydanie II
PHP i MySQL. Tworzenie sklepów internetowych. Wydanie IIPHP i MySQL. Tworzenie sklepów internetowych. Wydanie II
PHP i MySQL. Tworzenie sklepów internetowych. Wydanie II
 
Access 2003 PL. Kurs
Access 2003 PL. KursAccess 2003 PL. Kurs
Access 2003 PL. Kurs
 
Uczta programistów
Uczta programistówUczta programistów
Uczta programistów
 
Bezpieczny komputer w domu
Bezpieczny komputer w domuBezpieczny komputer w domu
Bezpieczny komputer w domu
 
Programowanie w języku C. FAQ
Programowanie w języku C. FAQProgramowanie w języku C. FAQ
Programowanie w języku C. FAQ
 

More from Wydawnictwo Helion

Tworzenie filmów w Windows XP. Projekty
Tworzenie filmów w Windows XP. ProjektyTworzenie filmów w Windows XP. Projekty
Tworzenie filmów w Windows XP. ProjektyWydawnictwo Helion
 
Blog, więcej niż internetowy pamiętnik
Blog, więcej niż internetowy pamiętnikBlog, więcej niż internetowy pamiętnik
Blog, więcej niż internetowy pamiętnikWydawnictwo Helion
 
Pozycjonowanie i optymalizacja stron WWW. Ćwiczenia praktyczne
Pozycjonowanie i optymalizacja stron WWW. Ćwiczenia praktycznePozycjonowanie i optymalizacja stron WWW. Ćwiczenia praktyczne
Pozycjonowanie i optymalizacja stron WWW. Ćwiczenia praktyczneWydawnictwo Helion
 
E-wizerunek. Internet jako narzędzie kreowania image'u w biznesie
E-wizerunek. Internet jako narzędzie kreowania image'u w biznesieE-wizerunek. Internet jako narzędzie kreowania image'u w biznesie
E-wizerunek. Internet jako narzędzie kreowania image'u w biznesieWydawnictwo Helion
 
Microsoft Visual C++ 2008. Tworzenie aplikacji dla Windows
Microsoft Visual C++ 2008. Tworzenie aplikacji dla WindowsMicrosoft Visual C++ 2008. Tworzenie aplikacji dla Windows
Microsoft Visual C++ 2008. Tworzenie aplikacji dla WindowsWydawnictwo Helion
 
Co potrafi Twój iPhone? Podręcznik użytkownika. Wydanie II
Co potrafi Twój iPhone? Podręcznik użytkownika. Wydanie IICo potrafi Twój iPhone? Podręcznik użytkownika. Wydanie II
Co potrafi Twój iPhone? Podręcznik użytkownika. Wydanie IIWydawnictwo Helion
 
Makrofotografia. Magia szczegółu
Makrofotografia. Magia szczegółuMakrofotografia. Magia szczegółu
Makrofotografia. Magia szczegółuWydawnictwo Helion
 
Java. Efektywne programowanie. Wydanie II
Java. Efektywne programowanie. Wydanie IIJava. Efektywne programowanie. Wydanie II
Java. Efektywne programowanie. Wydanie IIWydawnictwo Helion
 
Ajax, JavaScript i PHP. Intensywny trening
Ajax, JavaScript i PHP. Intensywny treningAjax, JavaScript i PHP. Intensywny trening
Ajax, JavaScript i PHP. Intensywny treningWydawnictwo Helion
 
PowerPoint 2007 PL. Seria praktyk
PowerPoint 2007 PL. Seria praktykPowerPoint 2007 PL. Seria praktyk
PowerPoint 2007 PL. Seria praktykWydawnictwo Helion
 
Serwisy społecznościowe. Budowa, administracja i moderacja
Serwisy społecznościowe. Budowa, administracja i moderacjaSerwisy społecznościowe. Budowa, administracja i moderacja
Serwisy społecznościowe. Budowa, administracja i moderacjaWydawnictwo Helion
 

More from Wydawnictwo Helion (20)

Tworzenie filmów w Windows XP. Projekty
Tworzenie filmów w Windows XP. ProjektyTworzenie filmów w Windows XP. Projekty
Tworzenie filmów w Windows XP. Projekty
 
Blog, więcej niż internetowy pamiętnik
Blog, więcej niż internetowy pamiętnikBlog, więcej niż internetowy pamiętnik
Blog, więcej niż internetowy pamiętnik
 
Access w biurze i nie tylko
Access w biurze i nie tylkoAccess w biurze i nie tylko
Access w biurze i nie tylko
 
Pozycjonowanie i optymalizacja stron WWW. Ćwiczenia praktyczne
Pozycjonowanie i optymalizacja stron WWW. Ćwiczenia praktycznePozycjonowanie i optymalizacja stron WWW. Ćwiczenia praktyczne
Pozycjonowanie i optymalizacja stron WWW. Ćwiczenia praktyczne
 
E-wizerunek. Internet jako narzędzie kreowania image'u w biznesie
E-wizerunek. Internet jako narzędzie kreowania image'u w biznesieE-wizerunek. Internet jako narzędzie kreowania image'u w biznesie
E-wizerunek. Internet jako narzędzie kreowania image'u w biznesie
 
Microsoft Visual C++ 2008. Tworzenie aplikacji dla Windows
Microsoft Visual C++ 2008. Tworzenie aplikacji dla WindowsMicrosoft Visual C++ 2008. Tworzenie aplikacji dla Windows
Microsoft Visual C++ 2008. Tworzenie aplikacji dla Windows
 
Co potrafi Twój iPhone? Podręcznik użytkownika. Wydanie II
Co potrafi Twój iPhone? Podręcznik użytkownika. Wydanie IICo potrafi Twój iPhone? Podręcznik użytkownika. Wydanie II
Co potrafi Twój iPhone? Podręcznik użytkownika. Wydanie II
 
Makrofotografia. Magia szczegółu
Makrofotografia. Magia szczegółuMakrofotografia. Magia szczegółu
Makrofotografia. Magia szczegółu
 
Windows PowerShell. Podstawy
Windows PowerShell. PodstawyWindows PowerShell. Podstawy
Windows PowerShell. Podstawy
 
Java. Efektywne programowanie. Wydanie II
Java. Efektywne programowanie. Wydanie IIJava. Efektywne programowanie. Wydanie II
Java. Efektywne programowanie. Wydanie II
 
JavaScript. Pierwsze starcie
JavaScript. Pierwsze starcieJavaScript. Pierwsze starcie
JavaScript. Pierwsze starcie
 
Ajax, JavaScript i PHP. Intensywny trening
Ajax, JavaScript i PHP. Intensywny treningAjax, JavaScript i PHP. Intensywny trening
Ajax, JavaScript i PHP. Intensywny trening
 
PowerPoint 2007 PL. Seria praktyk
PowerPoint 2007 PL. Seria praktykPowerPoint 2007 PL. Seria praktyk
PowerPoint 2007 PL. Seria praktyk
 
Excel 2007 PL. Seria praktyk
Excel 2007 PL. Seria praktykExcel 2007 PL. Seria praktyk
Excel 2007 PL. Seria praktyk
 
Access 2007 PL. Seria praktyk
Access 2007 PL. Seria praktykAccess 2007 PL. Seria praktyk
Access 2007 PL. Seria praktyk
 
Word 2007 PL. Seria praktyk
Word 2007 PL. Seria praktykWord 2007 PL. Seria praktyk
Word 2007 PL. Seria praktyk
 
Serwisy społecznościowe. Budowa, administracja i moderacja
Serwisy społecznościowe. Budowa, administracja i moderacjaSerwisy społecznościowe. Budowa, administracja i moderacja
Serwisy społecznościowe. Budowa, administracja i moderacja
 
AutoCAD 2008 i 2008 PL
AutoCAD 2008 i 2008 PLAutoCAD 2008 i 2008 PL
AutoCAD 2008 i 2008 PL
 
Bazy danych. Pierwsze starcie
Bazy danych. Pierwsze starcieBazy danych. Pierwsze starcie
Bazy danych. Pierwsze starcie
 
Inventor. Pierwsze kroki
Inventor. Pierwsze krokiInventor. Pierwsze kroki
Inventor. Pierwsze kroki
 

Zarządzanie przechowywaniem danych w sieci

  • 1. IDZ DO PRZYK£ADOWY ROZDZIA£ SPIS TRE CI Zarz¹dzanie przechowywaniem danych w sieci KATALOG KSI¥¯EK Autor: Jon William Toigo T³umaczenie: Wojciech Federowicz (rozdz. 9 – 11), Danuta KATALOG ONLINE Ochman (rozdz. 4 – 5), Grzegorz Werner (rozdz. 1 – 3, 6 – 8, dod. A) ISBN: 83-7361-457-5 ZAMÓW DRUKOWANY KATALOG Tytu³ orygina³u: The Holy Grail of Network Storage Management Format: B5, stron: 264 TWÓJ KOSZYK DODAJ DO KOSZYKA W wielu organizacjach wydatki zwi¹zane z przechowywaniem danych to znaczna czê æ bud¿etu przeznaczonego na informatykê. Sytuacji tej nie zmienia ci¹g³y spadek cen no ników. Co wiêc jest tego powodem? W wiêkszo ci przypadków brak odpowiednich CENNIK I INFORMACJE narzêdzi lub umiejêtno ci w ród personelu, bezkrytyczna wiara w slogany reklamowe producentów pamiêci masowych i ograniczenia stawiane przez wspó³czesn¹ ZAMÓW INFORMACJE technologiê. Prawdziwa infrastruktura pamiêciowa — zdefiniowana przez odpowiedni O NOWO CIACH sposób zarz¹dzania i dzia³ania — w wiêkszo ci firm i organizacji nadal pozostaje nieosi¹galnym idea³em. ZAMÓW CENNIK Lektura ksi¹¿ki „Zarz¹dzanie przechowywaniem danych w sieci” pozwoli Ci unikn¹æ wielu b³êdów powstaj¹cych podczas projektowania i wykorzystywania infrastruktury pamiêciowej dla organizacji. Znajdziesz w niej obiektywny i interesuj¹cy przegl¹d CZYTELNIA wspó³czesnych technologii, mo¿liwo ci ich wykorzystania przedstawione z punktu widzenia u¿ytkownika oraz wskazówki pozwalaj¹ce rozwi¹zaæ dwa najistotniejsze FRAGMENTY KSI¥¯EK ONLINE zagadnienia zwi¹zane z pamiêciami masowymi — dostarczanie pamiêci aplikacjom oraz ochronê danych przed uszkodzeniem lub utrat¹. Dziêki ksi¹¿ce nauczysz siê oceniaæ oferowane produkty i wybieraæ tylko te, które przynosz¹ faktyczne korzy ci. Dowiesz siê, jak uzyskaæ maksymaln¹ wydajno æ pamiêci masowej przy minimalnych nak³adach finansowych. • Mit eksplozji danych • Sieci Fibre Channel • Technologia IP SAN • Dobór optymalnej infrastruktury pamiêci masowej • Sposoby zarz¹dzania pamiêci¹ masow¹ • Zabezpieczanie danych przed utrat¹ i uszkodzeniem Wydawnictwo Helion Je li chcesz zaprojektowaæ efektywn¹, zarówno pod wzglêdem wydajno ci, jak ul. Chopina 6 i kosztów, infrastrukturê pamiêci masowej i potrzebujesz przy tym kompetentnej 44-100 Gliwice porady — wybierz tê ksi¹¿kê. tel. (32)230-98-63 e-mail: helion@helion.pl
  • 2. Spis treści Wstęp ............................................................................................... 5 Rozdział 1. Wprowadzenie ................................................................................... 9 Teoria spisku ..................................................................................................................... 9 Bran a pamięci masowej: lęk przed standardami i upowszechnieniem........................... 11 Kolejny powód do obaw: dominujący gracz ............................................................. 14 Droga do unifikacji?........................................................................................................ 16 Wczorajszy dystrybutor, jutrzejszy konkurent ................................................................ 18 O czym jest ta ksią ka? ................................................................................................... 20 Rozdział 2. Eksplozja danych i sprawy dysku ...................................................... 21 Mit eksplozji danych ....................................................................................................... 21 Dekonstrukcja mitu eksplozji danych.............................................................................. 24 Sieciowa pamięć masowa — fakty i fikcja...................................................................... 27 Od ewolucji do rewolucji: mit sieci pamięci masowej Fibre Channel............................. 30 Rozdział 3. Oksymoron XXI wieku: sieci pamięci masowej Fibre Channel ............ 33 Sieci SAN i efektywność przydziału pojemności ............................................................ 35 Słowo na „w” .................................................................................................................. 37 Efektywne wykorzystanie pojemności: kolejny Graal..................................................... 39 A co z zarządzaniem?...................................................................................................... 40 Wnioski ........................................................................................................................... 45 Rozdział 4. IP SAN — czy rozsądne? .................................................................. 47 IP SAN i prawo Metcalfa ................................................................................................ 49 iSCSI: co, gdzie i kiedy? ................................................................................................. 52 Dlaczego IP SAN?........................................................................................................... 54 Wnioski ........................................................................................................................... 56 Rozdział 5. W poszukiwaniu sieciowej pamięci masowej: wszystkie drogi prowadzą do Rzymu ................................................. 57 Sieciowa pamięć masowa — zagadka Zen...................................................................... 57 Blok i plik........................................................................................................................ 60 Hybrydy NAS/SAN......................................................................................................... 65 Wnioski ........................................................................................................................... 68 Rozdział 6. Bardziej „inteligentne” platformy pamięci masowej ........................... 69 Korzyści zapewniane przez infrastrukturę pamięciową................................................... 70 Bariery wzrostu pojemności dysku i ich wpływ na wybór platformy.............................. 72 Materiały nośne ............................................................................................................... 76 Pojemność a wydajność i inne realia ekonomiczne ......................................................... 78
  • 3. 4 Zarządzanie przechowywaniem danych w sieci Realia ekonomiczne ........................................................................................................ 79 Z powrotem do architektury ............................................................................................ 80 Kryteria wyboru dysków i macierzy................................................................................ 89 „Inteligencja” pamięci masowej zaczyna się od świadomego i pragmatycznego wyboru urządzeń.............................................................................. 94 Rozdział 7. Wirtualizacja: nadal brzydkie słowo?................................................. 95 Krótki przegląd wirtualizacji w technologii informatycznej............................................ 96 Sieci SAN i wirtualizacja ................................................................................................ 97 Wirtualizacja oparta na oprogramowaniu w hoście......................................................... 99 Wirtualizacja wewnątrzpasmowa .................................................................................. 101 Wirtualizacja zewnątrzpasmowa ................................................................................... 105 Wirtualizacja oparta na kontrolerze macierzy ............................................................... 106 Czy przełączniki będą nową platformą wirtualizacyjną?............................................... 107 Powrót do rzeczywistości .............................................................................................. 109 Rozdział 8. Jak uzyskać prawdziwe korzyści z pamięci masowej?...................... 113 Co to jest efektywne wykorzystanie pojemności? ......................................................... 114 Hierarchiczne zarządzanie pamięcią.............................................................................. 116 Krótki przegląd architektury zarządzania pamięcią masową ......................................... 119 Zarządzanie skupione na produkcie............................................................................... 119 Zarządzanie skupione na infrastrukturze albo zarządzanie zasobami pamięciowymi (SRM) ..................................................... 120 Zarządzanie skupione na aplikacji................................................................................. 122 Zarządzanie pamięcią masową skupione na danych...................................................... 125 To nie spekulacje........................................................................................................... 128 W oczekiwaniu na zarządzanie skupione na danych ..................................................... 129 Rozdział 9. Ostatnie słowo: taśma umarła… prawdopodobnie ........................... 133 Ochrona danych............................................................................................................. 136 Kopia zapasowa a kopia lustrzana................................................................................. 137 Taśma nie jest lekiem na wszystko................................................................................ 141 Kopia lustrzana to nie „srebrny pocisk” ........................................................................ 145 Istnieją skuteczniejsze metody tworzenia kopii zapasowych ........................................ 149 Ograniczanie czasu tworzenia kopii zapasowej............................................................. 151 DDT: nie pestycyd, ale zupełnie inne DDT................................................................... 151 Szybsze odzyskiwanie danych....................................................................................... 155 Wnioski ......................................................................................................................... 161 Rozdział 10. Oko cyklonu .................................................................................. 163 Bezpieczeństwo pamięci masowej ................................................................................ 165 ABC systemu zabezpieczeń .......................................................................................... 168 Co zapewnia większe bezpieczeństwo: IP czy Fibre Channel? ..................................... 173 Najnowsze technologie.................................................................................................. 178 Szyfrowanie danych w pamięci masowej...................................................................... 179 Inne pomysły na zabezpieczanie pamięci masowej ....................................................... 183 Wnioski ......................................................................................................................... 184 Rozdział 11. Podsumowanie: w poszukiwaniu doskonałości ................................ 187 Jakieś rozwiązanie musi się przecie znaleźć ................................................................ 191 Profesjonalizm, pragmatyzm i konsumpcjonizm........................................................... 196 Co mo na zrobić?.......................................................................................................... 199 Słowniczek .................................................................................... 201 Skorowidz...................................................................................... 249
  • 4. Rozdział 2. Eksplozja danych i sprawy dysku Przeczytaj dowolne opracowanie poświęcone pamięci masowej — broszurę produ- centa, referat analityka, felieton eksperta albo artykuł w prasie bran owej — a praw- dopodobnie znajdziesz w nim pewien wcią powracający motyw: twierdzenie o bez- przykładnym tempie przyrostu danych. Zjawisko to zwykło się określać popularnym mianem „eksplozji danych”. Wokół tempa przyrostu danych i jego związku ze strategicznym planowaniem pamię- ci masowej oraz zakupami sieciowych technologii pamięciowych urosło wiele mitów. Ich propagatorzy twierdzą, e objętość danych podwaja się mniej więcej co rok i e właśnie wskutek tego mened erowie IT z całego świata stawiają na sieci pamięci ma- sowej (ang. storage area network, SAN). Zwolennicy tego poglądu — przede wszystkim producenci urządzeń Fibre Channel SAN — starają się uczynić mit eksplozji danych czymś oczywistym, nie poddawa- nym dyskusji. Zgodnie ze znanym powszechnie powiedzeniem, często powtarzane kłamstwo staje się prawdą. Jak się zdaje, producenci urządzeń FC SAN wychodzą z tego zało enia, kiedy próbują dowieść przydatności swoich produktów. W tym rozdziale zmierzymy się z mitami i rzeczywistością przyrostu danych w kon- tekście sieciowej pamięci masowej. Mamy nadzieję, e pomo e Ci to zachować więk- szy krytycyzm, kiedy będziesz przeglądał oferty i oceniał produkty zalecane przez wytwórców, analityków i inne źródła informacji w bran y pamięci masowej. Mit eksplozji danych Mniej więcej w tym samym czasie, kiedy opublikowano ksią kę The Holy Grail of Data Storage Management (czyli na przełomie roku 1999 i 2000), analitycy właśnie zaczynali występować na konferencjach bran owych z dobrze dziś znanym twierdzeniem
  • 5. 22 Zarządzanie przechowywaniem danych w sieci o eksplozji danych, która zagra a współczesnym organizacjom biznesowym. Argu- mentowali, e we wszystkich organizacjach tempo przyrostu danych jest przewidy- walne i wykładnicze. Według opinii ró nych analityków, objętość danych generowa- nych przez współczesne firmy miała rosnąć w średnim tempie od 60 do 120 procent rocznie. Tezy te w pewnym stopniu uwiarygodniło wybiórcze odczytanie sporządzonego na Uniwersytecie Kalifornijskim w Berkeley raportu, który — co warto zaznaczyć — był sponsorowany przez czołowego producenta z bran y pamięci masowej. Wyniki badań wskazywały, e całkowita objętość informacji cyfrowych utworzonych do roku 2000 podwoi się w roku 20021. Badacze twierdzili, e do końca tysiąclecia wygene- rowano mniej więcej 2 eksabajty (1018 bajtów) danych elektronicznych (zobacz tabela 2.1) i e nale y oczekiwać podwojenia tej objętości do 2002 roku. Tabela 2.1. Szacunkowa objętość danych cyfrowych w 2000 roku według raportu opracowanego na Uniwersytecie Kalifornijskim w Berkeley Tempo Nośnik Terabajty/rok, Terabajty/rok, Typ zawartości przyrostu pamięciowy górna granica dolna granica (w procentach) Papier Ksią ki 8 1 2 Gazety 25 2 -2 Czasopisma 12 1 2 Dokumenty biurowe 195 19 2 Suma częściowa: 240 23 2 Błona filmowa Fotografie 410 000 41 000 5 Filmy 16 16 3 Zdjęcia rentgenowskie 17 200 17 200 2 Suma częściowa: 427 216 58 216 4 Nośniki optyczne Muzyczne dyski CD 58 6 3 Dyski CD z danymi 3 3 2 Dyski DVD 22 22 100 Suma częściowa: 83 31 70 Nośniki Taśmy wideo 300 000 300 000 5 magnetyczne Dyski twarde w 766 000 7 660 100 komputerach PC Serwery wydziałowe 460 000 161 000 100 Serwery korporacyjne 167 000 108 550 100 Suma częściowa: 1 693 000 577 210 55 SUMA: 2 120 539 635 480 50 1 Lyman, Peter i Hal R. Varian, „How Much Information”, 2000. Pobrano spod adresu http://www.sims.berkeley.edu/how-much-info 18 sierpnia 2002 roku.
  • 6. Rozdział 2. ♦ Eksplozja danych i sprawy dysku 23 W bran y pamięci masowej badania te okrzyknięto naukowym potwierdzeniem tezy o eksplozji danych. Producenci uchwycili się „empirycznych dowodów” przedstawio- nych w raporcie, ale zignorowali fakt, e badacze ostro nie zastrzegli swoje wnioski i podali dolny próg szacowanej objętości danych, stanowiący zaledwie jedną czwartą górnego progu. Pominęli te milczeniem inne odkrycie profesorów z Berkeley — e większość nowych danych nie jest generowana przez organizacje i przechowywana w korporacyjnych podsystemach pamięci masowej. Zalew danych cyfrowych był przede wszystkim dziełem osób prywatnych, które w akcie „demokratyzacji danych” zapisywały zdjęcia z aparatów cyfrowych, filmy wideo w formatach AVI i MPEG, ksią ki elektroniczne oraz pocztę e-mail na dyskach swoich komputerów osobistych. Producenci uzasadnili więc swoją tezę o eksplozji danych dość wybiórczą lekturą ra- portu z Berkeley. Mit ten wykorzystano zresztą szybko do innego celu: miał on wyja- śniać, czemu sieciowe technologie pamięciowe — zwłaszcza SAN — są niezbędne dla przedsiębiorstw. Jak twierdzili producenci, jedynym sposobem ekonomicznego rozwiązania problemu skalowalności (wywołanego eksplozją danych) miała być kon- solidacja i centralizacja danych cyfrowych w sieci pamięci masowej. Kluczowym argumentem producentów było to, e sieć SAN pozwala przezwycię yć ograniczenia topologii pamięci masowej, która obecnie dominuje na rynku: pamięci podłączonej do serwera (ang. server-attached storage, SAS). Ró nice między SAS i SAN przedstawiono na rysunku 2.1. Rysunek 2.1. Topologie SAN i SAS W przypadku pamięci podłączonej do serwera (czasem nazywanej pamięcią podłą- czoną bezpośrednio — ang. direct-attached storage, DAS) zwiększenie pojemności platformy pamięciowej wymaga dodania dysków do macierzy podłączonej do hosta z aplikacją. W tym celu trzeba najpierw zamknąć aplikacje działające na serwerze i wyłączyć sam serwer. Następnie mo emy ju rozbudować macierz pamięciową o dodatkowe dyski; kiedy to zrobimy, ponownie włączamy serwer, uruchamiamy jego system operacyjny i rejestrujemy w systemie woluminy rozbudowanej macierzy.
  • 7. 24 Zarządzanie przechowywaniem danych w sieci Producenci argumentowali, e skalowanie pamięci SAS w opisany wy ej sposób po- woduje wiele kosztownych przestojów. Co gorsza, ze względu na eksplozję danych przestoje takie będą coraz częstsze i dłu sze. Potrzebna jest więc alternatywna, „bez- zakłóceniowa” metoda skalowania pamięci masowej. Według producentów taką alternatywą miały być sieci Fibre Channel SAN. W sie- ciach tych rozmiar woluminu pamięci mo na zwiększać bez restartowania serwera, poniewa pamięć i serwery są w tym przypadku rozdzielone. Wystarczy dodać więcej dysków do woluminu SAN — nawet wtedy, kiedy przetwarza on ądania odczytu i zapisu przesyłane przez serwery — eby systemy operacyjne serwerów aplikacji oraz działające w nich aplikacje w „magiczny” sposób „dostrzegły” dodatkową pamięć i zaczęły z niej korzystać. Oczywiście, skalowanie woluminów w sieci FC SAN nie przebiega a tak gładko, o czym będziemy mówić w dalszej części ksią ki. Na razie zadowolimy się stwier- dzeniem producentów, e dzięki dynamicznie skalowanym woluminom pamięcio- wym sieci SAN stanowią technologię infrastrukturalną, bez której nie jest mo liwe uporanie się z problemem eksplozji danych. Z pozoru argument ten jest zarówno niezbijalny, jak i samopotwierdzający się. Jeśli zaakceptujemy początkową przesłankę, czyli twierdzenie o gwałtownym przyroście danych, musimy się zgodzić, e potrzebna jest skalowalna topologia pamięci masowej — którą, teoretycznie, zapewnić mo e sieć SAN2. Dekonstrukcja mitu eksplozji danych Trzeba jednak e zaznaczyć, e pierwsza przesłanka „dowodu” uzasadniającego praw- dziwość mitu eksplozji danych — „przewidywalne i wykładnicze tempo przyrostu danych we wszystkich organizacjach” — była i nadal jest wątpliwa. Prawda jest taka, e analitycy nie mogą ustalić średniego tempa przyrostu danych w organizacjach. Brak im danych empirycznych, więc zamiast nich kierują się informacjami o łącznej pojemności produktów pamięciowych sprzedanych na rynku. Innymi słowy, analitycy ekstrapolują trendy z bardzo podejrzanych zbiorów danych (prognoz wielkości sprze- da y opracowywanych przez producentów). Na niedawnej konferencji bran owej miałem przyjemność przewodzić dyskusji pa- nelowej, w której udział wzięło kilku znanych analityków rynku pamięci masowej. Była to dobra okazja, eby zapytać jednego z nich o podstawy jego prognoz o stupro- centowym rocznym przyroście danych. Jego pierwsza reakcja polegała na dyskretnym wycofaniu się: „OK, mo e raczej 70 procent rocznie”. Przyciśnięty nieco mocniej 2 Mit eksplozji danych posłu ył nie tylko do promowania sieci SAN. Był równie wygodną wymówką dla wielu informatyków, poniewa wyjaśniał coraz dłu sze przestoje serwerów i rosnące wydatki na technologie pamięci masowej. W końcu stał się usprawiedliwieniem praktycznie wszystkich problemów z pamięcią masową i serwerami, nawet tych, które nie miały adnego związku z pojemnością i wykorzystaniem pamięci.
  • 8. Rozdział 2. ♦ Eksplozja danych i sprawy dysku 25 przyznał, e nie da się dokładnie ustalić rocznego tempa przyrostu danych i e większość informacji, na których się oparł, dostarczyli sami producenci. Na widowni rozległy się śmiechy, a nieco zmieszany analityk dodał: „Có , zapytałem te kilku u ytkowni- ków, a oni powiedzieli mi, e te liczby wydają się zgodne z ich doświadczeniami”. Od tego czasu analitycy wielokrotnie zapewniali, e ich prognozy przyrostu danych znajdują potwierdzenie w wywiadach z klientami, którzy są zarazem u ytkownikami pamięci masowej, jak i abonentami usług raportowych oraz analitycznych. Argumenty te są pod wieloma względami problematyczne: Opierają się na rozumowaniu indukcyjnym. Uogólnienie kilku specyficznych przykładów trudno uznać za logiczną podstawę do wskazywania trendów. Prawidłowość teorii lepiej jest weryfikować za pomocą dedukcji, a nie indukcji, zwłaszcza gdy brak bardzo du ego zbioru danych empirycznych o wysokim stopniu wiarygodności (rysunek 2.2 ilustruje ró nicę w obu typach dowodzenia). Rysunek 2.2. Rozumowanie indukcyjne i dedukcyjne Zale ą od dokładności danych uzyskanych od klientów. Większość informatyków (i dostawców rozwiązań informatycznych) zgodzi się, e firmy zwykle nie znają rzeczywistego tempa przyrostu danych w swoich środowiskach pamięci masowej. Na firmowych dyskach jest tyle danych przestarzałych, powielonych, niepotrzebnych lub nie mających związku z działalnością biznesową, e analizy tempa przyrostu danych — jeśli w ogóle są wykonywane — dają znacznie zawy one wyniki. Co więcej, ankietowanie u ytkowników jest mało wiarygodną metodą. Respondenci często mijają się z prawdą — aby uzyskać więcej funduszy na preferowany sprzęt, aby wykazać się „inteligencją” przed ankieterem, aby usprawiedliwić albo ukryć błędne decyzje lub zakupy itd. Raporty u ytkowników budzą więc du e wątpliwości. Niczego nie dowodzi tak e uzupełnienie informacji z ankiet danymi o wydatkach na platformy pamięci masowej. Zastępowanie rzeczywistych ocen przyrostu danych informacjami o wydatkach i przychodach związanych z pamięcią masową mo e się wydawać właściwym sposobem wyjaśnienia eksplozji danych, ale w rzeczywistości jest inaczej. W wielu organizacjach zakupy nowych platform pamięciowych nie odzwierciedlają przyrostu danych, ale złe zarządzanie tymi ostatnimi. Kiedy na przykład brak efektywnych narzędzi do zarządzania pojemnością i pozyskiwaniem pamięci, mo na odnieść wra enie, e aplikacje potrzebują nieustannego dopływu nowych dysków montowanych w obudowach autonomicznych macierzy pamięciowych. Jednak e dzięki dobrym narzędziom do pozyskiwania pamięci aplikacje
  • 9. 26 Zarządzanie przechowywaniem danych w sieci o wysokich wymaganiach mogłyby czerpać dodatkowe zasoby z platform pamięciowych przydzielonych aplikacjom o ni szych wymaganiach. To z kolei zmniejszyłoby zapotrzebowanie na nowe macierze. W takim przypadku nie zmieniłoby się tempo przyrostu danych, ale efektywność korzystania z istniejących zasobów. Jeśli jednak uwzględniamy tylko wydatki na nowe macierze pamięciowe, tempo przyrostu danych nie jest intuicyjnie oczywiste. Cynik mógłby pomyśleć, e analitycy bran owi wywołali widmo eksplozji danych w zmowie z producentami pamięci masowej. Choć trudno byłoby to udowodnić, warto zauwa yć, e mit eksplozji danych stał się mantrą analityków mniej więcej w tym samym czasie, gdy opadało zainteresowanie takimi „tematami zastępczymi” jak uproszczone klienty3, usługi aplikacyjne pierwszej generacji i „rewolucja dot.comów”. Mo e to tylko przypadek, e mit eksplozji danych pojawił się wtedy, kiedy społecz- ność analityków potrzebowała nowej „dojnej krowy” — oryginalnego tematu, który przyczyniłby się do zwiększenia sprzeda y produktów i usług informacyjnych. Z pewnością dla wielu bran owych firm analitycznych eksplozja danych rozpoczęła się w bardzo sprzyjającym momencie. W rzeczywistości jedyną metodą uzyskania wiarygodnych informacji o tempie przy- rostu danych jest konsultacja z u ytkownikami, którzy przeprowadzili wyczerpującą analizę bie ących trendów wykorzystania pojemności pamięci masowej. Takie dane są trudno dostępne ze względu na ró norakie problemy i koszty związane z ich gro- madzeniem. Większość firm dysponuje ograniczonymi informacjami, które mogłyby potwierdzać przewidywane tempo przyrostu danych, a wiele twierdzi, e wdro enie narzędzi do analizowania topologii pamięci masowej pozwoliło odkryć w szafach i po- mieszczeniach ze sprzętem platformy pamięciowe, o których nikt nie wiedział! Podsumowując: twierdzenia o eksplozji danych są w du ej mierze nieuzasadnione i opierają się na wątpliwych dowodach. Nie da się zaprzeczyć, e w wielu organizacjach tempo przyrostu danych jest szybkie, ale ocena tego, jak szybkie, musi pozostać kwe- stią domysłów — zwłaszcza przy braku efektywnego zarządzania pamięcią masową. W Centrum Lotów Kosmicznych NASA w Goddard (GSFC) zespół badaczy uzbrojo- nych głównie w cierpliwość i wytrwałość pracował niemal dwa lata, aby sporządzić wiarygodną prognozę przyrostu danych; stwierdzono, e poczynając od roku 2000, 3 W połowie lat 90. społeczność analityków usiłowała wzbudzić zainteresowanie zjawiskiem nazywanym „rewolucją uproszczonych klientów”. Analitycy firmy Gartner Group — a za nimi tak e innych firm analitycznych — stwierdzili, e „rozbudowane klienty” z systemem Windows stanowią nadmierne obcią enie korporacyjnych zasobów, i zaczęli promować koncepcję uproszczonego terminala z przeglądarką WWW i wirtualną maszyną Javy jako zamiennika dla drogich w konserwacji „wintelowskich” komputerów biurkowych. Zapoczątkowało to serię przypadków, w których analitycy mający obserwować i raportować trendy sami próbowali je tworzyć, aby móc je później monitorować i analizować. Po niemal dwóch latach szumu wokół uproszczonych klientów „rewolucja” zakończyła się fiaskiem i nawet analitycy z firmy Gartner musieli przyznać, e był to „poniekąd temat zastępczy”. (Na sprostowanie składał się jednak zaledwie jeden akapit tekstu, wydrukowany bardzo małą czcionką na ostatnich stronach jednego z mniej wa nych biuletynów: koniec rzekomej rewolucji został więc ogłoszony znacznie dyskretniej, ni jej początek).
  • 10. Rozdział 2. ♦ Eksplozja danych i sprawy dysku 27 codziennie będzie dodawany 1 TB danych4. W skomplikowanym środowisku GSFC z pewnością niełatwo było ustalić trendy wykorzystania pojemności pamięci masowej; odpowiednie rozdysponowanie skromnych zasobów jest zasługą Miltona Halema, uzdolnionego i pracowitego dyrektora ds. informacji, który potrzebował tych danych do opracowania strategicznego planu wzrostu i rozwoju infrastruktury informatycznej. Niewiele osób — czy to w sektorze państwowym, czy prywatnym — wykazało się taką gorliwością podczas ustalania faktycznych informacji dotyczących przyrostu da- nych w ich własnych środowiskach komputerowych. Jest kilka wyjaśnień tego stanu rzeczy. Wiele osób powiedziało mi, e narzędzia pro- gramowe do ustalania trendów przyrostu danych nie spełniają swoich zadań, a bez odpowiedniego oprogramowania sporządzenie analizy jest po prostu zbyt trudne. Inni zauwa yli, e spod kontroli wymykają się nie tyle dane, co u ytkownicy. Zwłaszcza popularność poczty elektronicznej sprawia, e mened erowie nie mogą efektywnie nadzorować tempa przyrostu danych, poniewa to u ytkownicy ostatecznie decydują, które dane zostaną zapisane, a które odrzucone. Jeszcze inni winą za niekontrolowany przyrost danych obarczają brak konsekwentnej lub wymuszonej polityki administra- cyjnej: w wielu firmach dyrektorzy ds. informacji zmieniają się co 18 do 24 miesięcy, a ka dy nowy dyrektor ma własne preferencje dotyczące producentów, technologii i polityki. Co więcej, w wielu organizacjach zarządzanie infrastrukturą informatyczną w ogóle nie jest scentralizowane, a korporacyjni informatycy skar ą się, e trudno jest nakłonić kierowników działów albo jednostek biznesowych — lub administratorów poszczególnych systemów — do współpracy nad ustaleniem tempa przyrostu danych albo opracowaniem polityki zarządzania informacjami. Analiza ta wskazuje, e w większość organizacji nikt nie ma pojęcia o tempie przyro- stu danych we własnym środowisku informatycznym. Wiadomo tylko tyle, e nie- kontrolowany przyrost kosztuje. Kiedy aplikacja próbuje zapisać dane, a serwer zgła- sza komunikat „dysk pełny”, trzeba zaczekać, a personel techniczny doda dysk do macierzy albo zainstaluje kolejny serwer z nową macierzą. Sieciowa pamięć masowa — fakty i fikcja Panaceum na eksplozję danych mają być rozwiązania określane wspólnym mianem „sieciowej pamięci masowej”. Sieciowa pamięć masowa to pojęcie „marketektoniczne”, które obecnie obejmuje sieci pamięciowe (ang. storage area network, SAN) oraz pa- mięć dołączoną przez sieć (ang. network attached storage, NAS). W opracowaniach bran owych (broszurach, referatach, artykułach prasowych itp.) sieciowa pamięć masowa jest często opisywana jako rewolucyjne odejście od tra- dycyjnej pamięci podłączonej do serwera (czasem nazywanej „pamięcią uwięzioną 4 Zobacz Jon William Toigo, „Storage Area Networks Still on Washington Wish List”, Washington Technology, 11 września 2000, http://www.washingtontechnology.com.
  • 11. 28 Zarządzanie przechowywaniem danych w sieci w serwerze”). Ogólnie rzecz biorąc, obejmuje ona topologie, w których platformy pamięciowe tworzą odrębną infrastrukturę, co pozwala na: skalowanie pamięci masowej bez zakłócania pracy aplikacji, zwiększenie dostępności pamięci masowej, samoczynne zarządzanie pamięcią masową, inteligentne i automatyczne pozyskiwanie oraz konserwowanie pamięci. Jeden z pierwszych opisów sieciowej pamięci masowej pojawił się w wizjonerskim artykule firmy Compaq Corporation, który omówiono w poprzedniej ksią ce z serii Holy Grail. Kiedy w latach 90. Compaq nabyła firmę Digital Equipment Corporation, wraz z nią przejęła koncepcję sieciowej pamięci masowej znaną jako Enterprise Ne- twork Storage Architecture (ENSA), którą w 1997 roku przedstawiono w artykule przeglądowym o takim właśnie tytule. W artykule zaproponowano infrastrukturę pamięci masowej, która cechowała się wy- mienionymi wy ej właściwościami: skalowalnością, dostępnością, zarządzalnością i inteligencją. Nikt w Compaq, przynajmniej początkowo, nie tłumaczył zalet infra- struktury ENSA eksplozją danych: ENSA miała po prostu zapewniać elegancką i ewo- lucyjną strategię zarządzania przechowywaniem danych. Artykuł ENSA przewidywał malejące zyski ze sprzeda y coraz powszechniejszych dysków twardych oraz konieczność uzupełnienia oferty platform pamięciowych o oprogramowanie i usługi. Autorzy prawdopodobnie dostrzegli te zjawisko superpa- ramagnetyzmu i jego wpływ na pamięć dyskową. Jak wiadomo, od połowy lat 90. dość systematycznie zwiększa się pojemność dysków i maleją ich ceny. Według obserwatorów bran y pojemność dysków podwaja się mniej więcej co 18 miesięcy, a ceny zmniejszają się o połowę co 12 miesięcy (zobacz rysunek 2.3). Tendencja ta była motorem wzrostu sprzeda y produktów pamięcio- wych w minionej dekadzie, ale miała ten niefortunny skutek uboczny, e klienci za- częli rozwiązywać problemy spowodowane złym zarządzaniem pamięcią, dokładając do swoich systemów coraz więcej niedrogich dysków. W roku 2000 przypomniano sobie jednak o interesującej właściwości dysków ma- gnetycznych: konwencjonalna technologia dyskowa narzucała nieprzekraczalny limit powierzchniowej gęstości danych (liczbę bitów na cal kwadratowy, które mo na nie- zawodnie zapisać i odczytać z talerza dysku). Ograniczenie to jest spowodowane zja- wiskiem fizycznym znanym jako efekt superparamagnetyczny. Przy obecnym tempie wzrostu pojemności dysków granica ta zostanie osiągnięta ju w 2005 albo 2006 roku. Superparamagnetyzm, mówiąc prosto, to punkt, w którym energia magnetyczna utrzymująca bity zapisane na nośniku w ich zarejestrowanym stanie staje się równa energii termicznej wytwarzanej przez działanie dysku. Przekroczenie tej granicy po- woduje przypadkowe przestawianie bitów i sprawia, e dysk staje się zawodny. W przeszłości producenci wielokrotnie rozwa ali kwestię ograniczenia pojemności dysków spowodowanego efektem superparamagnetycznym. Kiedy jednak jeden z nich ogłosił nieprzekraczalny limit pojemności dysku, a następnie został „poprawiony”
  • 12. Rozdział 2. ♦ Eksplozja danych i sprawy dysku 29 Rysunek 2.3. Wzrost pojemności dysków i spadek ceny za megabajt przez konkurenta, który stwierdził, e dzięki lepszej technologii mo e skonstruować bardziej pojemny dysk, kompromitacja okazała się na tyle dotkliwa, e większość producentów postanowiła nie mówić o tych sprawach publicznie. Pomimo to, kiedy w roku 2000 pisałem artykuł na ten temat dla Scientific American5, czołowi producenci dysków — w tym Seagate, Hewlett-Packard, Quantum i IBM — niechętnie podzielili się ze mną „najbardziej prawdopodobnym” oszacowaniem limitu superparamagnetycznego: według nich miało to być 150 gigabitów na cal kwadratowy (Gb/cal2). Jeśli zatem nie nastąpi nieprzewidziany przełom w technologii wytwarza- nia materiałów, które stosuje się do wytwarzania nośników, mo na uznać, e naj- większa gęstość powierzchniowa, jaką mo e zaoferować bie ąca technologia dysko- wa, wynosi 150 Gb/cal2 — a zwa ywszy na tempo wzrostu pojemności (120 procent rocznie) granica ta zostanie szybko osiągnięta (zobacz rysunek 2.4). Inne „egzotyczne” technologie — takie jak rejestrowanie prostopadłe, wspomagane termicznie, bliskopolowe i dalekopolowe (ang. near/far field recording, NFR/FFR), wykorzystanie sił atomowych a nawet pamięć holograficzna — były wprawdzie opra- cowywane w laboratoriach, ale producenci zgodnie twierdzili, e do czasu wprowa- dzenia ich na rynek musi minąć przynajmniej dziesięć lat. Najgorszy scenariusz za- kłada, e konwencjonalny dysk magnetyczny osiągnie limit przynajmniej pięć lat przed tym, kiedy technologie alternatywne będą gotowe do wykorzystania w korpora- cyjnej pamięci masowej. Jest bardzo prawdopodobne, e pierwsi wizjonerzy sieciowej pamięci masowej, w tym pracownicy Digital Equipment Corporation, którzy zasilili szeregi bran y po nabyciu DEC przez Compaq, mieli na uwadze zjawisko superparamagnetyzmu. Aby 5 Jon William Toigo, „Avoiding a Data Crunch”, Scientific American, marzec 2000, www.sciam.com.
  • 13. 30 Zarządzanie przechowywaniem danych w sieci Rysunek 2.4. Gęstość danych i efekt superparamagnetyczny pamięć dyskowa mogła skalować się po osiągnięciu limitu superparamagnetycznego, musiałaby skalować się „poza obudową” — czy to obudową pojedynczego dysku, czy te macierzy dyskowej. Innymi słowy, sieciowa pamięć masowa była niezbędna do podtrzymania dynamiki 120-procentowego wzrostu wydajności przy 50-procentowym spadku kosztów. Było to ewolucyjne rozwiązanie problemu. Od ewolucji do rewolucji: mit sieci pamięci masowej Fibre Channel Niestety, wizja sieciowej pamięci masowej, którą przedstawili autorzy artykułu EN- SA (oraz inni pionierzy w firmie Sun Microsystems i nie tylko) została zawłaszczona i ukazana w innym kontekście przez pracowników działów marketingu pierwszych producentów sieci SAN pod koniec lat 90. i na początku roku 2000. Jak wiele ruchów rewolucyjnych w XX wieku, siły marketingowe stojące za technologią Fibre Channel nie chciały czekać na rzekomo nieuchronny i ewolucyjny zwrot w kierunku sieciowej pamięci masowej. Podobnie jak wielu innych piewców rewolucji ludzie ci próbowali wzbudzić zainteresowanie swoją ulubioną technologią, aby przyspieszyć jej zastosowa- nie. Wkrótce sieci Fibre Channel SAN zaczęły być opisywane jako „technologia nisz- cząca” w stylu Claytona Christensena, która „zrewolucjonizowała” pamięć masową. Producenci uchwycili się mitu eksplozji danych, aby promować rozwiązania, które tylko w niewielkim stopniu przypominały mechanizmy pamięciowe ENSA (albo po- równywalne architektury SAN, lansowane przez projekt StoreX firmy Sun). Technologia Fibre Channel została wprowadzona do u ytku przez potę ne stowarzyszenie bran- owe jako „szkielet” sieci SAN, choć — przynajmniej początkowo — protokół nie
  • 14. Rozdział 2. ♦ Eksplozja danych i sprawy dysku 31 był w stanie utworzyć prawdziwej sieci według jakiejkolwiek definicji tego terminu. Zwolennicy sieci Fibre Channel SAN (które w rzeczywistości są przełączaną infra- strukturą połączeń typu punkt-punkt) szybko zaczęli dominować na forach, na któ- rych dyskutowano o sieciowej pamięci masowej. Pomimo wewnętrznych ograniczeń sieci FC SAN, producenci oferowali je jako „jedyne rozwiązanie” problemu rozra- stających się danych. Jeden mit — eksplozji danych — doprowadził zatem do powstania drugiego: sieci Fibre Channel SAN. Dziś sieci FC SAN są prezentowane jako faktyczny standard sieciowej pamięci masowej, która oddziela pamięć od serwerów i rozwiązuje wszystkie pro- blemy firmy dzięki bezzakłóceniowej skalowalności, uniwersalnej dostępności, usprawnionemu zarządzaniu i lepszej ochronie danych. Analitycy podsycają emocje, twierdząc, e sieci FC SAN są coraz powszechniej u y- wane w infrastrukturach pamięciowych organizacji publicznych i prywatnych: szacowa- no, e roczne tempo wzrostu sieci FC SAN ma wynosić 65 procent a do roku 20046. Tymczasem pamięć podłączona do serwera ma w tym okresie rosnąć „tylko” o 8 pro- cent rocznie. Z tego rodzaju prognoz mo na nauczyć się niejednego o iluzoryczności danych staty- stycznych. Zwa ywszy, e liczba wdro onych rozwiązań z pamięcią podłączoną do serwera jest ogromna, a liczba wdro onych sieci FC SAN wcią niewielka, trzeba stwierdzić, e projekcje analityków są zwodnicze. Mówiąc metaforycznie, gdyby centrum profilaktyki zdrowotnej wydało oświadczenie, e w tym roku liczba osób cierpiących na zwykłe przeziębienie zwiększy się o 8 procent, producenci lekarstw na przeziębie- nie byliby zachwyceni perspektywą zyskania milionów nowych klientów. Gdyby na- tomiast centrum oświadczyło, e liczba osób zara onych wirusem Ebola zwiększy się w tym roku o 68 procent, liczba nowych przypadków (około 10) prawdopodobnie nie wywołałaby większego poruszenia w bran y farmaceutycznej, a prace nad opracowa- niem sposobów leczenia tej choroby zapewne nie posunęłyby się znacznie do przodu. Tak właśnie prezentują się zagadnienia sieci FC SAN i platform pamięci podłączonej do serwera: według niektórych obserwatorów bran y, w 2001 roku wdro onych było zaledwie 11 000 sieci FC SAN7. Większość z nich zawierała mniej ni terabajt danych, co 6 Dane te pojawiały się w licznych raportach analityków w 2000 roku. Nowsze prognozy odzwierciedlają tylko fakt, e organizacje obecnie zmniejszają wydatki na technologię informatyczną. 7 Dane te pochodzą z raportu Randy’ego Kernsa, analityka w firmie The Evaluator Group, i zostały przytoczone w moim artykule „Data Center and Storage Consolidation”, opublikowanym w czasopiśmie Byte & Switch z 17 stycznia 2002 roku — patrz www.byteandswitch.com. Od czasu opublikowania szacunków Kernsa brak wiarygodnych danych o rzeczywistej liczbie wdro onych sieci SAN. Większość analityków liczy sprzedane porty FC (na przełącznikach) albo sprzedane adaptery magistrali FC, aby uzasadnić swoje prognozy wzrostu liczby sieci SAN. Dane te są jednak z natury nieprecyzyjne. W rzeczywistości firmy, które wdra ały pierwsze sieci FC SAN, zdą yły ju zastąpić je raz albo dwa razy nowocześniejszym sprzętem. Wiele portów FC sprzedaje się „z wyprzedzeniem wymagań” ze względu na problemy i ni szą wydajność sieci SAN zrealizowanych jako kaskada mniejszych przełączników. Co więcej, sprzeda adapterów FC niekoniecznie odzwierciedla podłączenia sieci SAN. Protokół FC zapewnia szybkie połączenia typu punkt-punkt, które mo na efektywnie wykorzystać do budowy platform pamięciowych podłączonych do serwera, a nie tylko „sieci pamięci masowej”.
  • 15. 32 Zarządzanie przechowywaniem danych w sieci budzi wątpliwości co do tego, czy sieci FC SAN rzeczywiście zostały powszechnie zaakceptowane jako faktyczny standard topologii sieciowej pamięci masowej8. W następnym rozdziale dokonamy dalszej dekonstrukcji mitologii narosłej wokół sieci FC SAN. Zbadamy ewolucję standardu Fibre Channel oraz protokołów pamięciowych opartych na IP, które pretendują do miana szkieletu sieciowej pamięci masowej. 8 Tu przed wydrukowaniem tej ksią ki analitycy ogłosili, e sieci SAN zastąpiły pamięć SAS jako czołowa topologia pamięciowa nabywana obecnie przez firmy. Nie wiadomo, na czym oparto to stwierdzenie. Trudno powiedzieć, co właściwie się mierzy i co zalicza do sieci SAN. Jeśli analitycy liczą porty adapterów FC, ich konkluzje mogą być niedokładne, poniewa technologii Fibre Channel coraz częściej u ywa się do bezpośredniego podłączania macierzy dyskowych (do czego zresztą dobrze się ona nadaje).