Artykuły dotyczące tematu: chmura obliczeniowa

dodany: 18.05.2013 | tagi: ,

Top 7 mitów na temat cloud computingu

1
cloud

Wraz z rosnącą popularnością cloud computingu pojawiają się kolejne pytania i wątpliwości. Opracowania, które starają się je wyjaśniać, zawierają jednak rozbieżne informacje. W związku z tym wokół technologii przetwarzania danych w chmurze narosło wiele mitów.

Mit nr 1: Cloud computing – nie znam, nie korzystałem

Wielu z nas cloud computing kojarzy się ze skomplikowaną w obsłudze technologią dla geeków. Tymczasem możemy nie zdawać sobie sprawy z tego, że z usług w chmurze korzystamy bardzo często i to od lat. Używamy aplikacji biurowych przez internet i serwisów do księgowości online (jak np. Firma.pl), darmowych kont e-mailowych z dostępem przez przeglądarkę czy wirtualnych platform, pozwalających na przechowywanie plików, jak Dropbox czy Evernote. Do innych usług cloud computingowych należą także znane chyba wszystkim narzędzia, jak Google Calendar czy Dysk Google.

Mit 2: Chmura jest zbyt trudna w obsłudze

Ci, którzy korzystali z wyżej wymienionych usług w chmurze wiedzą, że ich obsługa jest nieskomplikowana, a dostęp do własnych zasobów dzięki nim szybki i możliwy o każdej porze dnia i z każdego miejsca na świecie. Oczywiście to nie jedyny rodzaj rozwiązań cloud computingowych – jest ich o wiele więcej. Z tego względu, że mają różny stopień złożoności, mogą wiązać się z mniej lub bardziej zaawansowanym poziomem kontroli. Najprostszymi w obsłudze są aplikacje i systemy dostępne w formie usługi (SaaS), natomiast infrastruktura (IaaS) czy platforma (PaaS), udostępniona w modelu cloud computingu, to rozwiązania specjalistyczne.

Mit nr 3: Mam małą firmę, a to rozwiązanie tylko dla korporacji

Niemal wszystkie przedsiębiorstwa, każdej wielkości, aby mogły się rozwijać, potrzebują infrastruktury komputerowej, przestrzeni do przechowywania firmowych danych, a także oprogramowania: od prostych aplikacji biurowych (np. CRM), do złożonych systemów (jak np. ERP). Nie zawsze jednak firmy rozpoczynające działalność stać jest na takie inwestycje. Dzięki usługom dostępnym w chmurze, nawet mikroprzedsiębiorstwo może założyć e-sklep, bez kupowania programu i instalowania go na własnym serwerze (np. IAI-Shop.com) czy uruchomić start-up wymagający posiadania infrastruktury, która pomieści gigabajty danych, rozrastających się w sposób nieprzewidywalny i szybki.

Mit nr 4: Chmura publiczna – najtańszy sposób, aby korzystać z usług IT

Według wielu opinii usługi dostępne w modelu cloud computingowym są najtańszą opcją rozwiązań IT na rynku. To nie do końca prawda. Z jednej strony, korzystając z chmury, płacimy za tyle mocy obliczeniowej czy przestrzeni dyskowej, ile zużyjemy. W przypadku własnej infrastruktury serwerowej, zwykle nie wykorzystujemy jej wszystkich możliwości. Cloud computing opłaca się również w przypadku wdrażania usług (na starcie nie potrzebujemy własnego zaplecza serwerowego czy wyspecjalizowanego zespołu do zarządzania nim). Z drugiej strony jednak, wraz z rozwojem naszego biznesu, będziemy potrzebować rozwiązań, które sprostają naszym rosnącym wymaganiom co do bezpieczeństwa, wydajności i dostępności. Jest nim np. chmura prywatna, której wdrożenie wiąże się z wyższymi, niż w przypadku chmury publicznej, kosztami.

Mit 5: Najpierw wirtualizacja, potem cloud computing

Wirtualizacja może poprawić wykorzystanie własnych zasobów oraz efektywność zarządzania przestrzenią IT. Wiele firm decyduje się na usługi cloud computingowe, gdy poznają zalety wirtualizacji. Jednak przygotowywanie infrastruktury informatycznej do wdrożenia rozwiązań w modelu cloud computingowym, przy wcześniejszym zastosowaniu rozwiązań wirtualizacyjnych, nie jest konieczne. Poza tym przekształcenie przestrzeni wirtualizacyjnej w środowisko chmury prywatnej wymaga uzupełnienia jej o istotne składniki i jest to długa droga. Cloud computing sam w sobie ma potencjał do redukcji kosztów ogólnych i ulepszania infrastruktury, przy zapewnianiu ciągłości pracy.

Mit nr 6: Chmura oznacza 100% dostępność

Twierdzenie, że wraz z rozpoczęciem korzystania z chmury nie będziemy się już martwić o problemy z wydajnością czy przestojami, jest nieprawdziwe. Wszyscy wiemy, że awarie zdążają się nawet największym dostawcom chmury, jak np. Google czy Amazon. Poza tym, żadna technologia nie jest niezawodna. Z tego względu, decydując się na korzystanie z usług oferowanych w modelu cloud computing, musisz określić wymagane przez siebie warunki dostępności umową SLA (z ang. Service Level Agreement). Za ich nieprzestrzeganie, konsekwencje ponosi dostawca chmury. Warto być świadomym, że jeśli usługodawca oferuje Ci dostępność usługi na poziomie 99%, to oznacza, że Twoja aplikacja czy system mogą być niedostępne przez kilka godzin w miesiącu.

Mit 7: Dane w chmurze są mniej bezpieczne, niż na własnym serwerze

Za bezpieczniejsze miejsce do przechowywania własnych zasobów uważasz własny serwer, a nie chmurę? Jeśli Twój dysk uległby zniszczeniu, to straciłbyś swoje dane na zawsze (chyba, że skorzystałbyś z bardzo drogiej usługi odzysku danych czy zadbałbyś wcześniej o kopię zapasową). Bezpieczeństwo naszych danych w chmurze zależy głównie od dostawcy – im bardziej zaufany, tym bardziej restrykcyjnych norm przestrzega. Na nas jednak również spoczywa odpowiedzialność za nasze zasoby. Jeśli chcemy ustrzec się przed dostępem osób niepowołanych, powinniśmy przechowywać dane w postaci zaszyfrowanej. Warto także zapewnić sobie dodatkowe kopie bezpieczeństwa, składowane w innym miejscu lub u drugiego dostawcy usług w chmurze. Co prawda, zdarzają się dostawcy, którzy decydują się na odzyskiwanie utraconych danych użytkowników na własny koszt, jednak jest to bardzo rzadka praktyka – po raz pierwszy i na razie jedyny zdecydował się na to e24cloud.com.

Wokół każdego nowego zjawiska pojawia się wiele, często fałszywych przekonań. Tak było w przypadku outsourcingu czy hostingu – popularnych obecnie usług. Uważamy, że cloud computing to nie tylko wielkie korzyści dla biznesu, ale także technologia przyszłości – warto ją dobrze poznać już dziś.

dodany: 28.03.2013 | tagi: ,

Chmura w trzech smakach: opinia użytkownika, przedsiębiorcy i eksperta

0
Historia cloud

Nie wszyscy użytkownicy wiedzą, czym jest cloud computing, choć korzystają z tego rozwiązania bardzo często i to od kilku lat. Używają darmowych kont e-mailowych, portali takich jak YouTube, gdzie mogą zamieszczać pliki, czy serwisów do księgowości online. O Dropboksie czy Evernote nie wspominając. Na zewnętrznych wirtualnych platformach zamieszczają setki plików. Cenią te rozwiązania, ponieważ korzystanie z nich jest proste, a dostęp do nich bardzo szybki. Z czasem użytkownicy przestaną pobierać aplikacje na dyski, ponieważ coraz więcej przydatnych narzędzi dostępnych będzie online.

Jak pokazuje historia, nie tylko wyobraźnia i wiedza naukowców była napędem do zmian technologicznych, ale także – a nawet przede wszystkim – chęć sprostania potrzebom klientów. Ważne jest przy tym to, aby szerzyć wśród nich wiedzę na temat bezpiecznego korzystania z zasobów dostępnych online. Użytkownicy nie będą już nigdy więcej chcieli martwić się, że gdy rozleją kawę na komputer, to utracą dane i nie będą w stanie ich odzyskać. Nie będą potrzebowali urządzeń, które będą przetwarzały dane tuż przy nich. Będą sięgali raczej po lekkie, designerskie gadżety, przez które będą mieli dostęp do swoich zasobów w chmurze.

Poniżej zebraliśmy opinie na temat przyszłości cloud computingu pochodzące od przedstawicieli trzech grup odbiorców usług w chmurze.

 

Użytkownik

W dzisiejszych czasach moda pojęcia Cloud Computing (dalej CC) przerasta wiedzę na temat tego, czym faktycznie CC jest. Niestety większość ludzi nie widzi technologii, tylko marketing, przez co finalnie często jest nam oferowany waśnie ów marketing, a nie „chmura”.

Warto zwrócić uwagę, w jaki sposób firmy dostarczające produkty w postaci hostowanej aplikacji promują swoje usługi. Wszystko, co oferuje „chmura”, jest pozytywne i słuszne, a reszta jest zła, przestarzała itd. Niestety, w praktyce większość dostawców ma wykupiony zwykły serwer dedykowany i w przypadku podwyższonego obciążenia, szybko wychodzą niedostatki „chmury”.

Problemem jest świadomość odbiorców usługi, którzy nie muszą się przecież na tym znać i niestety bywają oszukiwani lub odwrotnie – są przesadnie ostrożni jako klienci, gdy oferuje się im cloud computing.

Zalety „chmury” to nie tylko nieograniczona moc obliczeniowa, ale również nieograniczona przestrzeń dyskowa, która pozwala przestać martwić się np. o możliwy przyrost danych w kolejnym okresie i kończące się miejsce na dyskach serwerów – co więcej, w większości przypadków płacimy tylko za realnie zużyte zasoby. Rzadko zdarza się, że wymagana jest od nas opłata za „rezerwację” zasobów.

Nie jest jednak tak, że „chmura” jest właściwym rozwiązaniem dla wszystkich. Ostatnio dokonywaliśmy z kolegą kalkulacji kosztów hostowania plików w jego serwisie. Mimo zalet nieograniczonej ilości miejsca, czy szybkiego dostarczania danych przez CDN, koszty okazały się dużo wyższe niż opłata za średniej klasy serwer dedykowany w jednej z popularnych na rynku firm. Do kwoty nie doliczaliśmy nawet opłaty za jednostkę obliczeniową (serwer), uwzględniliśmy jedynie koszt przestrzeni dyskowej i generowanego ruchu

– powiedział Arkadiusz Pietrzyk, deweloper aplikacji internetowych.

 

Przedsiębiorca

Cloud computing stał się dzisiaj tak powszechny, że powoli zaczyna dziwić niestosowanie tego sposobu budowania produktów kilka lat temu. Dzisiaj naturalne jest to, że synchronizujemy książkę adresową w telefonie z laptopem, a gdy dodajemy do nich tablet, on również wymienia z pozostałymi urządzeniami informacje. Podobnie rzecz się ma w biznesie. Firma dodaje kolejny sklep w kolejnym centrum handlowym i chce aby IT działało bezproblemowo, a gdy firma rozrasta się z 3 do 3000 pracowników, również oczekuje, że system IT będzie się razem z nią skalował. To bardzo duża korzyść dla biznesu, gdyż firma może reagować elastycznie zarówno na wzrosty jak i na spadki koniunktury. Dzięki temu w momencie, gdy przychodzi prosperity, nie traci okazji, tylko płynie na fali. A gdy czasy się pogarszają, raty leasingu czy opłaty dla IT nie ciągną jej niczym kotwica uwieszona u szyi na dno, lecz może zrzucić balast, zredukować skalę działania i ponownie czekać na lepszy czas

– mówi Paweł Fornalski, IAI S.A., Founder & CEO.

 

Ekspert

Aktywne wykorzystanie chmury do własnych rozwiązań daje nam wiele korzyści. Z jednej strony, jest to brak przywiązania do infrastruktury, możliwość wykorzystywania rożnych technologii (w tym tych często nieosiągalnych dla przedsiębiorstw z sektora MŚP), aż po możliwość dostępu z rożnych lokalizacji. Z drugiej strony, wskazałbym zagrożenia, które płyną z wykorzystania tego typu usług:

  • Dostęp do Internetu w firmie – staje się kluczowym czynnikiem. Bez dostępu do sieci nie mamy dostępu do swoich danych.
  • Bezpieczeństwo – najbardziej niebezpiecznym ogniwem jest czynnik ludzki, czyli osoba, która ten system obsługuje. Sprawa o tyle istotna, że dla wielu osób pojęcie „chmury” jest niezrozumiałe, a i sama technologia nie jest łatwa w przyswojeniu.
  • Umieszczanie swoich, krytycznych biznesowo informacji w miejscu, nad którym nie mamy nadzoru ani kontroli.
  • Różnice w aspektach prawnych i problemy w dochodzeniu spraw – gdzie zaangażowane są rożne systemy prawne (np. Patriot Act i kwestia dostępu do danych umieszczonych w centrach danych w UE przez instytucje amerykańskie.

Sam uważam siebie za „chmurosceptyka” i jestem zwolennikiem implementacji hybrydowych, gdzie krytyczne dane przechowuję po stronie własnej infrastruktury, wynajmując te elementy, które przechowują takie informacje w postaci niejawnej lub wymagają zaangażowania dużych mocy obliczeniowych

– powiedział nam Marcin Skrylec, syscore.pl, Founder.

 

Chmura pozwala zdobywać przewagę konkurencyjną?

Z cloud computingu korzystają już najwięksi, w tym m.in. Amazon, Google czy amerykański rząd, wskazując tym samym kierunek nadchodzących zmian. Na pewno ich decyzje nie były podjęte pochopnie, ale na podstawie badań, za zgodą zarządów i akcjonariuszy, po rozważeniu wszelkiego „za” i „przeciw”. Mniejsi przedsiębiorcy np. z Wielkiej Brytanii podążają już za nimi.

Okazuje się, że to bariery mentalnościowe stanowią główną przyczynę rezygnacji z zastosowania chmury we własnym biznesie. Przedsiębiorcy uważają, że nie ma nic bezpieczniejszego dla ich danych, niż własne data center. Są przekonani, że sami zapewnią własnemu zapleczu technicznemu najlepszą ochronę i będą mieli nieograniczoną kontrolę nad własnymi danymi. Nie istnieją jednak dowody na potwierdzenie słuszności takiego podejścia. Zagrożenia wymieniane przez przeciwników cloud computingu, czyli: pozyskanie dostępu do ich danych przez niepowołane osoby, kopiowanie plików, niewłaściwa utylizacja dysków, luki w oprogramowaniu czy awarie, mogą się przecież zdarzyć także w przypadku tradycyjnego modelu zarządzania danymi. W każdej firmie mogą znaleźć się nieuczciwi pracownicy, którzy wyniosą przez pomyłkę poufne dane czy dyski z ważnymi informacjami zostaną zniszczone w niewłaściwy sposób itd.

Cloud computing zwiastuje zmiany w podejściu do klasycznego IT. Nasze zasoby wynosimy na zewnątrz. Patrząc na dzieje usług w chmurze, to naturalna konsekwencja postępu technologicznego i odchodzenia od naszego przywiązania się do warstwy sprzętowej, a więc końca ery PC-tów.

 

Przyszłość cloud computingu w Europie

  • Według raportu „UK Cloud adoption and trends for 2013” Cloud Industry Forum, 75% firm w Wielkiej Brytanii do końca 2013 r. będzie korzystało z przynajmniej jednej usługi zlokalizowanej w chmurze, a 80% brytyjskich przedsiębiorstw korzystających z usług w chmurze zwiększy wydatki na te usługi. Więcej informacji na temat raportu można znaleźć cloudindustryforumm.org.
  • Firma Gartner przewiduje, że do końca 2014 r. 60% zasobów IT będzie przeniesionych do chmury obliczeniowej, a przedsiębiorstwa do 2013 r. wydadzą na usługi w chmurze ponad 150 mld dolarów.Więcej o przewidywaniach firmy Gartner można znaleźć na jej stronie internetowej.

dodany: 14.03.2013 | tagi: , ,

Intergalaktyczna sieć komputerowa – krótko o historii cloud computingu

3
Historia cloud

Ostatnio dużo mówi się o cloud computingu. Myśleliście, że jest to technologia stosunkowo nowa? Nic bardziej mylnego. Idea chmury obliczeniowej jest niemal tak stara, jak same komputery, a sposób świadczenia usług w ten sposób niewiele młodszy. Przyjrzeliśmy się temu mglistemu pojęciu na tle historii rozwoju komputerów. Od kiedy można mówić o początku chmury?

 

Era testowania, czyli pierwsza generacja komputerów (1945 – 1955)

Powojenna dekada to wstęp do ery komputerów. O tym etapie nie można nie wspomnieć, choć o tworzeniu centrów danych czy udostępnianiu zewnętrznej infrastruktury IT można było wtedy tylko pomarzyć.

Jest to czas mniej lub bardziej udanych prób stworzenia komputerów cyfrowych. Maszyny programowano albo w języku maszynowym (innych języków nie znano) albo ich funkcje były realizowane za pomocą tablic programowych (na których znajdowały się połączone ze sobą za pomocą tysięcy kabli obwody elektryczne), a później kart perforowanych. Nie istniały jeszcze systemy operacyjne. Komputery były prymitywne i służyły do prostych obliczeń w ośrodkach naukowych.

Harvard Mark I

Harvard Mark I / IBM Automatic Sequence Controlled Calculator (ASCC). Źródło: Wikipedia.

 

Pierwsze małe centra danych, czyli druga generacja komputerów (1955 – 1965)

Po erze prób i błędów nastał czas budowania komputerów i wykorzystywania ich w ośrodkach naukowych, agencjach rządowych i dużych przedsiębiorstwach.

Dzięki wprowadzeniu w połowie lat 50. XX w. tranzystorów, komputery stały się na tyle niezawodne i małe w porównaniu z lampowymi, że zaczęto je produkować i sprzedawać. Maszyny te określono terminem mainframe. Miały wielkie gabaryty – zamknięte były w specjalnych, klimatyzowanych pomieszczeniach. Powstały też systemy wsadowe, czyli połączenie dwóch typów maszyn, przeznaczonych do różnych zadań. Na takie urządzenia pozwolić sobie mogły tylko uniwersytety, agencje rządowe i duże korporacje. Używano ich do obliczeń naukowych i inżynierskich.

 

System/360

IBM System/360 model 20. Źródło: Wikipedia.

 

Początki „intergalaktycznej sieci komputerowej”, czyli trzecia generacja komputerów (1965 – 1980)

Dzięki powstaniu minikomputerów nowe technologie trafiły do prywatnych użytkowników, a przedsiębiorstwa mogły budować ulepszone centra danych. Powstały też rozwiązania, z których dziś korzysta cloud computing. Pojawiły się również pierwsze wizje wykorzystywania mocy obliczeniowej, dostępnej publicznie.

Na początku lat sześćdziesiątych producenci komputerów wypuszczali na rynek po dwie linie całkowicie odmiennych produktów, co było bardzo kosztowne. Z jednej strony były to maszyny używane w nauce i inżynierii, z drugiej komercyjne komputery, służące do sortowania taśm i drukowania. Stosowano je głównie w bankach i firmach ubezpieczeniowych.

Firma IBM zaczęła produkować komputery, które miały połączyć te dwie oddzielne linie i wypuściła na rynek serię System/360. Po raz pierwszy zastosowano w nich układy scalone. Maszyny te wykonywały zarówno naukowe, jak i komercyjne obliczenia, więc spełniały oczekiwania klientów korporacyjnych i prywatnych. Wkrótce nastąpił też znaczny postęp w rozwoju minikomputerów.

Do lepszego wykorzystania działania procesora głównego w nowych typach komputerów zastosowano m.in. wieloprogramowość i technikę podziału czasu (ang. timesharing). Dzięki temu maszyna zajmowała się tylko tymi zadaniami, które wymagały obsługi w danej chwili, niezależnie od liczby podłączonych do niej użytkowników.

Następnie próbowano zbudować urządzenie, które byłoby zdolne do obsługi kilkuset użytkowników jednocześnie. Wzorowano się na sposobie działania sieci elektrycznej. System nazwano MULTICS (z ang. MULTiplexed Information and Computing Service). Jego twórcy zamierzali stworzyć jedną, rozbudowaną maszynę, która byłaby zdolna do dostarczenia mocy obliczeniowej wszystkim mieszkańcom jednego miasta. Po przekształceniach system zainstalowano w około 80 dużych firmach i uniwersytetach na całym świecie.

Idea „intergalaktycznej sieci komputerowej” pojawiła się w 1969 r. Jej autorem był J.C.R. Licklider, który pracował przy zaawansowanym projekcie badawczym ARPANET. Jego wizja była zbieżna z tym, co dziś znamy jako cloud computing. Badacz wyobrażał sobie, że wszyscy mieszkańcy kuli ziemskiej mają dostęp do programów i danych z dowolnego miejsca na świecie, dzięki łączeniu się
z rozległą siecią.

Innym naukowcem, któremu przypisuje się stworzenie idei cloud computingu był John McCarthy. Przedstawił wizję mocy obliczeniowej, która byłaby powszechnie dostępna i świadczona tak, jak usługi biurowe.

Odra 1305

Odra 1305 – polski komputer III generacji. Źródło: Wikipedia.

 

Komputery osobiste, Internet i cloud computing, czyli czwarta generacja komputerów (1980 – czasy współczesne)

Lata 80. to początek wielkich zmian w wykorzystywaniu infrastruktury IT i początek informatyzacji przedsiębiorstw. W latach 90. zaczęły powstawać prototypy chmur publicznych i prywatnych. Z cloud computingu zaczęły korzystać coraz większe firmy.

Wraz z układami scalonymi nastał wiek komputerów osobistych. Mogły sobie na nie pozwolić już nie tylko firmy czy uniwersytety, ale także osoby prywatne – otworzył się ogromny rynek odbiorców indywidualnych. Masowość wymusiła standaryzację i automatyzację rozwiązań IT, ponieważ użytkownicy końcowi zaczęli wymagać, aby „poważne” aplikacje były proste, a dostęp do nich ułatwiony. Nastąpił też intensywny rozwój systemów operacyjnych (m.in. Windows i Linux) i oprogramowania.

W tym czasie technologie informatyczne były zbyt drogie i dostępne tylko dla nielicznych. W Polsce w latach 90. zaczęły dominować tzw. Ośrodki Obliczeniowe. Tworzono je przy przedsiębiorstwach (najczęściej były to zakłady przemysłowe). Usługi tego typu zaczęły oferować też specjalistyczne firmy.  Choć trudno je nazwać usługami w chmurze, ponieważ nie były powszechne, a dostęp do nich był ograniczony, także w fizycznym znaczeniu, to spełniały część założeń cloud computingu. Na przykład wszelkie procesy związane z przetwarzaniem w nich danych były poza zasięgiem użytkownika końcowego.

Z czasem technologie informatyczne stawały się coraz bardziej dostępne i tendencja tworzenia własnych centrów danych była coraz popularniejsza. Informatyka zaczęła decydować o przewadze konkurencyjnej. Nastąpiła pierwsza fala informatyzacji przedsiębiorstw.

W latach 90. przełomem dla cloud computingu okazał się też rozwój Internetu i wirtualizacji, standaryzacja wymagań co do szerokości pasma częstotliwości i uniwersalnego oprogramowania, a także opracowanie uniwersalnych standardów interoperacyjności.

Dziś mamy do czynienia z drugą falą informatyzacji, kiedy przedsiębiorcy muszą zrewidować cele i sposoby korzystania z zasobów IT.

Google DC

Centrum danych Google. Źródło: Google Inc.

 

Na historię cloud computingu na przełomie wieku XX i XXI wpływ miało kilka wydarzeń

  • 1999 – Pojawienie się Salesforce.com

Był to pierwszy serwis, który zaczął udostępniać aplikacje biznesowe przez stronę. Utorował tym samym drogę dostarczaniu usług przez Internet.

  • 2002 – Amazon Mechanical Turk

Do kolejnego przełomu doprowadził w 2002 roku Amazon WebServices, który zaczął udostępniać zestaw usług w chmurze przez Amazon Mechanical Turk.

  • 2006 – Elastic Compute Cloud (EC2) od Amazona

Kolejnym ważnym wydarzeniem w historii cloud computingu było prowadzenie przez Amazon Elastic Compute Cloud (EC2) komercyjnego serwisu, który małym firmom i osobom prywatnym pozwala na wynajem sprzętu (IaaS) do uruchamiania własnych aplikacji. To pierwsza szeroko dostępna infrastruktura cloud computingu w historii.

  • 2009 – Aplikacje online od Google’a

Google i inni usługodawcy zaczęli w tym czasie oferować aplikacje online. Spotkało się to z dużą przychylnością użytkowników, ponieważ skomplikowane narzędzia stały się dla nich łatwe w użyciu.

  • 2010 – Microsoft inwestuje w chmurę

Microsoft zainwestował 2,3 mld dolarów na przekształcenie aplikacji desktopowych na ich odpowiedniki w chmurze wg modelu SaaS.

  • Hewlett-Packard wdraża cloud computing

Hewlett-Packard zainwestował 2 mld we wdrożenie cloud computingu.

  • Amerykański rząd – zachmurzony

Z chmury, oferowanej przez Amazon, zaczął korzystać amerykański rząd.

 

Dzisiaj

Jak wynika z badań przeprowadzonych we Francji, Hiszpanii, Holandii, Niemczech, Polsce, Rosji, Włoszech i Wielkiej Brytanii na zlecenie firmy VMware, już 60% europejskich firm przeniosło część swojej infrastruktury informatycznej do chmury. Jak na tym tle wypada Polska? Według wyników ankiety z usług w chmurze korzysta 46% polskich przedsiębiorstw z sektora MŚP (małych i średnich przedsiębiorstw).

dodany: 28.02.2013 | tagi: , ,

Aspekty prawne cloud computingu, czyli co chroni nasze dane…

19
cloud

Z powodu wciąż powracających pytań oraz obaw o bezpieczeństwo chmury, postanowiliśmy przyjrzeć się, jakie dyrektywy i prawa regulują zasady dostarczania tych usług? Zasady korzystania z usług świadczonych w modelu chmurowym (w tym część zagadnień związanych z bezpieczeństwem) reguluje umowa z dostawcą. Zawarte są w niej wszelkie informacje dotyczące przetwarzania naszych danych. Niektóre postanowienia wynikają z prawa obowiązującego w danym państwie.

Wielu przedsiębiorców nie decyduje się na wynajem zewnętrznej infrastruktury IT głównie z obaw o bezpieczeństwo swoich danych. Tymczasem już umowa z dostawcą usług w chmurze zapewnia formalną ochronę naszych danych. Zamieszczone są w niej dokładne informacje, co dzieje się z danymi przetwarzanymi w chmurze, kto będzie miał z nimi styczność i co się z nimi stanie w razie awarii, czyli braku dostępu do nich. Niektóre postanowienia zawarte w umowie wynikają z prawa obowiązującego w danym kraju. Ważną kwestią jest to, że jeśli chcemy skorzystać z usług świadczonych w chmurze zlokalizowanej w innym kraju, to umowa z dostawcą będzie oparta o prawa kraju, z którego pochodzi, ale w zgodzie z prawem obowiązującym w kraju klienta.

 

Różnice prawne mogą ogrniczać

Nie we wszystkich krajach możliwe jest wdrożenie usługi w chmurze. Na przykład platforma Windows Azure (PaaS) nie jest dostępna w Rosji. Powód stanowią różnice prawne między krajami.

Umowa na korzystanie z usług świadczonych w modelu chmurowym zwykle przyjmuje postać regulaminu, który klient musi zaakceptować podczas procedury rejestracji w danej usłudze. Umowa dotyczy kwestii związanych z bezpieczeństwem, tj. określa przykładowo, jakie mechanizmy bezpieczeństwa i ochrony danych stosowane są przez usługodawcę. Nie można jednak zapomnieć o tym, że nie wszystkie postanowienia umowy będą wiążące we wszystkich przypadkach – regulaminy usług mają w swoim założeniu wielokrotnie charakter bardziej uniwersalny i nie uwzględniają specyfiki każdego systemu prawnego, co często prowadzi do tego, że zapisy umów są wypierane przez przepisy prawa właściwego (krajowego)

– mówi Rafał Malujda, Radca Prawny.

 

Chmura a prawo w Polsce, UE i zagranicą

Dostawcy usług w chmurze powinni ściśle przestrzegać ochrony danych osobowych. Kiedy chmura zlokalizowana jest na terenie Unii Europejskiej, ich klienci muszą być pewni, że  dane będą zabezpieczone m.in. zgodnie z dyrektywą unijną  95/46/EC, która wdrożona jest przez ustawę o ochronie danych osobowych z 1997 roku (UODO) oraz z dyrektywą nr 2002/58/WE, której odpowiadają przepisy zawarte w ustawie o świadczeniu usług drogą elektroniczną z 2002r.

Sprawy komplikują się wtedy, gdy przedsiębiorstwa chcą korzystać z chmur ulokowanych poza Europejskim Obszarem Gospodarczym.

W takiej sytuacji kwestie formalne, regulujące współpracę między dostawcami a odbiorcami usługi muszą spełniać wiele wytycznych unijnych, w tym podstawowy warunek – przekazywanie danych będzie zgodne z prawem tylko wtedy, jeśli w kraju, w którym docelowo znajdą się dane klienta, ich zabezpieczenie będzie na tym samym lub zbliżonym poziomie, co w Polsce. Unia Europejska potwierdziła, że USA, Izrael, Argentyna, Kanada, Szwajcaria, Guernsey, Wyspa Man zapewniają danym osobowym odpowiednią ochronę.

Jeśli ten warunek nie zostanie spełniony, kolejną przesłanką, umożliwiającą przekazywanie danych do innych krajów spoza UE jest np. uzyskanie zgody GIODO. Żeby ją otrzymać, potrzebne jest spełnienie wytycznych ustalonych przez Komisję Europejską, które obowiązują od 5 lutego 2010 roku.

Aby sprzyjać rozwojowi cloud computingu Unia Europejska 4 listopada 2010 r. przyjęła kompleksową strategię regulującą kwestie ochrony danych osobowych – komunikat KOM (2010)609/3.

 

Wybór prawa i jurysdykcji dla firm o wielu siedzibach

Inną sprawą, jeśli chodzi o kwestie prawne w cloud computingu, jest wybór właściwego prawa i jurysdykcji. Firmy świadczące usługi w modelu cloud mają swoje siedziby w różnych krajach, takich jak np. USA, Chiny, Indie czy Niemcy. W każdym z nich obowiązują inne normy prawne, których muszą przestrzegać. Niektóre z nich są ujednolicone przez międzynarodowe konwencje, do których przystąpiło wiele państw. Strony kontraktu mogą określić, jakiemu prawu i jurysdykcji podlegają i zgodnie z którym określane są ich zobowiązania. W większości międzynarodowych kontraktów można znaleźć klauzule wyboru forum prawa. W Polsce najistotniejsze w sprawie prawa właściwego i jurysdykcji są rozporządzenia UE – nr 44/2001 (Bruksela I) oraz w sprawie  prawa właściwego dla zobowiązań umownych nr 593/2008 (Rzym I).

W celu zwiększenia atrakcyjności swojej platformy, usługodawcy w modelu cloud computingu powinni zapewnić użytkownikom komfort przetwarzania danych osobowych zgodnie z przepisami. Formalnie to bowiem użytkownicy są zobligowani do przestrzegania przepisów dotyczących tych kwestii i to oni powinni dobierać rozwiązania informatyczne w taki sposób, żeby ich działalność była legalna. Istnieje również możliwość, aby to usługodawca był podmiotem, któremu przedsiębiorca powierza przetwarzanie danych, w tym celu strony powinny podpisać jednak umowę w formie pisemnej, co w modelu usługowym cloud computingu zdarza się sporadycznie

– dodaje Rafał Malujda.

 

Niektóre certyfikaty/potwierdzenia zgodności z normami czy ustawami, które powinni posiadać dostawcy usług w chmurze w UE i USA

ISO/IEC 27001 – specyfikacja systemów zarządzania bezpieczeństwem informacji, w której skład wchodzi 11 różnych zagadnień związanych z bezpieczeństwem, m.in. kwestia zasobów ludzkich, zarządzanie ciągłością działania czy systemami informacyjnymi.

SAS 70 – od dostawcy warto wymagać raportu z audytu SAS 70. Zawiera on opis środowiska kontroli wewnętrznej, zarządzania ryzykiem, kluczowych mechanizmów kontrolnych, opisów systemów i zakresu świadczonych usług. Audyt wykonywany jest przez zewnętrzną firmę audytorską.

SOX – Sorbanes-Oxley Act to ustawa w USA, która określa zasady działania rynków finansowych,
w tym kontrolę firm audytorskich.

HIPAA – Health Insurance Portability and Accountability Act to ustawa dotycząca rynków medycznych, określająca standardy odnośnie do prywatności i przetwarzania danych, regulujących funkcjonowanie firmy.

PCI DSS – Payment Card Industry Data Security Standard to standardy dotyczące działań związanych
z kartami kredytowymi.

ANSi/TIA-942 – standard infrastruktury telekomunikacyjnej dla centrów danych. Rozróżnia cztery kategorie (skala Tier) bezpieczeństwa centrów (gdzie 1 = najniższa, 4 = najwyższa). Obejmuje także względy środowiskowe.

Safe Harbor – działanie wg tego programu ma zapobiegać wyciekaniu bądź utracie informacji. Zgodnie z nim europejskie firmy nie mogą przesyłać danych poza UE, chyba że spełniają odpowiednie poziomy bezpieczeństwa. Zgodnie z Safe Harbor dane z UE mogą być przechowywane poza UE na zasadach obowiązujących w prawie państwowym.