Artykuły dotyczące tematu: cloud computing

dodany: 18.05.2013 | tagi: ,

Top 7 mitów na temat cloud computingu

1
cloud

Wraz z rosnącą popularnością cloud computingu pojawiają się kolejne pytania i wątpliwości. Opracowania, które starają się je wyjaśniać, zawierają jednak rozbieżne informacje. W związku z tym wokół technologii przetwarzania danych w chmurze narosło wiele mitów.

Mit nr 1: Cloud computing – nie znam, nie korzystałem

Wielu z nas cloud computing kojarzy się ze skomplikowaną w obsłudze technologią dla geeków. Tymczasem możemy nie zdawać sobie sprawy z tego, że z usług w chmurze korzystamy bardzo często i to od lat. Używamy aplikacji biurowych przez internet i serwisów do księgowości online (jak np. Firma.pl), darmowych kont e-mailowych z dostępem przez przeglądarkę czy wirtualnych platform, pozwalających na przechowywanie plików, jak Dropbox czy Evernote. Do innych usług cloud computingowych należą także znane chyba wszystkim narzędzia, jak Google Calendar czy Dysk Google.

Mit 2: Chmura jest zbyt trudna w obsłudze

Ci, którzy korzystali z wyżej wymienionych usług w chmurze wiedzą, że ich obsługa jest nieskomplikowana, a dostęp do własnych zasobów dzięki nim szybki i możliwy o każdej porze dnia i z każdego miejsca na świecie. Oczywiście to nie jedyny rodzaj rozwiązań cloud computingowych – jest ich o wiele więcej. Z tego względu, że mają różny stopień złożoności, mogą wiązać się z mniej lub bardziej zaawansowanym poziomem kontroli. Najprostszymi w obsłudze są aplikacje i systemy dostępne w formie usługi (SaaS), natomiast infrastruktura (IaaS) czy platforma (PaaS), udostępniona w modelu cloud computingu, to rozwiązania specjalistyczne.

Mit nr 3: Mam małą firmę, a to rozwiązanie tylko dla korporacji

Niemal wszystkie przedsiębiorstwa, każdej wielkości, aby mogły się rozwijać, potrzebują infrastruktury komputerowej, przestrzeni do przechowywania firmowych danych, a także oprogramowania: od prostych aplikacji biurowych (np. CRM), do złożonych systemów (jak np. ERP). Nie zawsze jednak firmy rozpoczynające działalność stać jest na takie inwestycje. Dzięki usługom dostępnym w chmurze, nawet mikroprzedsiębiorstwo może założyć e-sklep, bez kupowania programu i instalowania go na własnym serwerze (np. IAI-Shop.com) czy uruchomić start-up wymagający posiadania infrastruktury, która pomieści gigabajty danych, rozrastających się w sposób nieprzewidywalny i szybki.

Mit nr 4: Chmura publiczna – najtańszy sposób, aby korzystać z usług IT

Według wielu opinii usługi dostępne w modelu cloud computingowym są najtańszą opcją rozwiązań IT na rynku. To nie do końca prawda. Z jednej strony, korzystając z chmury, płacimy za tyle mocy obliczeniowej czy przestrzeni dyskowej, ile zużyjemy. W przypadku własnej infrastruktury serwerowej, zwykle nie wykorzystujemy jej wszystkich możliwości. Cloud computing opłaca się również w przypadku wdrażania usług (na starcie nie potrzebujemy własnego zaplecza serwerowego czy wyspecjalizowanego zespołu do zarządzania nim). Z drugiej strony jednak, wraz z rozwojem naszego biznesu, będziemy potrzebować rozwiązań, które sprostają naszym rosnącym wymaganiom co do bezpieczeństwa, wydajności i dostępności. Jest nim np. chmura prywatna, której wdrożenie wiąże się z wyższymi, niż w przypadku chmury publicznej, kosztami.

Mit 5: Najpierw wirtualizacja, potem cloud computing

Wirtualizacja może poprawić wykorzystanie własnych zasobów oraz efektywność zarządzania przestrzenią IT. Wiele firm decyduje się na usługi cloud computingowe, gdy poznają zalety wirtualizacji. Jednak przygotowywanie infrastruktury informatycznej do wdrożenia rozwiązań w modelu cloud computingowym, przy wcześniejszym zastosowaniu rozwiązań wirtualizacyjnych, nie jest konieczne. Poza tym przekształcenie przestrzeni wirtualizacyjnej w środowisko chmury prywatnej wymaga uzupełnienia jej o istotne składniki i jest to długa droga. Cloud computing sam w sobie ma potencjał do redukcji kosztów ogólnych i ulepszania infrastruktury, przy zapewnianiu ciągłości pracy.

Mit nr 6: Chmura oznacza 100% dostępność

Twierdzenie, że wraz z rozpoczęciem korzystania z chmury nie będziemy się już martwić o problemy z wydajnością czy przestojami, jest nieprawdziwe. Wszyscy wiemy, że awarie zdążają się nawet największym dostawcom chmury, jak np. Google czy Amazon. Poza tym, żadna technologia nie jest niezawodna. Z tego względu, decydując się na korzystanie z usług oferowanych w modelu cloud computing, musisz określić wymagane przez siebie warunki dostępności umową SLA (z ang. Service Level Agreement). Za ich nieprzestrzeganie, konsekwencje ponosi dostawca chmury. Warto być świadomym, że jeśli usługodawca oferuje Ci dostępność usługi na poziomie 99%, to oznacza, że Twoja aplikacja czy system mogą być niedostępne przez kilka godzin w miesiącu.

Mit 7: Dane w chmurze są mniej bezpieczne, niż na własnym serwerze

Za bezpieczniejsze miejsce do przechowywania własnych zasobów uważasz własny serwer, a nie chmurę? Jeśli Twój dysk uległby zniszczeniu, to straciłbyś swoje dane na zawsze (chyba, że skorzystałbyś z bardzo drogiej usługi odzysku danych czy zadbałbyś wcześniej o kopię zapasową). Bezpieczeństwo naszych danych w chmurze zależy głównie od dostawcy – im bardziej zaufany, tym bardziej restrykcyjnych norm przestrzega. Na nas jednak również spoczywa odpowiedzialność za nasze zasoby. Jeśli chcemy ustrzec się przed dostępem osób niepowołanych, powinniśmy przechowywać dane w postaci zaszyfrowanej. Warto także zapewnić sobie dodatkowe kopie bezpieczeństwa, składowane w innym miejscu lub u drugiego dostawcy usług w chmurze. Co prawda, zdarzają się dostawcy, którzy decydują się na odzyskiwanie utraconych danych użytkowników na własny koszt, jednak jest to bardzo rzadka praktyka – po raz pierwszy i na razie jedyny zdecydował się na to e24cloud.com.

Wokół każdego nowego zjawiska pojawia się wiele, często fałszywych przekonań. Tak było w przypadku outsourcingu czy hostingu – popularnych obecnie usług. Uważamy, że cloud computing to nie tylko wielkie korzyści dla biznesu, ale także technologia przyszłości – warto ją dobrze poznać już dziś.

dodany: 18.04.2013 | tagi:

Cloud Computing – innowacyjne rozwiązania w chmurze

0
Cloud Computing – innowacyjne rozwiązania w chmurze

Konferencja poświęcona jest cloud computingowi – innowacyjnej usłudze, która przyspiesza wiele procesów w firmie.

Podczas konferencji zostaną zaprezentowane nowoczesne systemy i technologie dla biznesu w tzw. chmurze. Swoje produkty i usługi zaprezentują kluczowi gracze na rynku, a swoją wiedzą i doświadczeniem podzielą się eksperci branżowi.

Proponowane zagadnienia:

  • nowoczesne technologie w cloud computing,
  • innowacyjne usługi w modelu SaaS, IaaS, PaaS,
  • wirtualizacja w chmurze,
  • cloud computing jako przyspieszenie rozwoju przedsiębiorstwa,
  • kolokacja danych i infrastruktury do chmur,
  • praca w chmurze, zamiast w biurze – rozwiązania dla MŚP oraz dużych firm,
  • cloud computing – niskie koszty i wysokie bezpieczeństwo,
  • przeniesienie funkcjonujących aplikacji do chmury,
  • cloud computing vs. cloud services – różnice,
  • usługi w modelu chmury prywatnej i publicznej,
  • usługi w modelu mieszanym,
  • zarządzanie aplikacjami i infrastrukturą w chmurze,
  • cloud computing w rozrywce i portalach społecznościowych.

Do udziału w konferencji organizator zaprasza osoby odpowiedzialne za:

  • pozyskiwanie i utrzymanie infrastruktury technicznej firmy,
  • rozwój biznesu w przedsiębiorstwie,
  • wdrażanie nowoczesnych rozwiązań informatycznych,
  • rozwój IT w danej firmie,
  • wybór, zakup i wdrażanie systemów oraz nowoczesnych technologii.

w szczególności:

  • CIO, Dyrektorów, Kierowników, Managerów działów informatycznych, infrastruktury IT oraz technologii,
  • Dyrektorów, Kierowników Finansowych oraz osoby związane z optymalizacją kosztów,
  • Kierowników i Managerów ds. zakupów
  • Dyrektorów i managerów ds. rozwoju biznesu,
  • Kierowników projektów,
  • Szefów bezpieczeństwa,
  • Prezesów oraz doradców zarządu.


Udział w konferencji jest bezpłatny, wystarczy wypełnić formularz rejestracyjny.

Uczestnikom konferencji zapewniamy przerwy kawowe oraz komplet materiałów konferencyjnych.

 

Podczas konferencji zostaną rozlosowane cenne nagrody!

dodany: 28.03.2013 | tagi: ,

Chmura w trzech smakach: opinia użytkownika, przedsiębiorcy i eksperta

0
Historia cloud

Nie wszyscy użytkownicy wiedzą, czym jest cloud computing, choć korzystają z tego rozwiązania bardzo często i to od kilku lat. Używają darmowych kont e-mailowych, portali takich jak YouTube, gdzie mogą zamieszczać pliki, czy serwisów do księgowości online. O Dropboksie czy Evernote nie wspominając. Na zewnętrznych wirtualnych platformach zamieszczają setki plików. Cenią te rozwiązania, ponieważ korzystanie z nich jest proste, a dostęp do nich bardzo szybki. Z czasem użytkownicy przestaną pobierać aplikacje na dyski, ponieważ coraz więcej przydatnych narzędzi dostępnych będzie online.

Jak pokazuje historia, nie tylko wyobraźnia i wiedza naukowców była napędem do zmian technologicznych, ale także – a nawet przede wszystkim – chęć sprostania potrzebom klientów. Ważne jest przy tym to, aby szerzyć wśród nich wiedzę na temat bezpiecznego korzystania z zasobów dostępnych online. Użytkownicy nie będą już nigdy więcej chcieli martwić się, że gdy rozleją kawę na komputer, to utracą dane i nie będą w stanie ich odzyskać. Nie będą potrzebowali urządzeń, które będą przetwarzały dane tuż przy nich. Będą sięgali raczej po lekkie, designerskie gadżety, przez które będą mieli dostęp do swoich zasobów w chmurze.

Poniżej zebraliśmy opinie na temat przyszłości cloud computingu pochodzące od przedstawicieli trzech grup odbiorców usług w chmurze.

 

Użytkownik

W dzisiejszych czasach moda pojęcia Cloud Computing (dalej CC) przerasta wiedzę na temat tego, czym faktycznie CC jest. Niestety większość ludzi nie widzi technologii, tylko marketing, przez co finalnie często jest nam oferowany waśnie ów marketing, a nie „chmura”.

Warto zwrócić uwagę, w jaki sposób firmy dostarczające produkty w postaci hostowanej aplikacji promują swoje usługi. Wszystko, co oferuje „chmura”, jest pozytywne i słuszne, a reszta jest zła, przestarzała itd. Niestety, w praktyce większość dostawców ma wykupiony zwykły serwer dedykowany i w przypadku podwyższonego obciążenia, szybko wychodzą niedostatki „chmury”.

Problemem jest świadomość odbiorców usługi, którzy nie muszą się przecież na tym znać i niestety bywają oszukiwani lub odwrotnie – są przesadnie ostrożni jako klienci, gdy oferuje się im cloud computing.

Zalety „chmury” to nie tylko nieograniczona moc obliczeniowa, ale również nieograniczona przestrzeń dyskowa, która pozwala przestać martwić się np. o możliwy przyrost danych w kolejnym okresie i kończące się miejsce na dyskach serwerów – co więcej, w większości przypadków płacimy tylko za realnie zużyte zasoby. Rzadko zdarza się, że wymagana jest od nas opłata za „rezerwację” zasobów.

Nie jest jednak tak, że „chmura” jest właściwym rozwiązaniem dla wszystkich. Ostatnio dokonywaliśmy z kolegą kalkulacji kosztów hostowania plików w jego serwisie. Mimo zalet nieograniczonej ilości miejsca, czy szybkiego dostarczania danych przez CDN, koszty okazały się dużo wyższe niż opłata za średniej klasy serwer dedykowany w jednej z popularnych na rynku firm. Do kwoty nie doliczaliśmy nawet opłaty za jednostkę obliczeniową (serwer), uwzględniliśmy jedynie koszt przestrzeni dyskowej i generowanego ruchu

– powiedział Arkadiusz Pietrzyk, deweloper aplikacji internetowych.

 

Przedsiębiorca

Cloud computing stał się dzisiaj tak powszechny, że powoli zaczyna dziwić niestosowanie tego sposobu budowania produktów kilka lat temu. Dzisiaj naturalne jest to, że synchronizujemy książkę adresową w telefonie z laptopem, a gdy dodajemy do nich tablet, on również wymienia z pozostałymi urządzeniami informacje. Podobnie rzecz się ma w biznesie. Firma dodaje kolejny sklep w kolejnym centrum handlowym i chce aby IT działało bezproblemowo, a gdy firma rozrasta się z 3 do 3000 pracowników, również oczekuje, że system IT będzie się razem z nią skalował. To bardzo duża korzyść dla biznesu, gdyż firma może reagować elastycznie zarówno na wzrosty jak i na spadki koniunktury. Dzięki temu w momencie, gdy przychodzi prosperity, nie traci okazji, tylko płynie na fali. A gdy czasy się pogarszają, raty leasingu czy opłaty dla IT nie ciągną jej niczym kotwica uwieszona u szyi na dno, lecz może zrzucić balast, zredukować skalę działania i ponownie czekać na lepszy czas

– mówi Paweł Fornalski, IAI S.A., Founder & CEO.

 

Ekspert

Aktywne wykorzystanie chmury do własnych rozwiązań daje nam wiele korzyści. Z jednej strony, jest to brak przywiązania do infrastruktury, możliwość wykorzystywania rożnych technologii (w tym tych często nieosiągalnych dla przedsiębiorstw z sektora MŚP), aż po możliwość dostępu z rożnych lokalizacji. Z drugiej strony, wskazałbym zagrożenia, które płyną z wykorzystania tego typu usług:

  • Dostęp do Internetu w firmie – staje się kluczowym czynnikiem. Bez dostępu do sieci nie mamy dostępu do swoich danych.
  • Bezpieczeństwo – najbardziej niebezpiecznym ogniwem jest czynnik ludzki, czyli osoba, która ten system obsługuje. Sprawa o tyle istotna, że dla wielu osób pojęcie „chmury” jest niezrozumiałe, a i sama technologia nie jest łatwa w przyswojeniu.
  • Umieszczanie swoich, krytycznych biznesowo informacji w miejscu, nad którym nie mamy nadzoru ani kontroli.
  • Różnice w aspektach prawnych i problemy w dochodzeniu spraw – gdzie zaangażowane są rożne systemy prawne (np. Patriot Act i kwestia dostępu do danych umieszczonych w centrach danych w UE przez instytucje amerykańskie.

Sam uważam siebie za „chmurosceptyka” i jestem zwolennikiem implementacji hybrydowych, gdzie krytyczne dane przechowuję po stronie własnej infrastruktury, wynajmując te elementy, które przechowują takie informacje w postaci niejawnej lub wymagają zaangażowania dużych mocy obliczeniowych

– powiedział nam Marcin Skrylec, syscore.pl, Founder.

 

Chmura pozwala zdobywać przewagę konkurencyjną?

Z cloud computingu korzystają już najwięksi, w tym m.in. Amazon, Google czy amerykański rząd, wskazując tym samym kierunek nadchodzących zmian. Na pewno ich decyzje nie były podjęte pochopnie, ale na podstawie badań, za zgodą zarządów i akcjonariuszy, po rozważeniu wszelkiego „za” i „przeciw”. Mniejsi przedsiębiorcy np. z Wielkiej Brytanii podążają już za nimi.

Okazuje się, że to bariery mentalnościowe stanowią główną przyczynę rezygnacji z zastosowania chmury we własnym biznesie. Przedsiębiorcy uważają, że nie ma nic bezpieczniejszego dla ich danych, niż własne data center. Są przekonani, że sami zapewnią własnemu zapleczu technicznemu najlepszą ochronę i będą mieli nieograniczoną kontrolę nad własnymi danymi. Nie istnieją jednak dowody na potwierdzenie słuszności takiego podejścia. Zagrożenia wymieniane przez przeciwników cloud computingu, czyli: pozyskanie dostępu do ich danych przez niepowołane osoby, kopiowanie plików, niewłaściwa utylizacja dysków, luki w oprogramowaniu czy awarie, mogą się przecież zdarzyć także w przypadku tradycyjnego modelu zarządzania danymi. W każdej firmie mogą znaleźć się nieuczciwi pracownicy, którzy wyniosą przez pomyłkę poufne dane czy dyski z ważnymi informacjami zostaną zniszczone w niewłaściwy sposób itd.

Cloud computing zwiastuje zmiany w podejściu do klasycznego IT. Nasze zasoby wynosimy na zewnątrz. Patrząc na dzieje usług w chmurze, to naturalna konsekwencja postępu technologicznego i odchodzenia od naszego przywiązania się do warstwy sprzętowej, a więc końca ery PC-tów.

 

Przyszłość cloud computingu w Europie

  • Według raportu „UK Cloud adoption and trends for 2013” Cloud Industry Forum, 75% firm w Wielkiej Brytanii do końca 2013 r. będzie korzystało z przynajmniej jednej usługi zlokalizowanej w chmurze, a 80% brytyjskich przedsiębiorstw korzystających z usług w chmurze zwiększy wydatki na te usługi. Więcej informacji na temat raportu można znaleźć cloudindustryforumm.org.
  • Firma Gartner przewiduje, że do końca 2014 r. 60% zasobów IT będzie przeniesionych do chmury obliczeniowej, a przedsiębiorstwa do 2013 r. wydadzą na usługi w chmurze ponad 150 mld dolarów.Więcej o przewidywaniach firmy Gartner można znaleźć na jej stronie internetowej.

dodany: 18.03.2013 | tagi: , , ,

Identyfikacja zagrożeń dla usług świadczonych w chmurze publicznej

0
Cloud security

Usługi chmurowe wzbudzają wciąż wiele kontrowersji.  Z jednej strony dostawcy zapewniają nas o bezpieczeństwie oraz wyższości takich rozwiązań nad computingiem tradycyjnym, z drugiej sceptycy uświadamiają o możliwych zagrożeniach. W niniejszym artykule przedstawiliśmy zbiór najpopularniejszych zagadnień czy obaw wyrastających przed przedsiębiorcami, którzy rozważają przeniesienie zasobów do chmury publicznej (z ang. public) – nie należy mylić z prywatną (z ang. private). Opatrzyliśmy je komentarzami osób bezpośrednio zaangażowanych bądź korzystających z takich usług.

Czym różnią się te dwa modele? Chmura prywatna tak naprawdę określa infrastrukturę IT stworzoną w danej firmie. Może być prowadzona zarówno przez zewnętrznego dostawcę, jak i wewnętrznych administratorów. To, co odróżnia ją od chmury publicznej to fakt, że mogą z niej korzystać tylko i wyłącznie właściciele i klienci, dla których jest przeznaczona. W infrastrukturze chmury publicznej swoje dane przetwarzać mogą różni usługobiorcy.

 

Trzy modele usługowe chmury

Omawiając bezpieczeństwo chmury, na wstępie należy wspomnieć o trzech modelach usług w niej świadczonych. Każdy z nich wymaga wkładu innego zaangażowania w jego ochronę.

  • W modelu SaaS (Software as a Service) dostawca chmury (np. e24cloud czy iai-shop.com) udostępnia nam gotowe aplikacje. Konieczność przeprowadzania aktualizacji kodu źródłowego, naprawa błędów i rozwiązywanie problemów z serwerami należy do usługodawcy.
  • W modelu PaaS (Platform as a Service) dostawca chmury (np. Microsoft Windows Azure) umożliwia nam dostęp do platformy i oferuje narzędzia deweloperskie. Za ich pomocą klienci wspomagają zarządzanie swoimi bazami danych, przepływem danych czy diagnozują problemy. Sami tworzą kod aplikacji. Natomiast nie mają kontroli nad obsługą sieci, serwerów i systemów operacyjnych. W związku z tym bezpieczeństwo ich danych zależy od procedur postępowania przy tworzeniu aplikacji.
  • W modelu IaaS (Infrastructure as a Service) dostawca chmury (np. Microsoft Windows Azure) udostępnia klientom zaplecze techniczne, które spełnia ich wymogi – zapewnia odpowiednią moc obliczeniową, pamięć masową czy przepustowość łącza. Klienci uzyskują w ten sposób większą kontrolę nad zgromadzonymi w chmurze danymi firmowymi.

Security czy insecurity? Identyfikacja zagrożeń

Bezpieczeństwo w chmurze to bardzo szerokie pojęcie, na które składa się wiele elementów: bezpieczeństwo fizyczne samych centrów danych, bezpieczeństwo sprzętu i komponentów uzupełniających, bezpieczeństwo sieci, bezpieczeństwo danych, bezpieczeństwo aplikacji, a także bezpieczeństwo zarządzania dostępem i tożsamością – by wymienić tylko te najważniejsze. Fakt globalizacji usług przetwarzania w chmurze powoduje, że model, w jakim są one świadczone, wymusił zupełnie nowe spojrzenie na standardy jakości związane z zapewnieniem bezpieczeństwa fizycznego serwerowni, sposób przetwarzania i zarządzania znajdującymi się tam danymi oraz cyberbezpieczeństwa tak zdefiniowanego obszaru

– mówi Daniel Grabski, Chief Security Advisor z Microsoft.

Żeby odpowiedzieć sobie na pytanie, czy cloud computing to bezpieczne rozwiązanie, wymieńmy najczęstsze obawy inwestorów związane z jego wdrożeniem.

Opracowaliśmy listę najczęściej wymienianych zagrożeń:

  1. Nieautoryzowany dostęp do danych firmowych i klienckich.
  2. Brak dostępu do danych w chmurze.
  3. Zrzucanie odpowiedzialności za bezpieczeństwo i integralność danych wyłącznie na usługodawcę.
  4. Różne rodzaje wsparcia technicznego.
  5. Stabilność parametrów świadczonej usługi.
  6. Stabilność i długotrwałość prowadzenia działalności przez usługodawcę.
  7. Brak pełnego zrozumienia sposobu funkcjonowania chmury.
  8. Uruchamianie wszystkich usług w ramach jednej strefy dostępności czy w regionie.
  9. Brak możliwości szybkiego odzyskania danych.
  10. Brak jasnej i otwartej polityki komunikacji z klientami.
  11. Business continuity i gotowość DR dostawcy.
  12. Wydajność systemu lub aplikacji.

 

Zagrożenia vs. rozwiązania. Zestawienie zidentyfikowanych zagrożeń ze stosowanymi rozwiązaniami

Nieautoryzowany dostęp do danych firmowych i klienckich

Przedsiębiorców przed korzystaniem z usług w chmurze powstrzymuje niepewność, czy ich dane będą tak dobrze chronione przed cyberatakami i kradzieżą danych, jak ich zdaniem ma to miejsce w przypadku tradycyjnego centrum danych.

Wielu inwestorów obawia się powierzenia swoich danych dostawcom chmury, ponieważ nie są pewni, gdzie dokładnie się one znajdą, kto będzie miał do nich dostęp (np. administratorzy operatora chmury lub centrum danych), gdzie znajdą się kopie zapasowe, w jaki sposób będą chronione i kto będzie miał do dostęp do tych kopii itd.

– mówi Krzysztof Ciepłucha, Senior Network Engineer z Unizeto Technologies SA.

 

Przedsiębiorcy obawiają się nie tylko fizycznej kradzieży danych, ale także wszelkich ataków hakerskich – uważają, że centra danych są na nie narażone w mniejszym, niż chmury publiczne, stopniu.

Nie ulega wątpliwości, że efekt skali, który osiągamy przy chmurze obliczeniowej, generuje bardzo duże zainteresowanie cyberprzestępców tak „atrakcyjnym obszarem”. Wszyscy jesteśmy świadomi, że coraz więcej wyrafinowanych ataków nastawionych jest na pozyskanie danych dotyczących tożsamości, blokowania dostępu do wrażliwych danych biznesowych lub ich pozyskiwania – rynek zbytu na tego typu informacje jest duży, a sposoby dotarcia do nich na czarnym rynku doskonale znane. Zasoby danych i wiedzy zgromadzone w centrach danych dostawców usług przetwarzania w chmurze niewątpliwie są atrakcyjnym celem

– dodaje Daniel Grabski.

Zarówno korporacyjne data center, jak i infrastruktura cloudowa narażone są na takie same zagrożenia. Najpopularniejsze typy ataków to:

  • Application Attack (skierowane na aplikacje)

Jest możliwy dzięki dużej ilości starszych narzędzi wykorzystujących istniejące od dawna luki. W ataku tego rodzaju exploit próbuje dostać się do aplikacji i usług, które nie zostały uruchomione przez HTTP. Przykładem jest przepełnienie bufora na stosie.

  • Brute Force (stosowane do łamania haseł)

Atak polegający na podjęciu dużej liczby prób złamania zabezpieczenia – najczęściej prostego do złamania, takiego jak hasło.

  • Malware/botnet activity (kierowany często do dużych firm)

Polega na rozprzestrzenianiu szkodliwego oprogramowania, często za pomocą spamu lub ataku bezpośredniego. Po zainfekowaniu komputera złośliwe oprogramowanie może niszczyć dane, zbierać informacje czy tworzyć backdoory.

  • Misconfiguration (ze względu na dbałość o bezpieczeństwo zdarza się coraz rzadziej)

Atak polegający na wykorzystaniu problemów z konfiguracją sieci, hostów i aplikacji, np. brak najnowszych poprawek. Źle skonfigurowane oprogramowanie może tworzyć luki w zabezpieczeniach, dające się wykorzystać do ataku.

  • Reconnaissance (służące do skanowania portów)

Jest to atak polegający najczęściej na podsłuchiwaniu ruchu sieciowego lub aktywności aplikacji albo usługi.

  • Vulnerability scans (skanowanie portów i fingerprinting)

Polega na mapowaniu sieci, aplikacji i usług, np. za pomocą skanera Nessus.

  • Web Application Attack (skierowane na aplikacje webowe)

Jest to jedna z najniebezpieczniejszych metod ataku – nie tylko ze względu na łatwość dostępu do narzędzi, które umożliwiają przeprowadzenie tego typu ataku, ale także ze względu na fakt, iż jest to najtrudniejsza do utrzymania linia obrony. Najpopularniejsze narzędzie do przeprowadzania ataków tego typu – HAVIJ – pozwala na wykonanie ataku SQl injection i było odpowiedzialne za aż 44% wszystkich ataków na aplikacje webowe w 2011 roku.

Klienci tradycyjnego centrum danych odczuwają częściej o wiele więcej zróżnicowanych ataków niż klienci chmury

Dlaczego? Dostawcy cloud computingu zapewniają bowiem bardziej ustandaryzowane systemy konfiguracji platformy IaaS, bardziej zadbane i dojrzałe niż w przypadku użytkowników tradycyjnego centrum danych.

W modelu PaaS i SaaS dane z kolei podatne są na ataki DDoS. Atak próbuje potęgować ruch w chmurze, tym samym narażając klientów na zwiększenie wydatków na usługę. Firma Google rozwiązała ten problem, wprowadzając limit ruchu na stronie, którego bez uprzedzenia nie można przekroczyć.

Każdy, mając niewyobrażalne środki, może pokonać nawet najlepsze zabezpieczenia.  Jeśli haker zechce włamać się do chmury prywatnej czy firmowego data center, będącego pod kontrolą administratorów i działów IT, będzie w stanie to zrobić. Jednak włamanie się do chmury publicznej, np. metodą Brut Force, wiąże się z tak dużymi kosztami, że pozyskane w ten sposób dane nie będą stanowić odpowiedniej rekompensaty. Poza tym każda, nawet skomplikowana technologia posiada luki, a najlepiej chronione środowisko narażone jest na ataki.

Dlatego wiele zależy od tego, jaką ochronę zapewniają infrastrukturze chmury jej dostawcy: z jaką częstotliwością przeprowadzają aktualizacje oprogramowania, czy mają wdrożone odpowiednie procedury bezpieczeństwa i czy zatrudniają wykwalifikowany personel, co powinno być potwierdzone stosownymi audytami i certyfikatami bezpieczeństwa

– dodaje Krzysztof Ciepłucha.

Microsoft, poprzez dedykowaną, wieloletnią i bliską współpracę w obszarze cyberbezpieczeństwa w ramach specjalnych programów dedykowanych dla organów ścigania, partnerów branżowych oraz grup badawczych stara się zrozumieć i odpowiednio reagować na zwiększające się i coraz bardziej złożone zagrożenia związane z cyberbezpieczeństwem. Wieloletnie doświadczenia i pozyskana wiedza zebrane w tym obszarze zostały również wykorzystane i zaimplementowane przy projektowaniu i zarządzaniu bezpieczeństwem infrastruktury naszych usług online

– komentuje Daniel Grabski.

Bezpieczeństwo oferowanych rozwiązań online to również pytanie o metodologię projektowania, budowania i testowania samych aplikacji, także tych przeniesionych do chmury – od tego zależy poziom ich podatności na zagrożenia oraz szybkość reagowania i procesów budowania patchy, jeżeli zaistnieje taka konieczność. Microsoft od 10 lat w całym procesie powstawania swoich aplikacji wykorzystuje konsekwentnie metodykę SDL (Security Development Lifecycle), która pozwala w efektywny i kontrolowany sposób zaimplementować specjalnie dedykowane procesy i procedury do zidentyfikowania luk zabezpieczeń przed zatwierdzeniem kodu, zaimplementować najlepsze rozwiązania do tworzenia bezpiecznego kodu wraz z mechanizmami ich testowania, przygotować plan odpowiedzi na mogące pojawić się zagrożenia oraz przeprowadzić końcowe procedury przed przekazaniem oprogramowania do produkcji. Stworzona przez Microsoft w roku 2004 i udostępniona publicznie w 2008 metodyka SDL została częściowo włączona do standardu ISO 27034-1 (Information technology – Security techniques – Application security – Part 1: Overview and concepts)

– dodaje Daniel Grabski.

Bezpieczeństwo zależy też od samych firm, które korzystają z usług przetwarzania danych w chmurze.

Jeśli chcą ustrzec się przed dostępem osób niepowołanych, mogą przechowywać dane w postaci zaszyfrowanej, przy zapewnieniu odpowiedniej poufności klucza szyfrującego

– podsumowuje Krzysztof Ciepłucha.

Brak dostępu do danych w chmurze

Jedną z przyczyn powstrzymującą inwestorów przed korzystaniem z chmury publicznej, jest obawa przed utratą fizycznej kontroli nad danymi w niej przechowywanymi. Przedsiębiorcy mają wątpliwości, co do zapewnień propagatorów bezpieczeństwa cloud computingu o nieograniczonym dostępie do własnych baz o każdej porze dnia i nocy, z każdego miejsca na świecie. Zastanawiają się, jak będzie to możliwe w przypadku awarii po stronie usługodawcy czy braku dostępu do Internetu.

Zaufani dostawcy usług w chmurze robią wszystko, aby zapewnić danym swoich klientów bezpieczeństwo, odpowiednio chroniąc własną infrastrukturę techniczną. Centra danych, przez które świadczą swoje usługi, zabezpieczają przy użyciu najnowocześniejszych technologii. Stosują np. systemy kontroli dostępu czy gaszenia gazem (gaz w razie pożaru jest w stanie usunąć cały tlen, aby sprzęt nie uległ zniszczeniu). W pomieszczeniach instalują systemy wentylacyjne i klimatyzacyjne. Centra danych zazwyczaj korzystają z kilku źródeł zasilania czy usług różnych operatorów telekomunikacyjnych. Budują też zapasowe centra danych i podłączają niezależne linie energetyczne. Jest to standard wśród polskich i zagranicznych dostawców chmury. Każde z centrów danych Microsoftu ma własny zestaw generatorów prądu. Jeśli i one uległyby uszkodzeniu, zasilanie będą podtrzymywać dodatkowe akumulatory.

Poznański Beyond.pl posiada dwie oddzielne szyny zasilania z dwiema rozdzielniami elektrycznymi

– dodaje Wojciech Kmita, Cloud Manager z e24cloud.com.

Dostawcy chmury są też przygotowani na ewentualną awarię poszczególnych serwerów. Zaletą chmury jest to, że pozwala ona na migrację instancji między swoimi węzłami/serwerami. Każdy z setek, czy nawet tysięcy serwerów w centrum cloudowym utrzymuje pojedyncze, wirtualne instancje, które jest w stanie przesuwać między nimi. Dane na serwerach, w tym nasze dane, zmieniają swoją lokalizację cały czas, z różną częstotliwością. W razie awarii serwera, na którym aktualnie się znajdują, uruchamiana jest ich kopia zapasowa, znajdująca się na innym serwerze. Ta operacja jest nieodczuwalna dla funkcjonowania firmy. Chmura to sieć, w której nasze zasoby nie są w żaden sposób przypisane do jednej warstwy sprzętowej.

Czasem dostawcy usług w chmurze jeszcze bardziej obniżają ryzyko związane ze swoją działalnością, umieszczając centra przetwarzania danych w różnych geograficznych lokalizacjach. W ten sposób chronią zasoby np. przed skutkami katastrof klimatycznych, wojen, konfliktów lokalnych oraz wyspecjalizowanych ataków grup z danego kontynentu.

Nie ulega wątpliwości, że w większości przypadków rozwiązania oferowane w modelu cloud computingu są bardziej bezpieczne niż tradycyjny model dostarczania usług teleinformatycznych. Inwestycje poczynione w obszar bezpieczeństwa przy projektowaniu, budowaniu i utrzymaniu infrastruktury do przetwarzania w chmurze, na które składają się między innymi specjalistyczne oprogramowanie i narzędzia, wdrożone procesy i procedury zapewniające maksymalny poziom zarządzania ryzykiem z nim związanym – są olbrzymie

– podsumowuje Daniel Grabski.

Brak dostępu do Internetu wynika z problemów po stronie operatora teleinformatycznego. Stanowi ograniczenie w dostępie do naszych danych, choć zdarza się to już bardzo rzadko. Za kilka lat sytuacja braku dostępu do sieci zniknie całkowicie – Internet w bardzo szybkiej postaci będzie powszechny i dostępny.

Zrzucanie odpowiedzialności za bezpieczeństwo i integralność danych wyłącznie na usługodawcę

Większość firm wychodzi z błędnego założenia, że skoro usługodawca dysponuje odpowiednio niezawodną i bezpieczną infrastrukturą, to nie ma potrzeby dodatkowego wykonywania kopii bezpieczeństwa czy weryfikacji integralności danych.

Niestety, praktyka dowodzi, że awarie się zdarzają nawet największym. Znanych jest wiele przypadków częściowej lub całkowitej utraty czy uszkodzenia danych. Prawda jest taka, że często zawodzi nie tyle sam sprzęt, co czynnik ludzki i nieprawidłowo zaprojektowana architektura całego rozwiązania u usługodawcy. Dlatego też ważne jest, aby zapewnić sobie dodatkowe kopie bezpieczeństwa składowane w innym miejscu (lub u innego dostawcy usług)

– mówi Krzysztof Ciepłucha.

Potwierdza to Wojciech Kmita:

W tym miejscu wystarczy wspomnieć nie tak dawne awarie Amazona, Rackspace’a czy Google’a. Także na polskim rynku zdarzały się poważniejsze wypadki. Można tutaj nadmienić choćby o czerwcowej awarii e24cloud.com, gdzie w wyniku awarii zasilania uszkodzeniu uległy macierze dyskowe – zarówno podstawowa, jak i zapasowa. Choć infrastruktura dostępna była już w niecałą godzinę po wystąpieniu problemu i użytkownicy posiadający backupy uruchomili swoje środowiska, to inni użytkownicy, którzy nie zrobili kopii zapasowych, stracili dostęp do swoich danych. Wtedy e24cloud.com, jako pierwszy i na razie jedyny dostawca cloudowy zdecydował się na odzyskanie danych użytkowników na własny koszt. Takich praktyk nie stosują nawet najwięksi gracze, którzy po prostu informują, że dane zostały utracone (co jest zgodne z ich regulaminami).

Wsparcie techniczne

Użytkownicy zwykle nie zwracają na uwagi, jak potrzebne może być im wsparcie do czasu, aż coś niedobrego zaczyna się dziać z ich systemem czy danymi przetwarzanymi w chmurze. Wtedy może spotkać ich przykra niespodzianka w postaci braku możliwości uzyskania jakiejkolwiek pomocy technicznej.

Może jest to zbytnim uogólnieniem, ale moim zdaniem większość dostawców usług w chmurze nie oferuje klientom praktycznie żadnej pomocy technicznej, a często nawet porządnej dokumentacji. Problem istnieje, być może w różnej skali u różnych dostawców usług. Ja mam w tym temacie negatywne doświadczenia

– wyjaśnia, dlaczego brak odpowiedniego wsparcia ze strony dostawców chmury może wiązać się z zagrożeniem dla danych klientów Krzysztof Ciepłucha.

Zauważyłem, że przeciętny klient korzystając z usługi masowej za pomocą narzędzi do automatyzacji i samodzielnego zarządzania nie może liczyć na indywidualne potraktowanie czy też dostosowanie rozwiązania do jego specyficznych potrzeb, często nawet za dodatkową opłatą. Oczywiście trochę inaczej to wygląda w przypadku dużych klientów

– dodaje Krzysztof Ciepłucha.

To nie do końca prawda – każdy szanujący się dostawca usług w chmurze ma support. Różni dostawcy oferują inną pomoc. Zdarza się tak, że – jak w przypadku Amazona czy Google’a – dział wsparcia w razie problemów kieruje użytkowników na własne forum. Czasem support stoi na bardzo wysokim poziomie, jak w przypadku Fanatical Support Rackspace’a. Należy pamiętać jednak o jednej bardzo ważnej rzeczy: wparcie techniczne będzie dotyczyło tylko świadczonych usług. Oznacza to, że jeśli firma dostarcza infrastrukturę w chmurze jako usługę (IaaS), to jej support będzie odpowiadał tylko na zagadnienia związane z infrastrukturą. Nie pomoże natomiast np. w problemach z systemem operacyjnym, czy innym oprogramowaniem na serwerze w chmurze

– nie zgadza się Wojciech Kmita.

Stabilność parametrów świadczonej usługi

Bardzo często okazuje się, że wraz ze wzrostem liczby klientów dostawca usługi nie jest w stanie zapewnić należytej jakości i systemy zaczynają pracować wyraźnie wolniej lub zachowują się w inny, nieprawidłowy sposób.

Należy więc zwracać uwagę na to, aby umowa na świadczenie usługi gwarantowała określone parametry przez cały okres jej świadczenia, zawierała wyjaśnienie, co stanie się w przypadku niedotrzymania przez dostawcę tych parametrów oraz pozwalała monitorować te parametry

– radzi Krzysztof Ciepłucha.

Rodzaje tworzonych przez dostawców chmury rozwiązań, które mają zapobiegać takim sytuacjom, są bardzo różne.

W przypadku firmy Microsoft, do zarządzania i fizycznego utrzymania platformy usług przetwarzania w chmurze została zbudowana i dedykowana odrębna organizacja – Microsoft Global Foundation Services (w skr. GFS), będąca częścią firmy Microsoft. Jest ona odpowiedzialna za dostarczanie infrastruktury oraz technologii dla ponad 200 usług online w tym Bing, Hotmail, MSN, Office 365, XBOX Live czy też platformy Windows Azure. Infrastruktura, którą zarządza GFS składa się z globalnej sieci Centrów Danych (Data Centers) wraz z infrastrukturą obejmującą serwery, sieci dystrybucji treści, światłowody etc. W ramach Global Foundation Services powołany został tzw. Online Services and Security Compliance Team (OSSC), który odpowiada za Information Security Program – program dedykowany do zarządzania bezpieczeństwem informacji znajdujących się w infrastrukturze cloudowej, włączając w to polityki i programy zarządzania ryzykiem bezpieczeństwa serwisów online. W ramach OSSC działa również zespół odpowiedzialny za zarządzanie incydentami związanymi z bezpieczeństwem – Security Incident Management (SIM)

– opisuje Daniel Grabski.

Stabilność i długotrwałość prowadzenia działalności przez usługodawcę

Pomimo iż boom na Cloud Computing rozpoczął się stosunkowo niedawno, to wielu mniejszych dostawców już zniknęło z rynku lub zostało wchłoniętych przez większych graczy. Przedsiębiorcy boją się korzystać z usług niezaufanych firm, ponieważ obawiają się sytuacji, kiedy w wyniku ustania współpracy, ich dane i systemy będą zagrożone.

Warto więc sprawdzić, jak długo dana firma funkcjonuje na rynku, jaka jest jej sytuacja finansowa, jakie ma plany rozwoju itp.

– radzi Krzysztof Ciepłucha.

Znani i wiarygodni dostawcy usług przetwarzania w chmurze dbają o to, aby ich jakość potwierdzały odpowiednie certyfikaty. Decydują się na regularną weryfikację poprzez audyty obejmujące różne elementy ich działań.

Skala i obszar, w jakim przychodzi działać dostawcom usług przetwarzania w chmurze powoduje, że na bezpieczeństwo zaczynają patrzeć z zupełnie innej perspektywy. Wyzwania, które stoją przed nimi, jak złożone wymagania globalnych regulatorów, standardy przemysłowe oraz dynamicznie zmieniające się i coraz bardziej zaawansowane ataki na infrastrukturę teleinformatyczną wymuszają powstawanie zupełnie nowego modelu zarządzania bezpieczeństwem oraz procesów kontrolujących zgodność z obowiązującymi standardami. Otwartość na audyt poszczególnych elementów zarządzania bezpieczeństwem w przypadku dostawców usług w chmurze jest podstawowym elementem przy ocenie wiarygodności i jakości oferty oraz dowodem na transparentność całego procesu. Jeśli chodzi o Microsoft, to działanie i procesy obowiązujące w GFS zostały zweryfikowane oraz ocenione przez zewnętrzne firmy audytorskie, czego efektem są uzyskane certyfikaty obejmujące takie obszary, jak: bezpieczeństwo, polityka zachowania poufności informacji oraz zgodności z obowiązującymi przepisami. Na dzień dzisiejszy GFS posiada następujące certyfikaty: ISO 27001, SAS 70 type II, 95/46/EC – EU Data Protection Directive, HIPPA/HITECH, PCI Data Security Standard, FISMA. Z kolei procedury i procesy do których został przystosowany Security Incident Management (SIM) są zgodne z normą ISO/IEC 18044 dotyczącą zarządzania incydentami oraz obsługą incydentów według NIST SP 800-61. Wartym podkreślenia jest również fakt, że Information Security Program został certyfikowany przez British Standard Institute (BSI) Management Systems America jako zgodny z ISO/IEC 27001:2005

– mówi Daniel Grabski.

Brak pełnego zrozumienia sposobu funkcjonowania chmury

Klienci często nie rozumieją, w jaki sposób działa chmura obliczeniowa i jakie ma to konsekwencje dla jej funkcjonowania oraz zapewnienia bezpieczeństwa przetwarzanym w niej danym.

Duża część usługodawców po prostu nie udostępnia takich informacji. W efekcie uruchamiane w chmurze systemy nie potrafią skorzystać z dostępnych mechanizmów, aby zwiększyć efektywność przetwarzania i niezawodność działania, a często wręcz ryzyko awarii dodatkowo się zwiększa. Jest to cenna wskazówka dla dostawców chmury: bezpieczne i niezawodne systemy należy projektować
z uwzględnieniem specyfiki funkcjonowania chmury

– podkreśla Krzysztof Ciepłucha.

Uruchamianie wszystkich usług w ramach jednej strefy dostępności czy w regionie

Część usługodawców (np. Windows Azure) oferuje możliwość uruchamiania usług w różnych strefach dostępności, a nawet w osobnych regionach, które przynajmniej teoretycznie powinny być od siebie całkowicie odseparowane i niewrażliwe na awarie w innych strefach. Separacja ta daje także możliwość obrony przed atakami wykazującymi cechy regionalności.  Regionalne zróżnicowanie charakteryzuje nie tylko rozmieszczenie centrów danych usługodawców cloud computingu, ale także źródła ataków. Niewątpliwy prym w atakach wszelkiego typu na infrastrukturę cloudową wiedzie USA.

Projektując i uruchamiając systemy w chmurze warto wykorzystać tę możliwość w celu zwiększenia jej niezawodności. Jednocześnie trzeba pamiętać, iż nie zawsze ta separacja jest pełna i czasami zdarza się, że awaria w jednej strefie powoduje zakłócenia pracy również w innych strefach, znajdujących się w tym samym regionie

– radzi Krzysztof Ciepłucha.

Brak możliwości szybkiego odzyskania danych

Czasem dzieje się tak, że przedsiębiorca musi zabrać wszystkie swoje dane, by np. przenieść je do innego usługodawcy.

Aby nie okazało się, że dostawca chmury nie oferuje prostego i szybkiego mechanizmu eksportu, warto wcześniej upewnić się, czy taka opcja jest możliwa oraz w jaki sposób, jak szybko i w jakiej formie możemy te dane odzyskać

– radzi Krzysztof Ciepłucha.

Brak jasnej i otwartej polityki komunikacji z klientami

Awarie i problemy zdarzają się nawet największym. W takich sytuacjach niezwykle ważne jest, aby każdy klient mógł szybko uzyskać precyzyjną informację o przyczynach i skali problemu oraz realnym czasie przywrócenia funkcjonowania usługi. Niestety, duża część usługodawców w takiej sytuacji w żaden sposób nie informuje klientów, przestaje odpisywać na e-maile czy odbierać telefony

– zauważa Krzysztof Ciepłucha.

Business continuity i gotowość DR dostawcy

Jak usługodawcy kontrolują bezpieczeństwo przetwarzania danych w chmurze? W zasadzie nie różni się to od kontroli w typowym środowisku IT.

Każdy profesjonalny dostawca usług w chmurze prowadzi rozszerzoną politykę prywatności, a także „business continuity”, czyli tzw. politykę „zachowania ciągłości”. Opiera się ona na standardach, programach rozwojowych, politykach wspierających oraz stosowaniu wytycznych i procedur. Potrzebne są one do tego, by nie doszło do zatrzymania pracy firmy – niezależnie od niekorzystnych okoliczności lub zdarzeń. Cały system, którym zarządzają, musi być zaprojektowany, wdrożony, kontrolowany pod kątem zmian, wspierany i utrzymywany tak, aby zapewnić mu ciągłość działania i sprawne odzyskiwanie danych.

System dostawcy jest zaprojektowany w sposób umożliwiający czuwanie nad procesami przetwarzania informacji, nawet w momencie awarii poszczególnych części. Jest to możliwe dzięki wprowadzeniu kontroli w każdej warstwie modelu bezpieczeństwa SCM (z ang. Security Control Model), począwszy od warstwy fizycznej poprzez infrastrukturę sieciową, aż do systemów IT (bezpieczeństwo systemu) i przesyłania informacji do końcowej aplikacji (bezpieczeństwo aplikacji).

Również zastosowanie schematu zarządzania cyklem życia informacji (z ang. Information Lifecycle Management, w skr. ILM) zapewnia bezpieczeństwo informacjom.

Profesjonalni dostawcy chmury opracowują procedury działania związane z wznowieniem lub utrzymaniem infrastruktury technicznej na wypadek awarii spowodowanej katastrofami przyrodniczymi czy eksplozjami. Planowanie Disaster Recovery (w skr. DR) to część procesu zapewniania ciągłości działania. Obejmuje planowanie wznowienia działania aplikacji, danych i sprzętu oraz łączności, a także innych elementów zaplecza IT. Jednym z elementów DR są procedury związane ze stosowaniem zapasowego ośrodka danych.

Umowa na świadczenie usług

Istotą świadczenia usług w chmurze są płatności pay-as-you-go, czyli tylko za zasoby, które wykorzystujemy, a także brak długoterminowych umów. W każdym innym przypadku przestajemy mieć do czynienia z chmurą, a z maszynami typu VPS

– mówi Wojciech Kmita.

Wydajność systemu lub aplikacji

Przedsiębiorcy obawiają się, czy aplikacje, udostępniane w modelu cloudowym oraz systemy są na tyle wydajne, by mogli rozwijać w nich swoje aplikacje.

Już uruchomienie jednego start-upu wymaga posiadania infrastruktury, która pomieści gigabajty danych, rozrastających się w sposób nieprzewidywalny i szybki, a co dopiero prowadzenie kilku projektów i zarządzanie aplikacjami istotnymi dla działania firmy.

Dzięki cloud computingowi firma ma dostęp do takiej mocy obliczeniowej, powierzchni dyskowej czy platformy programistycznej, jakiego potrzebuje w danej chwili. W związku z tym może sprostać właściwie każdej operacji, nawet tej wymagającej skorzystania z wielu procesorów o dużej mocy. Jeśli potrzebuje dodatkowej mocy obliczeniowej ma pewność, że chmura z pewnością ją udostępni (oczywiście za opłatą, ale atrakcyjną w porównaniu np. do zakupu nowego sprzętu IT).

Dzięki możliwościom chmury programiści mają zapewnioną zwiększoną moc obliczeniową
i pojemność pamięci masowych, potrzebnych do uruchamiania budowanych aplikacji. Nie są już ograniczeni fizycznymi barierami. Zagrożenie, że firma wykorzysta moc swoich serwerów, znika, ponieważ obciążenia są rozkładane pomiędzy poszczególne instancje. Firmy nie muszą dokupować sprzętu (serwerów, stacji roboczych), bo dodatkowe zasoby są dostępne w chmurze na żądanie i bez ograniczeń.

 

Tak buduje się zaufanie

Krytycznym elementem potrzebnym do sprostania wyzwaniom tego typu rozwiązania jest najwyższej klasy, doświadczony zespół specjalistów i menedżerów gwarantujący osiągnięcie zakładanego celu. Zespół, który odpowiada za utrzymanie i dostarczenie platformy do przetwarzania w chmurze w Microsoft może pochwalić się posiadaniem łącznie ponad 300 patentów w Stanach Zjednoczonych oraz wieloletnim doświadczeniem w budowaniu i zarządzaniu sieciami infrastruktury teleinformatycznej, bezpieczeństwem, budową aplikacji oraz praktyką zarządzania operacyjnego ICT na poziomie globalnym

– podsumowuje Daniel Grabski.

Nie można jednoznacznie stwierdzić, że chmura to dobre lub złe, bezpieczne lub niebezpieczne rozwiązanie. Zarówno bezpieczeństwo chmury, jak i tradycyjnego centrum danych zależy od jakości zarządzania daną infrastrukturą. To profesjonalni administratorzy powinni czuwać nad efektywną ochroną zaplecza IT, która obejmuje podstawowe zasady higieny zaplecza, zapewnianie bezpieczeństwa aplikacjom internetowym i stosowanie odpowiednich konfiguracji czy strategiczne izolowanie środowisk w razie ataków. Zarówno zespół administrujący firmowym data center, jak i chmurą obliczeniową, powinien nieustannie budować swoje kompetencje w tej dziedzinie.

dodany: 18.03.2013 | tagi:

WebSecurity.pl patronem medialnym konferencji „Cloud Computing – innowacyjne rozwiązania w chmurze”

0

Miło nam powiadomić, że portal WebSecurity został patronem medialnym konferencji „Cloud Computing – innowacyjne rozwiązania w chmurze”, która odbędzie się 18 kwietnia 2013 roku w Warszawie.

Większość przedsiębiorstw obecnie poszukuje oszczędności w zakresie informatyki, jednak nie kosztem bezpieczeństwa, czy też dostępności danych. Cloud Computing  jest rozwiązaniem dedykowanym, które traktuje aplikację, platformę czy też infrastrukturę jako usługę. Przyspiesza dodatkowo wiele procesów, dzięki bardzo wysokiej dostępności. Technologię Cloud Computing zna już większość specjalistów IT, jednak nie wszyscy zdają sobie sprawę jak bardzo innowacyjne narzędzia są już dostępne w tej technologii.

Podczas konferencji zostaną zaprezentowane nowoczesne systemy i technologie dla biznesu w tzw. chmurze. Swoje produkty i usługi zaprezentują kluczowi gracze na rynku, a swoją wiedzą i doświadczeniem podzielą się eksperci branżowi.

Proponowane zagadnienia:

  • nowoczesne technologie w cloud computing,
  • innowacyjne usługi w modelu SaaS, IaaS, PaaS,
  • wirtualizacja w chmurze,
  • cloud computing jako przyspieszenie rozwoju przedsiębiorstwa,
  • kolokacja danych i infrastruktury do chmur,
  • praca w chmurze, zamiast w biurze – rozwiązania dla MŚP oraz dużych firm,
  • cloud computing – niskie koszty i wysokie bezpieczeństwo,
  • przeniesienie funkcjonujących aplikacji do chmury,
  • cloud computing vs. cloud services – różnice,
  • usługi w modelu chmury prywatnej i publicznej,
  • usługi w modelu mieszanym,
  • zarządzanie aplikacjami i infrastrukturą w chmurze,
  • cloud computing w rozrywce i portalach społecznościowych.

Do udziału w konferencji zapraszamy osoby odpowiedzialne za:

  • pozyskiwanie i utrzymanie infrastruktury technicznej firmy,
  • rozwój biznesu w przedsiębiorstwie,
  • wdrażanie nowoczesnych rozwiązań informatycznych,
  • rozwój IT w danej firmie,
  • wybór, zakup i wdrażanie systemów oraz nowoczesnych technologii.

w szczególności:

  • CIO, Dyrektorów, Kierowników, Managerów działów informatycznych, infrastruktury IT oraz technologii,
  • Dyrektorów, Kierowników Finansowych oraz osoby związane z optymalizacją kosztów,
  • Kierowników i Managerów ds. zakupów
  • Dyrektorów i managerów ds. rozwoju biznesu,
  • Kierowników projektów,
  • Szefów bezpieczeństwa,
  • Prezesów oraz doradców zarządu.


Udział w konferencji jest bezpłatny, wystarczy wypełnić formularz rejestracyjny.

Uczestnikom konferencji organizatorzy zapewniają przerwy kawowe oraz komplet materiałów konferencyjnych.

dodany: 14.03.2013 | tagi: , ,

Intergalaktyczna sieć komputerowa – krótko o historii cloud computingu

3
Historia cloud

Ostatnio dużo mówi się o cloud computingu. Myśleliście, że jest to technologia stosunkowo nowa? Nic bardziej mylnego. Idea chmury obliczeniowej jest niemal tak stara, jak same komputery, a sposób świadczenia usług w ten sposób niewiele młodszy. Przyjrzeliśmy się temu mglistemu pojęciu na tle historii rozwoju komputerów. Od kiedy można mówić o początku chmury?

 

Era testowania, czyli pierwsza generacja komputerów (1945 – 1955)

Powojenna dekada to wstęp do ery komputerów. O tym etapie nie można nie wspomnieć, choć o tworzeniu centrów danych czy udostępnianiu zewnętrznej infrastruktury IT można było wtedy tylko pomarzyć.

Jest to czas mniej lub bardziej udanych prób stworzenia komputerów cyfrowych. Maszyny programowano albo w języku maszynowym (innych języków nie znano) albo ich funkcje były realizowane za pomocą tablic programowych (na których znajdowały się połączone ze sobą za pomocą tysięcy kabli obwody elektryczne), a później kart perforowanych. Nie istniały jeszcze systemy operacyjne. Komputery były prymitywne i służyły do prostych obliczeń w ośrodkach naukowych.

Harvard Mark I

Harvard Mark I / IBM Automatic Sequence Controlled Calculator (ASCC). Źródło: Wikipedia.

 

Pierwsze małe centra danych, czyli druga generacja komputerów (1955 – 1965)

Po erze prób i błędów nastał czas budowania komputerów i wykorzystywania ich w ośrodkach naukowych, agencjach rządowych i dużych przedsiębiorstwach.

Dzięki wprowadzeniu w połowie lat 50. XX w. tranzystorów, komputery stały się na tyle niezawodne i małe w porównaniu z lampowymi, że zaczęto je produkować i sprzedawać. Maszyny te określono terminem mainframe. Miały wielkie gabaryty – zamknięte były w specjalnych, klimatyzowanych pomieszczeniach. Powstały też systemy wsadowe, czyli połączenie dwóch typów maszyn, przeznaczonych do różnych zadań. Na takie urządzenia pozwolić sobie mogły tylko uniwersytety, agencje rządowe i duże korporacje. Używano ich do obliczeń naukowych i inżynierskich.

 

System/360

IBM System/360 model 20. Źródło: Wikipedia.

 

Początki „intergalaktycznej sieci komputerowej”, czyli trzecia generacja komputerów (1965 – 1980)

Dzięki powstaniu minikomputerów nowe technologie trafiły do prywatnych użytkowników, a przedsiębiorstwa mogły budować ulepszone centra danych. Powstały też rozwiązania, z których dziś korzysta cloud computing. Pojawiły się również pierwsze wizje wykorzystywania mocy obliczeniowej, dostępnej publicznie.

Na początku lat sześćdziesiątych producenci komputerów wypuszczali na rynek po dwie linie całkowicie odmiennych produktów, co było bardzo kosztowne. Z jednej strony były to maszyny używane w nauce i inżynierii, z drugiej komercyjne komputery, służące do sortowania taśm i drukowania. Stosowano je głównie w bankach i firmach ubezpieczeniowych.

Firma IBM zaczęła produkować komputery, które miały połączyć te dwie oddzielne linie i wypuściła na rynek serię System/360. Po raz pierwszy zastosowano w nich układy scalone. Maszyny te wykonywały zarówno naukowe, jak i komercyjne obliczenia, więc spełniały oczekiwania klientów korporacyjnych i prywatnych. Wkrótce nastąpił też znaczny postęp w rozwoju minikomputerów.

Do lepszego wykorzystania działania procesora głównego w nowych typach komputerów zastosowano m.in. wieloprogramowość i technikę podziału czasu (ang. timesharing). Dzięki temu maszyna zajmowała się tylko tymi zadaniami, które wymagały obsługi w danej chwili, niezależnie od liczby podłączonych do niej użytkowników.

Następnie próbowano zbudować urządzenie, które byłoby zdolne do obsługi kilkuset użytkowników jednocześnie. Wzorowano się na sposobie działania sieci elektrycznej. System nazwano MULTICS (z ang. MULTiplexed Information and Computing Service). Jego twórcy zamierzali stworzyć jedną, rozbudowaną maszynę, która byłaby zdolna do dostarczenia mocy obliczeniowej wszystkim mieszkańcom jednego miasta. Po przekształceniach system zainstalowano w około 80 dużych firmach i uniwersytetach na całym świecie.

Idea „intergalaktycznej sieci komputerowej” pojawiła się w 1969 r. Jej autorem był J.C.R. Licklider, który pracował przy zaawansowanym projekcie badawczym ARPANET. Jego wizja była zbieżna z tym, co dziś znamy jako cloud computing. Badacz wyobrażał sobie, że wszyscy mieszkańcy kuli ziemskiej mają dostęp do programów i danych z dowolnego miejsca na świecie, dzięki łączeniu się
z rozległą siecią.

Innym naukowcem, któremu przypisuje się stworzenie idei cloud computingu był John McCarthy. Przedstawił wizję mocy obliczeniowej, która byłaby powszechnie dostępna i świadczona tak, jak usługi biurowe.

Odra 1305

Odra 1305 – polski komputer III generacji. Źródło: Wikipedia.

 

Komputery osobiste, Internet i cloud computing, czyli czwarta generacja komputerów (1980 – czasy współczesne)

Lata 80. to początek wielkich zmian w wykorzystywaniu infrastruktury IT i początek informatyzacji przedsiębiorstw. W latach 90. zaczęły powstawać prototypy chmur publicznych i prywatnych. Z cloud computingu zaczęły korzystać coraz większe firmy.

Wraz z układami scalonymi nastał wiek komputerów osobistych. Mogły sobie na nie pozwolić już nie tylko firmy czy uniwersytety, ale także osoby prywatne – otworzył się ogromny rynek odbiorców indywidualnych. Masowość wymusiła standaryzację i automatyzację rozwiązań IT, ponieważ użytkownicy końcowi zaczęli wymagać, aby „poważne” aplikacje były proste, a dostęp do nich ułatwiony. Nastąpił też intensywny rozwój systemów operacyjnych (m.in. Windows i Linux) i oprogramowania.

W tym czasie technologie informatyczne były zbyt drogie i dostępne tylko dla nielicznych. W Polsce w latach 90. zaczęły dominować tzw. Ośrodki Obliczeniowe. Tworzono je przy przedsiębiorstwach (najczęściej były to zakłady przemysłowe). Usługi tego typu zaczęły oferować też specjalistyczne firmy.  Choć trudno je nazwać usługami w chmurze, ponieważ nie były powszechne, a dostęp do nich był ograniczony, także w fizycznym znaczeniu, to spełniały część założeń cloud computingu. Na przykład wszelkie procesy związane z przetwarzaniem w nich danych były poza zasięgiem użytkownika końcowego.

Z czasem technologie informatyczne stawały się coraz bardziej dostępne i tendencja tworzenia własnych centrów danych była coraz popularniejsza. Informatyka zaczęła decydować o przewadze konkurencyjnej. Nastąpiła pierwsza fala informatyzacji przedsiębiorstw.

W latach 90. przełomem dla cloud computingu okazał się też rozwój Internetu i wirtualizacji, standaryzacja wymagań co do szerokości pasma częstotliwości i uniwersalnego oprogramowania, a także opracowanie uniwersalnych standardów interoperacyjności.

Dziś mamy do czynienia z drugą falą informatyzacji, kiedy przedsiębiorcy muszą zrewidować cele i sposoby korzystania z zasobów IT.

Google DC

Centrum danych Google. Źródło: Google Inc.

 

Na historię cloud computingu na przełomie wieku XX i XXI wpływ miało kilka wydarzeń

  • 1999 – Pojawienie się Salesforce.com

Był to pierwszy serwis, który zaczął udostępniać aplikacje biznesowe przez stronę. Utorował tym samym drogę dostarczaniu usług przez Internet.

  • 2002 – Amazon Mechanical Turk

Do kolejnego przełomu doprowadził w 2002 roku Amazon WebServices, który zaczął udostępniać zestaw usług w chmurze przez Amazon Mechanical Turk.

  • 2006 – Elastic Compute Cloud (EC2) od Amazona

Kolejnym ważnym wydarzeniem w historii cloud computingu było prowadzenie przez Amazon Elastic Compute Cloud (EC2) komercyjnego serwisu, który małym firmom i osobom prywatnym pozwala na wynajem sprzętu (IaaS) do uruchamiania własnych aplikacji. To pierwsza szeroko dostępna infrastruktura cloud computingu w historii.

  • 2009 – Aplikacje online od Google’a

Google i inni usługodawcy zaczęli w tym czasie oferować aplikacje online. Spotkało się to z dużą przychylnością użytkowników, ponieważ skomplikowane narzędzia stały się dla nich łatwe w użyciu.

  • 2010 – Microsoft inwestuje w chmurę

Microsoft zainwestował 2,3 mld dolarów na przekształcenie aplikacji desktopowych na ich odpowiedniki w chmurze wg modelu SaaS.

  • Hewlett-Packard wdraża cloud computing

Hewlett-Packard zainwestował 2 mld we wdrożenie cloud computingu.

  • Amerykański rząd – zachmurzony

Z chmury, oferowanej przez Amazon, zaczął korzystać amerykański rząd.

 

Dzisiaj

Jak wynika z badań przeprowadzonych we Francji, Hiszpanii, Holandii, Niemczech, Polsce, Rosji, Włoszech i Wielkiej Brytanii na zlecenie firmy VMware, już 60% europejskich firm przeniosło część swojej infrastruktury informatycznej do chmury. Jak na tym tle wypada Polska? Według wyników ankiety z usług w chmurze korzysta 46% polskich przedsiębiorstw z sektora MŚP (małych i średnich przedsiębiorstw).

dodany: 13.03.2013 | tagi:

Bezpłatna konferencja Cloud Computing

3
Bezpłatna konferencja Cloud Computing

 

Już po raz dziesiąty spotkają się osoby zainteresowane podbijającymi rynek rozwiązaniami chmurowymi, w różnych ich aspektach.

Polscy przedsiębiorcy również odkrywają zalety chmury – optymalizację kosztów, szybkość wdrożenia i elastyczność rozwiązań IT.

Podczas konferencji mamy nadzieję nie tylko przedstawić technologie i rozwiązania cloud computing, ale także odpowiedzieć na Państwa obawy – kwestie bezpieczeństwa, trudności w dostosowaniu chmurowych rozwiązań IT do indywidualnych potrzeb oraz regulacje prawne ograniczające swobodne korzystanie z chmury w Polsce.

Proponowana tematyka wykładów:

– cloud computing – szansa czy zagrożenie?
– bezpieczeństwo danych – mniejsza kontrola informacji, zagrożenia prywatności, wątpliwości prawne
– cloud computing vs cloud services – różnice
– wykorzystanie w serwisach społecznościowych (Facebook, MySpace, etc.)
– cloud computing w rozrywce
– usługi w modelu Saas, IaaS, PaaS
– od wirtualizacji do infrastruktury cloud computing
– zarządzanie aplikacjami i infrastruktura w chmurze
– usługi w modelu chmury prywatnej
– usługi w modelu chmury publicznej
– usługi w modelu mieszanym
– transformacja organizacji w kierunku cloud
– cloud jako droga do optymalizacji kosztów

Szczegóły na stronie organizatora

Rejestracja online

 

dodany: 28.02.2013 | tagi: , ,

Aspekty prawne cloud computingu, czyli co chroni nasze dane…

19
cloud

Z powodu wciąż powracających pytań oraz obaw o bezpieczeństwo chmury, postanowiliśmy przyjrzeć się, jakie dyrektywy i prawa regulują zasady dostarczania tych usług? Zasady korzystania z usług świadczonych w modelu chmurowym (w tym część zagadnień związanych z bezpieczeństwem) reguluje umowa z dostawcą. Zawarte są w niej wszelkie informacje dotyczące przetwarzania naszych danych. Niektóre postanowienia wynikają z prawa obowiązującego w danym państwie.

Wielu przedsiębiorców nie decyduje się na wynajem zewnętrznej infrastruktury IT głównie z obaw o bezpieczeństwo swoich danych. Tymczasem już umowa z dostawcą usług w chmurze zapewnia formalną ochronę naszych danych. Zamieszczone są w niej dokładne informacje, co dzieje się z danymi przetwarzanymi w chmurze, kto będzie miał z nimi styczność i co się z nimi stanie w razie awarii, czyli braku dostępu do nich. Niektóre postanowienia zawarte w umowie wynikają z prawa obowiązującego w danym kraju. Ważną kwestią jest to, że jeśli chcemy skorzystać z usług świadczonych w chmurze zlokalizowanej w innym kraju, to umowa z dostawcą będzie oparta o prawa kraju, z którego pochodzi, ale w zgodzie z prawem obowiązującym w kraju klienta.

 

Różnice prawne mogą ogrniczać

Nie we wszystkich krajach możliwe jest wdrożenie usługi w chmurze. Na przykład platforma Windows Azure (PaaS) nie jest dostępna w Rosji. Powód stanowią różnice prawne między krajami.

Umowa na korzystanie z usług świadczonych w modelu chmurowym zwykle przyjmuje postać regulaminu, który klient musi zaakceptować podczas procedury rejestracji w danej usłudze. Umowa dotyczy kwestii związanych z bezpieczeństwem, tj. określa przykładowo, jakie mechanizmy bezpieczeństwa i ochrony danych stosowane są przez usługodawcę. Nie można jednak zapomnieć o tym, że nie wszystkie postanowienia umowy będą wiążące we wszystkich przypadkach – regulaminy usług mają w swoim założeniu wielokrotnie charakter bardziej uniwersalny i nie uwzględniają specyfiki każdego systemu prawnego, co często prowadzi do tego, że zapisy umów są wypierane przez przepisy prawa właściwego (krajowego)

– mówi Rafał Malujda, Radca Prawny.

 

Chmura a prawo w Polsce, UE i zagranicą

Dostawcy usług w chmurze powinni ściśle przestrzegać ochrony danych osobowych. Kiedy chmura zlokalizowana jest na terenie Unii Europejskiej, ich klienci muszą być pewni, że  dane będą zabezpieczone m.in. zgodnie z dyrektywą unijną  95/46/EC, która wdrożona jest przez ustawę o ochronie danych osobowych z 1997 roku (UODO) oraz z dyrektywą nr 2002/58/WE, której odpowiadają przepisy zawarte w ustawie o świadczeniu usług drogą elektroniczną z 2002r.

Sprawy komplikują się wtedy, gdy przedsiębiorstwa chcą korzystać z chmur ulokowanych poza Europejskim Obszarem Gospodarczym.

W takiej sytuacji kwestie formalne, regulujące współpracę między dostawcami a odbiorcami usługi muszą spełniać wiele wytycznych unijnych, w tym podstawowy warunek – przekazywanie danych będzie zgodne z prawem tylko wtedy, jeśli w kraju, w którym docelowo znajdą się dane klienta, ich zabezpieczenie będzie na tym samym lub zbliżonym poziomie, co w Polsce. Unia Europejska potwierdziła, że USA, Izrael, Argentyna, Kanada, Szwajcaria, Guernsey, Wyspa Man zapewniają danym osobowym odpowiednią ochronę.

Jeśli ten warunek nie zostanie spełniony, kolejną przesłanką, umożliwiającą przekazywanie danych do innych krajów spoza UE jest np. uzyskanie zgody GIODO. Żeby ją otrzymać, potrzebne jest spełnienie wytycznych ustalonych przez Komisję Europejską, które obowiązują od 5 lutego 2010 roku.

Aby sprzyjać rozwojowi cloud computingu Unia Europejska 4 listopada 2010 r. przyjęła kompleksową strategię regulującą kwestie ochrony danych osobowych – komunikat KOM (2010)609/3.

 

Wybór prawa i jurysdykcji dla firm o wielu siedzibach

Inną sprawą, jeśli chodzi o kwestie prawne w cloud computingu, jest wybór właściwego prawa i jurysdykcji. Firmy świadczące usługi w modelu cloud mają swoje siedziby w różnych krajach, takich jak np. USA, Chiny, Indie czy Niemcy. W każdym z nich obowiązują inne normy prawne, których muszą przestrzegać. Niektóre z nich są ujednolicone przez międzynarodowe konwencje, do których przystąpiło wiele państw. Strony kontraktu mogą określić, jakiemu prawu i jurysdykcji podlegają i zgodnie z którym określane są ich zobowiązania. W większości międzynarodowych kontraktów można znaleźć klauzule wyboru forum prawa. W Polsce najistotniejsze w sprawie prawa właściwego i jurysdykcji są rozporządzenia UE – nr 44/2001 (Bruksela I) oraz w sprawie  prawa właściwego dla zobowiązań umownych nr 593/2008 (Rzym I).

W celu zwiększenia atrakcyjności swojej platformy, usługodawcy w modelu cloud computingu powinni zapewnić użytkownikom komfort przetwarzania danych osobowych zgodnie z przepisami. Formalnie to bowiem użytkownicy są zobligowani do przestrzegania przepisów dotyczących tych kwestii i to oni powinni dobierać rozwiązania informatyczne w taki sposób, żeby ich działalność była legalna. Istnieje również możliwość, aby to usługodawca był podmiotem, któremu przedsiębiorca powierza przetwarzanie danych, w tym celu strony powinny podpisać jednak umowę w formie pisemnej, co w modelu usługowym cloud computingu zdarza się sporadycznie

– dodaje Rafał Malujda.

 

Niektóre certyfikaty/potwierdzenia zgodności z normami czy ustawami, które powinni posiadać dostawcy usług w chmurze w UE i USA

ISO/IEC 27001 – specyfikacja systemów zarządzania bezpieczeństwem informacji, w której skład wchodzi 11 różnych zagadnień związanych z bezpieczeństwem, m.in. kwestia zasobów ludzkich, zarządzanie ciągłością działania czy systemami informacyjnymi.

SAS 70 – od dostawcy warto wymagać raportu z audytu SAS 70. Zawiera on opis środowiska kontroli wewnętrznej, zarządzania ryzykiem, kluczowych mechanizmów kontrolnych, opisów systemów i zakresu świadczonych usług. Audyt wykonywany jest przez zewnętrzną firmę audytorską.

SOX – Sorbanes-Oxley Act to ustawa w USA, która określa zasady działania rynków finansowych,
w tym kontrolę firm audytorskich.

HIPAA – Health Insurance Portability and Accountability Act to ustawa dotycząca rynków medycznych, określająca standardy odnośnie do prywatności i przetwarzania danych, regulujących funkcjonowanie firmy.

PCI DSS – Payment Card Industry Data Security Standard to standardy dotyczące działań związanych
z kartami kredytowymi.

ANSi/TIA-942 – standard infrastruktury telekomunikacyjnej dla centrów danych. Rozróżnia cztery kategorie (skala Tier) bezpieczeństwa centrów (gdzie 1 = najniższa, 4 = najwyższa). Obejmuje także względy środowiskowe.

Safe Harbor – działanie wg tego programu ma zapobiegać wyciekaniu bądź utracie informacji. Zgodnie z nim europejskie firmy nie mogą przesyłać danych poza UE, chyba że spełniają odpowiednie poziomy bezpieczeństwa. Zgodnie z Safe Harbor dane z UE mogą być przechowywane poza UE na zasadach obowiązujących w prawie państwowym.

dodany: 28.02.2013 | tagi:

Cloud computing – z biznesem w chmurze

0
Cloud computing – z biznesem w chmurze

Konferencja poświęcona jest cloud computingowi i jego zastosowaniu w biznesie.

Proponowane zagadnienia tematyczne:

  • cloud computing jako droga do optymalizacji kosztów bezpieczeństwo w chmurze
  • Infrastructure as a Service – infrastruktura jako usługa
  • Platform as a Service – platforma jako usługa
  • Software as a service – oprogramowanie jako usługa
  • Communications as a service – komunikacja jako usługa
  • usługi kolokacji
  • od wirtualizacji do infrastruktury cloud computing
  • usługi w modelu chmury prywatnej
  • usługi w modelu chmury publicznej
  • usługi w modelu chmury hybrydowej aspekty prawne

Konferencja skierowana jest do:

  • dyrektorów i managerów ds. rozwoju biznesu, rozwoju infrastruktury, odpowiedzialnych za bezpieczeństwo i składowanie danych, zarządzanie centrami danych w firmie
  • kierowników projektów
  • osoby odpowiedzialne za bezpieczeństwo, niezawodność oraz dostępność zasobów w firmie
  • szefów działów IT, bezpieczeństwa
  • osoby odpowiedzialne za zmniejszenie kosztów i optymalizację zasobów firmy,
  • doradców zarządu
 
Udział w konferencji jest bezpłatny dla przedstawicieli powyższej grupy.

Udział jest płatny: dla pozostałych osób, w tym przedstawicieli dostawców usług, rozwiązań informatycznych oraz technologicznych – opłata za osobę wynosi 1000 zł +23% VAT.
Ze względu na ograniczoną liczbę miejsc zastrzegamy sobie prawo do odmowy przyjęcia zgłoszenia przedstawicieli wyżej wymienionych firm.

dodany: 06.02.2013 | tagi: , ,

WebSecurity.pl patronem medialnym konferencji: „Cloud computing – z biznesem w chmurze”

0
WebSecurity.pl patronem medialnym konferencji: „Cloud computing – z biznesem w chmurze”

Portal WebSecurity.pl objął patronatem medialnym konferencję pt. „Cloud computing – z biznesem w chmurze”, która odbędzie się 28 lutego 2013 r.

Portalu WebSecurity.pl nie może zabraknąć podczas wydarzenia, które dotyczy cloud computingu. Nie tylko dlatego, że ta tematyka związana jest z nowoczesnymi technologiami, ale także dlatego, że łączy się ona z kwestią bezpieczeństwa danych.

Podczas konferencji omówionych zostanie kilkanaście tematów dotyczących cloud computingu w aspekcie biznesu, ponieważ właśnie dzięki chmurze firmy mogą osiągnąć wiele korzyści.

Mówiąc o nowoczesnej infrastrukturze mamy na myśli przede wszystkim niższe koszta utrzymania produktu końcowego, mniejsze zużycie energii oraz łatwość użytkowania usług. Przedsiębiorstwa inwestujące w modernizację przestarzałej i niesprawnej infrastruktury coraz częściej więc spotykają się z problemem wyboru najskuteczniejszych i efektywnych technologii.

– piszą organizatorzy.

Podczas konferencji

(…) liderzy rynku i eksperci odpowiedzą na wszelkie wątpliwości i kontrowersje związane z planowanymi inwestycjami. Nie zabraknie wielu cennych wskazówek  na temat  redukcji kosztów, bezpieczeństwa danych oraz błędów popełnianych przy implementacji rozwiązań w chmurze.

 

Konferencja „Cloud computing – z biznesem w chmurze”

Program

  • cloud computing jako droga do optymalizacji kosztów
  • bezpieczeństwo w chmurze
  • Infrastructure as a Service – infrastruktura jako usługa
  • Platform as a Service – platforma jako usługa
  • Software as a service – oprogramowanie jako usługa
  • Communications as a service – komunikacja jako usługa
  • usługi kolokacji
  • od wirtualizacji do infrastruktury cloud computing
  • usługi w modelu chmury prywatnej
  • usługi w modelu chmury publicznej
  • usługi w modelu chmury hybrydowej
  • aspekty prawne

Dodatkowe informacje

Konferencja skierowana jest do:

  • dyrektorów i managerów ds. rozwoju biznesu, rozwoju infrastruktury, odpowiedzialnych za bezpieczeństwo i składowanie danych, zarządzanie centrami danych w firmie
  • kierowników projektów
  • osoby odpowiedzialne za bezpieczeństwo, niezawodność oraz dostępność zasobów w firmie
  • szefów działów IT, bezpieczeństwa
  • osoby odpowiedzialne za zmniejszenie kosztów i optymalizację zasobów firmy
  • doradców zarządu

Rejestracja

Więcej informacji o konferencji „Cloud computing – z biznesem w chmurze”

Organizator:

multi_train_150