1. cofnij

Artykuł Simplivity

Technologia zmienia się w fenomenalnym tempie. Możliwości IT wzrastają dziesięciokrotnie co pięć lat - to tysiąckrotnie w ciągu 15 lat! Prowadzi to do niesamowitych zmian w codziennym życiu, zmieniają się też oczekiwania użytkowników względem technologii. Świat ulega transformacji a technologia staje się obecna w każdym aspekcie codziennego życia.

Co to oznacza dla IT? Coraz więcej procesów biznesowych podlega automatyzacji, oprogramowanie przejmuje wcześniej manualne zadania a rola oprogramowania i aplikacji w biznesie staje się coraz bardziej powszechna. Oznacza to, że ekosystemy aplikacji stają się coraz bardziej złożone i powiązane z działaniami biznesowymi. IT zyskuje na znaczeniu w ujęciu biznesowym bardziej niż kiedykolwiek. Jest to ogromna zmiana dla wielu organizacji, które są przyzwyczajone że IT pełni rolę bardziej wsparcia - back office.

Organizacje IT muszą zrewidować model swojej działalności, zwłaszcza w zakresie adresowania celów biznesowych przedsiębiorstwa – w jaki sposób zapewnić większą wydajność, przewidywalność oraz elastyczność biznesową przedsiębiorstwa. Transformacja ta wywiera ogromną presję na IT – tradycyjne systemy oraz aplikacje mają trudności z nadążaniem za zmianami. Niektóre z typowych powodów, dla których nowoczesne organizacje IT podejmują inicjatywy związane z transformacją cyfrową, to:

  • Szybsze innowacje – IT musi szybko reagować na zmieniające się potrzeby biznesowe, presję konkurencji oraz potrzeby aplikacji, tak aby przedsiębiorstwa mogły wyróżnić się na rynku.
  • Uproszczenie infrastruktury – tradycyjne centra danych zwykle są skomplikowane i składają się z silosów danych, wymagają specjalistycznej wiedzy w zakresie wdrożenia i utrzymania infrastruktury. Organizacje IT będą musiały zmienić model dostarczania swoich usług tak aby wyeliminować silosy danych, uprościć infrastrukturę oraz zapewnić elastyczność jak w usługach chmurowych.
  • Optymalizacja wykorzystania zasobów – większość budżetu IT (oraz personelu) jest przeznaczana na utrzymanie działania zamiast inwestowana w rozwój biznesu. Podejście to wymaga zrewidowania, potrzebna jest efektywność, ograniczenie kosztów operacyjnych jak i tych związanych z infrastrukturą. Główny nacisk powinien być położony na innowacje biznesowe.

Infrastrukturę IT można budować na różne sposoby – jedno z nich to podejście klasyczne - „zrób to sam”, inne to kupienie gotowego rozwiązania.

Przy podejściu „zrób to sam” można zastosować analogię to budowania samochodu na własne potrzeby. Można po kolei kupić wszystkie elementy składowe i w zaciszu własnego garażu zbudować gotowy samochód, podejście to będzie wymagać odpowiedniego poziomu wiedzy (trzeba wiedzieć jak połączyć wszystkie komponenty w działającą całość), zaangażowania i czasu (jak długo minie od momentu zakupienia poszczególnych części do pierwszej jazdy gotowym samochodem?) oraz budżetu (zakupienie wszystkich elementów składowych osobno często przewyższy koszt zakupienia gotowego rozwiązania).

W przypadku zakupienia gotowego rozwiązania za przykład można postawić wszechobecny smartphone. Użytkownicy smartphone’ów zazwyczaj nie zajmują się takimi kwestiami, jak przechowywanie lub zarządzanie systemami; wszystko, czego potrzebują, to tylko aplikacja. W tym wariancie klient otrzymuje doświadczenie i gwarancję działania.

Oba podejścia mają swoje zalety i związane z nimi wyzwania.

Rozważając klasyczną infrastrukturę IT trzeba pamiętać o tym, że złożoność tych systemów informatycznych ciągle rośnie – zarówno pod względem ilości komponentów, połączeń między nimi jak i różnego rodzaju używanego oprogramowania. Budowa takiej infrastruktury to skomplikowany i kosztowny proces – wymaga specjalistycznej wiedzy, odpowiedniego planowania, implementacji i integracji wszystkich komponentów składowych (serwerów, pamięci masowych, urządzeń sieciowych) oraz przede wszystkim czasu. W efekcie otrzymuje się ściśle dopasowaną infrastrukturę IT do potrzeb konkretnej aplikacji biznesowej.

Taki model charakteryzuje się najwyższym poziomem elastyczności jeśli chodzi o wybór poszczególnych komponentów – można dobierać poszczególne składowe według własnych kryteriów / potrzeb biznesowych. Producenci rozwiązań IT mają w ofercie cały wachlarz rozwiązań, od najbardziej ogólnego zastosowania (np. serwery, pamięci masowe klasy entry level) do wysoko wyspecjalizowanych rozwiązań (np. pamięci masowe klasy enterprise, all-flash, rozwiązania backup’owe).

Dowolność ta ma jednak swoją cenę:

  • Skomplikowane i czasochłonne wdrożenie – zbudowanie i uruchomienie środowiska produkcyjnego z dowolnie wybranych komponentów, najczęściej pochodzących od różnych producentów, wymaga między innymi planowania, sprawdzenia kompatybilności poszczególnych komponentów oraz wersji ich oprogramowania, połączenia wszystkich elementów w jedną całość. Oznacza to też, że potrzebna będzie wysoce wykwalifikowana kadra która zintegruje wspomniane środowisko oraz będzie je utrzymywać.
  • Skomplikowany proces zarządzania całą infrastrukturą – wieloma komponentami trzeba zarządzać z oddzielnych interfejsów. Wymusza to specjalizację w poszczególnych przedziałach np. administrowanie pamięciami masowymi, sieciami, wirtualizacją czy wreszcie aplikacjami biznesowymi. Wyzwaniem jest też fakt, że każdy komponent objęty jest wsparciem przez innego producenta – skutecznie utrudnia to zidentyfikowanie przyczyny w przypadku nieprawidłowego działania lub awarii w środowisku IT.
  • Skomplikowanie i długi czas skalowania – każdą infrastrukturę IT trzeba będzie kiedyś rozbudować, czy to z powodu braku przestrzeni dyskowej na dane aplikacji czy potrzebę zwiększenia wydajności wspomnianych aplikacji. Klasyczna infrastruktura w ogólnym ujęciu nie skaluje się w sposób liniowy, to znaczy że wcześniej czy później osiągnie się górny limit wydajności lub pojemności danego rozwiązania (serwer, przełącznik, pamięć masowa). Opcją rozbudowy będzie albo wymiana komponentu na model wyższy albo dostawienie obok kolejnego komponentu – silosy danych. Jeśli spojrzeć na proces skalowania z poziomu centrum danych a nie pojedynczego systemu to okaże się, że rozbudowa to czasochłonny i skomplikowany projekt wymagający szczegółowego zaplanowania.

Trzeba więc mieć świadomość, że nawet najlepszy projekt takiej architektury nie będzie w stanie uwzględnić przyszłych zmian oraz pojawiających się nowych wymagań. Co w sytuacji, w której zmieni się otoczenie biznesowe aplikacji? Gdy powstanie konieczność dynamicznego skalowania systemu? Gdy trzeba będzie szybko wprowadzić nową usługę dla klientów? Czy obecna infrastruktura IT organizacji jest na to przygotowana?

Odpowiedzią na wyzwania stojące przed klasyczną infrastrukturą IT jest architektura hiperkonwergentna (HCI), często określana mianem „architektury z pudełka” – jest to połączenie i zintegrowanie zwykle oddzielnych fizycznie komponentów - serwerów, sieci, pamięci masowych oraz wirtualizacji w jedno skonfigurowane wcześniej, kompaktowe urządzenie (appliance). Kilka takich modułów może z powodzeniem pełnić rolę kompletnego centrum danych. Ale HCI to nie tylko połączenie ze sobą fizycznych komponentów, to przede wszystkim możliwość jednolitego zarządzania, konfigurowania i monitorowania całego systemu przy pomocy zunifikowanego oprogramowania wykorzystującego wirtualizację oraz technologię SDS (Software Defined Storage). To właśnie ta warstwa logiczna stanowi główną wartość platformy i jest jej kluczowym elementem. Rozwiązanie takie pozwala na wyeliminowanie tradycyjnych podziałów/silosów danych występujących w klasycznej architekturze IT.

Co korzystanie rozwiązań hiperkonwergentnych oznacza dla firm? HCI posiada wiele zalet, które bezpośrednio lub pośrednio przekładają się na biznes:

  • Systemy te projektowane są w taki sposób aby były proste i szybkie do wdrożenia. Architektura jest zbudowana z zintegrowanych, prekonfigurowanych modułów (appliance), które składają się z takich samych elementów (procesory, pamięć, przestrzeń dyskowa i porty sieciowe) – wprowadzona jest standaryzacja. Najmniejsze środowisko produkcyjne składa się z 2-3 węzłów stanowiących jedną całość (wspólna pula zasobów, ujednolicone zarządzanie) – wdrożenie takiego systemu jest nieporównywalnie szybsze w porównaniu do architektury klasycznej.
  • Infrastrukturę HCI skaluje się poprzez dodawanie kolejnych modułów, które dodają zasoby do wspólnej puli (pojemność, wydajność, porty sieciowe). System automatycznie asymiluje dodawany węzeł. Architektura hiperkonwergentna skaluje się w sposób liniowy – jednocześnie rośnie i pojemność i wydajność. Nie ma to zjawiska silosów danych – środowisko stanowi wspólną pulę zasobów. Rozbudowa nie wymaga skomplikowanego procesu planowania i jest bardziej przewidywalna dla budżetu przedsiębiorstwa. Architektura rozwija się automatycznie w miarę jak rozwija się obciążenia przedsiębiorstwa – oznacza to szybsze wprowadzanie produktów cyfrowych, szybsze dostosowanie się do zmian na rynku – przedsiębiorstwo staje się bardziej elastyczne i szybciej reaguje na potrzeby swoich klientów - w efekcie staje się bardziej konkurencyjne.
  • Zarządzanie całym środowiskiem jest znaczne uproszczone, zarówno w ujęciu administrowania jak i objęcia wsparciem. Administrowanie systemem odbywa się przy pomocy pojedynczego, zunifikowanego interfejsu – w założeniu ma sobie z tym poradzić informatyk lub administrator VM. W razie problemów technicznych użytkownik/klient kontaktuje się z jednym dostawcą (pojedynczy punkt kontaktu), odpowiedzialnym za objęcie wsparciem całości.
  • Zmniejszenie kosztów – TCO (całkowity koszt posiadania) w przypadku systemów HCI może być znacząco niższy w porównaniu do kosztu związanego z klasyczną architekturą IT. Architektura hiperkonwergentna początkowo wymaga dużo niższych nakładów finansowych. Gdyby zestawić koszt wszystkich komponentów architektury klasycznej i dodać do niego koszt pracy i administracji to okaże się, że TCO zawsze będzie niższe w przypadku platform HCI.

Systemy hiperkonwergentne to krok w kierunku całkowitej automatyzacji centrów danych, mogą stanowić alternatywę lub pomost do rozwiązań chmurowych. Infrastruktura HCI może stanowić podstawę do budowy systemu hybrydowego, w którym aplikacje i ich dane są dynamicznie przesuwane między chmurą prywatną i publiczną. Migracja do chmury publicznej nie jest już jedynym sposobem na zapewnienie wysokiej elastyczności IT. Trzeba też mieć na uwadze, że nie wszystkie aplikacje biznesowe i ich dane powinny być przekazane zewnętrznemu dostawcy usług – trzeba tu rozważyć regulacje prawne dotyczące bezpieczeństwa danych. Infrastruktura HCI to rozwiązanie dla przedsiębiorstw pragnących połączyć wygodę korzystania z systemów chmurowych z zaletami lokalnego centrum danych.

Jednym z najbardziej widocznych trendów ostatnich czasów w budowaniu centrum danych jest wykorzystanie infrastruktury hiperkonwergentnej jako alternatywy dla tradycyjnego modelu architektury IT. Rozwiązania tego typu są obecne na rynku już od wielu lat, jednak dopiero ostatnio ich popularność zaczęła rosnąć. Według badań IDC wartość tego segmentu rynku w 2016 r. wyniosła 2,6 mld USD, a do 2020 r. osiągnie poziom 6,4 mld USD - sprzedaż rozwiązań HCI notuje obecnie aż trzycyfrowe wzrosty. Rozwiązania hiperkonwergentne znajdują się obecnie w ofertach praktycznie wszystkich największych producentów sprzętu IT, takich jak: Dell EMC, HPE, Cisco, IBM, Oracle, Lenovo czy Huawei.

HPE SimliVity

HPE zakupiło firmę SimpliVity na początku 2017 roku. Po przejęciu zintegrowano oprogramowanie z serwerami ProLiant DL380 tworząc gotową architekturę hiperkonewrgentną - HPE SimpliVity 380. Rozwiązanie to łączy w sobie kilkanaście elementów i funkcjonalności zaawansowanego centrum danych, m. in.: wirtualizację (hypervisor), serwery (warstwa obliczeniowa), sieć, pamięć masową, tworzenie kopii zapasowych, replikację, optymalizację sieci WAN, deduplikację i kompresję w czasie rzeczywistym (…). Dostarcza niezbędną wydajność, niezawodność, wysoką dostępność (HA – high availability), bezpieczeństwo, efektywność, możliwość tworzenia kopii bezpieczeństwa oraz zabezpieczenie na wypadek awarii całego ośrodka – a wszystko to zaszyte w kompaktowej, modułowej i skalowalnej (scale-out) architekturze opartej na technologii x86.

Rodzina HPE SimpliVity składa się z dwóch linii: HPE SimpliVity 380 oraz specjalnie dedykowany do rozwiązań VDI model HPE SimpliVity 2600. Każdy węzeł (appliance) składa się ze standardowych komponentów – procesory x86 (moc obliczeniowa), pamięć, zoptymalizowana pod względem wydajności i objęta protekcją RAID przestrzeń dyskowa SSD, oraz interfejsy sieciowe 10GbE. W skład wchodzi również dedykowana karta PCIe (HPE OmniStack Accelerator Card), której zadaniem jest odciążenie procesorów x86 od operacji optymalizacji, kompresji i deduplikacji danych. Całość działa pod nadzorem wirtualizacji (VMware vSphere®/VMware® ESXi™ lub Microsoft Hyper-V).

Elementem, który wyróżnia tę architekturę hiperkonwergentną na tle konkurencji jest HPE SimpliVity Data Virtualization Platform – oprogramowanie, działające między warstwą sprzętową a wirtualizacją (VMware lub Hyper-V), które dostarcza pojedynczą, współdzieloną w poprzek wielu lokalizacji, pulę zasobów. Zapewnia też wysoce wydajną przestrzeń dyskową oraz mobilność danych. Składają się na nią HPE OmniStack Virtual Controller i HPE OmniStack Accelerator Card, które zapewniają (opisaną wcześniej) akcelerację wydajności danych, globalne i zunifikowane zarządzanie, oraz wbudowaną ochronę danych. Siłą HPE SimpliVity jest oprogramowanie, w szczególności zaawansowane usługi danych, takie jak: zawsze włączone deduplikacja, kompresja i optymalizacja danych; wbudowane odporność, możliwość tworzenia kopii bezpieczeństwa oraz mechanizmy zabezpieczenia na wypadek awarii całego ośrodka. Wszystko to jest oparte na politykach a zarządzanie odbywa się w modelu VM-centric - dla usprawnienia wszystkich operacji.

Architektura danych HPE SimpliVity to świadomy globalnie systemem plików, oraz repozytorium danych obiektowych. System ten jest wyposażony w zaawansowane usługi danych oraz technologie optymalizacji. W architekturze tej dane są oderwane i niezależne od warstwy fizycznej, oznacza to wzmocnienie roli oprogramowania i wirtualizacji (hypervisor). Oznacza to również przestawienie polityk z zarządzania infrastrukturą fizyczną na poziom wirtualizacji i obciążeń aplikacji biznesowych.

Jeśli mówimy o optymalizacji to mamy na myśli wydajność i mobilność - aby zagwarantować mobilność danych konieczna jest wydajność. Deduplikacja i kompresja zapewniają lekkie i mobilne struktury danych. Optymalizacja ponadto pomaga w inteligentnym zarządzaniu danymi – na przewidywanym użyciu danych przez aplikacje.

  • Deduplikacja – to proces eliminowania powtarzających się danych, chodzi o zachowanie tylko jednej, wyjątkowej instancji danych na dysku. Efektem tego procesu jest zmniejszenie obciążenia dysków, przepustowości replikacji i pojemności pamięci.
  • Kompresja – to proces zmniejszenia wielkości danego zbioru danych – zapewnia bardziej „zagęszczony” format danych. Stanowi dodatkową wartość obok deduplikacji, razem z nią jeszcze bardziej zmniejsza obciążenia dysków, przepustowości replikacji i pojemności pamięci.
  • Optymalizacja – chodzi tu o inteligentne przetwarzanie danych na podstawie prognozowanego ich użycia przez aplikację. Systemy, które mogą identyfikować typy plików i podejmować decyzje w czasie rzeczywistym, gdzie przechowywać te dane, mogą ogólnie poprawić efektywność pamięci masowej, wydajność i wykorzystanie przepustowości.

Przy projektowaniu rozwiązania hiperkonwergentnego HPE przyjęło odmienne podejście - zamiast adaptować istniejącą infrastrukturę IT i próbować wbudować w nią funkcjonalności deduplikacji, kompresji i optymalizacji, postanowiono zaprojektować podstawę (HPE OmniStack Accelerator Card) – technologię, która wykonuje deduplikację i kompresję danych pierwotnych, w czasie rzeczywistym, bez wpływu na wydajność czy opóźnienia. Następnie stworzono globalną architekturę wokół tej podstawy. To ona zarządza uzyskanymi granularnymi elementami danych w globalnej federacji systemów. W ten sposób zaadresowano większość fundamentalnych wymagań dotyczących skutecznej deduplikacji, kompresji i optymalizacji dla systemu infrastruktury produkcyjnej, w tym:

  • Procesowanie w czasie rzeczywistym.
  • Brak wpływy na wydajność aplikacji.
  • Deduplikacja na wskroś wszystkich warstw i grup danych w systemie.
  • Jednorazowe przetworzenie i utrzymywanie tego efektywnego stanu przez cały cykl życia danych.
  • Utrzymanie pierwotnego stanu deduplikacji we wszystkich lokalizacjach, również w chmurze publicznej.

HPE SimpliVity posiada wbudowane/natywne mechanizmy ochrony danych. Zamysłem, który przyświecał podczas projektowania tej platformy było zapewnienie ochrony danych na każdym poziomie. Począwszy od najniższego, dane (maszyn wirtualnych i ich kopii bezpieczeństwa) są chronione przed awarią dysków (protekcja RAID) oraz są zapisywane na dwóch węzłach celem zabezpieczenia przed awarią jednego z nich. Utrzymywanie danych w poprzek dwóch węzłów zapewnia, że kopia jest przechowywana oddzielnie od danych produkcyjnych. Konkurencyjne rozwiązania najczęściej muszą być wspomagane przez zewnętrzne rozwiązania do tworzenia kopii bezpieczeństwa.

Wszystkie dane są w pełni zdeduplikowane, co pozwala na natychmiastowe tworzenie ich kopii, będących niezależnym zbiorem metadanych (reprezentujących dany, konkretny punkt w czasie) odwołujących się do tych samych bloków danych co produkcyjna maszyna wirtualna. Skoro kopie są zdeduplikowane i tworzone w metadanych to nie zajmują przestrzeni dyskowej i nie generują operacji IOPS, co z kolei oznacza, że proces tworzenia kopii jest bardzo szybki i nie musi być ograniczany do tradycyjnych okien backupowych. Klienci mogą wyzwalać backupy dużo częściej zwiększając ilość punktów odtworzeniowych oraz zmniejszając ilość potencjalnie straconych danych w przypadku konieczności odtworzenia po awarii. Aby ochronić dane przed awarią całego ośrodka wystarczy zdefiniować drugi zestaw reguł który umożliwi tworzenie kopii bezpieczeństwa w SimpliVity zlokalizowanym w drugim centrum danych. Przy manualnym procesie wystarczy zmienić miejsce zapisu kopii z wartości „Local” na docelowy zdalny klaster SimpliVity (jeden lub więcej), albo instancję działającą w chmurze AWS.

HPE SimpliVity jest również wyposażony w technologię o nazwie RapidDR – służy ona do automatyzacji procesu odtworzenia na wypadek awarii ośrodka, zapewnia możliwość bardzo szybkiego odtworzenia wirtualnych obciążeń. RapidDR współpracuje z rozwiązaniami hiperkonwergentnymi HPE SimpliVity i automatyzuje przełączanie awaryjne między lokalizacjami, decyduje o tym które maszyny wirtualne odtworzyć, w jakiej kolejności je uruchomić, o ustawieniach sieciowych, ustawieniach zasobów, itd. Intuicyjny interfejs prowadzi użytkownika krok po kroku przez zaplanowanie procesu odtworzenia środowiska na wypadek awarii ośrodka. Wszystko to dostarczone jest w jednym rozwiązaniu od jednego producenta – HPE Simplivity.

Architektura HPE SimpliVity pozwala na innowacyjne, oparte na politykach zarządzanie środowiskiem w modelu VM-centric. Celem tego modelu jest oderwanie oprogramowania od warstwy sprzętowej i oddanie władzy w ręce użytkowników końcowych, informatyków i administratorów wirtualizacji – chodzi o ograniczenie uzależnienia od specjalistów IT. Administrowanie systemem odbywa się przy pomocy pojedynczego znajomego interfejsu – vCenter, vRealize Automation albo Microsoft System Center Virtual Machine Manager – można zarządzać wszystkimi centrami danych oraz zdalnymi oddziałami składającymi się na środowisko wirtualne. Całość jest oparta na zdefiniowanych politykach, upraszcza to codzienne operacje i zapewnia płynną mobilność danych, nie trzeba się już koncentrować na niskopoziomowych komponentach jak LUNy, udziały czy wolumeny, co oznacza oszczędność czasu zespołów IT oraz większą produktywność użytkowników i programistów - zamiast utrzymywać infrastrukturę fizyczną mogą się skoncentrować na wprowadzaniu zmian i innowacji w procesach biznesowych.

Administrowanie w modelu VM-centric to nie tylko łatwiejsze zarządzanie, to przede wszystkim przyspieszenie procesów wdrażania aplikacji biznesowych oraz poprawienie ich wydajności. Jak najszybsze wdrożenie nowej usługi dla klientów (aplikacji biznesowej) przekłada się na konkurencyjność przedsiębiorstwa na rynku.

W jakich obszarach IT najlepiej sprawdzi się HPE SimpliVity? Infrastruktura hiperkonwergentna HPE adresuje wyzwania i zaspokaja potrzeby różnych przypadków użycia, nie jest przywiązana do tylko jednego obszaru. Większość klientów HPE ze średniej półki już korzysta z infrastruktury HPE SimpliVity w ponad 75% swoich zwirtualizowanych obciążeń, w tym również dla krytycznych aplikacji biznesowych, takich jak SQL, Oracle, SAP® i aplikacji branżowych, takich jak Epic Hyperspace.

Najbardziej popularne przypadki użycia to:

  • Zdalne biura / oddziały – modułowa architektura w wyznaczonym standardzie, którą można łatwo powielać w zdalnych oddziałach przedsiębiorstwa. HPE SimpliVity 380 Gen 10 jest dostępna w rozmiarach „extra-small” i „small entry-level” w zasięgu cenowym małych przedsiębiorstw i zdalnych oddziałów.
  • VDI – HPE SimpliVity 380 Gen10 oferuje największą gęstość VDI spośród innych oferentów systemów hiperkonwergentnych, bez poświęcania wydajności. Architektura referencyjna HPE dla VMware Horizon™ może się skalować do 4000 VDI w pojedynczym urządzeniu, oferując najwyższy poziom wydajności (niezależnie potwierdzone przez Login VSI - standardowe narzędzie benchmarkingu dla zwirtualizowanych obciążeń). Dostępny jest dedykowany model SimpliVity 2600 dla zastosowań VDI.
  • Cloud – HPE SimpliVity 380 Gen10 to wysoce skalowalna, elastyczna oraz przystępna cenowo podstawa do implementacji rozwiązań chmury prywatnej, usług typu „na żądanie” lub chmury hybrydowej. HPE SimpliVity pozwala dostarczyć każdy model chmury – prywatna, publiczna czy hybrydowa.
  • Krytyczne aplikacje – zwirtualizowane aplikacje działają szybciej i stają się łatwiejsze w zarządzaniu. Nie potrzeba dedykowanych specjalistów zarządzających platformami fizycznymi (serwer, pamięć masowa, ochrona danych). Informatycy i administratorzy aplikacji mogą teraz tworzyć kopie bezpieczeństwa odtwarzać, klonować, przenosić maszyny wirtualne – wszystko w kilka sekund.
  • Ochrona danych – HPE SimpliVity posiada wbudowane mechanizmy ochrony danych pozwalająca na zabezpieczenie danych na poziomie lokalnym i zdalnym. Poziomy RPO i RTO są znacząco zredukowane ponieważ zwirtualizowane obciążenia mogą być zabezpieczone i odtworzone w wymiarze sekund/minut zamiast godzin/dni.
  • Środowiska test/dev – wysoce elastyczna infrastruktura, która jest w stanie zaadresować bardzo szybko zmieniające się wymagania środowisk testowych/deweloperskich. Deweloperzy oprogramowania oraz inżynierowie mogą uruchamiać nowe usługi bez zaangażowania działu IT.

Aby sprostać szczególnym wymaganiom związanym z wirtualizacją, dostarczaniem usług w modelu „software defined” oraz modelem ekonomicznym rozwiązań chmurowych, Hewlett Packard Enterprise stworzyło innowacyjne rozwiązanie, zapewniające jeden globalny pakiet infrastruktury, zunifikowane oprogramowanie i jedną wspólną pulę zasobów na ogólnodostępnym sprzęcie w architekturze x86.

Platforma wirtualizacji danych HPE SimpliVity dodatkowo przełamuje bariery, które ograniczały dotąd wdrożenie i wykorzystanie precyzyjnej deduplikacji w czasie rzeczywistym na wszystkich poziomach w obrębie systemu (obciążenia produkcyjne i kopie zapasowe) w centrach danych i w chmurze. Architektura danych HPE SimpliVity zapewnia optymalizację:

  • Wydajność dzięki efektywnemu wykorzystaniu danych źródłowych (bloki danych) oraz eliminacji zbędnych operacji IOPS.
  • Wydajność poprzez deduplikację, kompresję i optymalizację danych w chwili powstania, raz i na zawsze w całym cyklu ich życia.
  • Mobilność poprzez zastosowanie administracji w modelu VM-centric oraz wysoce wydajnych transferów danych.
  • Łatwość zarządzania poprzez globalne połączenie zarządzania infrastrukturą i obciążeniami w poprzek pojedynczego i wielu centrów danych za pośrednictwem wspólnego, zunifikowanego interfejsu.
  • Ochrona danych poprzez wbudowane tworzenie kopii zapasowych oraz replikację

Rezultatem jest radykalnie uproszczona i dużo bardziej efektywna kosztowo platforma, która spełnia wymagania dotyczące skalowalności, elastyczności, wydajności, mobilności danych, globalnego zarządzania i integracji z środowiskami chmurowymi, której wymagają dzisiejsze infrastruktury IT. Korzyści które płyną z wykorzystania z platformy HPE SimpliVity to większa efektywność i zwinność operacyjna przedsiębiorstwa, mniejsze ryzyko oraz lepszy model ekonomiczny – dzięki obniżeniu całkowitego kosztu posiadania (TCO).

ALSO – szkoli, demonstruje i wspiera

Sprzedaż dużych rozwiązań IT przeważnie nie odbywa się w sposób bezpośredni – jest realizowana za pośrednictwem kanału partnerskiego. Duża konkurencja na rynku rozwiązań IT stawia przedstawicieli handlowych przed wyzwaniami – w jaki sposób kreatywnie dotrzeć do świadomości klienta (osób decyzyjnych albo tak zwanych influencer’ów – osób polecających oferowane rozwiązanie) oraz jak szybko zbudować kompetencje po swojej stronie? Tutaj pojawia się rola dystrybucji, którą jest zbudowanie kompetencji dotyczących oferowanych rozwiązań oraz proaktywne i aktywne wspomaganie kanału partnerskiego w procesie sprzedaży. ALSO sieć swoich partnerów między innymi w:

  • Zbudowaniu kompetencji po stronie działów handlowych firm partnerskich – istotne jest aby przedstawiciele handlowi wiedzieli o czym mówią, znali oferowane rozwiązanie i potrafili je przedstawić przemawiając językiem korzyści biznesowych.
  • Bezpośrednim kontakcie z klientem – wstępna rozmowa, zbadanie potrzeb biznesowych, analiza środowiska, dobranie rozwiązania najlepiej adresującego potrzeby biznesowe klienta, prezentacja oferowanego rozwiązania, zaprezentowanie samego rozwiązania – (demo), lub przeprowadzenie procesu PoC.
  • Pomaga w organizowaniu konferencji / śniadań technologicznych oraz zapewnia wkład merytoryczny w zakresie omawianej technologii. Dystrybutor pomaga w ten sposób zbudować świadomość technologii po stronie klientów.
  • Demo - ALSO posiada specjalnie przygotowany demo lab, który udostępnia na potrzeby zaprezentowania działania wybranego rozwiązania przed klientem końcowym. Wśród oferowanych przez ALSO rozwiązań demo obecne jest HPE SimpliVity 380 – klienci mogą zobaczyć architekturę hiperkonwergentną HPE w działaniu, samodzielnie doświadczyć prostoty zarządzania oraz przekonać się jak szybko można taką platformę wdrożyć produkcyjnie.

O sukcesie sprzedaży nie decyduje już zwykłe przeprowadzenie prezentacji produktowej. Klienci stają się coraz bardziej świadomi swoich potrzeb biznesowych i możliwości oferowanej im infrastruktury IT. Coraz bardziej na znaczeniu zyskuje projektowy model sprzedaży, czyli przeprowadzenie również demo oferowanego rozwiązania, a bardzo często procesu Proof of Concept – mającego udowodnić poprawne działanie rozwiązania w środowisku klienta. Rolą dystrybutora jest wspomniane wcześniej proaktywne i aktywna wsparcie partnerów w skutecznym przeprowadzeniu

OBOWIĄZEK INFORMACYJNY

1. Administrator
Administratorem Pani/Pana danych osobowych podanych w formularzu zgłoszeniowym zgodnie z Rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 roku w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) ( dalej „RODO”) jest:
Also Polska Sp. z o.o. z siedzibą w Warszawie, przy ul. Komitetu Obrony Robotników 45 A, 02-146 Warszawa, wpisana do rejestru przedsiębiorców Krajowego Rejestru Sądowego, prowadzonego przez Sąd Rejonowy dla m. st. Warszawy, XII Wydział Gospodarczy Krajowego Rejestru Sądowego, pod numerem KRS: 0000218498, NIP: 89500218498, REGON: 930310841 (dalej „Administrator”).

W sprawach dotyczących przetwarzania danych osobowych przez Administratora można kontaktować się z Administratorem za pomocą poczty elektronicznej na adres: ochronadanych@also.com

2. Cel przetwarzania oraz podstawa prawna przetwarzania danych osobowych

  • 2.1 Osoby, które wypełniają formularz zgłoszeniowy proszone są o podanie danych niezbędnych do realizacji Promocji.
  • 2.2 Podanie danych jest dobrowolne, jednakże konieczne do udziału w Promocji. Niepodanie danych będzie skutkowało brakiem możliwości udziału w Promocji.
  • 2.3 Pani/Pana dane osobowe, podane podczas wypełniania formularza zgłoszeniowego są przetwarzane:
    a) w celach realizacji Promocji przez Administratora – podstawą prawną przetwarzania jest Pani/Pana zgoda (art. 6 ust. 1 lit a RODO).

3. Komu mogą być ujawnione Pani/Pana dane osobowe
Dane osobowe mogą być ujawniane przez Administratora:

  • a) podmiotom realizującym na zlecenie Administratora czynności związane z realizacją Promocji,
  • b) organom administracji publicznej oraz podmiotom wykonującym zadania publiczne lub działającym na zlecenie organów administracji publicznej, w zakresie i w celach, które wynikają z przepisów prawa.

4. Czas przetwarzania danych osobowych
Pani/Pana dane osobowe będą przetwarzane przez Organizatora przez czas trwania Promocji oraz przez czas niezbędny do wywiązania się przez Organizatora z obowiązków związanych z przeprowadzeniem Promocji (w tym dokumentacji rozliczeniowej).

5. Uprawnienia osoby

  • 5.1 Przysługuje Pani/Panu prawo do żądania od Administratora dostępu do danych osobowych dotyczących osoby, ich sprostowania, usunięcia lub ograniczenia przetwarzania oraz prawo do przeniesienia danych do innego administratora, prawo wycofania zgody w każdym czasie. Cofnięcie zgody nie wpływa na zgodność przetwarzania danych, którego dokonano na podstawie zgody udzielonej przed jej cofnięciem.
  • 5.2 Przysługuje Panu/Panu prawo do wniesienia skargi do organu nadzorczego, tj. do Prezesa Urzędu Ochrony Danych Osobowych.