Zwiń

Nie masz konta? Zarejestruj się

Polska w chmurze: między innowacją a suwerennością

Patrycja Otto
Artykuł partnerski
Ten tekst przeczytasz w 5 minut
Polska w chmurze: między innowacją a suwerennością
Polska w chmurze: między innowacją a suwerennością
Fot. Borys Skrzyński
Materiały prasowe

Chmura obliczeniowa przestała być technologiczną nowinką, odgrywając rolę krwiobiegu nowoczesnej gospodarki i administracji. Pytanie: „czy” korzystać z chmury, zastąpiło pytanie: „jak” robić to mądrze, bezpiecznie i efektywnie. O przyszłości, wyzwaniach i dylematach związanych z adopcją tej technologii dyskutowano podczas panelu „Chmura, dokąd zmierza rynek w Polsce i Europie”.

Na początku dyskusji eksperci skupili się na zdefiniowaniu podstawowych modeli chmurowych, które odpowiadają na różne potrzeby biznesu i administracji. Robert Przychodzień, chief technology officer OChK, opisywał, że chmura publiczna to globalna infrastruktura dostępna dla każdego, oferująca ogromną liczbę usług. Ewoluowała ona od prostych usług infrastrukturalnych do gotowych rozwiązań biznesowych w modelu SaaS (Software as a Service). Chmura prywatna to z kolei mniejsze, dedykowane instalacje, często budowane wewnątrz konkretnych instytucji, które chcą zachować cechy chmury, takie jak elastyczność i skalowalność, równocześnie trzymając dane lokalnie.

– Z kolei chmura hybrydowa łączy oba te światy. Pozwala budować rozwiązania u siebie, wewnętrznie, natomiast skalować je w razie potrzeby do struktur publicznych po to, żeby uzyskać elastyczność i utrzymać wzrost biznesu – mówił Robert Przychodzień, wskazując, że dziś ta koncepcja mocno ewoluuje, w związku z kwestią suwerenności i dążeniem do przechowywania swoich danych w ramach własnej infrastruktury.

Mimo rosnącej popularności adopcja chmury w Polsce nadal napotyka bariery, jedną z głównych jest świadomość decydentów związana z praktycznymi aspektami zarządzania chmurą. Wciąż też pokutuje wiele mitów na temat tej technologii, np. że chmura jest niebezpieczna, droga albo trudna. Choć każda zmiana jest wyzwaniem, a w dynamicznym świecie chmur jest ich szczególnie wiele, to korzyści płynące z elastyczności i szybkości działania są nie do przecenienia.

– Przykładem jest system e-Rejestracji na szczepienia przeciwko COVID-19. Powstał on w rekordowe siedem tygodni. Trudno sobie wyobrazić stworzenie go w takim czasie w jakikolwiek inny sposób niż dzięki rozwiązaniom dostępnym w chmurze – powiedział Robert Przychodzień i zestawił to z klasycznym podejściem, gdzie w siedem tygodni udałoby się co najwyżej rozpisać przetarg na zakup serwerów.

Sztuczna inteligencja napędza rozwój

Wiesław Wilk, wiceprezes zarządu Polcom, przewodniczący Związku Polska Chmura, zaproponował inne spojrzenie na rynek, dzieląc go na chmurę o zastosowaniach globalnych (dla użytkowników indywidualnych, gdzie konsument staje się towarem) i chmurę dla przedsiębiorstw oraz instytucji, gdzie toczy się ostra walka konkurencyjna. Podkreślił, że chmura to nie nowa technologia, a jedynie nowy, potężny sposób używania tych samych narzędzi – komputerów, procesorów i pamięci.

Głównym motorem napędowym adopcji chmury, jak zauważył Andrzej Horawa, country manager Poland AWS, jest sztuczna inteligencja, a zwłaszcza generatywna AI. Według badań przytoczonych przez niego, już 34 proc. polskich firm wykorzystuje AI, co stanowi najszybszy, 56-proc. wzrost rok do roku w całej Unii Europejskiej. Przynosi to wymierne korzyści – 87 proc. ankietowanych firm odnotowało wzrost przychodów o ponad 35 proc. Jako przykład Andrzej Horawa podał firmę Allianz, która dzięki AI zredukowała koszty o 70 proc. i skróciła czas obsługi roszczeń z 10 dni do jednego, oraz firmę Radpoint, która wykorzystuje AI do analizy zdjęć radiologicznych, wspierając deficytowych w Polsce radiologów.

Bezpieczeństwo i suwerenność danych – kluczowe wyzwania

Kwestia bezpieczeństwa jest jednym z najczęściej podnoszonych tematów w kontekście chmury. Andrzej Horawa odwrócił jednak perspektywę, pytając, czy jest bezpiecznie nie być w chmurze. Argumentował, że dostawcy tacy jak AWS zapewniają bezpieczeństwo samej chmury przez zaawansowane mechanizmy kontroli i szyfrowania, a klient zachowuje pełną władzę, decydując o miejscu ich przechowywania. Jako dowód przywołał przykład Ukrainy, która po wybuchu wojny zmigrowała kluczowe rejestry państwowe i sektor finansowy do chmury, chroniąc je przed fizycznym zniszczeniem.

Zupełnie inną perspektywę przedstawił Wiesław Wilk, który ostrzegał przed nadmiernym zaufaniem. Podkreślił, że dane w chmurze wciąż znajdują się na fizycznych serwerach, podlegających konkretnemu systemowi prawnemu. Zwrócił uwagę na ryzyko związane z dostępem zagranicznych służb do danych, cytując przyznanie się przez prezesa Microsoftu, że nie może zagwarantować odmowy udostępnienia danych amerykańskim agencjom.

– Staramy się wskazywać na to, bo bardzo często określenie „technologia chmurowa” stara się sugerować w przekazie, że jak dane są w chmurze, to nie ma znaczenia, gdzie się one znajdują. To jest taki sam mit jak to, że kapitał nie ma narodowości – stwierdził Wiesław Wilk.

Daniel Kierepka, dyrektor pionu informatyki i telekomunikacji NASK, dodał ważny wątek do dyskusji, wskazując, że największym zagrożeniem nie jest technologia, ale człowiek.

– Uważam, że dzisiaj takim zagrożeniem jest nieświadomość korzystania z usług chmurowych – powiedział.

Powołał się przy tym na raporty, z których wynika, że 9 na 10 przypadków wycieków danych jest spowodowanych błędem użytkownika lub złą konfiguracją, a nie dziurą w infrastrukturze dostawcy. Odniósł się też do tego, co dziś nie działa. I zaznaczył, że firmy migrują do usług chmurowych, ale nie mają świadomości, że tam jest innym model rozliczania kosztów.

– Tymczasem trzeba dużą wagę przywiązywać do operacji FinOpsowych (chodzi o optymalizację wykorzystania budżetów na usługi chmurowe – red.), bo później pojawiają się takie stwierdzenia, że chmura jest droga. A może taka być, jeśli nie będziemy mieli przemyślanej strategii, architektury i dobrze zrobionych FinOpsów. Więc to jest klucz do osiągnięcia sukcesu, żeby migrować do chmury, a później w dobry sposób zarządzać kosztami – podkreślił.

Lokalny dostawca kontra globalny gigant

Debata wyraźnie zarysowała napięcie między ofertą globalnych gigantów a pozycją lokalnych, polskich dostawców. Wiesław Wilk argumentował, że państwo powinno aktywnie wspierać rodzimy rynek, wzorując się na Francji czy Niemczech, które chronią swoje dane i firmy. Jego zdaniem naiwnością jest sądzić, że zamówienia publiczne nie kształtują rynku. Jako przykład podał Polską Agencję Kosmiczną, która była ostatnim, a nie pierwszym klientem polskiej firmy CloudFerro, świadczącej już usługi dla niemal każdej innej europejskiej agencji kosmicznej. Porównał dotowanie lokalnych dostawców do subsydiowania przez Japonię nierentownej produkcji ryżu w celu zapewnienia bezpieczeństwa żywnościowego.

Andrzej Horawa, reprezentujący globalnego gracza, odpowiedział, że jego firma dostrzega potrzeby i reaguje na nie, m.in. poprzez uruchomienie w Niemczech European Sovereign Cloud – niezależnej chmury przede wszystkim dla europejskiego sektora publicznego i instytucji regulowanych, obsługiwanej wyłącznie przez personel z Unii Europejskiej. Podkreślił, że celem jest dawanie klientom maksymalnego wyboru, by mogli świadomie decydować, gdzie i jak przetwarzają swoje dane, nie rezygnując z innowacji, jakie daje chmura.

Więcej czy mniej regulacji? Spór o rolę państwa

Kwestia optymalnych regulacji okazała się złożona. Robert Przychodzień stwierdził, że w Europie funkcjonuje bardzo rozbudowany system regulacji, co hamuje innowacje. Zacytował popularne powiedzenie: „United States innovates, China replicates, Europe regulates”.

Podobne obawy wyraził Andrzej Horawa, wskazując, że aż 57 proc. firm w Polsce przewiduje wzrost wydatków na dostosowanie się do przepisów, co ogranicza budżety na realny rozwój.

Z tezą o przeregulowaniu nie zgodził się Wiesław Wilk. Jego zdaniem kluczowym problemem jest brak fundamentalnej regulacji – ustawy o krajowym systemie cyberbezpieczeństwa, która nałożyłaby na kierownictwo, zwłaszcza w sektorze publicznym, osobistą odpowiedzialność za bezpieczeństwo danych. Stwierdził on, że taka ustawa zmusiłaby decydentów do poważnego traktowania kwestii lokalizacji i jurysdykcji danych.

Daniel Kierepka zaproponował wyważone stanowisko, stwierdzając, że regulacje są potrzebne, ale nie mogą zabijać innowacyjności.

– Ja regulacje bardziej bym traktował nie jako hamulec, ale jako pas bezpieczeństwa w migracji do usług chmurowych – definiował przedstawiciel NASK.

Ostrzegł, że zbyt restrykcyjne przepisy mogą doprowadzić do sytuacji, w której firmy, zwłaszcza mniejsze, zostaną odcięte od innowacji, bo nie będzie ich stać na budowę własnych centrów danych i modeli AI.

Jak świadomie wybrać dostawcę?

Wobec tak złożonego obrazu rynku, jak dokonać właściwego wyboru dostawcy usług chmurowych? Uczestnicy dyskusji byli zgodni, że nie ma jednej prostej odpowiedzi, a kluczem jest świadomość. Andrzej Horawa podkreślił, że klient musi mieć prawo wyboru – czy to jednego dostawcy, czy strategii multicloud – i powinien wybrać partnera, który zapewnia zgodność z regulacjami.

Daniel Kierepka zaapelował o zdrowy rozsądek i klasyfikację danych, by nie przetwarzać tych najbardziej wrażliwych w miejscach, które mogą stwarzać ryzyko.

Natomiast Robert Przychodzień konkludował, że wybór konkretnego dostawcy powinien bazować także na szerokim, praktycznym doświadczeniu.

– Ważne jest, by mieć doświadczonego partnera w tej drodze – integratora, doradcę, kogoś, kto dostarcza usługi w ramach wielu infrastruktur; własnej oraz partnerów, a także zrealizował projekty dla różnych sektorów i różnego typu organizacji. Bo to klient wie, co jest najlepsze dla jego biznesu, nie dostawca – podsumowywał Robert Przychodzień.

Debata pokazała, że podróż do chmury to nie tylko technologiczne, ale przede wszystkim strategiczne wyzwanie, wymagające wiedzy, świadomości ryzyka i zaufanego przewodnika.

Materiały prasowe

rozmowy i debaty można obejrzeć na cyfrowa-gospodarka.gazetaprawna.pl