Realizując strategiczne działania w obszarze Badań i Rozwoju w ramach europejskiej inicjatywy IPCEI-CIS, Oktawave koncentruje się na projekcie mającym na celu m.in. stworzenie rozproszonej warstwy przechowywania danych w chmurze.
Głównym celem prac jest zaprojektowanie i wdrożenie platformy, która zapewnia integralność danych w ruchu podczas ich przesyłania między fizycznymi lokalizacjami, udostępnia zapisane dane za pomocą standardowych, branżowych interfejsów (interfejsy R/W) oraz gwarantuje spójność i dostęp operacyjny do całości danych, niezależnie od ich fizycznego rozmieszczenia.
Osiągnięcia w fazie wstępnej realizacji projektu
Oktawave aktywnie realizuje projekt Next Gen Cloud – finansowany przez Unię Europejską w ramach inicjatywy IPCEI-CIS. Projekt wpisuje się w europejski program wzmacniania cyfrowej suwerenności. Celem jest opracowanie ambitnych rozwiązań chmurowych, zapewniających bezpieczeństwo, efektywność i niezależność technologii w Europie.
W ramach dotychczasowych działań osiągnięto kluczowe etapy realizacji, stanowiące solidny fundament technologiczny i infrastrukturalny dla dalszej implementacji rozproszonej warstwy przechowywania danych.
1. Analiza technologii i wybór kierunku rozwoju
Pierwszym kluczowym elementem było przeprowadzenie szerokiej analizy technologii, mającej na celu wybór optymalnego fundamentu infrastruktury składowania. Oceniano ich dojrzałość, skalowalność, zdolność do wspierania rozproszonego dostępu oraz zgodność ze standardami branżowymi, wymaganymi dla interfejsów R/W. Efektem prac badawczo-rozwojowych było potwierdzenie możliwości realizacji założeń zadania z wykorzystaniem technologii Ceph jako bazowej platformy do składowania i migracji danych, stanowiącej trzon nowej warstwy.
2. Opracowanie koncepcji i architektury systemu oraz uruchomienie infrastruktury laboratoryjnej
Po wyborze kierunku technologicznego zespół opracował kompletną architekturę docelowego systemu. Architektura szczegółowo definiuje warstwy logiczne (w tym warstwę przechowywania danych i warstwę middleware) oraz mechanizmy ujednolicające widok danych dla interfejsów aplikacyjnych. Uruchomiono i skonfigurowano infrastrukturę laboratoryjną w centrum danych (serwery, przełączniki, infrastruktura sieciowa). Przygotowano również środowiska pamięci masowej w różnych konfiguracjach, co pozwoliło na rozpoczęcie testów walidacyjnych platformy Ceph w kontekście rozproszonego dostępu.
3. Zaawansowane prace badawcze w kontekście HA i replikacji
W ramach rozszerzenia analizy możliwości technicznych systemu, zespół skupił się na kluczowych mechanizmach gwarantujących wysoką dostępność oraz geograficzną spójność danych.
- Badania i eksperymenty HA: Przeprowadzono szczegółowe eksperymenty symulujące scenariusze awarii sprzętowych i sieciowych. Celem było przetestowanie zdolności systemu do automatycznego przełączania się (failover) i utrzymania ciągłości dostępu do danych (HA), co jest niezbędne dla operacyjnej warstwy w chmurze.
- Replikacja między ośrodkami: Przeprowadzono eksperymenty inicjowania i obsługi replikacji danych pomiędzy ośrodkami (datacenter), weryfikując wydajność i mechanizmy osiągania spójności danych podczas ich rozpraszania geograficznego.
- Migawki danych (Snapshots): Zbadano mechanizmy tworzenia migawek danych w kontekście ich efektywności, wydajności i bezpieczeństwa. Te badania są kluczowe dla szybkiego odtwarzania danych i gwarantowania ich spójności w przypadku tworzenia kopii zapasowych.
Na podstawie wniosków i wyników uzyskanych w ramach zaawansowanych analiz, w dalszej kolejności zespół przystąpi do rozwoju i optymalizacji prototypu bazowej platformy składowania. Działania te skupią się na dostosowaniu systemu do wymogów koncepcyjnych w zakresie wysokiej dostępności (HA), optymalizacji wydajności i stabilności replikacji danych pomiędzy ośrodkami, co ma krytyczne znaczenie dla utrzymania integralności i spójności danych geograficznie rozproszonych oraz dostosowania systemu w celu zwiększenia efektywności tworzenia i przywracania migawek, wspierając tym samym procesy tworzenia kopii zapasowych z gwarancją spójności.
Ukończenie powyższych etapów oznacza osiągnięcie dojrzałości technologicznej bazowej platformy składowania i krytycznego punktu wyjściowego dla kolejnej fazy. Następnym krokiem w projekcie będzie faza implementacji i prototypowania warstwy middleware, mająca na celu weryfikację jej zdolności do:
- Zapewnienia spójności danych i operacyjnego dostępu r/w do całości danych.
- Ekspozycji danych za pomocą standardowych, branżowych interfejsów.
Ostatnie wpisy
Może zainteresują Cię także…
