Ochrona danych dla Qumulo

Kolejny przypadek niemieckiej firmy, tym razem o nieco trudnej do zapamiętania nazwie Yuzuy, jest podobny do innych startupów, gdzie o powstaniu produktu zadecydowała potrzeba chwili.

– Jeden z  integratorów zlecił nam połączenie pamięci masowej Qumulo z systemem do tworzenia kopii zapasowych maszyn wirtualnych. Był to dobry produkt, ale nie nadawał się do backupu tak dużych ilości danych. W związku z tym postanowiliśmy wykorzystać w tym celu oprogramowanie typu open source – mówi Martin Kohl, CEO Yuzuy.

Rozwiązanie okazało się przysłowiowym strzałem w dziesiątkę i w ciągu niespełna trzech lat Martin Kohl wraz z kolegami wdrożyli kilka projektów bazujących na autorskim urządzeniu oraz oprogramowaniu Qumulo Bareos Backup. Wśród klientów znaleźli się między innymi Deutsche Bahn czy Szpital Uniwersytecki w Bazylei.

Warto w tym miejscu przypomnieć, że Qumulo opracowuje systemy do przechowywania i przetwarzania wielkich zbiorach danych, które obsługują pliki oraz obiekty. Oprogramowanie tej firmy może pracować na serwerach Fujitsu, HPE, Supermicro i Arrow, a także w środowisku chmurowym AWS, GCP i Azure.

Yuzuy stało się niezależną firmą dopiero w grudniu ubiegłego roku. Co istotne, nie zajmuje się ona sprzedażą systemów Qumulo, lecz pomaga organizacjom poszukującym narzędzi do backupu oraz replikacji danych pomiędzy dwoma lub więcej klastrami. Oferta Yuzuy obejmuje: autorskie urządzenie oraz usługę integracji oprogramowania Bareos (Backup Archiving Recovery Open Sourced).  Licencje na oprogramowanie Yuzuy, które są dostarczane ze wsparciem, zaczynają się od 2,5 tys. euro za 200 TB danych, a kończą się na  12,9 tys. euro za zarządzanie nieograniczoną ilością danych.

– Chcemy, aby wszyscy producenci OEM Qumulo włączyli rozwiązania Yuzuy do swojej oferty. Obecnie trwają negocjacje z kilkoma producentami i dystrybutorami. Rynek światowy jest jednak stosunkowo niejednorodny, a negocjacje znajdują się na różnych etapach zaawansowania – mówi Martin Kohl.

Pieniądz z open source

Niemiecka firma Croit rozpoczęła działalność sześć lat temu w Hamburgu. Jej założyciele postanowili spopularyzować, a także dostosować do indywidualnych potrzeb klientów Ceph – otwartoźródłowe rozwiązania typu SDS. Największe zalety tego  oprogramowania to skalowalność, która pozwala rozbudowywać system do tysięcy serwerów, obsługując petabajty rozproszonej pamięci masowej. Wprawdzie Ceph nie stawia wysokich wymagań sprzętowych, niemniej jego wdrożenie nastręcza trudności.

– Ceph wymaga wykorzystania wielu serwerów, maszyn wirtualnych dysków, uruchomienia usług… To wszystko nie jest proste, dlatego zrodził się pomysł, aby zachęcić klientów do stosowania tej technologii ułatwiając jej wdrażanie, aby mogło z niej korzystać więcej firm. Opracowaliśmy własną komercyjną wersję produktu – tłumaczy Andy Muthmann, dyrektor zarządzający Croit.

Pomysł Niemców spotkał się z ciepłym przyjęciem nie tylko na lokalnym rynku. Obecnie Croit działa w 10 krajach i na pięciu kontynentach, ma też spółkę zależną w Stanach Zjednoczonych. Firma znalazła się w prestiżowym zestawieniu Deloitte Technology Fast50 Award. W latach 2018-2021 jej przychody wzrosły o 854 proc.

– Wiem, że nie jest trudno rosnąć, kiedy jesteś mały. Jednak naprawdę jesteśmy bardzo zadowoleni z tego co osiągnęliśmy do tej pory. Oczywiście cały czas pracujemy nad rozwojem technologicznym oferowanych przez nas rozwiązań – mówi Andy Muthmann.

Niemcy, zachęceni sukcesem Ceph Croit, wprowadzili na rynek kolejny własny produkt DAOS Croit. To bazująca na oprogramowaniu DAOS (Asynchronous Object Storage) pamięć obiektowa, wyróżniającą się wysoką wydajnością, a oferowane przez nią przepustowości predysponują ją do przetwarzania ogromnej ilości danych z bardzo dużą prędkością. Partnerami technologicznymi Croit są Supermicro, Seagate, Western Digital oraz Fujitsu. Model wyceny bazuje na liczbie węzłów w konfiguracji oraz ich pojemności.

Pamięć obiektowa bez kompromisów

Pamięć obiektowa bardzo długo była postrzegana jako idealne rozwiązanie do przechowywania wielkich zbiorów danych w archiwach. Jednak ostatnimi czasy to się zmienia, co pokazują przykłady wspomnianego wcześniej DAOS czy opisywanego na naszych łamach systemu MiniO. Do tego grona można śmiało dołączyć CunoFS. 

– Nie sprzedajemy sprzętu ani systemu pamięci obiektowej, lecz oprogramowanie, które umożliwia pracę z obiektami, niezależnie od tego czy znajdują się w środowisku lokalnym bądź w chmurze. Co ważne, operacje realizowane są z taką szybkością, jak w systemie plików POSIX – tłumaczy Dan Greenfield, CEO CunoFS.  

Rozwiązanie CunoFS pozwala połączyć w jednym systemie wysokowydajne obliczenia z możliwością przechowywania ogromnych ilości danych. Wbrew pozorom nie jest to jakiś kaprys jego twórców, ale konkretna potrzeba współczesnych użytkowników. Produkcja wideo, badania medyczne, wykrywanie anomalii w sieci wymaga częstego i szybkiego odświeżenia danych pochodzących z tzw. głębokich źródeł. Najczęściej uzyskanie szybkiego czasu odczytu czy zapisu w takich środowiskach wiąże się z dużymi kosztami. Tym, co może przechylić szalę na korzyść obiektów jest cena. Natomiast  słabą stroną są w tym przypadku dość duże opóźnienia. Zastosowanie CunoFS eliminuje ten mankament.

– Zastosowanie obiektowej pamięci w chmurze lub lokalnie pozwala zaoszczędzić wydatki na przestrzeń dyskową. Problem polega na tym, że wiele aplikacji nie przechowuje obiektów, zazwyczaj zapisując je i otwierając jako pliki w systemie NAS, nie wysyłając też przy tym żądań HTTP – wyjaśnia Dan Greenfield.

Tradycyjne podejście do radzenia sobie z podwyższonymi kosztami dostępu do NAS polega na umieszczeniu bramy przed obiektową pamięcią masową i konwersji NFS lub SMB w locie. Jednym z takich rozwiązań jest open source s3fs. Przykładowo, zapis kodu źródłowego Linuksa zajmuje w tym przypadku dwie godziny, podczas gdy odczyt trwa około 15 minut. CunoFS, zainstalowany na serwerze wirtualnym AWS-u, zapisuje dane pamięci S3 w 128 sekund, a odczytuje w 21 sekund. Oprogramowanie to może być alternatywą dla usług chmurowych, takich jak AWS EFS, FSx for Lustre, bądź ich odpowiedników dostępnych na Microsoft Azure oraz Google Cloud Platform. W środowisku lokalnym sprawdzi się podczas szybkiego tworzenia kopii zapasowych systemu plików oraz przywracania danych po awarii. Z kolei w chmurze hybrydowej ułatwia dostęp do magazynów obiektów w chmurze z poziomu lokalnego.