Wielkie sprzątanie serwerowni

Zakup nadmiarowej przestrzeni dyskowej czy przechowywanie nieużywanych przez długie miesiące plików na drogich nośnikach to tylko część błędów popełnianych przez firmowe działy IT. Wprawdzie w małych przedsiębiorstwach straty wynikające z tego tytułu nie są wielkie, ale w globalnych korporacjach sięgają milionów dolarów. W tym kontekście Krishna Subramanian, współzałożyciel i COO Komprise, przywołuje przykład globalnego banku, którego przechowywanie bezużytecznych danych kosztowało 9 mln dol. rocznie.

Komprise opracował platformę do obsługi nieustrukturyzowanych danych, a także ich archiwizacji i analizy. Oprogramowanie umożliwia dostęp do plików oraz obiektów umieszczonych w chmurach publicznych bądź lokalnych centrach danych. System składa się z dwóch komponentów: Komprise Director oraz Komprise Observer. Pierwszy z wymienionych administruje danymi i zazwyczaj uruchamia się go w modelu SaaS, zaś drugi jest wirtualną maszyną umieszczaną w środowisku klienta, a jego rola polega na inwentaryzacji pamięci masowych oraz realizacji polityk zdefiniowanych przez Komprise Directora. System wykrywa filtry i obiekty w infrastrukturze IT organizacji, zarówno lokalnie, jak i w chmurze, indeksuje ich zawartość i buduje indeks globalny w chmurze publicznej AWS. Wśród realizowanych funkcji znajduje się między innymi identyfikowanie plików pod kątem częstotliwości ich używania. Taką operację można wykonać bez wsparcia specjalistycznego oprogramowania, ale taka metoda działa przy stosunkowo niewielkiej liczbie plików.

Skala trudności wzrasta wraz liczbą przechowywanych plików – w przypadku dużych koncernów są one liczone w setkach tysięcy, a nawet milionach. Jeden z klientów Komprise posiada indeks obejmujący ponad sto miliardów plików. Dlatego ciężko obejść się w takich sytuacjach bez automatyzacji. Komprise pozwala zastosować wiele reguł, w tym przeniesienie wszystkich plików nieużywanych przez rok z serwera NAS do obiektowej pamięci masowej. Indeksy pozwalają odpytać o to, ile miejsca zajmują wskazane pliki lub ile danych znajduje się na przykład na systemie NetApp, czy też ile dokumentów wytworzono w ciągu dnia, tygodnia czy ostatnich kilku miesięcy. Oprogramowanie Komprise może być również używane do dodawania tagów do plików, co umożliwia tworzenie szczegółowych zapytań – dajmy na to, które pliki zawierają wrażliwe dane osobowe. Komprise szacuje, że przejrzyste przenoszenie rzadziej używanych danych nieustrukturyzowanych do tańszej pamięci ogranicza koszty przechowywania na poziomie od 65 do 70 proc.

Pamięci masowe i Web3

Nowa koncepcja Internetu Web3 po raz kolejny wywołała dyskusję o rozproszonej pamięci masowej, która dzieli dane na komponenty i przechowuje je w sieci peer-to-peer. Jak na razie trudno przewidzieć czy takie rozwiązanie spotka się z jakimkolwiek zainteresowaniem ze strony administratorów pamięci masowych. Część analityków oraz ekspertów podchodzi z dużą rezerwą do tego tematu. Ich zdaniem odporność oraz wydajność tego typu sieci nie zaspokajają wymagań klientów biznesowych. Tymczasem na rynku pojawiają się firmy, które mają odmienne zdanie. Jedną z nich jest założony w 2021 r. startup Filebase.

– Web3 pozwala nam budować chmurę na poziomie eksabajtów bez konieczności uruchamiania dodatkowych serwerowni. Im więcej sieci dodamy do naszej platformy, tym większą uzyskujemy pojemność, mając dostęp do wszystkich danych – mówi Zac Cohen, współzałożyciel i dyrektor operacyjny Filebase.

Firma stworzyła platformę obiektowej pamięci masowej opartą na zdecentralizowanych sieciach pamięci masowej. Rozwiązanie ujednolica wiele sieci w ramach jednego interfejsu API zgodnego z S3, dzięki czemu zdecentralizowana pamięć masowa jest dostępna i łatwa w obsłudze dla wszystkich użytkowników. Ponadto startup opracował technologię buforowania brzegowego, co pozwala zwiększyć przepustowość sieci i skrócić czasy odpowiedzi odczytu i zapisu. Filebase dostarcza oprogramowanie do przechowywania obiektów i utrzymuje klaster serwerów aplikacji podłączonych do różnych zdecentralizowanych sieci innych firm (w tym Sia, Skynet i Storj), w celu zapewnienia replikacji geograficznej.

– Dzięki natywnej replikacji geograficznej odzyskiwanie danych po awarii jest bardzo proste. Przedsiębiorstwa i specjaliści IT nie muszą już martwić się planowaniem kosztownej i złożonej strategii DR – przekonuje Zac Cohen.

Usługi chmurowe związane z przechowywaniem danych są dość przystępne cenowo, ale jeśli znajdują się w kilku różnych centrach danych, koszty rosną. Przykładowo przechowywanie 1 TB danych w trzech regionach Amazona wiąże się z wydatkiem 200 dol. miesięcznie. Za te same usługi klient Filebase płaci 5,99 dol. miesięcznie. Niewykluczone, że będzie to argument, który sprawi, że firmy zaczną się interesować usługami, które na razie są niszowe.