Ale czy korzystacie we własnych produktach z mechanizmów sztucznej inteligencji?

Tak, wykorzystujemy głębokie uczenie w naszych narzędziach do monitoringu wideo, aby poprawić dokładność rozpoznawania wzorców, na przykład osób czy pojazdów, szczególnie w trudnych warunkach oświetleniowych. W tej dziedzinie sztuczna inteligencja sprawdza się bardzo dobrze, mimo że nie jest jeszcze w stu procentach dokładna, ale i tak robi to lepiej niż każdy człowiek. Oczywiście będziemy śledzić rozwój dojrzałości tych mechanizmów i analizować możliwość zastosowania ich w innych obszarach, chociażby dotyczących zarządzania danymi czy procesem backupu. Najważniejsze jest jednak to, aby przyniosły one konkretną korzyść użytkownikowi, a nie stały się kolejną modną aplikacją, bowiem ich obsługa kosztuje olbrzymią ilość mocy obliczeniowej.

Sztuczna inteligencja trafiła pod strzechy dzięki chmurze, której zasoby obliczeniowe i przestrzeń dyskowa były jednak przez pewien czas wskazywane jako konkurencja dla serwerów NAS i innych rozwiązań dla małych i średnich firm. Synology i inni producenci postanowili jednak stworzyć pewien ekosystem i dzięki niemu korzystać z dobrodziejstw chmury. Jakie jest obecnie wasze podejście do tego zagadnienia?

Rzeczywiście, już kilka lat temu podjęliśmy decyzję, że z chmurą nie należy walczyć, ale raczej potraktować ją jako szansę i skorzystać z oferowanych przez ten model możliwości. Stworzyliśmy wręcz kilka natywnych usług chmurowych, które mogą być powiązanie z naszymi rozwiązaniami wdrażanymi w siedzibie firmy, ale nie muszą. W ten sposób powstało funkcjonalne rozszerzenie możliwości systemu backupu oraz przywracania środowisk do pracy po awarii, działające jako hybryda pomiędzy chmurą i serwerami naszej produkcji. Tworzenie takich ekosystemów połączonych ze sobą rozwiązań jest moim zdaniem nieuniknione, bo oczekują tego klienci – w ten sposób uzyskują dodatkową wartość ze swojej inwestycji. Wystarczy spojrzeć, jakie korzyści z takiego modelu czerpią Apple, Microsoft czy Google. Skupienie się na pojedynczym produkcie niemal natychmiast przyczynia się do konkurowania na cenę, a nie oferowane klientowi wartości.

Nad czym zatem obecnie pracujecie w ramach budowania ekosystemu swoich produktów?

Stawiamy na szeroko pojętą skalowalność rozwiązań pamięci masowych, jak też rozszerzenie systemów backupu i uczynienie ich jeszcze bardziej profesjonalnymi – w tym celu opracowywany jest zupełnie nowy system operacyjny dla naszych urządzeń. Jego zadaniem będzie stworzenie scentralizowanego, łatwego w użyciu systemu tworzenia kopii zapasowych, którego końcówki można wdrożyć w wielu lokalizacjach, elastycznego pod kątem wydajności i różnego typu wymagań instalacyjnych.

Jako konkurencja dla serwerów NAS – obok chmury – czasami przez przyszłych użytkowników wybierane są darmowe, bazujące na otwartym źródle systemy instalowane na uniwersalnych mikroserwerach. Czy obecność tego typu produktów stanowi jakieś zagrożenie dla waszej sprzedaży?

Oczywiście dostrzegamy zainteresowanie tymi produktami i – tu być może zaskoczę czytelników – nasz system operacyjny DSM też jest dostępny w modelu open source, jeśli ktoś jest zainteresowany, aby w ten sposób poznać jego funkcjonalność. Zawsze jednak podkreślamy, że to nie jest metoda na zapewnienie w firmie wysokiej dostępności danych i niezawodności całego rozwiązania, ponieważ tego typu oprogramowanie nie jest wspierane w takiej skali jak komercyjne produkty. Niemniej, jesteśmy zadowoleni, że wzbudza ono zainteresowanie – korzystający z takiego rozwiązania administrator, gdy nabierze odpowiedniego doświadczenia, lepiej zrozumie wartość dla klienta płynącą z naszych produktów i całego ekosystemu.

Jak ta sprawa wygląda pod kątem bezpieczeństwa? Już od kilku lat serwery NAS znajdują się pod ciągłym ostrzałem ataków ransomware…

Dla nas bezpieczeństwo jest absolutnie priorytetowe. Mamy specjalny zespół odpowiedzialny za wykrywanie ewentualnych zagrożeń, analizowanie ich i reagowanie, gdy zajdzie taka potrzeba. W ramach programu bug bounty regularnie zapraszamy do współpracy także etycznych hakerów i zewnętrznych badaczy zagrożeń. Nasz zespół zobowiązał się do wydawania poprawek dla krytycznych, wykrytych przez nas błędów w ciągu 60 dni, natomiast jeśli pojawiło się zagrożenie zero-day – wówczas w ciągu jednego dnia. Natomiast w przypadku innych projektów open source sprawa jest dyskusyjna. Z jednej strony panuje powszechna opinia, że otwartość kodu powoduje, iż społeczność dokonuje jego ciągłej analizy, także pod kątem bezpieczeństwa. Niestety, takiej analizy dokonują też cyberprzestępcy i tu rodzi się pytanie kto dysponuje większą siłą. W naszym przypadku jest gwarancja, że dysponujemy przeciwwagą dla hakerów w odpowiednim i skutecznym stopniu.