Dla resellerów, VAR-ów i integratorów IT. miesięcznik komputerowy przeznaczony dla firm komputerowych i związanych z branżą IT.

Strona główna Fora dyskusyjne Odpowiedz na: Dlaczego SSDki się psują?

#280357
Kaleron
Uczestnik

A VAST Data coś produkuje? Bo z tego, co wiem, składają i oprogramowują klocki produkowane przez kogoś innego. W dodatku obiło mi się o oczy, że nie używają nosników NANDowych, tylko zmiennofazowych od Intela, ale tego nie jestem pewny. Na podstawie materiałów marketingowych odniosłem wrażenie, że ich twórcy mogą nie odróżniać tych dwóch technologii, a trudno jest spotkać kogos, z kim mozna by było merytorycznie na ten temat porozmawiać. 

Przy układach zmiennofazowych (które świetnie się prezentują na papierze i w testach wydajnościowych, ale by racjonalnie oceniać ich praktyczną awaryjność jeszcze jest za mało danych), wszystko, co starsze wygląda na przeżytek i jedyną przewagą starszych technologii jest cena. W przypadku układów zmiennofazowych dziesięcioletnią gwarancję można potraktować poważnie, licząc na to, że układy te będą się zachowywały zgodnie z modelami opracowanymi przez fizyków, jednak jesli ktoś chciał ją dawać na układy NAND QLC, z prawdopodobieństwem graniczącym z pewnością gwarant zbankrutuje znacznie wcześniej.

 

Układy zmiennofazowe też pozwalają na zastosowanie technologii wielostanowej. Są to układy z kategorii pamięci rezystywnych, gdzie rezystancje wykorzystywanych w ich budowie chalkogenków pomiędzy stanem krystalicznym, a amorficznym idą w rzędy wielkości, więc jest na czym popracować, by w zapisie stosować materiał odpowiednio częściowo wykrystalizowany. Bardzo trudno znaleźć informacje dotyczące rozwiązań w konkretnych, działających i sprzedawanych urządzeniach technicznych. O wiele łatwiej odkopywać prace dotyczące badań nad prototypami. Ale wcale bym się nie zdziwił, jakby technologia wielostanowa była od razu używana w nośnikach zmiennofazowych i gdyby używano takich samych oznaczeń (SLC/MLC/TLC/QLC/PLC), z którymi klienci już są oswojeni.

 

Opisując przyczyny awarii SSDków skupiłem się na czynnikach wpływających na to, że ta awaryjność rośnie, ale gdyby postęp polegał wyłącznie na tym, układy QLC zamiast wytrzymywać ~2 lata sypałyby się po ~2 miesiącach. Producenci stosują coraz  bardziej zaawansowane zabiegi programowe w zakresie zarządzania defektami, wyrównywania zużycia, buforowania ograniczającego obciążenie układów opercjami kasowania/zapisu. Stosowana jest też wewnętrzna kompresja. W celu zapobiegania negatywnym zjawiskom elektrycznym dane są dynamicznie randomizowane (o ile nie są szyfrowane). Kody korekcji błędów BCH zostały zastąpione kodami LDPC. Gdzieś tam jeszcze w odwodzie czai się grafen, jako materiał mogący zastąpić krzem. Tyle, że bardziej szczegółowe opisanie tych zagadnień wymaga trochę czasiu i wysiłku:).W każdym razie ryzyko wystapienia błędów bitowych jest większe, zużycie samych układów – szybsze, a to, że tego nie widzimy od razu, zawdzięczamy głównie matematykom. Często kosztem niższej wydajności nośnika. 

 

Co do samych dysków twardych – zobaczymy, jak na rynek wpłyną technologie HAMR i MAMR, bo od czasów upowszechnienia kilkanaście lat temu zapisu prostopadłego, to najistotniejsze zmiany pozwalające na zwiększenie gęstości zapisu. Z całym szacunkiem, ale dyski helowe, to co najwyżej półsrodek, zmiana rozmiaru fizycznego sektora z 512B na 4 kB dała umiarkowane rezultaty, a technologia SMR przyniosła więcej problemów związanych z adresowaniem danych, ryzykiem awarii wskutek błędów oprogramowania układowego i wydajnością przy zapisie, niż radości ze zwiększenia gęstości zapisu. Wprowadzenie zapisu wspomaganego energetycznie pozwala na zastapienie uzywanych jako warstwa magnetyczna stopów kobaltowych stopami żelazowo-platynowymi, które dają mniejsze stabilne domeny. Ale też wewnątrz dysku pojawiają się kolejne elementy, które mogą się psuć i kolejne źródło ciepła, które samo w sobie też może być problemem.