🐎 Dlaczego Nośniki Pamięci Masowej Mają Coraz Większe Pojemności

Jako że dzisiejsze pamięci są pokaźnej wielkości trudno byłoby nam zapisywać ich specyfikację w wielokrotności bitów dlatego też zostały zastąpione one nową jednostką miary pamięci jaką jest bajt. Początkowo 1 bajt oznaczał 4 bity. Aktualnie przyjęło się że 1 bajt to 8 bitów. Bajt ma symbol (skrót) – duże B.
Pamięć masowa może być instalowana bezpośrednio w serwerach w postaci dysków tworzących tzw. system DAS (Direct Attached Storage), jako specjalizowany, dodatkowy serwer pamięci masowej NAS (Network Attached Storage) udostępniany przez sieć LAN lub WAN, albo też zestaw urządzeń pamięciowych wykorzystujących oddzielną dedykowaną sieć SAN (Storage Area Network). Tego rodzaju architektury są podstawą systemu pamięci w każdym systemie IT. Należy jednak zwrócić uwagę, że stopniowo rośnie też popularność pamięci masowych, oferowanych jako usługa świadczona w chmurze. W tym przypadku usługodawca buduje własny system pamięci, z zasady oparty na architekturze SAN, a następnie udostępnia pojemność zewnętrznym użytkownikom za pośrednictwem internetu lub dedykowanych łączy sieciowych. Budując własny system pamięci masowej, trzeba przede wszystkim znaleźć odpowiedź na pytanie: kiedy wystarczy skorzystać z pamięci DAS, a kiedy warto wdrożyć zewnętrzną pamięć NAS lub sieć SAN? Odpowiedź zależy od aplikacji oraz indywidualnych wymagań dotyczących wydajności i niezawodności systemu. Zobacz również:HPE zaprezentowało serwer nowej generacji HPE ProLiant RL300 Gen11 Należy również zwrócić uwagę, że rozwój technologii i coraz bardziej podobne funkcje różnych rozwiązań pamięci masowych - stopniowo zacierają granice między systemami NAS i SAN. Ponadto, już od kilku lat rozwijane są koncepcje sieci konwergentnych, które umożliwiają łączenie wszystkich urządzeń pracujących w systemie IT przy wykorzystaniu jednolitej infrastruktury sieciowej. Sieci konwergentne są uważane za technologię, która w niedalekiej przyszłości opanuje centra danych. Pamięci masowe w sieci Już w latach 80. ubiegłego wieku pojawiła się koncepcja NAS, jako urządzenia udostępniającego pamięć masową serwerom plików pracującym pod kontrolą NetWare lub Windows i obsługującym komputery klienckie w sieci typu klient-serwer. A pierwszym producentem, który opracował i wprowadził do sprzedaży pamięci NAS w formie urządzeń typu appliance, była firma NetApp (Network Appliance). Obecnie pamięci NAS są wykorzystywane przez miliony użytkowników do przechowywania systemów plików obsługujących aplikacje, takie jak Microsoft Exchange czy SQL Server. W porównaniu z wewnętrznymi, zainstalowanymi bezpośrednio w serwerze dyskami DAS, pamięci NAS mają wiele zalet. Jest to rozwiązanie bardziej uniwersalne, które z reguły oferuje większą skalowalność pojemności niż DAS, i umożliwia obsługę wielu aplikacji, serwerów i urządzeń klienckich. Natomiast u podstaw SAN leży idea, by oddzielić wymianę danych między pamięciami masowymi i serwerami - od ruchu obsługiwanego przez standardowe sieci LAN i WAN. Umożliwia to istotne zwiększenie wydajności takich aplikacji, jak: transakcyjne bazy danych, systemy ERP lub CRM. Jest to więc rozwiązanie stosowane w dużych lub średnich firmach. Oddzielenie serwerów aplikacyjnych od SAN i podłączenie ich do wielu urządzeń pamięci, przy wykorzystaniu dedykowanej sieci Fibre Channel, specjalnie zaprojektowanej do takich zastosowań, daje wiele korzyści. System taki może być łatwo skalowany, ale przede wszystkim ma wyższą wydajność i niezawodność w porównaniu z rozwiązaniami wykorzystującymi pamięci NAS. Zwolennicy rozwiązań SAN podkreślają, że w systemach obsługujących biznesowe aplikacje o znaczeniu krytycznym, w których wydajność jest parametrem kluczowym, zastosowanie pamięci NAS jest trudne do zaakceptowania. Z zasady bowiem, wykorzystanie sieci LAN do wymiany danych z pamięciami masowymi i jednocześnie obsługi ruchu generowanego przez serwery i urządzenia klienckie będzie powodować konflikty i negatywnie wpływać na wydajność aplikacji. Ale wielu użytkowników systemów NAS nie zgadza się z taką opinią, twierdząc, że w praktyce nigdy nie mieli z tym problemu i nie ma zasadniczych powodów, by pamięci NAS nie stosować do obsługi krytycznych aplikacji biznesowych. Dyskusje i spory między zwolennikami NAS i SAN mają często charakter ideologiczny, wynikający z przyzwyczajeń i doświadczeń użytkowników. A rozwój technologii powoduje, że zmienia się perspektywa spojrzenia na te systemy i wiele klasycznych argumentów traci na znaczeniu. W praktyce zarówno pamięci SAN, jak i NAS można czasami zalecić jako najlepsze rozwiązanie, pod warunkiem że spełniają wymagania konkretnej aplikacji. Wybór często nie jest jednak prosty i oczywisty. Dodatkowym problemem dla osób odpowiedzialnych za projektowanie systemu IT jest rosnąca oferta pamięci NAS z interfejsami iSCSI, które oferują funkcje typowe dla pamięci SAN. Dlatego osoby tworzące plany rozwoju architektury systemów pamięci masowej powinny dobrze rozumieć różnice techniczne oraz znać wady i zalety obu tych technologii. Klasyczna różnica między pamięciami NAS i SAN Chyba każdy, kto choć trochę miał do czynienia z pamięciami masowymi, jako podstawową różnicę między urządzeniami NAS i SAN wymieni zastosowanie systemu plików w NAS oraz bloków danych w SAN. Pamięci NAS, zależnie od wykorzystywanego systemu plików, z reguły oferują zestaw zaawansowanych funkcji, takich jak mechanizmy kontroli dostępu, indeksowanie plików itp. Ich system operacyjny pozwala na udostępnianie plików bezpośrednio urządzeniom klienckim podłączonym do sieci. podstawowa topologia systemu wykorzystującego pamięci NAS Natomiast w sieci SAN pamięć masowa może być współdzielona, ale jest widoczna jako dysk dostępny na poziomie bloków danych. Większość pamięci SAN wykorzystuje sieć Fibre Channel, czyli protokół specjalnie zaprojektowany do takich zastosowań. Wraz z popularyzacją standardów iSCSI i FCoE, które umożliwiają dostęp do pamięci dyskowych na poziomie bloków, ale przy wykorzystaniu protokołu TCP/IP lub sieci Ethernet, klasyczne różnice między NAS i SAN stają się coraz mniej wyraźne. Podstawowa topologia sieci SAN Choć generalnie wdrożenie systemu SAN jest znacznie bardziej skomplikowane niż pamięci NAS, to koncepcja architektury SAN jest prostsza i oparta na współdzieleniu danych na znacznie niższym, podstawowym poziomie. Polecamy: Pamięci masowe - poradnik kupującego Procedura rozszerzania woluminu na puli pamięci: Otwórz aplikację Pamięć masowa i migawki, zakładka Pamięć masowa/Migawki. Zaznacz wolumin, którego wielkość chcesz zwiększyć i wybierz opcję Zarządzaj. Wybierz opcję Zmień rozmiar woluminu. Wprowadź nową pojemność woluminu w ramach przestrzeni dostępnej w puli pamięci i Twarde dyski są wolne i znacznie szybsze nie będą. Z tego powodu nasze komputery nie działają tak szybko, jak by mogły. Procesor, zamiast wykonywać zlecone mu zadania, musi czekać na dane, których dysk nie jest mu w stanie dostarczyć w krótkim czasie. Przekonywanie, że jest inaczej, to mydlenie oczu nieistotnymi informacjami. Czy SSD jest wybawieniem z tej sytuacji? Aby się o tym przekonać warto poznać czym w rzeczywistości jest wydajność napędów dyskowych. Trochę historii… W 1956 r. firma IBM publicznie zaprezentowała komputer IBM RAMAC 305. Była to maszyna wyjątkowa ze względu na fakt zainstalowanej w niej pamięci masowej zbudowanej z rotujących, magnetycznych talerzy. Komponent ten miał nazwę IBM 350 i był to pierwszy twardy dysk. Wywołało to rewolucję w informatyce. Wcześniej dane przechowywano najczęściej na kartach perforowanych. W dużych firmach ich ogromne ilości były układane w skrzyniach (tub files). Gdy zachodziła konieczność użycia danych (np. wystawienie faktury), pracownik ręcznie odszukiwał odpowiednie karty (dane klienta i kupowanych produktów), ładował je do czytnika i uruchamiał właściwy program (tworzenie faktury). Następnie zabierał je oraz ewentualnie nowe karty wynikowe (faktura) i odkładał w tub file. Aby optymalnie wykorzystać cenny czas pracy komputera zlecenia wykonania obliczeń zbierane były w większe paczki. Karty układano w sekwencje zgodnie z kolejnością zleceń w paczce i dla wszystkich uruchamiano przetwarzanie. Dzięki temu nie trzeba było biegać między tub files a komputerem za każdym razem, jak pojawiło się nowe zlecenie. Ten wsadowy tryb pracy (batch), mimo, że jest efektywny, ma jedną istotną wadę – oczekiwanie na wynik wymaga cierpliwości. Głównym zadaniem inżynierów IBM przy tworzeniu RAMAC 305 było stworzenie nowego rodzaju systemu, którego podstawą jest uzyskiwanie rezultatów działania bezpośrednio po jego zleceniu. Z czasem taki tryb pracy z komputerem przyjął nazwę OLTP – OnLine Transaction Processing. Rozważano także użycie technologii taśmowej. Stosowano ją wtedy w systemach komputerowych już od pięciu lat. Prędkość sekwencyjnych zapisów i odczytów na taśmy była ponad 2x większa niż w przypadku IBM 350. Jednak próby losowego dostępu do danych nie przynosiły dobrych rezultatów. Podobnie jak w przypadku tub files, taśmy można było efektywnie używać tylko do przetwarzania w trybie wsadowym. Pomysł na umieszczenie danych na rotujących magnetycznych talerzach okazał się najlepszy. Zastosowanie IBM 350 umożliwiło szybki, losowy dostęp do danych. Zmieniło to sposób pracy z komputerem. Operator IBM RAMAC 305 mógł uruchomić program dla dowolnych danych w dowolnym czasie i od razu uzyskać wynik obliczeń. Taki sposób dostępu do informacji był tak istotny, że od niego wzięła się właśnie nazwa RAMAC – Random Access Method of Accounting and Control, czyli Losowa Metoda Dostępu dla Księgowości i Kontroli. Fizyczność dysku Ten historyczny rys miał na celu pokazanie jakie były powody powstania dysków twardych. Mimo, że od tamtych wydarzeń minęło już ponad pół wieku, są one nadal aktualne. Znacznie zwiększyła się jednak ilość danych oraz nasze wymagania. Pracując z komputerem oczekujemy natychmiastowego wyniku naszych operacji. Jeżeli do ich wykonania wymagane jest skorzystanie z informacji zapisanych na dysku, powinny być one szybko odszukane i dostarczone. Nie chcemy też czekać na zapisanie wyników naszej pracy. Aby sprostać tym oczekiwaniom dysk musi kręcić się z wielką prędkością, a jego głowica szybko i precyzyjnie lokalizować sektory szerokości zaledwie kilku atomów. Jest to konieczne dla uzyskania wysokiej wydajności i pojemności. Budowa dysków twardych wymaga od ich konstruktorów przełamywania kolejnych fizycznych barier. Niestety większość z nich jest już niemożliwa do sforsowania. W 2000 roku firma Seagate zaprezentowała pierwszy dysk kręcący się z prędkością 15 tys. obrotów na sekundę (RPM). Dzisiaj jest to nadal najlepszy wynik, dostępny tylko w najdroższych modelach. Większość dostępnych na rynku HDD ma 7200 RPM. Ruchy głowicy w najszybszym aktualnie dysku są tylko o 25% szybsze od wspomnianego Seagate’a. Oznacza to, że realna wydajność dysków twardych w ciągu 9 lat wzrosła o 16%. Jest to fakt, którym producenci nie chcą się chwalić i w sumie nie ma co się dziwić, jako że przemilczanie tej prawdy jest wymogiem współczesnego marketingu, podobnie jak eksponowanie nieistotnych parametrów. W przypadku HDD przykładem takiej nieistotnej informacji jest maksymalna prędkość transmisji danych wyrażana w MB/s. Mydlenie oczu Podawana przez producentów maksymalna prędkość transmisji danych jest z roku na rok coraz większa. Wynika to głównie z coraz szybszych interfejsów (SATA, SAS, FC). Ich możliwości ciągle się zwiększają, co jest związane z postępem w dziedzinie elektroniki. Nie oznacza to bynajmniej, że jednocześnie rośnie wydajność dysku. Do osiągnięcia wyników transferu prezentowanych w specyfikacjach niezbędne jest wykonanie testu, który nie ma nic wspólnego z rzeczywistością. W tym celu generowany jest sekwencyjny strumień danych złożony w wielkich bloków (1, 2, 4 MB). Jest to dobra metoda na sprawdzenie mocy napędów taśmowych, które są przeznaczone do obsługi sekwencyjnych strumieni danych. Nie sprawdza się jednak w przypadku dysków, których główne przeznaczenie to udostępnianie danych w sposób losowy. Aby poznać wydajność HDD trzeba sprawdzić jak będzie on sobie radził w warunkach, w których najczęściej przyjdzie mu pracować. Parametrem, który to najlepiej obrazuje, jest średnia ilość losowych operacji zapisu/odczytu na sekundę (IOPS). Wartości tej nie można znaleźć w specyfikacjach dysków twardych. Są tam jednak dostępne informacje, dzięki którym łatwo go obliczyć samodzielnie – prędkość obrotowa dysku (RPM) i średni czas pozycjonowania głowicy (average seek time). Parametry te określają generowane przez dysk opóźnienia w dostępie do danych. Cała reszta danych dostarczanych przez producentów nie jest istotna dla wydajności. Dotyczą one elektroniki, a w porównaniu z elementami mechanicznymi jest ona dużo szybsza. IOPS to informacja o tym, ile razy w ciągu sekundy dysk jest w stanie ustawić głowicę nad zadanymi sektorami. W tym celu trzeba obliczyć ile średnio trwa pojedynczy losowy dostęp do danych (average access latency). Jest to równe sumie opóźnień generowanych przez obroty dysku (average rotation latency) i ruch głowicy (average seek latency): average rotation latency = 60s / RPM / 2 average seek latency = (read seek time + write seek time) / 2 average access latency = average rotation latency + average seek latency Teraz wystarczy tylko wyliczyć ile operacji I/O przy takim opóźnieniu jest w stanie wykonać się w ciągu sekundy i otrzymujemy nasze średnie IOPS dla operacji losowych: average random IOPS = 1000ms / average access latency Przykład: dysk Seagate Barracuda 1TB 7200 RPM read seek time: 8,5 ms write seek time: 9,5 ms avarage rotation latency 60s / 7200 / 2 = 4,2ms avarage seek latency (8,5ms + 9,5ms) / 2 = 9ms average access latency 4,2ms + 9ms = 13,2ms average random IOPS 1000ms / 13,2ms = 75,75 Użycie takiego kalkulatora ułatwia liczenie. Dopiero znając wartość parametru IOPS można wyliczyć prędkość transferu danych dla różnych wielkości bloku: 75,75 * 4 kB = 303 kB 75,75 * 8 kB = 606 kB 75,75 * 32 kB = 2424 kB 75,75 * 128 kB = 9696 kB 75,75 * 512 kB = 38784 kB 75,75 * 1 MB = 75,75 MB Jak widać przy losowych operacjach, dopiero bardzo duże wielkości I/O pozwalają na uzyskanie szybkiego transferu danych. Wiemy, że w rzeczywistości komputery operują głównie małymi blokami. Dlatego też przy codziennej pracy trudno zaobserwować prędkości większe od 20 MB/s. Im więcej IOPS, tym wyniki będą lepsze. Problem jest taki, że najszybszy twardy dysk średnio wykonuje 186,92 losowych IOPS i raczej nie ma perspektyw na polepszenie tego wyniku. Od czasu IBM 350 pojemność dysków wzrosła 476625 razy (4,4 MB vs 2 TB). Wydajność tylko 112 razy (1,66 IOPS vs 186,92 IOPS). Niecałe 200 IOPS przy tak dużej ilości danych magazynowanych na pojedynczym HDD to bardzo mało. Już od dawna sposobem na zwiększenie komfortu pracy z dyskiem jest wykorzystanie pamięci półprzewodnikowej. Stosuje się ją jako cache w wielu miejscach: system operacyjny, kontroler, macierz, a także w samym HDD. Odciąża ona dysk. Dzięki temu operacje na najczęściej używanych obszarach danych są wykonywane znacznie szybciej. Im więcej pamięci podręcznej tym lepsze są efekty. Ta zasada była podstawą dla powstania rozwiązań SSD – Solid State Drive, czyli pamięci masowej pozbawionej ruchomych elementów mechanicznych. My name is Solidny, Stan Solidny Dane w tego typu rozwiązaniach przechowywane są nie na materiale magnetycznym, a w pamięci półprzewodnikowej. Warunkiem, jaki musi ona spełniać, jest utrzymanie stanu komórek po odłączeniu zasilania. Dla komputera prezentują się jako zwykły twardy dysk, co sprawia, że ich implementacja jest łatwa. SSD staje się coraz bardziej popularne. Dużą zasługę w tym ma dynamiczny wzrost produkcji i sprzedaży pamięci flash. Krótko mówiąc, technologia ta stała się na tyle tania, że używanie jej jako storage jest już opłacalne. Najbardziej znaną postacią SSD są pendrive’y USB. Idealne do przenoszenia danych między komputerami. Zastąpiły zawodne i mieszczące mało danych nośniki magnetyczne (dyskietki, zipy, taśmy). Kolejnym krokiem w rozwoju Solid State Drive było zastosowanie tej technologii w komputerze jako podstawowej pamięci masowej. W tym celu powstała ich nowa forma – kości flash zamknięte w obudowie standardowego dysku 3,5″, 2,5″ lub 1,8″. Do komunikacji z komputerem wykorzystują typowe interfejsy – SATA, SAS, FC. Pamięci flash w porównaniu z magnetycznymi talerzami mają wiele zalet: brak opóźnień wynikających z ruchu elementów mechanicznych dużo większa odporność na wstrząsy, upadki itp. zdecydowanie niższy pobór prądu bezgłośna praca czas odpowiedzi mniejszy o rząd wielkości (ms vs ns) brak konieczności chłodzenia napędu Na wydajność przekłada się to w postaci rewelacyjnej obsługi losowych operacji odczytu. Problemy z pisaniem W przypadku losowych zapisów nie jest już tak kolorowo. Wynika to z konstrukcji pamięci flash. Powstała ona jako pamięć o zapisie sekwencyjnym. Jej początkowe przeznaczenie to przestrzeń na firmware’y i BIOS’y gdzie taki tryb pracy sprawdza się znakomicie. Flash nie umożliwia bezpośredniej zmiany zawartości komórek pamięci. W tym celu należy wykonać najpierw operację kasowania. Dodatkowo nie można tego zrobić na pojedynczej komórce, tylko na całym bloku (erase segment). Wyklucza to losowy dostęp dla zapisu danych. Zapewnienie takiej funkcjonalności wymaga dodatkowych zabiegów. Każdy producent SSD realizuje to w inny sposób, różnymi algorytmami i z wykorzystaniem różnych dodatkowych komponentów sprzętowych. Brak standardu występuje również w przypadku sposobów radzenia sobie z drugą wadą pamięci flash, jakim jest jej stosunkowo krótka trwałość. Operacja kasowania segmentu komórek wymaga użycia wysokiego napięcia. Twórca tej technologii porównywał to z błyskiem lampy fotograficznej (flash). Efektem takiego traktowania półprzewodników jest degradacja ich właściwości. Zależnie od typu kości, prawidłowe funkcjonowanie komórki szacowane jest na od kilkudziesięciu tysięcy do kilkudziesięciu milionów cykli kasowania-zapisu. Jest to wystarczające dla pendrive’ów wykorzystywanych jako pamięć przenośna. Bez dodatkowych mechanizmów te liczby mogą się jednak okazać za małe w przypadku przestrzeni roboczych, na których zapisy są wykonywane bardzo intensywnie. Jak poznać SSD? Pamięć masowa oparta na półprzewodnikach to ciągle nowość. Aktualnie kilkanaście firm oferuje napędy SSD. Każda z nich ma swoje pomysły na ich budowę. Nie zawsze są one dobre. Różnice w jakości i wydajności są znaczne, a wybór właściwego rozwiązania jest trudny. O ile dla dysków twardych możliwe jest obliczenie mocy produktu na podstawie jego specyfikacji, to w przypadku SSD takiej możliwości już nie ma. Jedyny sposób na poznanie możliwości konkretnego produktu to właściwie przeprowadzone testy wydajnościowe. Wynikiem takich benchmarków będzie oczywiście średnia liczba losowych operacji. Część producentów publikuję te informacje. Trudno jednak uznać ich rzetelność skoro nie wiadomo, w jaki sposób zostały one obliczone/zmierzone. Organizacja Storage Performance Council, zajmująca się testowaniem rozwiązań pamięci masowej, póki co też nie opublikowała jeszcze wyników dla SSD. W takiej sytuacji pozostaje wykonać taki benchmark samodzielnie. Uzyskanie wiarygodnych wyników jest uzależnione od prawidłowego wykonania testów. W tym celu powinny zostać spełnione następujące warunki: Przed testami cała powierzchnia SSD kilkakrotnie zapisana losowymi danymi – Jakość algorytmów odpowiedzialnych za losowy zapis i przeciwdziałających utracie danych można poznać dopiero wtedy, gdy wartość każdej z komórek pamięci flash zostanie kilkakrotnie zmieniona. Osobne testy dla odczytu, zapisu i mieszanego strumienia I/O – W przypadku HDD zapis trwa tylko odrobinę dłużej niż odczyt. Do określenia wydajności wystarcza w tym wypadku tylko jeden parametr – IOPS. Duża różnica w czasie wykonania tych operacji na urządzeniach SSD wymusza zebranie aż trzech wyników: średnia ilość losowych operacji odczytu (OPS) – 100% odczytów; średnia ilość losowych operacji zapisu (IPS) – 100% zapisów; średnia ilość losowych operacji odczytu/zapisu (IOPS) – 50% odczytów / 50% zapisów Operacje I/O wykonywane bezpośrednio na surowym urządzeniu – Testy na systemie plików (NTFS, EXT3, …) nie będą wiarygodne ze względu na cache systemowy. Każdy test powinien trwać kilka godzin – Napędy SSD to w dużej części skomplikowane algorytmy zapisane w firmware. Aby się przekonać czy działają prawidłowo dobrze jest je sprawdzić pod maksymalnym obciążeniem w długim okresie czasu. Niedopasowana wielkość operacji I/O (un-aligned I/O) – Aktualnie pamięć Flash do zapisu używa 4kB segmentów danych. Pisanie mniejszym blokiem wymusza uruchomienie algorytmu, który najpierw odczyta zawartość całego segmentu, zmodyfikuje go nowymi danymi, a na koniec zapisze w docelowym miejscu (read-modify-write). Trwa to znacznie dłużej niż zapis całego segmentu. Testy można wykonać różnymi programami. Muszą one jednak mieć możliwość: generowania zarówno sekwencyjnego jak i losowego strumienia danych regulacji stosunku operacji odczytu do zapisu ustawienia różnych wielkości operacji I/O użycia surowych urządzeń określenia współczynnika trafień w cache Wszystkie te funkcjonalności ma aplikacja Vdbench. Jest to oprogramowanie napisane w języku Java co sprawia, że można je używać w różnych systemach operacyjnych i platformach sprzętowych. Przebieg testu przedstawiany jest w sposób tekstowy, ułatwiający interpretację wyników i tworzenie wykresów. Vdbench jest dostępny na zasadach wolnego oprogramowania. Na koniec… Historia HDD rozpoczęła się ponad 50 lat temu. Dzisiaj to urządzenie powszechne. Jest obowiązkowym elementem niemal każdego komputera. Kręci się w iPod’ach, kamerach, telewizorach… Znacząca większość informacji i wiedzy ludzkości jest magazynowana i udostępniana z dysków twardych. Technologia ta cały czas się rozwija. Dotyczy to jednak jedynie pojemności. Wydajność pozostaje bez zmian już od bardzo dawna. Mimo usilnych starań marketingu i reklamy, nie da się ukryć, że dysk jest “metalową kulą u nogi” współczesnych komputerów. Rozpowszechnienie rozwiązań Solid State jest szansą na znaczne polepszenie mocy pamięci masowej. Skok w wydajności przypomina przesiadkę z kart perforowanych na IBM 350. O ile o mocy HDD wiemy praktycznie wszystko, to wokół SSD ciągle jest mnóstwo tajemnic, spekulacji, nieprawdziwych lub nieaktualnych danych. Jednocześnie są to bardzo drogie rozwiązania. Część z dostępnych aktualnie produktów wydajnością nie odbiega od dysków twardych. Czasami okazuje się, że w realnych warunkach sprawują się one nawet gorzej. Inne rozwiązania sprawdzają się z powodzeniem nawet w macierzach. Na horyzoncie pojawiają się też nowe technologie pamięci półprzewodnikowych, które z czasem zastąpią niezbyt doskonały flash. Minie jeszcze parę lat zanim ta sytuacja się ustabilizuje. Prawdopodobnie pozostanie na rynku kilka firm, których napędy będą miały porównywalną wydajność. Wtedy wybór będzie równie prosty jak dziś w przypadku HDD. Póki co, aby nie wydać niepotrzebnie pieniędzy na produkt, który nie będzie spełniał naszych oczekiwań, pozostaje nam sprawdzać wyniki opisanych testów. Aktualnie są one trudno dostępne i szczątkowe. Ta sytuacja poprawi się wraz ze wzrostem popularności SSD. Niemniej, z pewnością Solid State Drive jest właściwym kierunkiem rozwoju pamięci masowej. Marek Wołynko, ekspert ds. pamięci masowych, Netia SA wmarow@
Do tego interfejsu podłączymy zarówno dyski SAS jak i SATA. Interfejs ten daje większe możliwości funkcjonalne w porównaniu do SATA. NL SAS – Hybryda poprzednich dwóch. Pozwala na połączenie dysków SATA z interfejsem SAS, dzięki czemu uzyskujemy większe pojemności przy przepustowości i funkcjonalności dysków SAS
#KingstonCognate przedstawia Rafaela Blooma Rafael jest wysokiej klasy specjalistą w dziedzinie produktów technologicznych, komunikacji marketingowej i rozwoju biznesu. Jego praktyka doradcza skupia się na nowych wyzwaniach organizacyjnych, produktowych i komunikacyjnych, które są związane ze zmianami technologicznymi i regulacyjnymi, aby zrealizować główny cel, jakim jest kreowanie i utrzymywanie nowych strumieni przychodów. Ta bardzo zróżnicowana praca wymaga merytorycznej wiedzy w dziedzinie zarządzania informacjami i zapewnienia zgodności z przepisami przy projektowaniu, ochronie poufności danych i korzystaniu z nowych technologii, takich jak AdTech, technologia mobilna 5G, sztuczna inteligencja i uczenie maszynowe. Cyfrowa ewolucja: stąd biorą się wspomnieniaZacznę od pytania: jaka jest różnica między pamięcią a pamięcią masową?Jeśli postrzegasz to pytanie jako techniczne, być może należałoby uznać te pojęcia za zamienne. Z pewnością nakładają się one na siebie. Jeśli jednak pomyślimy o nich w szerszym kontekście, być może jako różnicy porównując je różnicy między oglądaniem starego rodzinnego albumu fotograficznego (pamięć) a przeglądaniem zawartości biurowej szafy na dokumenty (pamięć masowa), stwierdzimy, że pełnią one dość odmienne funkcje. Album ze zdjęciami może wywoływać różnego rodzaju emocje, podczas gdy szafa na akta raczej na pewno nie – zakładając, że czytelnik nie ma skłonności do płaczliwej nostalgii na myśl o meblach biurowych we współczesnej rzeczywistości pracy zdalnej! W tym sensie pamięć odnosi się do doświadczenia i emocji, podczas gdy pamięć masową można porównać do prowadzenia dokumentacji. Obie funkcje są oczywiście ważne. Pamięć na przełomie wieków Coraz wyraźniejsze rozróżnienie między pamięcią a pamięcią masową w dużym stopniu wyjaśnia, w jaki sposób nasze doświadczenie technologiczne zmieniło się radykalnie od czasu, gdy w latach 80-tych XX wieku pojawiły się w naszym życiu komputery. Pisałem już wcześniej o tamtych czasach, a jedną z zadziwiających rzeczy jest to, jak wiele mogłem uzyskać z zaledwie 16 KB pamięci w moim ZX Spectrum. Gdy rozbudowałem ją o kolejne skromne 32 KB, otworzyły się przede mną znacznie większe możliwości zabawy, głębi i bogactwa wrażeń, niż wydaje się możliwe. Nawet wtedy w pojęciu „pamięć” bardziej niż o przechowywanie danych chodziło o nowe możliwości. Pamięć umożliwiała procesorowi komputera realizację zadania „budowania” świata. Grafika „ożyła” w charakterystycznym dla lat 80-tych stylu, który kochamy do dziś – środowiska stały się bardziej zróżnicowane i charakterystyczne – i nie było to związane wyłącznie z mocą procesora. Gdyby nie zwiększająca się zdolność pamięci do przenoszenia dużych porcji danych z coraz większą szybkością procesor nie byłby w stanie w pełni wykorzystać swoich możliwości. Kingston to nie tylko dostawca urządzeń pamięci do przechowywania danych. #KingstonIsWithYou xx jest przesłaniem dotyczącym potencjału naszych własnych możliwości: cokolwiek zdecydujemy się zrobić z naszą technologią, pamięć jest kluczem do uzyskania lepszych efektów. Kingston rozumie, że ewoluująca technologia może zmienić sposób, w jaki żyjemy na co dzień. W technologii pamięci dokonano wielu postępów, takich jak przejście z układów 8-gigabitowych na 16-gigabitowe, zwiększenie dostępnej pojemności do 64GB czy wzrost częstotliwości taktowania do 3200MHz. Postęp technologiczny dotyczy także pamięci masowej, gdzie następuje przejście ze standardu SATA na standard NVMe oraz z interfejsu PCIe Gen3 na interfejs PCIe Gen4, który będzie dwa razy szybszy od swojego poprzednika. Technologiczna podróż w czasieNajbardziej widoczne jest to w digitalizacji mediów, kultury i sztuki, gdzie w ciągu zaledwie kilku lat dokonała się wielka rewolucja. Mam na strychu plastikową skrzynkę pełną kaset VHS, które są świadectwem „śmierci” fizycznych nośników. Jest wiele czynników, które doprowadziły do wykształcenia się współczesnego modelu konsumpcji muzyki, filmów i innych produktów cyfrowych, takich jak gry komputerowe, które z pewnością w tym momencie należy zaakceptować jako główną formę artystycznej ekspresji. Kiedy po raz pierwszy kupiłem aparat cyfrowy w 2002 r., jego wymienna karta pamięci (bez funkcji przesyłania do chmury) mogła pomieścić około 90-100 zdjęć w „imponującej” rozdzielczości 3,2 megapikseli. Choć był to ogromny skok w porównaniu z liczbą klatek na rolce filmu Kodak, nadal musiałem się zastanawiać, czy warto w danej chwili nacisnąć przycisk migawki. Oczywiście dziś za pomocą telefonu komórkowego średniej klasy, bez potrzeby korzystania z osobnego aparatu fotograficznego, można nagrywać filmy w rozdzielczości 4K przy 120 klatkach na sekundę. Wiele zależy tu od procesora, podobnie jak od oprogramowania, ale to układy pamięci wykonują inne, potężne zadanie. Wraz z przejściem z chipsetów 8-bitowych na powszechne wykorzystanie architektury 64-bitowej osiągnięcia firmy Kingston w produkcji pamięci i pamięci masowej dotrzymują kroku temu imponującemu tempu rozwoju. W kontekście kolejnej fazy rozwoju technologicznego wydaje się jasne, że sztuczna inteligencja będzie jednym z głównych motorów napędowych, wnoszącym do używanej na co dzień technologii możliwości analityczne i predykcyjne. Technologia wspierająca przyszłośćPodobnie jak układy scalone zostały zoptymalizowane pod kątem określonych zastosowań, takich jak procesory komputerowe, a dedykowane karty graficzne czy kontrolery na potrzeby maszyn przemysłowych, tak osiągnięcie wysokiej sprawności sztucznej inteligencji wymaga zastosowania wysokowydajnej pamięci i pamięci masowej. Kingston już teraz jest liderem w dziedzinie pamięci i pamięci masowej, która spełnia wymagania sztucznej inteligencji (AI), uczenia maszynowego i Internetu rzeczy (IoT). A co z pamięcią masową, która być może w tych porównaniach wypada mało efektownie? Podobnie jak w przypadku pamięci nastąpiła poważna zmiana w rozumieniu tego, co naprawdę oznacza przechowywanie danych – w kierunku myślenia o danych jako zasobach, a także w kontekście odpowiedzialności. Nowa generacja przepisów dotyczących ochrony danych – od RODO po California Consumer Protection Act i inne regulacje – oznacza, że większość organizacji potrzebuje nowej strategii dotyczącej różnych cykli życia danych i powiązanych procesów. Pamięć masowa nie jest już pasywnym magazynem danych, którym kiedyś była. Obecnie potrzebujemy pamięci masowej, która będzie bezpieczna, replikowana, szyfrowana i odpowiednio zorganizowana. Początek lat dwudziestych tego wieku był na całym świecie czasem pozornie niekończącego się kryzysu. Zastanówmy się jednak, jak bardzo pomaga nam technologia, abyśmy mogli być znacznie bliżej siebie – zarówno w sferze biznesowej, jak i w naszych społecznościach i rodzinach. Od ponad 30 lat firma Kingston współpracuje z działami IT firm na całym świecie. Jednocześnie inwestuje miliony w rozwój i testowanie swoich produktów pamięci i pamięci masowej, aby wspierać nowe technologie umożliwiające realizację projektów AI, IoT i TechforGood. #KingstonIsWithYou Zapytaj eksperta Aby wybrać odpowiednie rozwiązanie, należy poznać wymagania danego projektu i systemu. Skorzystaj ze wskazówek ekspertów firmy Kingston. Zapytaj eksperta Wyszukaj wg systemu operacyjnego/urządzenia Aby znaleźć poszukiwane produkty firmy Kingston, wystarczy wprowadzić markę i numer modelu bądź numer katalogowy systemu komputerowego lub urządzenia cyfrowego. Wyszukaj według numeru katalogowego Wyszukuj według numeru katalogowego firmy Kingston, numeru katalogowego dystrybutora lub numeru katalogowego producenta. Zoptymalizowany dysk rozruchowy do serwerów Rozmiar NVMe 240GB, 480GB, 960GB Odczyt do 3200MB/s, zapis 565MB/s Zoptymalizowany pod kątem wysokich obciążeń operacjami odczytu danych Rozmiar 2,5" 480GB, 960GB, Odczyt do 560MB/s, zapis 530MB/s Do obciązeń operacjami odczytu lub mieszanych Rozmiar 2,5" 480GB, 960GB, Odczyt do 555MB/s, zapis 525MB/s Zoptymalizowany pod kątem obciążeń mieszanych NVMe PCIe Gen3 x4 960GB, Odczyt do 3300MB/s, zapis do 2700MB/s No products were found matching your selection Strona główna bloga Serwery/Centra danych SSD NVMe Memory 4K/8K Rozwiązania SSD i RAM umożliwiają działanie mediów strumieniowych i serwisów rozrywkowych Od zdjęć, przez postprodukcję i kodowanie, po dystrybucję w centrach danych – rozwiązania SSD i RAM umożliwiają strumieniową transmisję obrazu i dźwięku w świecie multimediów i rozrywki OTT. Serwery/Centra danych Memory Jak wybrać pamięć do serwera Przedstawiamy różne rodzaje pamięci i doradzamy, jak wybrać odpowiednią pamięć do serwera. Serwery/Centra danych Server SSD Memory Co stymuluje rozwój centrów danych? Infografika przedstawia różne typy centrów danych, mity oraz specjalistyczne rozwiązania Kingston. Serwery/Centra danych Klasa korporacyjna SSD NVMe SATA Przyspiesz wydajność swoich serwerów dzięki macierzom RAID SSD Nasza współpraca, oparta na wykorzystaniu kontrolerów RAID firmy Microchip, pomaga zapewnić wysoką wydajność pamięci masowej serwerów. Serwery/Centra danych Klasa korporacyjna Klient SSD Memory Jak firma Kingston pomogła obniżyć koszty zasilania centrum danych o 60% Dowiedz się, jak firma Kingston pomogła obniżyć koszty energii i zwiększyć wydajność, aby firma Hostmein mogła realizować umowy SLA. Serwery/Centra danych Pamięci wbudowane SSD Memory Coś więcej, niż tylko inteligentne miasta: jak Internet rzeczy zmienia świat W ramach tej publikacji rozmawiamy z ekspertami na temat rozwoju technologii IoT i przygotowania organizacji na jej przyszłość. Serwery/Centra danych Klasa korporacyjna Wydajność Memory SSD Seria artykułów poświęconych zrównoważonemu rozwojowi, innowacyjności i partnerstwu - część 2 Dołącz do ekspertów z branży, aby porozmawiać o tym, w jaki sposób partnerzy technologiczni, tacy jak firma Kingston, wspierają zrównoważony rozwój przedsiębiorstw. SSD Serwery/Centra danych SDS NVMe Klasa korporacyjna Dyski SSD Кlasy Enterprise NVMe: nadmiarowość i RAID Przejście na standard NVMe wymaga pełnego przeglądu systemu przez specjalistów w dziedzinie architektury IT, aby zapewnić nadmiarowość na każdym poziomie systemu. Dyski SSD Кlasy Enterprise NVMe Serwery/Centra danych Przetwarzanie w chmurze SSD Przyszłość technologii NVMe Oto siedem prognoz dotyczących czynników, które będą stymulować zastosowanie technologii NVMe w 2021 r. Serwery/Centra danych Klasa korporacyjna Memory SSD Lockdowny, modernizacje i wyzwania stojące przed branżą usług w chmurze i centrów danych Rob May, ekspert branżowy w dziedzinie usług zarządzanych, wyjaśnia, w jaki sposób modernizacja pamięci operacyjnej i masowej może pomóc firmom korzystającym z pracy zdalnej. Serwery/Centra danych Klasa korporacyjna Memory SSD Wykorzystanie sztucznej inteligencji do przekształcania dzisiejszych wyzwań w przyszłe możliwości Na potrzeby tej publikacji zapytaliśmy ekspertów z branży, jakie korzyści niesie sztuczna inteligencja, jak sprzyja zwiększeniu zużycia danych, a także jak można przygotować swoją organizację na oferowane przez nią możliwości. Serwery/Centra danych Klasa korporacyjna SSD NVMe SATA Dysk SSD NVMe — dlaczego warto go zastosować? Technologia SSD ewoluuje ze standardu SATA do NVMe. Skorzystaj z porad eksperta branżowego i naszych firmowych specjalistów. Bezpieczeństwo danych Serwery/Centra danych Praca w domu Szyfrowane pamięci USB SSD Opinie influencerów na temat rozwoju technologii w 2021 roku Co przyniesie 2021 rok w dziedzinie technologii i dominujących trendów? Jaką przyszłość przewidują uczestnicy programu KingstonCognate i branżowi eksperci? Dyski SSD Кlasy Enterprise Klienckich Dysków SSD Serwery/Centra danych QoS Klasa korporacyjna 4 najczęściej popełniane błędy przy zakupie dysków SSD Uchroń się przed wyborem niewłaściwego dysku SSD do swojego serwera. Nietrafny wybór oznacza wyższy koszt posiadania. Naucz się wybierać właściwe dyski SSD. Memory Wydajność Serwery/Centra danych Producenci systemów Klient Jakie są zalety 16-gigabitowej pamięci DRAM DDR4 nowej generacji? Planujesz zakup nowego systemu? Obejrzyj ten film, aby poznać zalety technologii nowej generacji – 16-gigabitowej pamięci DRAM. Bezpieczeństwo danych NVMe Server SSD Serwery/Centra danych Korzyści dla przedsiębiorstw związane z technologią NVMe NVMe jest teraz standardowym protokołem dla dysków SSD, który wspiera rozwiązania dla centrów danych i środowisk firmowych. Klienckich Dysków SSD Dyski SSD Кlasy Enterprise NVMe Bezpieczeństwo danych Serwery/Centra danych Wybór odpowiedniego dysku SSD ma znaczenie Wybór odpowiedniego dysku SSD do serwera jest ważny, ponieważ serwerowe dyski SSD, w odróżnieniu od dysków klienckich (do komputera stacjonarnego lub laptopa), są zoptymalizowane pod kątem działania na przewidywalnym poziomie latencji. Różnica ta przekłada się na większą dostępność i mniejsze opóźnienia w przypadku aplikacji i usług o kluczowym znaczeniu. Server SSD Bezpieczeństwo danych Serwery/Centra danych SSD Klasa korporacyjna Czy nadszedł czas na SDS (pamięć definiowaną programowo)? Technologia SDS nie wykorzystała swojego potencjału, jednak teraz, przy bardziej przystępnych cenowo nośnikach NVMe, popularne rozwiązania sprzętowe są gotowe sprostać wyzwaniu. Serwery/Centra danych SSD Praca w domu Przetwarzanie w chmurze Klasa korporacyjna Zapotrzebowanie na usługi centrów danych w czasach koronawirusa Jakie są oczekiwania wobec centrów danych w tych niezwykłych czasach? Przeczytaj artykuł ekspertki z branży, dr Sally Eaves, która przybliża ten temat. Server SSD NVMe Bezpieczeństwo danych Serwery/Centra danych SSD Czy powinniśmy przejść na NVMe? Cameron Crandall z firmy Kingston pomoże ci zdecydować, czy warto zastosować dyski SSD NVMe w serwerach. Serwery/Centra danych Server SSD Dyski SSD Кlasy Enterprise Przetwarzanie brzegowe 5G Przyszłość centrów danych – 5G i Edge Computing Dlaczego centra danych Edge Computing są istotne dla 5G? Pobierz i przeczytaj eBooka Kingston na temat serwerów brzegowych i wdrażania 5G. Server SSD Dyski SSD Кlasy Enterprise Bezpieczeństwo danych Serwery/Centra danych Większa wydajność systemu SQL Server dzięki dyskom SSD DC500M klasy Enterprise Biała księga pokazuje, w jaki sposób dyski SSD z serii Data Center DC500 firmy Kingston pozwalają zmniejszyć ogólne koszty kapitałowe oraz koszty licencji o 39%. Server SSD Dyski SSD Кlasy Enterprise Bezpieczeństwo danych Serwery/Centra danych QoS Jakość usługi (QoS) Dyski SSD Kingston Data Center serii 500 (DC500R / DC500M) – jednolitość i przewidywalność latencji (czasu odpowiedzi) oraz wydajności IOPS (liczba operacji wejścia/wyjścia na sekundę). Serwery/Centra danych Klasa korporacyjna SSD Przykład zastosowania w firmie Aruba - Wspieramy wiodących dostawców usług informatycznych Dzięki poziomowi usług, jakości, skalowalności i elastyczności ekonomicznych rozwiązań firmy Kingston firma Aruba zauważyła polepszenie jakości usług oferowanych swoim klientom. Server SSD Wydajność Serwery/Centra danych Klient Często zadawane pytania na temat technologii SATA, NVMe i SSD Często zadawane pytania na temat SSD i terminów takich jak SATA, NAND, RAID, NVMe, PCIe i SAS wraz z wyjaśnieniem. Serwery/Centra danych Memory Wydajność DDR4 Czym jest pamięć DDR4? Większa wydajność Pamięć DDR4 zużywa o 40% mniej energii niż DDR3. W porównaniu z pamięcią DDR3 wydajność Twojego komputera może wzrosnąć nawet o 50%. SSD Server SSD Dyski SSD Кlasy Enterprise Wydajność Bezpieczeństwo danych Serwery/Centra danych Producenci systemów Testy dysków SSD Rygorystyczne testy to nasza podstawa, aby dostarczyć najbardziej niezawodne produkty na rynku. Wszystkie nasze produkty przechodzą drobiazgowe testy podczas każdego etapu produkcji. Te testy pozwalają zapewnić kontrolę jakości w całym procesie produkcji.
Pendrive 8GB, pendrive 16 GB, pendrive 64GB, pendrive 128GB, a może pendrive 256 GB? U nas znajdziesz pendrive USB z odpowiednią liczbą GB pamięci! Karta pamięci każdego rodzaju: karty microSD, karta SD, karta pamięci do telefonu i aparatu - mamy je wszystkie! Sprawdź dostępne u nas karty pamięci! Potrzebna Ci pamięć przenośna, flash, inny nośnik albo nagrywarka DVD lub stacja
Pamięć masowa inaczej pamięć trwała, to urządzenie, które pozwala na przechowywanie dużych ilości danych przez długi czas. W przeciwieństwie do pamięci operacyjnej nie pozwala jednak na adresowanie pojedynczych bajtów. Ponadto czas jej dostępu przez procesor jest znacznie dłuższy. Pamięć masowa ma olbrzymi wpływ na szybkość działania jednostek operacyjnych. Tak samo jak aktualizacja oprogramowania przyśpiesza jego działanie, tak również nośniki pamięci masowej zwiększają szybkość kopiowania, przetwarzania i wysyłania różnego rodzaju danych. Zastosowanie pamięci masowej w komputerach ma olbrzymie znaczenie dla ich prawidłowego działania. Obecnie szerokie wykorzystanie pamięci masowej jest bardzo ważne nie tylko dla użytkowników indywidualnych, ale także biur i przedsiębiorstw. Im większa sieć komputerowa oraz wielkość danych, tym większa ilość pamięci masowej będzie potrzebna do skutecznej obsługi. W obecnych systemach pamięci masowej niezwykle szerokie zastosowanie znalazły dyski sieciowe tj. NAS, pamięci SSD oraz macierze dyskowe. Współcześnie bez możliwości szerokiego zastosowania pamięci masowej niemożliwe byłoby prosperowanie przedsiębiorstw na tak technologicznie wysokim poziomie. Inwestując w pamięć masową, często bezpośrednio inwestuje się w większą wydajność firmy. Rodzaje pamięci masowej – dysk twardy, dysk SSD Póki co jesteśmy w stanie wyszczególnić dwa najbardziej popularne i najczęściej wykorzystywane rodzaje pamięci masowej. Jest to rzecz jasna dysk twardy, który obecnie przypisany jest do każdego komputera obecnego w powszechnej sprzedaży, ale wyszczególnić można również dyski SSD (flash), które nie są przypisane do danego urządzenia. Mowa tutaj między innymi o pendrive na USB – choć mało kto zdaje sobie z tego sprawę, to także jest pamięć masowa, zupełnie tak jak dysk HDD z komputerów. Informacje zapisane na tych rodzajach dysków są trwałe, w związku z czym takie przechowywanie danych jest niezwykle skuteczne. Serwery pamięci masowej i metody przechowywania danych Pamięć masowa umożliwia trwałe przechowywanie danych i obecnie trudno wyobrazić sobie komputer, który nie dysponowałby dyskiem HDD. Codzienne funkcjonowanie bez dysku SSD również może wydawać się trudne, ponieważ za pomocą swojej wydajności oraz możliwości przechowywania naprawdę dużej liczby gigabajtów danych znacznie ułatwia życie każdemu z nas. Nie można zaprzeczyć, że każdy z nas posiada przynajmniej kilka produktów w dużej mierze ułatwiających posiadanie nawet dużych, największych plików. Rozwiązania dla firmy – dysk storage Choć samodzielna praca w domu lub biurze nie wymaga pokaźnych mocy przerobowych oraz potężnego źródła pamięci masowej, to w przypadku nieco większych projektów zdecydowanie warto zastanowić się nad zaimplementowaniem skutecznego źródła pamięci masowej w firmie. Dysk storage technology to jedno z rozwiązań, które umożliwia niezwykle wygodną, zespołową pracę w przypadku nawet największej firmy. Mówimy tutaj o sposobie przechowywania o znacznie większej pojemności niż w przypadku jakiegokolwiek dysku HDD czy dysku SSD – za pomocą tego oprogramowania można przechowywać naprawdę ogromne ilości danych w bezpieczny sposób. Warto mieć na uwadze, że na rynku dostępne są różne dyski o różnorakim sposobie działania oraz efektywności. Urządzenia pamięci – przechowuj dane na urządzeniach blokowych Podsumowując, pamięć masowa jest obecnie niezwykle istotna w funkcjonowaniu nie tylko prywatnych urządzeń, ale także zespołów komputerów wchodzących w skład obszernego systemu każdej większej firmy. Dlatego nie warto oszczędzać na tym rozwiązaniu i zdecydować się na skuteczny i pojemny sposób przechowywania danych. Pod względem pamięci masowej warte uwagi są przede wszystkim serwery storage, które zapewniają ogromny komfort, skuteczność, a także opłacalność, bowiem jest to niezwykle przystępna inwestycja, która może bardzo szybko się zwrócić. Co to jest Pamięć masowa? Dowiedz się więcej o systemach pamięci masowej Współcześnie pamięcią masową zarządzają specjalistyczne systemy operacyjne. Oczywiście pamięć operacyjną najczęściej wybiera się do takich urządzeń jak laptopy. Jednak to pamięć masową większość użytkowników uważa za niezbędną w ramach przechowywania danych przez długi czas. Obecnie istnieje wiele nowoczesnych rozwiązań w zakresie pamięci masowej software defined storage lub network attached storage. Tym samym w największym skrócie pamięć masowa to pamięć trwała, która umożliwia przechowywanie bardzo dużych danych. Jednak nie pozwala na adresowanie pojedynczych bajtów, a czas jej dostępu przez procesor jest zdecydowanie dłuższy. Warto pamiętać, że podczas wymiany sprzętu, aby zachować dotychczasową pamięć masową, należy ją przenieść na nowe urządzenie. Tu z pomocą przychodzi wiele nowoczesnych rozwiązań dyski SSD oraz systemy pamięci Flash. Dyski SSD Dyski SSD to innowacyjne metody, dzięki którym przechowywane dane są bezpieczne i możliwe do zgrania na dowolnym urządzeniu. Można wgrywać na nie wiele aplikacji, plików, filmów i innych zasobów do ponownego wykorzystania. Tym samym dysk SSD, to: krótki czas dostępu do danych, duża odporność na uszkodzenia mechaniczne, brak ruchomych części. Obecnie dyski SSD to bardzo popularne rozwiązanie, które pozwala na przechowywanie dużych ilości plików w zależności od tego jak duża jest karta pamięci. Współcześnie wykorzystanie dysków przenośnych jest coraz większe, przede wszystkim ze względu na wygodę, a także wydajność, którą oferują w ramach ich użytkowania. System pamięci Flash Systemy pamięci Flash to rodzaj pamięci komputerowej, która w gruncie rzeczy stanowi rozszerzenie konstrukcyjne poprzednich systemów. Warto pamiętać, że dostęp do pamięci Flash wykorzystuje stronicowanie pamięci operacje odczytu tak jak zapisu i kasowania danych. Cechą, która zdecydowanie wyróżnia pamięć Flash, jest szerokie wykorzystanie technologii komórek wielostanowych. Serwis pamięci masowej
1 Gigabajt (GB) = 1,024 MB. GB szybko staje się standardową jednostką pojemności pamięci masowej, ponieważ większość producentów sprzętu komputerowego reklamuje pojemność w GB. 1 terabajt (TB) = 1,024 GB. Obecnie najczęściej spotykanym sposobem mierzenia wielkości zwykłego dysku twardego jest TB.
Wymiana informacji pomiędzy dyskiem twardym a komputerem jest możliwa dzięki specjalnym interfejsom. Odpowiadają za komunikację i mają bezpośredni wpływ na przepustowość, czyli maksymalną prędkość transferu danych. Na chwilę obecną najpopularniejszym z nich jest SATA, z którego korzysta większość urządzeń konsumenckich i serwerów. Jednak od pewnego czasu na rynku mamy już następcę – to technologia NVMe wykorzystywana w nośnikach SSD. W tym artykule specjaliści z firmy Stovaris wyjaśniają, czym jest oraz jaką ma przewagę nad swoją poprzedniczką. Oprócz tego wymieniamy główne zalety jej stosowania w rozwiązaniach serwerowych – zapraszamy do lektury. Krótka historia interfejsów dysków twardych Na początek warto wyjaśnić sens nieustannego rozwijania interfejsów przeznaczonych do dysków twardych. Najlepszym sposobem na to jest przedstawienie ich historii. Pierwsze nośniki pamięci masowej, czyli HDD, były urządzeniami mechanicznymi. Jeszcze w początkach XXI wieku korzystały z interfejsu IDE, obecnie określanego jako ATA, który zastąpił przestarzałe połączenie szeregowe. Powyższa technologia w swojej ostatniej odsłonie (już nierozwijanej) osiągała prędkość transferu danych na poziomie 133 MB/s. Jej następcą jest używana obecnie Serial ATA, czyli SATA. W najnowszej wersji – trzeciej – oferuje realną przepustowość danych na poziomie około 600 MB/s. Z kolei ostatnia nowość w interfejsach, czyli coraz lepiej znane wszystkim NVMe bazujące na szynie PCIe może przesłać nawet 3500 MB na sekundę. Warto nadmienić, że obecnie dostępne są w sprzedaży dyski NVMe bazujące na najnowszej technologii PCIe Dyski te mają ponadprzeciętne wartości odczytu i zapisu. Przykładowo, dyski serwerowe jednego z najlepszych producentów SSD KIOXIA w serii Kioxia CD6 oraz Kioxia CM6 oferują odczyt aż do 8000 MB/s, jednocześnie gwarantują zapis na poziomie do 4000 MB/s. Wartości te są ewenementem w środowisku serwerowym, warto dodać, że coraz więcej osób decyduje się na aktualizacje swojego środowiska serwerowego właśnie z użyciem serii dysków Kioxia CD6 oraz Kioxia CM6. Powyższa historia wyjaśnia, jaki jest cel rozwoju tej technologii – przyspieszenie odczytu i zapisu informacji. Z każdym rokiem przetwarzamy ich coraz więcej, co niejako wymusza ten proces. Sytuacja ta doprowadziła także do pojawienia się dysków SSD, czyli następców HDD, pamiętających jeszcze lata 50. ubiegłego stulecia. Dlaczego dyski SSD stopniowo wypierają HDD? Warto wrócić jeszcze na chwilę do dysków HDD. Są używane do dziś z racji ich bardzo przystępnej ceny, ponadprzeciętnej niezawodności i ogromnej pojemności. Jednak choć korzystają z interfejsu SATA, tak w najlepszym przypadku oferują transfer zaledwie na poziomie 200 MB/s. Wynika to z ograniczeń technologicznych. Dane przechowywane są na wirujących z dużą prędkością talerzach magnetycznych, a za ich zapis i odczyt odpowiadają ruchome głowice. Każda z nich w określonym momencie może znajdować się tylko w jednym punkcie, co wydłuża czas dostępu do informacji. To główny powód pojawienia się dysków SSD, w których całkowicie wyeliminowano mechanikę, zastępując ją półprzewodnikami. Ograniczenia w transferze generuje w nich sam interfejs, choć oczywiście wiele zależy również od zastosowanych kości pamięci. Jednak są zdolne do tego, aby obsługiwać maksymalną przepustowość danych zarówno dla technologii SATA, SAS, jak i NVMe. W efekcie dziś HDD wykorzystuje się głównie w celu archiwizacji dużej ilości informacji. Główną zaletą HDD nadal pozostaje dość niski koszt $ per TB danych. Zazwyczaj na dyskach talerzowych umieszcza się tzw. cold-storage, czyli dane, które nie wymagają szybkiego dostępu, lub też stare aplikacje, które nie wymagają szybkości jaką oferują dyski półprzewodnikowe. Gdy szybki dostęp do informacji jest dla nas priorytetem, nośnik ten zastępuje dysk SSD. Rozwiązanie to jest stosowane zarówno w komputerach konsumenckich, jak i na serwerach. NVMe vs SATA – co różni te technologie? Dokonanie porównania NVMe vs SATA należy zacząć od opisania różnic w działaniu obu tych interfejsów. Druga z powyższych technologii, a więc starsza, wykorzystuje adapter magistrali hosta. Jest to kontroler pośredniczący w wymianie danych pomiędzy dyskiem twardym SSD a procesorem. W komputerach konsumenckich zwykle jego funkcję pełni mostek. To chip odpowiadający jednocześnie za realizację wielu innych zadań. Z kolei w rozwiązaniach serwerowych zazwyczaj znajduje się on na specjalnych kartach rozszerzeń. W przypadku NVMe udało się wyeliminować tego „pośrednika”. Komunikacja pomiędzy dyskiem i procesorem jest bezpośrednia dzięki użyciu magistrali PCI Express (PCIe). Pozwoliło to na drastyczne zwiększenie przepustowości danych ze wspomnianych 600 MB/s dla interfejsu SATA do nawet 8000 MB/s przy wykorzystaniu dysków SSD NVMe PCI-e Prawdziwa moc NVMe drzemie w szybkości tej technologii Podczas zakupu dysków twardych zawsze zwraca się uwagę na ich przepustowość. Jednak porównując NVMe vs SATA w kontekście zastosowania serwerowego, często większe znaczenie ma parametr szybkości. W skrócie opisuje się go jako IOPS, czyli „Input Output Per Second”. Określa on ilość operacji zapisu oraz odczytu danych, które urządzenie może wykonać jednocześnie w przeciągu jednej sekundy. Biorąc pod uwagę stosowane dziś interfejsy, jego wartość prezentuje się następująco: 50 do 80 – najlepsze dostępne na rynku nośniki HDD, 5 000 do 50 000 – dyski SSD SATA, 85 000 w przypadku zapisu oraz 1 000 000 w przypadku odczytu – dla NVMe PCI-e oraz 50 000 do 400 000 – dla NVMe PCI-e W przypadku serwerowych nośników pamięci masowej, wykorzystujących nową technologię komunikacji, IOPS dochodzi nawet do miliona. Dyski SSD NVMe występują w trzech różnych wersjach Jeśli planujesz zakup dysków SSD wykorzystujących technologię NVMe, powinieneś wiedzieć, że występują w 3 formatach. Do wyboru są urządzenia ze złączem: PCI Express – mają formę kart rozszerzeń instalowanych w gnieździe płyty głównej. Co ciekawe format ten został już praktycznie wycofany w przypadku serwerów, z uwagi na to, że był mało praktyczny – zajmował slot PCI-e na każdy dysk. Jednakże te rozwiązania są nadal dostępne do użytku konsumenckiego, gdzie zazwyczaj użytkownikowi wystarczy użycie jednego dysku z takim interfejsem. – następca mSATA, port taki znajduje się w większości nowoczesnych komputerów, oraz serwerów. Dyski mają bardzo małą wytrzymałość na zapis (czasem jest to nawet DWPD). Powinny one służyć głównie do np. instalacji systemu operacyjnego, natomiast cały zapis danych powinien być kierowany na dyski z większa wytrzymałością od 1,3 czy 20 DWPD. – ma zastosowanie głównie w serwerach, pozwala na największe upakowanie dysków na małej przestrzeni i wysokości serwera. Dzięki temu możemy osiągnąć nawet 2PB w serwerze 1U. Zwiększenie upakowania dysków zmniejsza też koszt TCO (Total Cost of Owning), czyli ogólny koszt posiadania maszyny. Należy jeszcze podkreślić, że pierwsze dwa rodzaje dotyczą nośników pamięci o bardzo małych rozmiarach. Z kolei ostatni z nich jest stosowany w serwerowych, klasycznych dyskach 2,5’’. W interfejsach NVMe i SATA do dysku SSD można użyć szyfrowania Warto wspomnieć jeszcze kilka słów o zabezpieczaniu danych przechowywanych na nośnikach pamięci. Pod tym kątem w ostatnich latach ogromną popularnością cieszy się tzw. dysk szyfrowany. W jego przypadku algorytm kryptograficzny zakodowany jest na chipie znajdującym się bezpośrednio w urządzeniu. W porównaniu do swojego programowego odpowiednika, zamiast chronić całą pamięć, szyfruje każdy plik oddzielnie. W efekcie nawet w przypadku złamania kodu uzyskanie dostępu do wszystkich danych jest niemożliwe. Jeśli potrzebujesz takiego sprzętu, to wybór interfejsu NVMe lub SATA nie będzie mieć znaczenia. Tę technologię szyfrowania można zaimplementować w każdym nośniku SSD. Jakie są zalety dysków twardych SSD NVMe pod kątem ich serwerowego zastosowania? Czas skupić się wyłącznie na rozwiązaniach serwerowych, w których to niewątpliwie nowa technologia interfejsu dysków SSD ma największe zastosowanie. Specjaliści z firmy Stovaris wymieniają kilka jej ważnych zalet, biorąc pod uwagę porównanie NVMe vs SATA. Kontrolery ATA są bowiem praktycznie w ogóle niewykorzystywane w serwerach. Można je jeszcze znaleźć głównie w starych komputerach konsumenckich. W stosunku do swojego poprzednika nowy interfejs komunikacyjny pozwala na: wykonywanie większej ilości operacji odczytu lub zapisu przy jednoczesnym zmniejszeniu zużycia zasobów procesora CPU – to efekt możliwości kolejkowania zapytań, wyraźne zmniejszenie opóźnień przy przetwarzaniu informacji zapisanych na nośnikach, obniżenie kosztów eksploatacji – urządzenia NVMe są bardziej energooszczędne od SATA zarówno w trybie gotowości, jak i po przejściu w stan czuwania, zwiększenie stabilności działania w długookresowej perspektywie, co jest efektem stosowania w dyskach pojemnych kości pamięci operacyjnej DRAM. Jakie jest zastosowanie dysków NVMe SSD? Powyższe zalety sprawiają, że nowy interfejs wręcz idealnie nadaje się do obsługi bardzo rozbudowanych baz danych. W kontekście NVMe vs SATA, pierwsza z tych technologii znacznie przyspiesza tworzenie, modyfikację oraz analizę gromadzonych informacji. Jednak tego typu dyski SSD są również doskonałe dla wydawców dużych serwisów internetowych oraz dostawców rozwiązań SaaS. Coraz chętniej korzystają z nich również firmy inwestujące w systemy ERP i CRM. Przy okazji warto wspomnieć o tym, że takie nośniki pamięci są dziś chętnie wybierane również przez użytkowników prywatnych i małych przedsiębiorców. Wysoka przepustowość i niezwykła szybkość IOPS czynią te urządzenia idealnymi dla: miłośników nowoczesnych gier komputerowych, programistów, fotografów, architektów i inżynierów, osób zajmujących się filmowaniem lub montażem materiałów wideo o rozdzielczości obrazu powyżej FullHD. Dyski NVMe SSD doskonale nadają się do budowy macierzy RAID Niewątpliwie podstawą funkcjonowania praktycznie każdego serwera są macierze. Usprawniają gospodarowanie zasobami dyskowymi, ułatwiają replikację informacji, a do tego są istotne z punktu widzenia ochrony danych. Dyski SSD wykorzystujące technologię NVMe idealnie nadają się do budowy takich sieci pamięci masowej. Doskonałym tego przykładem są urządzenia z serii GS wyposażone w złącze U2, które oferuje nasza firma Stovaris. Ich ogromną zaletą jest automatyzacja migracji danych pomiędzy poszczególnymi warstwami w macierzy. Pozwala to na łączenie nowoczesnych nośników pamięci masowej z klasycznymi HDD SATA. Dzięki temu można zachować bardzo wysoką pojemność bazy, przy jednoczesnym zwiększeniu wydajności jej działania. Jednak korzyści z wyboru naszych dysków NVMe do budowy macierzy jest więcej, w tym ogromne możliwości rozbudowy dzięki funkcjom scale-out i scale-up – można dodawać nowe węzły oraz tworzyć kolejne klastry pamięci masowej, uproszczenie zarządzania i obsługi, zwiększenie niezawodności – specjalny algorytm optymalizuje pracę dysków, wydłużając ich żywotność. Dodatkowo ogranicza on ryzyko jednoczesnego uszkodzenia kilku nośników pamięci i tym samym utraty części danych, dostęp do wielu rozwiązań w zakresie ochrony zasobów IT, w tym związanych z kopiami zapasowymi. Budując serwer, zawsze stawiaj na sprawdzone dyski SSD! Jak widzisz, w rywalizacji NVMe vs SATA pierwsza z tych technologii, stosowana w dyskach SSD, ma znaczącą przewagę nad drugą. Powinieneś zastanowić się nad jej zastosowaniem, jeśli wykorzystujesz serwer do przetwarzania dużej ilości danych. Jednak niezależnie od tego, na jaki rodzaj pamięci masowej postawisz, pamiętaj, aby kupować sprzęt od najlepszych producentów. Gwarantuje on niezawodność działania i wysoki poziom bezpieczeństwa. Jeśli potrzebujesz wsparcia w jego wyborze, skontaktuj się z doradcami Stovaris! Jesteśmy specjalistami w zakresie rozwiązań IT – zajmujemy się ich wdrażaniem, jak i sprzedażą nowoczesnych urządzeń informatycznych. Nie wiesz jakie rozwiązanie najlepiej sprawdzi się do Twojej aplikacji lub posiadanej już infrastruktury? Skontaktuj się z nami, nie tylko pomożemy w doborze rozwiązania ale również wytłumaczymy różnice w przypadku zastosowania konkretnych technologii. Wymień urządzenia i nośniki pamięci masowej, daję naj NA JUTRO <3 Natychmiastowa odpowiedź na Twoje pytanie. xEnglishMasterx xEnglishMasterx 04.10.2017 W centrach danych wciąż jest miejsce zarówno dla napędów taśmowych, jak i pamięci flash. Nic nie wskazuje na to, że w najbliższym czasie nastąpią jakieś znaczące przetasowania. Segment pamięci masowych przeznaczonych dla klientów korporacyjnych był dość długo skostniały i niewiele się na nim działo. Jednak ostatnie lata przyniosły spore ożywienie. Z jednej strony jest to zasługa młodych graczy próbujących zmienić status quo na rynku, zaś z drugiej, weteranów starających się przystosować do nowych realiów rynkowych i wymagań klientów. Jak wynika z danych IDC zapotrzebowanie biznesu na pamięci masowe rośnie o 30 proc rocznie., a firmowe budżety na infrastrukturę maksymalnie o 15 proc. W rezultacie organizacje muszą umiejętnie łączyć rozmaite rozwiązania, począwszy od bibliotek taśmowych, poprzez systemy NAS, macierze SAN, aż po naszpikowane nośnikami NVMe serwery. Lighgtbits stawia na NVMe Startup Lightbits pozyskał w czerwcu bieżącego roku od funduszy venture capital 42 miliony dolarów. To niezła suma, biorąc pod uwagę fakt, iż inwestorzy ostatnio mniej przychylnie patrzą na młodych graczy. Środki posłużą na dalszy rozwój systemu pamięci masowej bazującej na nośnikach NVMe. Startup działa od 2016 roku i łącznegozebrał ponad 100 milionów dolarów, do czego przyczynili się między innymi Atreides Management, Celesta, Cisco Investments, Dell Technologies Capital, Micron Technology. Na uwagę zasługuje fakt, iż założyciele startupu opracowali standard NVMe/TCP, który pod koniec 2018 roku został ratyfikowany przez konsorcjum NVM Express. Lightbits podczas projektowania autorskiego system wzorował się na infrastrukturze IT używanej przez Amazona, Google’a czy Facebooka. Jednym z jej największych walorówy jest łatwe skalowanie powierzchni dyskowej, niezależne od mocy obliczeniowej. Rozwiązanie Lightbits to zdefiniowany programowo system pamięć masowej wykorzystujący serwer x86 z nośnikami NVMe, przeznaczony do pracy w dowolnym środowisku chmurowym, w tym także w zastosowaniach multi-cloud. Podstawowa konfiguracja zaczyna się od trzech serwerów, kolejne jednostki można dodawać w dowolnym momencie bez zakłócania pracy całego sytemu, a klaster jest dynamicznie równoważony. Podobnie jest w przypadku, kiedy użytkownik dołącza nowe nośniki NVMe. – Całkowity koszt posiadania naszego produktu jest o 80 proc. niższy w porównaniu z DAS, Software Defined Storage czy macierzami SAN. To przede wszystkim zasługa inteligentnego systemu zarządzania pamięcią flash pozwalającego nawet dwudziestokrotnie wydłużyć żywotność nośników QLC, a także redukcji danych czy braku hiperwizorów w węzłach storage – zapewnia Kam Eshghi, CSO Lightbits. Startup swoją przewagę nad konkurentami upatruje w zastosowaniu protokołu NVMe-over-TCP, który gwarantuje niskie opóźnienia i nie wymaga inwestycji w nowy sprzęt. Taśmy z Kolorado Spectra Logic oraz Quantum są producentami utożsamianymi z taśmami. Druga z wymienionych firm obok HPE oraz IBM, kontroluje konsorcjum LTO, kierujące rozwojem oraz zarządzaniem, licencjonowaniem i certyfikacją najbardziej popularnego obecnie nośnika taśmowego. Obaj producenci mają swoje siedziby w stanie Kolorado, Spectra Logic w Boulder, zaś Quantum w Englewood. Choć taśmę już co najmniej od kilku lat odsyła się do lamusa, nadal znajduje ona szerokie zastosowania, a w ostatnim czasie wręcz przeżywa renesans. Według badań IDC, dostawy napędów taśmowych, bibliotek taśmowych i wirtualnych bibliotek taśmowych wzrosły w 2021 roku o 10,5 proc. w ujęciu rocznym. Łączna (skompresowana) pojemność sprzedanych taśm LTO. W 2021 roku wyniosła około 150 eksabajtów, dla porównania rok wcześniej nieznacznie przekroczyła 100 eksabajtów Phil Goodwin, wiceprezes ds. badań w IDC uważa, że jednym z głównych czynników wzrostu sprzedaży jest skuteczna ochrona przed złośliwym oprogramowaniem ransomware. Spectra Logic w raporcie „Data Storage Outlook 2022” zwraca uwagę na standard LTO-9 który w najbliższym czasie powinien stymulować popyt na taśmy. Dziewiąta generacja oferuje natywną pojemność 18 TB na kasetę, co stanowi 50 proc. wzrost w porównaniu z poprzednią wersją. Duże zainteresowania napędami taśmowymi przejawiają firmy, które przechowują duże ilości danych i chcą uniknąć miesięcznych opłat za składowanie ich w chmurze. Zresztą najwięksi providerzy również korzystają z bibliotek taśmowych. Eric Bassier, Senior Director, Product and Technical Marketing w Quantum, przyznaje, że jego firma już od kilku lat dostarcza biblioteki taśmowe z pięciu największych hiperskalerów. –Mamy ponad 40 eksabajtów pojemności wdrożonych w setkach centrów danych. Odpowiada to zarządzaniu nieco ponad trzema milionami taśm LTO we wdrożonych przez nas systemach – mówi Eric Bassier. Nie tylko taśmy Czołowi dostawcy bibliotek taśmowych, cały czas rozwijają swoją ofertę, dopasowując ją do potrzeb różnych grup odbiorców. W ostatnim czasie dużo dzieje się w Quantum. Producent na przestrzeni ostatnich dwóch lat, dokonał pięciu akwizycji (ActiveScale, Atavium, Sqaurebox, Pivot3 oraz EnCloudEn). W rezultacie jego portfolio rozszerzyło się o produkty do indeksacji i analizy danych, rozwiązania HCI i specjalistyczne systemy do rejestracji monitoringu. – Musieliśmy przyspieszyć tempo innowacji i przejęliśmy kilka firm, stając się tym bardziej atrakcyjnym dostawcą. Od lat oferowaliśmy rozwiązania dla mediów oraz rozrywki. Jednak cały czas rozszerzamy swoje pole działania o branżę motoryzacyjną, farmaceutyczną czy placówki naukowe prowadzące badania nad genomem. Poza tym przeszliśmy od sprzedaży produktów punktowych do łączenia ich w kompleksową architekturę – tłumaczy Jamie Lerner, CEO Quantum. Obecnie około 90 proc. zasobów cyfrowych wykorzystywanych przez organizacje stanowią dane niestrukturyzowane. Jak wynika z badania przeprowadzonego przez ESG aż 89 proc. respondentów uważa, że automatyczne warstwy pamięci masowych pozwalają im zaoszczędzić znaczne środki finansowe. Natomiast 88 proc. badanych twierdzi, iż zatrzymanie większej ilości danych stwarza im dodatkowe możliwości biznesowe. Jak widać firmy nie zamierzają się ograniczać do stosowania jednego rodzaju nośników i rozumieją potrzebę ich dywersyfikacji. Według IDC aż 60 proc. danych zalicza się do kategorii „zimnych”, czyli nieaktywnych rekordów, po które organizacje sięgają sporadycznie. Natomiast tylko 10 proc. kwalifikuje się do danych „gorących”, a 30 proc. „ciepłych”. Quantum oraz Spectra Logic koncentrują się na walce o największy kawałek tortu. Jamie Lerner nie ukrywa, iż pozyskanie nowych firm i poszerzenie portfolio znacznie ułatwiło mu rywalizację z konkurentami. – Nasz sprzęt jest od lat używany przez specjalistów od mediów i rozrywki pracujących dla baseballowego klubu Golden Warriors. Ale niedawno zainstalowaliśmy tam nasz system do nadzoru wideo oraz analityki. Łączymy w ten sposób dwa światy. Duże znaczenie miał fakt, iż ludzie od mediów i rozrywki zarekomendowali nas fachowcom od bezpieczeństwa – tłumaczy Jamie Lerner. Portfolio Spectra Logic obejmuje platformy pamięci masowej oparte na oprogramowaniu, składające się z dysków, obiektowej pamięci masowej i taśm, a także rozwiązania do zarządzania danymi w środowiskach chmurowych. Rok temu producent zaprezentowało oprogramowanie Vail, które centralizuje zarządzanie danymi w architekturze lokalnej i wielochmurowej, umożliwiając dostęp do danych na żądanie. Są one umieszczane i przechowywane w jednej globalnej przestrzeni nazw. Z punktu widzenia użytkownika nie ma znaczenia czy pliki znajdują się na dysku twardym, pamięci NAND flash czy taśmie. Firma rozwija też Black Pearl – urządzenie instalowane przed bibliotekami taśmowymi, dzięki czemu użytkownicy mogą korzystać z nich za pomocą protokołu obiektowego, analogicznie jak w przypadku danych przechowywanych w chmurach publicznych. – Organizacje wytwarzają, udostępniają i chronią petabajty danych, zarówno lokalnie, jak i w chmurze. Zapewniamy im uniwersalny dostęp i rozmieszczenie danych, oferując płynne połączenie z chmurami publicznymi różnych usługodawców. Dzięki temu organizacje mogą skupić się na wykorzystaniu danych przy jednoczesnym spełnieniu kryteriów korporacyjnych i obniżeniu TCO – tłumaczy David Feller, Vice President, Product Management & Solutions Engineer w Spectra Logic. Warto dodać, iż firma, która istnieje od 1979 roku, współpracuje z przedstawicielami nowej fali, a na liście jej partnerów technologicznych znajdują się między innymi Cohesity, Komprise Pure Storage czy Rubrik. Czas na autonomiczny backup Działy IT mają coraz większe kłopoty z ochroną danych, co dzieje się z kilku powodów. Jednym z nich jest lawinowy przyrost cyfrowych informacji. Jednakże nie jest to nowe zjawisko, a co bardziej roztropni CIO zdążyli się do niego przyzwyczaić i jakoś sobie z nim radzą. Dużo większymi problemami wydają się być rosnącą liczba aplikacji, rozprzestrzenianie się się ransomware’u czy konieczność zarządzania danymi znajdującymi się w lokalnych centrach danych i u zewnętrzych usługodawców. Duża odpowiedzialność spoczywa nie tylko na specjalistach od bezpieczeństwa, ale również na barkach dostawców do backupu i DR. O ile nowi gracze wysuwają śmiałe, czasami rewolucyjne koncepcje, o tyle vendorzy z długim stażem na rynku, tacy jak Veritas, podchodzą do tematu z większym spokojem. Wynika to z doświadczania, a także potrzeby zaspokojenia potrzeb mocno zróżnicowanej klienteli. Z produktów Veritas korzysta około 80 tysięcy firmy, w tym 437 z listy Fortunę 500. Według Gartnera firma kontroluje 15 proc. rynku systemów do ochrony danych przeznaczonych dla użytkowników korporacyjnych. Nowa strategia Veritasa bazuje na pięciu filarach: cyberbezpieczeństwie (głównym celem jest powstrzymanie ataków typu ransomware), ochronie danych w środowisku lokalnym oraz chmurach różnych usługodawców, upowszechnianiu modelu subskrypcyjnego, współpracy z providerami oraz partnerami technologicznymi i autonomicznym backupie. – Liczymy, że realizacja tego planu pozwoli nam zwiększać przychody w tempie 8-10 proc. rocznie, EBITDA wyniesie około 35 proc, zaś wskaźnik powracających klientów osiągnie poziom 80 proc. – mówi Lawrence Wong, Chief Strategy Officer w Veritas. Amerykański vendor szczególnie duże nadzieje pokłada w autonomicznym backupie. – Sama automatyzacja procesów związanych z ochroną danych jest konieczna, aczkolwiek to za mało. Zarządzanie danymi i ich ochrona powinny się odbywać w sposób niewidoczny i autonomiczny, ale bez poświęcania nadrzędnej kontroli człowieka – tłumaczy Doug Matthews SVP, Product Management w Veritas. Autonomia ma łączyć automatyzację ze sztuczną inteligencją i uczeniem maszynowym, dzięki czemu system ochrony danych może dostosowywać się do zmieniających się okoliczności i natychmiast reagować. Veritas planuje wprowadzić tę nowinkę w systemie NetBackup 10+.
Przed rozpoczęciem upewnij się, że dyski, które mają być dodawane, spełniają następujące wymagania dotyczące rozmiaru: W przypadku macierzy RAID 5, RAID 6 i RAID F1: Pojemność dysku, który ma być dodany, musi być co najmniej taka, jak pojemność najmniejszego dysku w puli pamięci masowej. Jeśli np. wolumen składa się z
HDD i SSD to dwa główne rodzaje dysków, jakie stosuje się w komputerach osobistych – dużych PC i w laptopach. Obydwa dzielą się także na dyski wewnętrzne i zewnętrzne. Dyski HDD i SSD różnią się między innymi prędkością zapisu i odczytu. Wolisz większą pojemność za mniejszą cenę, czy może preferujesz ultra-szybki transfer danych, a pieniądze nie grają dla Ciebie roli? Tutaj dowiesz się, jak się od siebie różnią te dwa typy dysków. HDD i SSD znacząco różnią się w cenie, w oferowanych prędkościach. Jeśli posiadasz nowego laptopa, kupionego w przeciągu kilku ostatnich lat, istnieje spora szansa, że dysponujesz w nim właśnie dyskiem SSD. Natomiast w przypadku komputerów stacjonarnych często można jeszcze spotkać nośniki HDD – np: jako drugi dysk na dodatkowe dane. Przyjrzyjmy się najważniejszym różnicom, wadom i zaletom, zanim zdecydujesz się na zakup nośnika pamięci masowej. Co to jest dysk HDD?Dysk SSD – co to jest?Dyski hybrydowe – czym się charakteryzują?Jaki dysk wybrać HDD czy SSD?Wydajność dysków Co to jest dysk HDD? HDD to skrót od Hard Disk Drive i oznacza klasyczny dysk magnetyczny, w którym zapis danych odbywa się na wirujących talerzach wewnątrz komputera. Taki dysk złożony jest z ruchomego ramienia oraz kilku głowic (transduktorów) odpowiadających za odczyt i zapis danych na dysku. Ramię porusza się tuż przy powierzchni dysku, aby odczytywać dane, a proces ten można porównać do sposobu działania gramofonu odczytującego płyty winylowe (z tą różnicą, że głowica dysku nie dotyka fizycznie talerzy). Dyski HDD z reguły mieszczą się w 2,5-calowych lub 3,5-calowych obudowach – odpowiednio dla laptopów i dużych PC. Z końcem 2020 roku żaden nowy laptop sprzedawany w Europie Zachodniej nie posiada już dysku HDD (dane za firmą analityczną Context z lutego 2020). Ten typ dysku jest nadal dostępny dla komputerów stacjonarnych. Typowe pojemności HDD to obecnie pomiędzy 1 a 8TB (terabajtów), a według danych Seagate za ostatniego kwartał roku 2021, przeciętna pojemność sprzedawanych konsumentom dysków HDD wynosiła 5,4TB. Dysk SSD – co to jest? Solid State Drive, w skrócie SSD, to dysk zapisujący dane na połączonych ze sobą układach pamięci NAND flash. W przeciwieństwie do HDD, dyski SSD nie posiadają ruchomych części, a przez to mają znacznie mniejsze gabaryty, są całkowicie bezgłośne, a także o wiele dostępu jest tutaj znacznie krótszy niż w HDD, gdyż nie trzeba tutaj czekać na rozpędzenie się talerzy. Dyski SSD mogą być umieszczone w 2,5-calowych obudowach, ale także w postaci kart rozszerzeń do złącza PCIe, lub zamontowane bezpośrednio na płycie głównej w gniazdach typu Montowanie dysku SSD bezpośrednio na płycie głównej jest obecnie popularne w wielu laptopach z wysokiej półki, a także komputerach typu All-in-One. Dyski SSD najczęściej spotykamy w wariantach 128, 256, 512GB, 1TB, 2TB. Dyski hybrydowe – czym się charakteryzują? Interesującym, ale już coraz rzadziej stosowanym typem nośnika pamięci masowej są dyski hybrydowe, tzw. SSHD, łączące technologie HDD i SSD. Znajdziemy w nich więc tradycyjne talerze magnetyczne wraz z modułem pamięci NAND Flash. Tego typu dyski są szybsze od HDD, ale i tańsze od SSD. Komponenty SSD zapewnią szybszy rozruch komputera, jak również krótszy czas dostępu do plików systemowych czy też programów. Natomiast tradycyjny napęd magnetyczny służy do przechowywania plików, które nie wymagają natychmiastowego dostępu. W dobie coraz tańszych dysków SSD, napędy hybrydowe są już jednak obecnie rozwiązaniem dość rzadko spotykanym. SSD i HDD – który dysk wybrać? Jeśli zastanawiasz się, czy wybrać dysk SSD czy HDD, jest kilka czynników, które warto rozważyć. Cena – kiedyś dyski SSD były o wiele droższe niż HDD. Teraz jednak nośniki SSD są dostępne w znacznie przystępniejszych cenach, choć nadal zauważalnie wyższych. W praktyce za dysk SSD o pojemności 500GB zapłacimy tyle samo, co za 1TB HDD. Różnice w cenach mogą być bardziej odczuwalne przy wyższej pojemności. Szybkość – jednak to co zyskujemy w nośniku SSD to niewiarygodna szybkość uruchamiania systemu. Wynosi zaledwie kilka sekund, szybkość kopiowania plików i uruchamiania aplikacji. Typowy HDD kopiuje pliki z prędkością 15-30MB/s, podczas gdy tani SSD około 500MB/s Najnowsze NVMe SSD osiągają nawet 4GB na sekundę! Jeśli mówimy o grach, to również otrzymamy bardzo namacalne różnice. Czasy ładowania są drastycznie skrócone, co przekłada się na krótsze czekanie na załadowanie się poziomu, czy też wczytywanie zapisanego stanu gry. Wystarczy raz spróbować pograć na dysku SSD, by już nigdy nie chcieć wracać do HDD. HDD i SSD – wydajność Nośniki SSD są lepsze pod każdym względem w wydajności niż HDD, choć wcale nie oznacza to, że trzeba po nie sięgać w każdej sytuacji. Niestety dyski SSD, choć coraz tańsze, nadal jeszcze nie zbliżyły się do cen HDD. Dlatego jeśli planujesz używać dysku głównie do przechowywania dużej ilości danych, np. kolekcji zdjęć czy nagrań wideo – bardzo pojemny dysk HDD może okazać się rozsądnym rozwiązaniem, ze względu na niską cenę. Natomiast w każdym innym przypadku lepszy będzie dysk SSD Interesującą opcją może być także używanie dysków HDD i SSD razem. Wtedy to nośnik HDD może być wykorzystywany do przechowywania danych niewymagających szybkiego dostępu, natomiast SSD służyłby jako dysk systemowy, a także nośnik do gier oraz programów. Może Cię zainteresować: Przechowywanie danych w chmurze. Najlepsze dyski internetoweBootowalny pendrive z Windows 10 – jak zrobić?Pamięć DDR5 – co już wiadomo o pamięciach nowej generacji?Czym jest defragmentacja dysku? Jak ją wykonać?
Тиճεзθчա аቷዎвуδጭЕноማևсис ιвωረущ
Сеኾох ըсваρዮчуኚоԷк νусвιդ
Εզюγուկи եрጅтοтрекоԾωኮጺፋυπо тро
Аφяλιቶիη твኾжигупамИ слаգሱзиዢ φዤμαቄሁзοս
W dalszej kolejności, jakie są nośniki? Ze względu na wykorzystywaną technologię odczytu i zapisu danych, wyróżniamy pamięci: magnetyczne (taśmy, dyski twarde i elastyczne), optyczne (CD-R, DVD-R, Blu-ray), magnetyczno-optyczne oraz półprzewodnikowe (DRAM, Flash). Jakie są rodzaje pamięci RAM? Pamiętacie czasy, w których ceny dysków SSD wprawiały w popłoch? Teraz jest to tylko nieprzyjemne wspomnienie, a ma być jeszcze lepiej. Apacer Technology – jeden z producentów SSD zpowiedział obniżenie cen dysków w 2015 roku! Już niedługo za SSD 256 GB zapłacimy mniej niż 70$, a za 128 GB mniej niż 40$. Trzeba przyznać, że to bardzo dobra nowina. I choć ceny dysków SSD i dysków magnetycznych o porównywalnej pojemności nie zrównają się przez najbliższych kilka lat, czasem warto przychylnie spojrzeć na droższe SSD i poznać ich liczne zalety. Dziś krótki opis dysków SSD i ich porówananie do dobrze znanych nam dysków twardych. Tylko co to w ogóle jest SSD? SSD – solid state drive/disk jest to urządzenie pamięci masowej (tak jak znane nam dyski twarde). Jednak w przeciwieństwie do dysków twardych SSD nie działają w oparciu o nośniki magnetyczne, a o pamięć elektroniczną (dokładniej o pamięć FLASH). I ta podstawowa różnica powoduje, że choć SSD i HDD służą do tego samego (tj. przechowywania śmiesznych zdjęć kotków na naszym laptopie) to robią to w zupełnie inny sposób. Omówię dziś zarówno zalety SSD (takie jak odporność na uszkodzenia, cicha praca, niska temperatura pracy, niewielkie zużycie prądu, lekkość oraz wydajność) oraz przeanalizuję zarzuty wobec tych dysków, czyli małą żywotność i pojemność. Gotowi? Odporność SSD pierwotnie były używane w przemyśle – musiały działać bezbłędnie w całkiem ektremalnych warunkach. Stąd bierze się ich wyjątkowa odporność na uszkodzenia. SSD nie mają ruchomych części. Dlatego zniszczenie mechaniczne takiego dysku wymaga od użytkownika ogromnego nakładu pracy. Nie zaszkodzi im zrzucenie laptopa ze stołu (UWAGA – zdecydowanie zaszkodzi to laptopowi), ani przenoszenie w czasie pracy (jak pamiętasz z mojego wpisu o dbaniu o komputery – jest to całkiem ryzykowne przy dyskach twardych), nie straszna im praca gdy świat się trzęsie (są idealne dla osób, które pracują w czasie jazdy pociągiem lub lotu samolotem – wpis o tym na co zwracać uwagę przy zakupie komputera do pracy w podróży już w przyszłym tygodniu). SSD są także odporne na działanie skrajnych temperatur (od -25 °C aż do +85 °C, a nawet od -40 °C w przypadku NAND Flash typu SLC). Warto podkreślić, że ta odporność dysków SSD to przede wszystkim większe bezpieczeństwo naszych danych. Absolutna cisza Ponieważ SSD to sama elektronika, pozbawiona ruchomych części, to nie wydają one żadnych dźwięków. W HDD hałas generowany jest przez głowicę zapisująco – odczytującą oraz silnik wprowadzający w ruch talerze magnetyczne. Biorąc pod uwagę, że współczesne laptopy wyposażone są w bardzo ciche lub bezgłośne systemy chłodzenia, przejście z dźwięcznego HDD na SSD może znacznie zwiększyć komfort pracy. Niższe zużycie prądu Jest to kolejny plus wynikający z pozbycia się części poruszanych za pomocą silnika elektrycznego. SSD potrzebują mniej mocy (około 10-20 razy mniej niż HDD) – a to przekłada się na nieco dłuższy czas pracy na baterii. Wszyscy, którym bateria padła tuż przed zapisaniem super ważnych danych wiedzą, że czasem kilka minut jest na wagę złota. A zastosowanie SSD przy długo trzymającej baterii wydłuży ten czas nawet do godziny. Bardzo niska temperatura pracy Skoro nie ma części ruchomych – nic o siebie nie trze, a więc wydzielane ciepło jest zminimalizowane. SSD emitują niezwykle mało energii cieplnej. W czasach coraz mniejszej przestrzeni wewnątrz obudowy oraz nie zawsze skutecznych układów chłodzenia, dodatkowe źródła ciepła są wyjątkowo niebezpieczne dla naszych komputerów i naszych danych. Niska waga Wagę dysków SSD stanowi praktycznie obudowa dysku (metalowa lub plastikowa). A i bez niej można zainstalować dysk tak by działał – oznacza to, że waga laptopów wyposażonych w dyski SSD spada. Chyba dla wszystkich, którzy często dźwigają swojego laptopa z domu do pracy/na uczelnię, jest oczywiste, że każdy gram się liczy. Wydajność Tutaj SSD biją na łopatki HDD i patrzą na nie z pogardą. SSD cechują się bardzo krótkim czasem dostępu oraz wysoką szybkością zapisu i odczytu danych. Dyski twarde tutaj wymiękają – ich ograniczone możliwości po prostu spowalniają pracę komputera. Przejście z HDD na SSD znacznie przyspieszy pracę Waszego sprzętu (zwłaszcza gdy jesteście posiadaczami płyty głównej z kontrolerami SATA3 – wtedy prędkość zapisu sięga nawet do 6 GB/s, choć zauważalne i znaczne przyspieszenie osiągniemy także przy SATA2). Aby porównać – czas dostępu do danych w przypadku SSD to około 0,1 ms, w HDD czas ten zależy od lokalizacji danych oraz prędkości obrotowej, ale śmiało możemy przyjąć, że wynosi około 10 ms (prędkość obrotowa 7200). Różnica jest olbrzymia. Tak więc zamiast poświęcać na uruchomienie komputera około minuty, możemy to zrobić w 15 sekund. Koniec z robieniem herbaty podczas włączania komputera – nie zdążymy. I jeszcze jedno – SSD odczytuje i zapisuje dane w kilku miejscach jednocześnie – możemy więc cieszyć się szybką pracą komputera nawet przy uruchomieniu wielu procesów. Nie ma jednak dysków bez wad… Pojemność A właściwie cena za pojemność. Najpopularniejsze SSD mają pojemności 128GB oraz 256GB i wynika to z wyjątkowo wysokich cen za większe dyski. Dla porównania SSD o pojemności 1TB to koszt rzędu minimum 1500 złotych, z kolei HDD 1 TB to wydatek około 250 – 300 złotych. Różnica jest znacząca. Ale można zawsze pomyśleć o hybrydzie SSD – HDD. No i nie zapominajmy o chmurze. Żywotność SSD mają ograniczoną liczbę możliwych zapisów. Oznacza to, że po wykorzystaniu tej liczby cykli zapisów/kasowania nie będziemy mogli już nic nowego zapisać. Nie oznacza to jednak, że utracimy nasze dane, wciąż będą dostępne do odczytu. Warto podkreślić, że przeciętny użytkownik najprawdopodobniej nigdy nie osiągnie tej maksymalnej liczby operacji zapisu. Producenci dysków SSD zapewniają, ze wytrzymają one łączny zapis kilkuset TB (w przypadku dysku 64 GB powinno to być około 200 TB, tak więc by wykończyć taki dysk musielibyśmy zapisywać i kasować około 100 GB danych dziennie przez 5 lat). Ciągle jesteście nieprzekonani – na forum zapaleńcy próbują dobić dyski SSD – rekordziści zapisali po 1000 TB danych, a ich dyski wciąż śmigają. Wciąż nieprzekonanym wspomnę tyko, że dyski SSD są tak skonstruowane, aby dane zapisywane były równomiernie – każda komórka pamięci jest wykorzystywana tak samo często jak pozostałe (jest to tzw. funkcja Wear Levelling). Dzięki temu cykle zapisywania/kasowania są wykorzystywane w wyjątkowo efektywnie. Dodatkową funkcją zwiększającą wydajność korzystania z SSD jest TRIM. Komenda ta informuje kontroler dysku, które bloki pamięci nie są już potrzebne systemowi (dane z nich zostały wcześniej usunięte/przeniesione), a więc zwiększa liczbę wolnych bloków pamieci flash. Warto pamiętać jednak, że aby korzystać z tej funkcji musimy posiadać Linuxa albo system Windows 7 lub nowszy. Czas życia jaki został naszemu SSD możemy sprawdzić w każdej chwili korzystając z narzędzia SSD Life (warto z niej skorzystać gdy zastanawiamy się nad kupnem używanego komputera z dyskiem SSD). SSD zazwyczaj są objęte minimum 3 letnią gwarancją – a więc przez ten czas nie musimy się martwić trwałością naszego dysku. Większość z Was po 3 latach i tak zmieni komputer na nowszy. Armagedon Ostatnia wada jest bardzo ważna – gdy już uda nam się uszkodzić dysk SSD to pada wszystko. Przy istotnych uszkodzeniach szanse na odzyskanie danych są nikłe. Dlatego też warto zainwestować w dyski sprawdzonych firm i odpuścić sobie oszczędzenie kilkudziesięciu złotych. Chyba, że robicie to świadomie jako osoby wspierające rozwój nieznanych marek :) A jakie jest Wasze zdanie o dyskach SSD? Próbowaliście? Są dyski, które szczególnie polecacie/odradzacie? Znaleźliście jakieś wady, które (jako nowy właściciel i entuzjasta) przeoczyłem? Koniecznie podzielcie sie swoją opinią! Pozdrawiam! Pojemność pamięci masowej autonomicznego Synology NAS można zwiększyć, dodając nowe dyski. Jeśli jednak dwa serwery Synology NAS znajdują się w klastrze high-availability, należy podjąć dodatkowe kroki w celu zapewnienia, że oba serwery 1 mają taką samą konfigurację dysków, aby uniknąć niespójności danych.
To oczywiste i chyba nie trzeba tego faktu specjalnie udowadniać, że ilość danych, jakie tworzymy rośnie. Sposobów na ich przechowywanie jest sporo, a producenci nośników kuszą nas coraz większą pojemnością, szybkością i - dla odmiany - coraz niższą ceną. Jaki nośnik wybrać jeśli zależy nam na niezawodności i bezpieczeństwie danych? Przygotowaliśmy dla Was porównanie niezawodności różnych nośników mamy do wyboru?Nośniki optyczne, takie jak płyty CD-R, DVD-R, czy Blue-RayDyski HDD i SSDPamięć FlashChmuraTaśmy magnetyczneNośniki optyczneJeszcze kilka lat temu płyty CD i DVD były jednymi z najpopularniejszych nośników wykorzystywanych do przechowywania dużej ilości danych - zwłaszcza wśród użytkowników domowych. Wynikało to ze stosunkowo wysokich cen dysków HDD, a tym bardziej SSD i ich małej pojemności. W porównaniu z nimi dyski optyczne były konkurencyjne, zarówno w kontekście ceny, jak i oferowanej pojemności. Producenci płyt deklarowali także stosunkowo długą żywotność tworzonych przez siebie nośników, co jednak dosyć szybko zostało zweryfikowane przez rzeczywistość. W zależności od producenta i wykorzystanej technologii, płyta powinna służyć nam od 5 do nawet 200 lat (nie wspominając o płytach z trawionego szkła, które w teorii powinny przetrwać 1 000 do 1 500 lat!), jednak czas użytkowania uzależniony jest od tak wielu czynników, że powinniśmy być przygotowani na to, że płyta przestanie być możliwa do odczytania w każdej chwili - i to raczej wcześniej niż grozi nośnikom optycznym? Przede wszystkim nasze niechlujstwo - przechowywanie w nieodpowiednich warunkach, zarysowywanie, zatłuszczenie (kto z nas nie chwytał płyt, pozostawiając na nich pełny zestaw śladów daktyloskopijnych?) to powszechne grzechy użytkowników. Ale okres użytkownika płyty skraca także skąpstwo producentów, którzy wykorzystują materiały niskiej jakości, oszczędzają na grubości warstw ochronnych, przyspieszając tym samym proces utleniania się warstwy tym problemem może okazać się także technologia. Czy za kilka, kilkanaście lat nadal będziesz posiadał sprzęt, który odczyta dane z posiadanych przez Ciebie płyt? Nowe komputery często w ogóle nie mają stacji dysków, a nawet jeśli tak, to nie obsłużą każdego formatów. CD-R, CD-RW, DVD-RAM, DVD-R, DVD+R, DVD-RW, DVD+/–R DL - każdy z tych formatów oznacza inną technologię i inny sposób odczytu, może się więc okazać, że niedługo nie uda Ci się zdobyć odpowiedniego czytnika do swojej i SSDRozwój technologii HDD i SSD doprowadził do znacznego obniżenia cen tego typu nośników, przy równoczesnym wzroście ich pojemności, co sprawia, że dyski optyczne przestały być opłacalnym nośnikiem danych. Skoro bowiem możemy kupić dysk o pojemności 1, a nawet 2 TB za kilkaset złotych, nagrywanie płyt przestało mieć jakikolwiek sens. Zarówno klasyczne dyski HDD, jak i SSD, a także ich hybrydy (SSHD) nadają się do tworzenia układów macierzowych, dzięki czemu ich możliwości w zakresie przechowywania czy archiwizowania danych są praktycznie nieograniczone. Jeśli przechowujemy większą ilość danych i chcemy mieć do nich dostęp online, możemy rozważyć zakup magazynu danych w celu stworzenia prywatnej chmury (koszt 6 TB w tej technologii to około 3 500 zł). Oczywiście czym bardziej rozbudujemy naszą infrastrukturę, tym więcej będziemy musieli ponosić związanych z tym kosztów - zakupu sprzętu, energii elektrycznej, dyski także nie zagwarantują wieczności naszym danym. W przypadku zapisu magnetycznego na dyskach HDD, zachodzi zjawisko zaniku ładunku magnetycznego. Nie jest to może szybko postępujący proces - około 1% rocznie, ale w perspektywie czasu, może być groźny dla naszych danych. Również dyski SSD nie zawsze gwarantują pełne bezpieczeństwo i niezawodność - szczególnie istotne są tutaj zakresy temperatur, w jakich urządzenie pracuje. Np. podniesienie temperatury o 5 C w pewnych warunkach może zmniejszyć o połowę gwarantowany czas przechowywania danych (choć sytuacja taka musi jeszcze spełniać dodatkowe warunki i jest raczej rzadko spotykana, o czym przekonują specjaliści Seagate’a, dementujący Internetowe plotki na ten temat). Również duże wahania temperatur mogą być dla takiego dysku i zapisanych na nim danych mordercze. Pamiętać trzeba także, że każdy dysk ma określoną żywotność, ograniczony cykl życia, co oznacza, że nie ma dysku, który będzie działał zawsze. Odpowiednia infrastruktura jest oczywiście w stanie utrzymywać zdolność operacyjną i uratować nasze dane - nawet w przypadku jeśli jeden (a nawet więcej) dysków ulegnie danych na pendriveMożna chyba uznać, że ten typ pamięci na stałe zagościł w naszych kieszeniach. A wszystko za sprawą małych kart SD i pamięci USB, czyli popularnych pendrive’ów, które pozwalają nam w bardzo wygodny sposób przechowywać i przenosić znaczne ilości danych. Podstawowym minusem tej technologii jest ograniczona liczba cykli zapisu i kasowania, po przekroczeniu której, dochodzi do nieodwracalnego uszkodzenia wykorzystanych zagrożenie wiąże się z największą zaletą nośników z pamięcią flash - ich rozmiar i poręczność, sprawiają, że równie łatwo jak je przenosić, można je również zgubić. Malutka karta SD uwielbia się gubić i wpadać w szczeliny z których nie jesteśmy w stanie jej wyjąć. Bywa też łakomym kąskiem (dosłownie) dla małych dzieci, lub psów, które lubią je gryźć. Pamięć USB pada z kolei często ofiarą uszkodzeń mechanicznych - głównie wynikających z nieumiejętnego wyjmowania z portu USB, ale także przypadkowego uderzenia, kopnięcia, zmiażdżenia. Pamiętać przy tym należy, że odzyskiwanie danych z tego typu nośników, jest znacznie bardziej skomplikowane niż w przypadku tradycyjnych nośników z oferty dostawców usług w chmurze, którzy gwarantują przestrzeń dyskową dostosowaną do naszych potrzeb, jest rzeczywiście wygodne. Większość popularnych dostawców zapewnia nam darmową usługę podstawową - nawet 500 GB pamięci masowej online do naszej dyspozycji. Nasze dane są w ten sposób zabezpieczone - ich kopie znajdują się w rozproszonych lokalizacjach na całym świecie, dzięki czemu ryzyko ich utraty jest jednak musimy zarządzać sporą ilość danych, cena takiej usługi może znacznie przekroczyć koszt własnej infrastruktury - przykładowo cena 10 TB w popularnej usłudze Google Drive to około 1200 USD, czyli ponad 4 tyś zł rocznie! Ponadto przechowywanie danych w chmurze może być postrzegane jako bardziej ryzykowne - w momencie kiedy wrzucamy nasze dane do Internetu, tracimy nad nimi kontrolę i zwiększamy możliwość wycieku danych. W związku z tym nie rekomenduje się wykorzystywania tej technologii do przechowywania danych wrażliwych i dobra taśmaWyraźnie widać, że czym większy rozmiar danych, które musimy przechowywać, tym większe koszty z tym związane. Jest to ogromny problem, który przede wszystkim dotyka przedsiębiorstwa, może w poważnym stopniu ograniczać ich rozwój - eksplozja ilości administrowanych i przechowywanych danych prowadzi bowiem do lawinowego wprost wzrostu kosztów utrzymywania infrastruktury. Dużym wyzwaniem jest więc znalezienie takiego rozwiązania, które zagwarantuje możliwie jak najlepszy stosunek ceny do pojemności i wydajności. W tym kontekście swoją drugą młodość przeżywają obecnie taśmy magnetyczne. Rozwiązanie to jest sprawdzone i stabilne - od dziesięcioleci wykorzystywane jest do przechowywania danych, cieszy się opinią bezpiecznego i bezawaryjnego. W czasach śrubowania parametrów sprzętu, a przede wszystkim szybkości, taśmom wróżono szybki koniec. Nic jednak bardziej mylnego - okazuje się bowiem, że dwie cechy tego rozwiązania mogą zadecydować o jego losie - ogromna pojemność ( najnowsze prototypy mogą przechowywać do 220 TB na jednej taśmie!) idzie w parze z energooszczędnością. Taśma zużywa 200-krotnie mniej energii niż twardy dysk… Idealne rozwiązanie do przechowywania i archiwizowania ogromnej ilości danych.
Obecnie pojemność twardych dysków znacznie przewyższa pojemność CD, DVD czy Blu-ray, mimo to pewne eksperymentalne nośniki optyczne jak np. HVD mają większe pojemności i szybsze transfery danych niż dzisiejsze twarde dyski.
Przenośne urządzenia pamięci masowej (Portable Storage Devices – PSD) od dawna stanowią integralną część naszego codziennego życia w coraz bardziej cyfrowym świecie. Przenośna pamięć to między innymi pendrive’y USB, karty pamięci czy dyski zewnętrzne. Nie ogranicza się ona jednak tylko do tych znanych technologii. W tym wpisie przyjrzymy się różnorodnym typom urządzeń pamięci masowej, omówimy ich plusy i minusy, i pomożemy Ci określić, co najlepiej spełni Twoje oczekiwania. Czym są przenośne urządzenia pamięci masowej? Najprościej możemy je zdefiniować jako wysuwane lub przenośne urządzenia zdolne przechowywać i przesyłać dane cyfrowe. W tym sensie smartfony i laptopy można również uznać za przykłady przenośnych urządzeń pamięci masowej. Starsze typy urządzeń pamięci masowej obejmowały na przykład dyskietki, których już się nie używa, albo płyty CD-ROM. Współcześnie najpopularniejsze wydają się różnego typu urządzenia pamięci na USB, czyli pendrive’y, oraz karty pamięci różnorodnych formatów. Przechowywanie danych zmierza powoli acz zdecydowanie w stronę przechowywania w chmurze, bezpiecznego zapisywania wszelkich rodzajów danych cyfrowych, do których mamy zapewniony prosty dostęp poprzez sieć internetową. Z drugiej strony fizyczne formy przenośnej pamięci na pewno jeszcze długo pozostaną w użyciu, choćby ze względu na zapotrzebowanie na nie w szkołach i biurach. Typy przenośnych urządzeń pamięci masowej Istnieje dość szeroki wybór różnych urządzeń pamięci masowej. Niektóre przeszły już do lamusa, a inne mogą nie być popularnym wyborem wśród zwykłych użytkowników. Ale poniżej przedstawiamy takie typy przenośnych urządzeń pamięci masowej, które są łatwo dostępne na rynku i wyjątkowo powszechne w użyciu. Pendrive’y USB Pamięci USB, czyli popularne pendrive’y, to zdecydowanie najczęstszy wybór, jeśli chodzi o przenośne urządzenia pamięci masowej. Pamięć USB flash zazwyczaj składa się z czterech stałych elementów. Złącze ze standardowym wtykiem USB umożliwia podłączenie do portu urządzenia hosta, na przykład komputera czy tabletu. Pendrive najczęściej posiada wtyczkę USB-A, choć wraz z rosnącą popularnością szybszego standardu USB – USB – obserwuje się coraz powszechniejsze pojawianie się wtyków i portów typu USB-C. Wewnątrz obudowy pendrive’a znajdują się: kontroler pamięci masowej USB, układ pamięci flash NAND i oscylator kwarcowy. Kontroler pamięci masowej to rodzaj mikrokontrolera z niewielką ilością RAM (Random Access Memory – pamięć o dostępie swobodnym) i ROM (Read-Only Memory – pamięć tylko do odczytu), co zapewnia prawidłowe protokoły komunikacji pomiędzy podłączonymi urządzeniami. Układ pamięci flash NAND wykorzystuje nieulotną technologię przechowywania, która zachowuje wszystkie dane cyfrowe przesyłane na pendrive. Pojemność pamięci pendrive’a zależy od wydajności tego układu. Przepływem danych i wyjściem danych z pamięci USB zarządza oscylator kwarcowy. Więcej o przenośnej pamięci USB dowiesz się z naszego Przewodnika kupującego pendrive’y USB. Zalety: Napędy pamięci USB są praktyczne, lekkie i wygodne. Mają kompaktowe kształty i łatwo mieszczą się w urządzenia typu Plug-and-Play, co oznacza, że nie potrzebujesz instalować jakiegokolwiek oprogramowania czy polegać na innych odczytasz i zapiszesz dane na dysku USB w dowolnym są kompatybilne z szeroką gamą urządzeń posiadających kompatybilny port USB. Na rynku dostępne są także pendrive’y z wtykiem USB-C a nawet kwestii ceny te przenośne pamięci wypadają wyjątkowo są w różnorodnych pojemnościach, z których największe sięgają aż 2 wysoką prędkość przesyłania, zwłaszcza w przypadku najnowszych standardów USB i po podłączeniu do kompatybilnego portu w tym samym stosunkowo trwałe, niezawodne i wytrzymałe po części z uwagi na fakt, że nie mają ruchomych trudu wyszukasz pendrive’y oferujące funkcje szyfrowania i innych zabezpieczeń danych, np. modele wyposażone w skaner linii papilarnych. Wady: Miniaturowe rozmiary mogą także ułatwiać zgubienie czy zawieruszenie USB pendrive’a jest narażony na zużycie i uszkodzenie, o ile nie jest odpowiednio uwagi na częste używanie z różnymi systemami, pendrive’y mogą być podatne na ryzyko uszkodzenia danych – o ile nie podejmie się odpowiednich środków przypadku użytkowników często odczytujących i zapisujących dane ograniczona żywotność/liczba cykli zapisu pendrive’a może stanowić potencjalną wadę. Zajrzyj do naszego wpisu “Rozwiązywanie problemów z pamięcią flash USB / pendrive’m”, gdzie dowiesz się, jak poradzić sobie z najczęstszymi problemami. Karty pamięci Karty pamięci: karty microSD, SDXC czy karty Compact Flash, to kolejny ciekawy nośnik pamięci. Często spotykamy je w urządzeniach przenośnych, takich jak smartfony czy tablety albo konsole do gier, na przykład Nintendo Switch, gdzie umożliwiają poszerzenie pamięci. Przede wszystkim te nośniki trwałej pamięci masowej sprawdzają się w aparatach cyfrowych, lustrzankach cyfrowych i urządzeniach GoPro. Spora pojemność kart pamięci umożliwia zwiększenie pamięci urządzenia o nawet 128 TB. Kupując je, warto także zwrócić uwagę na różne prędkości przesyłu, które mają istotne znaczenie w przypadku plików obrazu i wideo. O kartach pamięci dowiesz się więcej, czytając nasz przewodnik kupującego karty pamięci. Zalety: Niewielkie rozmiary i kompaktowy kształt kart pamięci pozwala superłatwo zabierać je wszędzie ze są to nośniki półprzewodnikowe, nie ma ryzyka problemów mechanicznych lub mają bardzo dużą pojemność względem swoich rozmiarów sprawdzają się jako rozszerzenie pamięci urządzenia oraz potencjalnie mogą być używane w smartfonach jako rozszerzona pamięć typów urządzeń korzysta z kart pamięci – karty są kompatybilne z szerokim wachlarzem sprzętów kart pamięci posiada blokadę zapisu, która chroni przechowywane dane przed nadpisaniem. Wady: Lekkość i małe wymiary przekładają się także niestety na łatwość zgubienia czy o ich uszkodzenie na skutek działania czynników zewnętrznych, takich jak woda, wysoka temperatura i siła podłączenia do niektórych urządzeń może być potrzebny czytnik kart mogą być podatne na uszkodzenie danych elektronicznych, jeśli nie zostaną odpowiednio mają ograniczoną żywotność i nie sprawdzą się idealnie w rozbudowanych zadaniach odczytu/ zapewniają niższą prędkość przesyłu względem wewnętrznej pamięci urządzenia. Najczęstsze problemy z kartami rozwiążesz, zaglądając do naszego wpisu pod tytułem “Problemy z kartami pamięci: Jak naprawić kartę pamięci”. Zewnętrzne dyski twarde Przenośne dyski twarde (HDD) to nadal najlepszy sposób przechowywania danych w dużych pakietach. Stanowią też popularny wybór, jeśli chodzi o poszerzanie pamięci komputera czy laptopa. W odróżnieniu od nośników wymienionych w poprzednich częściach tego wpisu, zewnętrzne dyski twarde są oparte na technologii zapisu magnetycznego i składają się z ruchomych części. Wymagają również zewnętrznego źródła zasilania i kabli do połączenia z komputerem osobistym lub innymi systemami informacyjnymi. Zewnętrzne dyski twarde składają się z czterech głównych elementów, które obejmują talerz do przechowywania danych, wrzeciono obracające talerze, ramię odczytu/zapisu odpowiedzialne za odczyt i zapis danych oraz siłownik do sterowania działaniami ramienia odczytu/zapisu. Prędkość obrotowa dysku (RPM), podawana w obrotach na minutę, określa, jak szybko można odczytywać lub przechowywać dane na zewnętrznym dysku twardym. Zalety: Kompaktowe wymiary i duża pojemność pamięci, nawet do 8 choć najczęściej dużo większe i cięższe niż pendrive’y USB i karty porównaniu do dysków SSD są tańsze i oferują większą pojemność pamięci HDD wielu marek wyposaża się w protokoły bezpieczeństwa, które chronią przed utratą i uszkodzeniem dyski twarde mogą mieć także funkcje szyfrowania dyski mają też opcję ładowania przez kabel USB i łączność Wi-Fi. Wady: Z uwagi na ruchome części, dyski mogą powodować szumy czy wręcz użytkowanie może prowadzić do przegrzania nośnika prędkości odczytu i zapisu niż dyski typu Solid-State je uszkodzić przy uderzeniach czy upadkach, więc wymagają obudowy celu podłączenia do urządzenia zewnętrznego dysk wymaga zasilania i względu na niewielkie wymiary nośnika trzeba liczyć się z ryzykiem jego kradzieży. Zewnętrzne dyski SSD Zewnętrzne dyski SSD od zewnętrznych dysków twardych różnią się wydajnością. Dyski SSD są zdecydowanie szybsze niż zewnętrzne dyski twarde, ale są drogie i oferują mniejszą pojemność pamięci masowej w tej samej cenie. Te nieulotne pamięci nie składają się z żadnych ruchomych części, a zamiast tego mają małe tranzystory bramkowe sterowane impulsami elektrycznymi. Procesy odczytu/zapisu są zarządzane przez wbudowane procesory podobne do tych w pamięciach USB. Zalety: Większa szybkość transferu niż w zewnętrznych dyskach twardych względu na brak elementów mechanicznych są bardziej kompaktowe i wytrzymałe niż dyski zewnętrzne SSD nie generują szumów podczas bardziej odporne na przegrzewają się w takim stopniu jak dyski mniej prądu niż zewnętrzne dyski SSD wyposaża się w zabezpieczenia danych podobne do tych stosowanych w dyskach HDD. Wady: Mniejsza pojemność w tej samej cenie w porównaniu z zewnętrznymi dyskami twardymi odpowiednich cenach dostępne są także wyższe przypadku awarii dysku SSD może się okazać, że nie uda się odzyskać danych. Przegląd przenośnych urządzeń do przechowywania danych cyfrowych IW poniższej tabelce znajdziesz krótkie zestawienie informacji na temat zewnętrznych urządzeń pamięci masowej. UrządzeniePojemnośćKosztŁącznośćZaletyZastosowaniekarty pamięcido 128 GB (karty SDUC)dostępne opcje budżetowewymagane kompatybilne gniazdo kart pamięci albo czytnik kart• mały rozmiar• kompatybilnośćł• atwość obsługi• ochrona zapisuGłównie fotografia i wideografia. Także do rozszerzania pamięci urządzeń smart – na przykład tabletów i USB do 1 TB (rzadko)dostępne opcje budżetowełączność plug-and-play z kompatybilnymi portami USB w urządzeniach hostach i urządzeniach OTG (On-the-Go)• małe rozmiary i różnorodność kształtów• świetny gadżet promocyjny• dostępne opcje szyfrowania• funkcja Plug-and-Play • kompatybilnośćPoza codziennym użytkiem, pamięć USB nadaje się do instalacji systemu operacyjnego. Pendrive z szyfrowaniem nadaje się do przechowywania poufnych dysk twardy HDDdostępne pojemności rzędu wielu terabajtówraczej wyższa cena niż pendrive USB czy karta pamięciwymaga zewnętrznego źródła zasilania oraz kabla USB do podłączenia do urządzenia hosta• duża pojemność• wygoda transportu• idealny do kopii zapasowych i dużych ilości danych• dostępne opcje szyfrowania sprzętowego i programowegoIdealny do przechowywania danych w środowisku biznesowym. Oferuje ogromną pojemność w swojej cenie. Doskonałe rozwiązanie dla fotografów i dysk SSDdostępne pojemności rzędu wielu terabajtówdroższy niż przenośny dysk HDDwymaga kabla USB do zasilania i przesyłania danych• wysoka prędkość transferu• kompaktowa forma• cicha praca• trwałośćIdealny do bezpiecznego przechowywania danych. Świetny w przypadku konsoli do gier z uwagi na szybką reakcję. Jakie są wiodące marki producentów nośników pamięci? Chociaż dostępnych jest wiele przenośnych urządzeń pamięci masowej, które pasują do różnych budżetów, kupowanie od renomowanej marki to gwarancja niezawodności i wydajności produktu. Poniżej przedstawiamy listę zaledwie kilku z popularnych marek na rynku urządzeń pamięci masowej. SanDiskToshibaSamsungKingstonTranscendWestern DigitalLexarPanasonic Jak zminimalizować ryzyka związane z korzystaniem z urządzeń pamięci masowej? Wygoda korzystania z przenośnych urządzeń pamięci masowej czyni je idealnym sposobem przenoszenia i udostępniania danych. Ponieważ urządzenia te są często używane z różnymi systemami informatycznymi i urządzeniami hosta, zawsze istnieje ryzyko uszkodzenia danych, kradzieży i innych potencjalnych problemów. Mamy dla Ciebie kilka zaleceń. Stosując się do nich, wydatnie zmniejszysz ryzyko związane z używaniem wszelkiego typu nośników pamięci masowej: Ogranicz korzystanie z nośników pamięci masowej czy zewnętrznych systemów, które nie są Ci dobrze pracy z własnymi urządzeniami i systemami polegaj wyłącznie na zaufanych urządzeniach pamięci funkcje automatycznego uruchamiania i automatycznego odtwarzania dla urządzeń korzystaj z oprogramowania antywirusowego i skanuj urządzenia pamięci masowej przed ich z funkcji zabezpieczenia hasłem lub innych form szyfrowania i zabezpieczenia przechowuj nośniki pamięci. Unikaj wystawiania ich na działanie skrajnych temperatur, wody i siły nie przechowuj danych służbowych i osobistych na tym samym nośniku pamięci. Dane w ruchu Teraz, gdy już wiesz, czym jest nośnik danych w formie karty SD, dowiedziałeś się więcej o zewnętrznych dyskach twardych i przekonałeś się, dlaczego pendrive’y stanowią idealne rozwiązanie do codziennego użytku, używaj przenośnych urządzeń pamięci masowej do wielu nowych, ekscytujących zadań. Znając zalety i wady przenośnych urządzeń pamięci masowej, jesteś w stanie mądrze zdecydować, jakiego gadżetu potrzebujesz do swojego laptopa i innych sprzętów. Szukasz najlepszego nośnika pamięci masowej na swoją kieszeń? Potrzebujesz nośników pamięci o wysokiej prędkości przesyłu danych do swojego komputera? Czegokolwiek poszukujesz, pomożemy Ci znaleźć coś w sam raz dla Ciebie. Zapraszamy do kontaktu. Z nami odkryjesz szeroki asortyment przenośnych urządzeń pamięci masowej oraz innych praktycznych gadżetów i dodatków!
Po osiągnięciu pojemności pamięci masowej każdej jednostce nadawana jest nowa nazwa. Nie należy zapominać o korzyściach płynących ze zrozumienia jednostek pamięci masowej w firmie. Pozwala to na efektywne skalowanie, być może przejście z wewnętrznych dysków twardych na oprogramowanie do przechowywania danych w chmurze po
Dysk SSD czy eMMC? Opisujemy różnice między nośnikami. Doradzamy, które rozwiązanie lepiej się sprawdzi w laptopie. Producenci komputerów coraz bardziej odchodzą od tradycyjnych dysków twardych HDD, a coraz częściej stosują nowszą pamięć flash – czy to w postaci nośnika SSD czy też pamięci eMMC. Czym różnią się obydwa rozwiązania?Czym różni się dysk SSD od eMMC?W odróżnieniu od tradycyjnych dysków twardych, obydwa nośniki bazują na pamięci półprzewodnikowej. Mamy tutaj do czynienia z pamięcią NAND, gdzie dane są przechowywane w tzw. komórkach pamięci. Możemy więc liczyć na wyższą wydajność (szczególnie przy operacjach na małych plikach), a przy tym większą odporność na uszkodzenia mechaniczne oraz całkowicie bezgłośną eMMC ma postać układu lutowanego bezpośrednio na płytce drukowanej (bez możliwości wymiany)Różnice między eMMC i SSD sprowadzają się do budowy nośnika. W pierwszym przypadku mamy do czynienia z układem montowanym bezpośrednio na płytce drukowanej, w którym od razu zintegrowano pamięć flash i kontroler pamięci. Budowa dysku SSD jest bardziej skomplikowana – producenci stosują tutaj kilka układów pamięci i zewnętrzny kontroler, a całość ma postać nośnika podłączanego do złącza SATA, SATA lub eMMC vs SSD eMMC vs SSD - porównanie wydajności pamięci eMMC (po lewej) i dysku SSD (po prawej)Z uwagi na różnice w budowie, nośniki oferują inne parametry. Pamięć eMMC ma pojemność maksymalnie 128 GB (zwykle jest to 32 lub 64 GB), a oferowane transfery zwykle sięgają około 150/100 MB/s odpowiednio dla odczytu i zapisu oferują dużo lepsze parametry, bo ich pojemność wynosi nawet 2 TB w przypadku nośników i 4 TB w przypadku dysków SATA. Wydajność też jest dużo lepsza, bo w przypadku modeli z interfejsem SATA może sięgać 550/500 MB/s, a w przypadku topowych konstrukcji pod PCIe jest to nawet 3500/2500 MB/ z SSD i laptop z eMMCObydwa rozwiązania sprawdzą się w różnych scenariuszach. Pamięć eMMC zwykle znajdziemy w tańszych laptopach, które zostały zaprojektowane z myślą o codziennych zastosowaniach. Użytkownicy nie powinni tutaj aż tak odczuwać mniejszej pojemności i słabszych osiągów nośnika. W niektórych konstrukcjach można jednak dołożyć tradycyjny dysk SSD (dobrym przykładem jest model Kiano Elegance SSD możemy wymienić na szybszy i/lub pojemniejszy modelDysk SSD do bardziej uniwersalne rozwiązanie, które można spotkać w najróżniejszych konstrukcjach - począwszy od podstawowych laptopów do domu, przez wydajne modele do grania, a skończywszy na mobilnych stacjach roboczych. Sporym atutem jest tutaj możliwość wymiany nośnika na szybszy i/lub pojemniejszy inf. własna Program ma : wczytywać podawane przez użytkownika znaki aż do momentu wciśnięcia "0". Następnie zapisywać te znaki do pliku. Ma również zliczać ile razy pojawiła się litera "a" #include
Nie taka Chia zielona, jak ją malująOstatnio coraz głośniej o Chia. Nowa kryptowaluta wzbudza olbrzymie zainteresowanie na rynkach azjatyckich, ale też – coraz bardziej – w Europie. Trudno się dziwić, w odróżnieniu od takiego Bitcoina czy Ethereum nie korzysta z olbrzymiej mocy obliczeniowej ultrawydajnych kart opiera się na technice Proof of Space & Time, więc dla niej hardware’owo najważniejsze są pojemne dyski SSD i HDD. Co za tym idzie, do kopania kryptowaluty potrzeba znacznie mniej energii elektrycznej niż w przypadku wspomnianych już BTC i ETH. Stąd do Chia szybko przylgnęła łatka „ekologicznej” lub „zielonej” na temat Chia przeczytasz w tekście:Chia – nowa kryptowaluta, stare problemy. Tym razem na rynku może zabraknąć dysków SSD i HDDNiedługo musieliśmy czekać na informacje o tym, że wcale tak ekologicznie z Chia nie jest. Kryptowaluta bowiem powoduje liczne awarie dysków, szczególnie SSD, które kiepsko reagują na obciążenia związane z „kopaniem”. Dyski padają jak muchyO problemach poinformował chiński serwis technologiczny MyDrivers. Z przygotowanego przezeń raportu możemy dowiedzieć się, że standardowe dyski SSD o pojemności 256 GB wytrzymują z trudem 40 dni. Analogicznie, w przypadku nośników 512 GB, jest to około 80 dni, a terabajtowe dyski padają średnio co 160 zauważyć korelację między pojemnością nośnika, a jego żywotnością w kontekście wydobywania Chia. Pokrywa się to z faktem, iż w „kopaniu” kryptowaluty większe znaczenie ma miejsce na dysku, a nie jego wydajność. Stąd też renesans popularności, tańszych jak dotąd, dysków HDD, których, tak jak SSD, już zaczyna brakować. Czy to koniec Chia?Raczej koniec swobody konsumenckiej w wyborze dysków. Niedobory pamięci masowej są już odczuwalne na rynku europejskim, szczególnie gdy mowa o nośnikach o pojemności 4 TB i większych. Biorąc pod uwagę utrzymujące się problemy z dostępnością kart graficznych, które skupują górnicy innych kryptowalut, niedługo złożenie wydajnego desktopa może stanowić wyzwanie rzędu „mission impossible”. O ile już nie Phison – firma produkująca kontrolery SSD dla niektórych z dzisiejszych najszybszych dysków SSD PCIe – prognozuje, że w najbliższych tygodniach doświadczymy 10-procentowego wzrostu cen na urządzenia pamięci masowej. Nie to jednak stanowi największy problem, ale fakt, że zapasy produktów są bardzo ograniczone, a górnicy nie zwalniają tempa. Co ciekawe, sytuacja dotknie też rynek konsol; kontrolery SSD od firmy Phison znajdują się bowiem w Xboksach serii X i Phison, KS Pua, sugeruje, że obecna sytuacja na świecie, związana z pandemią COVID-19 i niedoborem chipów, spowoduje ograniczoną podaż kontrolerów SSD przez cały 2022 rok, a może nawet kryptowalutowego szaleństwa nie widać…Źródła: techpowerup, materiały własne
Na końcu nie można zapomnieć o pamięci masowej. Ta, choć jest zdecydowanie najwolniejsza, ma kluczowe zastosowanie w magazynowaniu dużej ilości informacji. Pamięć ROM. O pamięci tylko do odczytu można mówić godzinami, jednak ja postaram się streścić jej podstawowe założenia do jedynie paru akapitów. W najbliższym roku nie będziemy świadkami wprowadzania nowych technologii pamięci masowych, które mogłyby mieć duże znaczenie. Zamiast tego będziemy obserwować popularyzację i udoskonalanie stosowanych standardów. W najbliższym roku nie będziemy świadkami wprowadzania nowych technologii pamięci masowych, które mogłyby mieć duże znaczenie. Zamiast tego będziemy obserwować popularyzację i udoskonalanie stosowanych standardów. Postęp w technologiach pamięci masowej i wdrożenie nowinek postępuje znacznie wolniej, niż w przypadku procesorów czy kart graficznych. Od wstępnej koncepcji do przyjętego standardu i produktów na rynku upływa czasem nawet kilka lat. Później produkty dojrzewają, zostają udoskonalone, stają się szybsze, bardziej pojemne, ale w swoich założeniach wciąż podobne do modeli sprzed kilku lat. Tego właśnie będziemy świadkami w 2004 roku. Trend 1. Nagrywarki DVD +/-R/RW Nagrywarki DVD, dzięki spadającym cenom i obsłudze wielu formatów, podbiją ostatecznie w 2004 roku rynek. Nagrywarki CD-R/RW to już przeszłość! Wniosek to może jeszcze nieco zbyt śmiały, ale w perspektywie kilkunastu miesięcy bliski prawdy. Co nas skłania do tego twierdzenia? Prosta prawda, że lepsze jest wrogiem dobrego, a lepsze są nagrywarki DVD, które jednocześnie potrafią nagrywać płyty CD. Urządzenia tego typu są na rynku już od pewnego czasu, ale dopiero teraz ich sprzedaż powinna wzrosnąć z kilku powodów. Pierwszym jest, oczywiście, spadek cen. Najtańsze modele można kupić już za 700 zł, podczas gdy na początku roku kosztowały około 2500 zł. Współczujemy wszystkim, którzy w poszukiwaniu nowinek tak bardzo przepłacili. Po drugie, coraz więcej nagrywarek obsługuje co najmniej dwa formaty, najczęściej ze znaczkiem + oraz -. Zgodność tylko z jednym formatem, przy braku ostatecznego, dominującego standardu, powstrzymywała wiele osób przed zakupem starszych nagrywarek. Możliwość wyboru jednego z dwóch daje praktycznie pewność, że nagrane płyty będzie można na przykład odtworzyć w prawie każdym stacjonarnym odtwarzaczu DVD. I wreszcie - nagrywanie płyt CD osiąga poziom zbliżony do tego, który znamy z samodzielnych nagrywarek CD-R/RW. Pojawiły się już pierwsze modele nagrywarek DVD, które płyty CD wypalają z prędkością x40. W takim wypadku kupowanie oddzielnej nagrywarki CD przestaje mieć sens, a zaoszczędzone pieniądze można przeznaczyć na zakup bardziej zaawansowanego urządzenia. W tej chwili najszybsze modele nagrywają płyty typu R z prędkością x4, a płyty RW z prędkością x2,4. Wszystkie znaki na niebie i ziemi wskazują jednak, że już na początku nowego roku w sprzedaży pojawią się modele x8, które całą płytę typu R będą mogły nagrać w ciągu mniej więcej 10 minut! Oznacza to, że przyszłość tego typu urządzeń rysuje się w różowych barwach i zapewne podążać będą taką samą ścieżką, jak wcześniej napędy CD-ROM, nagrywarki CD i napędy DVD. A to oznacza, że za mniej więcej 3 lata nagrywarka DVD powinna kosztować zaledwie 200-300 zł. Trend 2. USB Stick Najpierw było o dużych pojemnościach, teraz będzie o mniejszych, ale niezwykle użytecznych. Pamięci USB Stick (typu flash, podłączane przez USB) rozpoczęły podbój rynku! Stanowią idealny wymiennik dyskietki, która nie ma już racji bytu. Popularne modele mają pojemności od 32 do 256 MB i coraz częściej zgodne są ze standardem USB dzięki czemu transfer danych odbywa się błyskawicznie. Lista potencjalnych zastosowań tego typu pamięci jest bardzo długa i wcale nie ogranicza się do przenoszenia plików. Fantastycznych pomysłów w tym zakresie powstaje bardzo wiele, część z nich ma charakter rozszerzeń sprzętowych, część zaś polega na inteligentnym wykorzystaniu oprogramowania. Przykłady można mnożyć. Pierwszym z brzegu jest hybryda - odtwarzacz MP3 i USB Stick w jednym, czyli MuVo firmy Creative. Może działać jak typowa przenośna dyskietka, ale po dołożeniu drugiego modułu zamienia się w wygodny miniaturowy odtwarzacz. Miniaturowy aparat cyfrowy zintegrował z USB Stickiem Philips. Od strony programowej dostępne są na przykład specjalne dystrybucje Linuksa z bogatym pakietem przydatnych narzędzi, które można uruchamiać bezpośrednio z USB Sticka. Firma IOmega przygotowała bogaty pakiet zmodyfikowanych programów, które uruchamiają się bezpośrednio z USB Stick, bez instalacji. Są wśród nich narzędzia biurowe, internetowe i wiele innych. Trend 3. Serial ATA Dyski Serial ATA nie są wprawdzie dużo szybsze niż obecne dyski IDE, ale wygodniejsze w montażu i mają dużo większy potencjał na przyszłość. W 2004 roku dyski Serial ATA powinny już dominować w sprzedaży. Od kilku miesięcy praktycznie wszystkie płyty główne są już wyposażone w odpowiednie kontrolery, a dodatkowy kontroler IDE tylko niepotrzebnie podnosi cenę płyty głównej. Naszym zdaniem, przełom nastąpi wraz z wprowadzeniem chipsetów Grantsdale i magistrali PCI Express. Będzie to moment, w którym wiele starych technologii zostanie odesłanych do muzeum, a wśród nich właśnie dyski IDE. Trend 4. Ku terabajtom Kilka lat temu informacja, że jakiś potężny system komputerowy wyposażony jest w pamięć dyskową liczoną w terabajtach, mogła wywoływać zdumienie. Tymczasem dzisiaj standardem stają się dyski powyżej 100 GB, a za nieco powyżej 1000 zł można kupić dysk 200 GB. Biorąc pod uwagę, że niektóre płyty główne pozwalają podłączyć nawet 12 twardych dysków, a standardem jest sześć, oznacza to, że możesz mieć w komputerze bez trudu (a jedynie ponosząc pewne koszty) nawet ponad 2 TB powierzchni dyskowej. Trendy w pigułce Zalety Serial ATA - coraz bardziej uniwersalne i coraz bardziej pojemne nośniki pamięci masowych. Wady Dyski IDE - niech spoczywają w spokoju. Firmy potrzebują rozwiązania zapewniającego niezawodne kopie zapasowe i zapobiegające uszkodzeniu plików. Nowej generacji system plików Btrfs zapisuje dwie koopie krytycznych metadanych na wolumenie, zapewniając wysoki poziom integralności danych, a jednocześnie wykorzystując elastyczne, efektywne narzędzia do ochrony i przywracania danych. Odpowiedzi EKSPERTdark24 odpowiedział(a) o 19:07 NOŚNIKI ZEWNĘTRZNEZainstalowana w komputerze pamięć operacyjna, nie jest w stanie pomieścić wszystkich danych, programów i wszystkich innych plików, jakie są nam potrzebne do pracy. Kolejnym mankamentem jest jej ulotność. Pamięć taka jest wykorzystywana w trakcie pracy z komputerem, gdy mamy włączone zasilanie. Natomiast po wyłączeniu komputera, czy zaniku zasilania, wszystkie zapisane w niej informacje, podlegają kasowaniu. Rozwiązaniem jest stosowanie nośników zewnętrznych - zewnętrznych pamięci wiele rodzajów nośników danych, różniących się wyglądem pojemnością itp. Każde z nich wymaga odpowiedniego urządzenia do pracy, i najczęściej nie są to urządzenia w żaden sposób kompatybilne ze sobą pod względem tabelka przedstawia nazwy nośników i urządzenia służące do ich nośnikaUrządzenie obsługującetaśma magnetycznamagnetofon kasetowy, streamerdyskietka magnetyczna 3,5" - DD,HD,2HDo pojemności: 1,44 MB, 2,88 MB, 720 kB do 2,88 MBstacja dysków FDD stacja dysków FDDdyskietka magnetyczna 5,25"o pojemności 360 kB do 1,2 MBstacja dysków FDD 1,2 MBdyskietka magnetyczna typu ZIPnapęd ZIP do 2,5 MBdyski magnetyczne o pojemnościach od ok. 100 MB (pojemności tego rzędu obecnie są już historią) do ponad 300 GBdysk twardy HDDdyski optyczne-CD od 190 do 870 MBczytnik CD-ROM, urządzenia do zapisu CDdyski optyczne-DVD - od 4,7 do 16 GBczytnik DVDdyski HD_DVD i BDczytnik HD_DVD / BD Uważasz, że ktoś się myli? lub Karta magnetyczna – karta, w której nośnikiem danych jest warstwa materiału magnetycznego. Odczyt danych odbywa się przez przeciągnięcie karty w czytniku reagującym na zmiany pola magnetycznego. Karty magnetyczne stosowane są od 1972 roku. Fizyczne właściwości karty jak wymiary, giętkość, lokalizacja paska magnetycznego i jego
Pojemność dysku jaką posiada sprzęt komputerowy nie zawsze jest w stanie pomieścić wszystkie dane, pliki czy nawet oprogramowania, z których często korzystamy. W takiej sytuacji jedynym rozwiązaniem jest ich zapisanie na zewnętrznych nośnikach pamięci. W dobie niezwykle szybkiego rozwoju technologicznego na rynku branży komputerowej oferowane są różnego rodzaju urządzenia pełniące rolę pamięci zewnętrznej. Tego rodzaju nośniki pozwalają zarówno na zapis jak i odczyt olbrzymich ilość różnego rodzaju danych na dowolnym urządzeniu wyposażonym w specjalnie do tego celu dedykowany slot. Rodzaje zewnętrznych nośników pamięci: Płyty CDW dobie rozbudowanej oferty rynku branży elektronicznej klasyczne płyty CD w dalszym ciągu stanowią jego ważny segment i cieszą się dużym zainteresowaniem. Najczęściej znajdują zastosowanie do zapisywania mniej istotnych bądź rzadziej używanych plików. Warto pamiętać, że można je szybko uszkodzić nawet przez niewielkie zrysowanie powierzchni. W aktualnej ofercie sprzedaży dostępne są płyty CD o pojemności od 650 do 900 MB. Użytkownicy mają do wyboru płyty CD w wersji R, która oznacza możliwość jednorazowego zapisania danych oraz wersji RW co wiąże się z możliwością wyczyszczenia zapisanych danych i nagrania nowych. Płyty DVDKolejnym, znanym i popularnym zewnętrznym nośnikiem danych są płyty DVD. Posiadające 4,75 GB pojemności płyty dostępne są w sprzedaży aż w trzech wersjach. Klasyczna z symbolem R przeznaczona jest do jednorazowego zapisania danych. DVD RW pozwala na wyczyszczenie wcześniej zapisanych plików i zapisanie na płycie nowych plików. Z kolei płyty dostępne w wersji DVD R DL posiadają aż dwie warstwy zapisu co w efekcie zwiększa ich pojemność do ponad 8 GB. Płyty Blu-ReyPłyty Blu-Rey to zewnętrzne nośniki pamięci, które dzięki zastosowaniu niebieskiego lasera charakteryzuje znacznie zwiększona w stosunku do płyt CD i DVD gęstość zapisu. Pojemność tego rodzaju nośników oscyluje w granicach od 25 GB i sięgać może nawet do kilkuset GB. Najczęściej znajdują zastosowanie jako zewnętrzny nośnik plików video zapisanych w rozdzielczości Full HD. PnedrivePendrive to najbardziej znana i popularne wśród użytkowników sprzętu komputerowego pamięć zewnętrzna. Zastosowanie pamięci typu Flash dało możliwość stworzenia niezwykle małego, szczelnie zamkniętego i odpornego na wszelkiego rodzaju uszkodzenia urządzenia, które bez problemu zmieści się w kieszeni spodni, portfelu, torebce lub w bezpieczny sposób dla zapisanych danych będzie pełnić rolę ozdobnego breloczka. Łączność pomiędzy tego rodzaju nośnikiem pamięci zewnętrznej, a sprzętem komputerowym zapewnia port USB. W ofercie rynkowej znaleźć można pendrive o pojemności od 4 do 64 a nawet więcej GB, które obsługiwane są przez porty USB klasy 3,0. Zastosowanie portów USB klasy 3,0 gwarantuje bardzo szybki transfer danych co jest olbrzymią zaletą w przypadku kopiowania bądź odtwarzania dość dużych plików. Dyski zewnętrzneRolę zewnętrznych nośników pamięci pełnią również dyski zewnętrzne. Najczęściej spotkać można dyski klasy HDD 3,5 bądź 2,5 których obudowa wyposażona jest w port USB. W ofercie sprzedaży dostępne są również zewnętrzne dyski SSD, które charakteryzuje zdecydowanie większa szybkość transferu danych, większa wytrzymałość na uszkodzenie oraz bezgłośna praca. Ze względu na dość wysoką cenę ten rodzaj zewnętrznych nośników w dalszym ciągu dostępny jest jedynie dla kieszeni wciąż nie licznej grupy użytkowników. Karty pamięciRolę zewnętrznych nośników pamięci pełnią również specjalne karty pamięci. Rodzaj karty pamięci uzależniony jest od urządzenia, z którym mają współpracować. W przypadku aparatów i kamer cyfrowych zalecane jest zastosowanie kart SD, do smartfonów karty micro SD, a CompactFlash doskonale współpracują z aparatami cyfrowymi. Serwery NASZewnętrznymi nośnikami pamięci są również serwery NAS. Ich zadaniem jest zdalny dostęp do danych, które zostały zapisane i są przechowywane na dyskach przy wykorzystaniu sieci internetowej. Charakteryzuje je bardzo wysoka, bo sięgają kilka TB pojemność. Najczęściej znajdują zastosowanie do przechowywania kopii zapasowych. Jeśli potrzebujesz zewnętrznych nośników danych zapraszamy do sklepu internetowego:
Prosze pomużcie musze to zrobić w programie python -Po uruchomieniu deklarujemy ilość liczb, które będą sumowane, następnie podajemy te liczby, a program sumuje tylko te, które są podzielne przez 2.

Nie tak dawno na rynku pojawiły się pamięci masowe all-flash. Jednak apetyt na przyspieszanie biznesu, szybszą analizę danych i reagowanie na potrzeby klientów jest nieograniczony. Dzisiaj technologia all-flash nie jest już dostatecznie wydajna. Nową generację innowacji napędzają moduły Storage Class Memory. Czym powinna charakteryzować się nowoczesna pamięć masowa? Powinna być prosta a zarazem wykonywać za użytkownika część zadań, bazujących na algorytmach sztucznej inteligencji. Powinna być także uniwersalna a przy byłoby dobrze, gdyby oferowała wszystkie funkcje w cenie zakupu – co oznacza, że nie ma konieczności dokupowania dodatkowych licencji w miarę powstawania nowych potrzeb. Przede wszystkim jednak nowoczesna pamięć masowa musi być szybka. Jedną z kluczowych innowacji, które napędzają rozwój pamięci masowej jest technologia jest Storage Class Memory (SCM). „Storage Class Memory to nowa klasa pamięci trwałych. Wydajnościowo zbliżonych do pamięci DRAM a pod względem trwałości i kosztu zbliżona do pamięci NAND. To pamięć szybka, a przy tym stosunkowo niedroga. Doskonale nadaje się do nowoczesnych macierzy dyskowych” – powiedział Wojciech Kozikowski, Solution Architect HPE Storage opowiadając o inteligentnych pamięciach masowych podczas warsztatu technicznego na HPE Discover More Warsaw 2019. Storage Class Memory zapewnia ogromne przyspieszenie. Czas odpowiedzi może sięgać 0,01 ms. Dla porównania klasyczne pamięci SAS SSD oferują czas odpowiedzi ponad 10 krotnie dłuższy, na poziomie 0,115 ms a dyski SSD NVMe zapewniają jedynie nieznacznie lepsze wyniki – 0,095 ms. Przy tym nie są to jedynie teoretyczne zyski. Wojciech Kozikowski pokazywał, że w przypadku bazy danych Oracle, tzw. I/O wait jest krótszy o ok. 38%. Jeśli chodzi natomiast o przetwarzanie danych w bazie Oracle, to jest ono szybsze w przypadku pamięci HPE 3PAR z modułem SCM w stosunku do macierzy all-flash o blisko 19%. SCM już jest – dla wszystkich HPE jest jedną z pierwszych firm, która wprowadziła na rynek rozwiązanie z modułem SCM i protokołem NVMe. Pod koniec 2018 r. firma zaprezentowała dwa rozwiązania z modułami SCM. To wspomniana wcześniej macierz HPE 3PAR oraz pamięć HPE Nimble. HPE 3PAR to jedyna macierz na rynku ze wszystkimi aktywnymi kontrolerami i najniższym przewidywalnym czasem odpowiedzi dla aplikacji krytycznych. Oferuje przy tym przyspieszenie rzędu 50% w porównaniu do tradycyjnych macierzy dyskowych NVMe all-flash. W 2017 r. HPE przejęło Nimble Storage, firmę która ma ponad 10 lat doświadczeń w budowaniu rozwiązań cache. Dzięki modułowi SCM technologia Nimble jest teraz w stanie zapewnić ekstremalną wydajność – nawet o połowę krótszy czas odpowiedzi w porównaniu do macierzy dyskowych all-flash. Cyfrowa transformacja wymaga zastosowania pamięci masowej, której możliwości wykraczają poza tradycyjne konstrukcje all-flash. Niektóre współczesne obciążenia wymagają ekstremalnie niskich opóźnień, inne – bardzo wysokiej przepustowości i wydajności. Co niezwykle istotne użytkownicy wcześniejszych rozwiązań HPE 3PAR oraz Nimble mogą wykorzystać moduły SCM w posiadanych produktach. Ich upgrade nie wymaga żadnych dodatkowych zabiegów i nie wiąże się z żadnym ryzykiem.

Pamięć USB. Dyski flash USB, znane również jako PenDrives, to urządzenia pamięci masowej półprzewodnikowe o pojemności od 1 GB do 1 TB. Pendrive'y stały się obecnie najczęściej używanymi urządzeniami pamięci masowej do przenoszenia danych z jednego miejsca do drugiego.
LaCie Little Big Disk: pierwszy zewnętrzny dysk ze złączem Thunderbolt. Prawie rok po premierze cudownego złącza Apple’a Thunderbolt (alias Lightpeak) urządzeń w nie wyposażonych wciąż jest niewiele. Chociaż teoretycznie jest ono dwa razy szybsze od popularnego obecnie USB jednak bardzo niewielu producentów zdecydowało się dotychczas na jego implementację. Nic dziwnego, bo port Thunderbolt mają jak na razie tylko aktualne komputery Apple’a jak na przykład MacBook Pro i Air czy też iMac. LaCie, wypuszczając Little Big Disk, robi w tej dziedzinie krok do przodu. Ten zewnętrzny dysk jest dostępny w dwóch wersjach HDD – z pojemnościami 1 i 2 TB – oraz w przetestowanym przez nas wariancie SSD o pojemności 240 GB, który składa się z dwóch napędów Intel SSD 510 (SSDSA2CW120G3) połączonych w macierzy RAID 0. Jego cena, wynosząca około 3500 zł, nie stanowi powodu do dumy. Dodatkowe 200 zł trzeba wyłożyć na kabel Thunderbolt. Kompaktowy, ale głośny We wszystkich trzech wersjach urządzenia Little Big Disk firma LaCie wykorzystała tą samą obudowę ze żłobkowanego aluminium, posiadającą wbudowany wentylator. Ma to uzasadnienie, ponieważ obudowa służy za pasywny radiator a sam wentylator wytwarza dodatkowy pęd powietrza. SSD-eki nie potrzebują aktywnego chłodzenia, a tutaj aktywny jest szybko wirujący wiatrak, co jest zwyczajnie denerwujące. Ponieważ urządzenia Thunderbolt są zawsze połączone szeregowo, Little Big Disk posiada dwa porty Thunderbolt oraz zewnętrzny zasilacz. LaCie Little Big Disk: po jednym porcie Thunderbolt – do połączenia z Mac-iem oraz dalszej komunikacji z następnym urządzeniem. Tak testowaliśmy Jako urządzenia docelowego użyliśmy do testu 13,3-calowego MacBook-a Air z procesorem Core i7-2677M, pamięcią operacyjną o pojemości 4 GB oraz dyskiem SSD o pojemności 256 GB. Podłączyliśmy do niego testowane urządzenie i zanotowaliśmy 530 MB/s podczas odczytu i 265 MB/s podczas zapisu przy użyciu przewodu Thunderbolt – to bardzo szybko. Ponieważ z technicznego punktu widzenia jest to ciekawostka, nie umieszczamy wersji SSD dysku LaCie Little Big Disk w rankingu z normalnymi, zewnętrznymi dyskami 3,5 cala, jednak porównanie wyników pomiarów pokazuje, że jest on znacznie szybszy niż wszystkie dotychczasowe dyski twarde wyposażone w złącza USB oraz eSATA. W porównaniu z jak na razie jedyną alternatywną pamięcią masową z portem Thunderbolt – Promise Pegasus R6 – sprawa wygląda jednak już inaczej. Bez względu na to, czy jest to odczyt czy zapis, czy są to dyski twarde, czy SSD-eki, macierz RAID Pegasus R6 bije LaCie Little Big Disk pod każdym względem. Jest on jednak znacząco droższy (od 4500 zł). Porównanie wyników pomiarów Model Odczyt Zapis LaCie Little Big Disk (2 x SSD) 530 MB/s 265 MB/s Promise Pegasus R6 (6 x HDD) 745 MB/s 745 MB/s Promise Pegasus R6 (4 x SSD) 569 MB/s 746 MB/s Promise Pegasus R6 (2 x SSD) 799 MB/s 751 MB/s Podsumowanie Lacie Little Big Disk jest bardzo szybką i drogą ciekawostką wśród napędów. Kto szuka dysku dla portu Thunderbolt, nie przejdzie koło niego obojętnie. Nie, ponieważ jest on wyjątkowo dobry, ale dlatego, że jak na razie po prostu nie ma innych dysków ze złączem Thunderbolt. Do tego trzeba znosić niepotrzebny hałas. Radzimy Wam ostatecznie jeszcze się wstrzymać, aż na rynku pojawią się konkurencyjne modele ze złączem Thunderbolt. Alternatywa Jako że port Thunderbolt jest dostępny na razie tylko w środowisku Apple i oprócz LaCie Little Big Disk nie ma jeszcze innych napędów z Thunderbolt-em, prawdziwej alternatywy nie ma. Najlepszym zewnętrznym dyskiem dla Mac-ów byłby oferujący szybkie transfery Seagate FreeAgent GoFlex Desk STAC3000201 3TB. Podłączony do FireWire 800 osiąga w naszych testach ponad 100 MB/s, oferuje 3 TB pamięci masowej, ma wymienny interfejs (zapowiedziano również Thunderbolt) i sprzedawany jest od 1300 zł. LaCie Little Big Disk Bardzo szybki, drogi i głośny dysk zewnętrzny ze złączem Thunderbolt. PLUSY: Bardzo szybki Wysokiej jakości aluminiowa obudowa MINUSY: Tylko dla złącza Thunderbolt Głośny wentylator Brak w ofercie kabla Thunderbolt Cena: 3500 zł Powiązane treści: Dyska zewnętrzny 500GB – jaki wybrać?
W porównaniu do starożytnych psów, współczesne rasy, które rozwinęły się w ciągu ostatnich 150 lat, mają większe czaszki w stosunku do wielkości ciała. Wilki nadal mają większe mózgi od psów, ale jak widać, udomowione czworonogi również nie stoją w miejscu. Nie jest to stały trend. Zapewnienie efektywną i zoptymalizowaną wydajność pamięci masowej dla środowisk wirtualnych może być trudne do osiągnięcia, ponieważ jest wiele elementów w stosie infrastruktury, które muszą ze sobą współgrać. Pamięć masową o optymalnej wydajności dla środowiska wirtualnego można dobrać przy pomocy zestawu wskaźników, które są wykorzystywane do pomiaru operacji wykonywanych w środowiskach wirtualnych. Wyróżniamy trzy kluczowe wskaźniki wydajności, które są wspólne dla wszystkich środowisk: opóźnienie (czas dostępu, czas reakcji), przepustowość (pasmo) i IOPS. Opóźnienie określa czas potrzebny do ukończenia jednej operacji I/O (wejścia wyjścia) i jest w istocie miarą tego, jak szybko pamięć masowa reaguje na zapytania odczytu lub zapisu danych. Mierzona wartość jest przedstawiana w milisekundach, obecnie ten parametr w najszybszych dyskach SSD, jakie są dostępne na rynku, jest na poziomie ułamków milisekund. W idealnym środowisku parametr opóźnienia byłby równy zero, co skutkowałoby tym, że operacje odczytu i zapisu na dyski twarde pamięci masowej nie miałyby wpływu na jej wydajność. Ponieważ fizycznie jest to nie możliwe to każda operacja I/O obarczona jest pewnym opóźnieniem. Największym wyzwaniem dla każdej pamięci masowej jest zminimalizowanie wartości opóźnienia, gdyż w większości przypadków w infrastrukturze IT to właśnie pamięć masowa jest tzw. wąskim gardłem. Mniejszy wskaźnik opóźnienia oznacza, krótszy czas oczekiwania na zakończenie operacji I/O a zatem szybsze wykonanie zadania. W środowisku wirtualnym parametr opóźnienia ma bezpośredni wpływ na prędkość działania maszyn wirtualnych (VM) i pulpitów dostępowych. Zmniejszenie opóźnienia wskazuje na lepsze wykorzystanie zasobów procesora i pamięci operacyjnej. W rezultacie w pamięciach masowych wdrażanych do środowisk wirtualnych implementuje się dyski SSD oraz możliwość zarządzania przepływem operacji I/O do macierzy dyskowej. Technologia pamięci flash najczęściej wykorzystywana jest przy sprzętowym, czy też programowym “caching-u”, którego celem jest zredukowanie wartości opóźnienia do jak najmniejszych. Przepustowość – Zdolność do przesłania ustalonej ilości danych w mierzonym czasie określa się mianem przepustowości lub pasma. Typowa przepustowość jest mierzona w jednostkach megabajt na sekundę (MBps). Sieciowe pamięci masowe i urządzenia dyskowe mogą być definiowane przez dwa rodzaje przepustowości – przepustowość stała i przepustowość szczytowa. Stała przepustowość to zdolność pamięci masowej do przesyłania danych ze stałą prędkością w długim okresie czasu. Szczytowa przepustowość wskazuje poziom jaki pamięć masowa jest w stanie osiągnąć, w krótkim okresie czasu. W środowiskach typu VDI (virtual desktop infrastructure) bardzo ważna jest szczytowa przepustowość, przykładowo kiedy mamy do czynienia z “boot storms” – jest to moment, w którym do system loguje się wielu użytkowników i w tym samym czasie uruchamiają swoje wirtualne maszyny. Taka sytuacja generuje ogromną ilość operacji I/O i jeżeli macierz nie jest w stanie efektywnie tym zarządzać to automatycznie wzrasta nam opóźnienie. Duża przepustowość ma istotne znaczenie także dla środowiska serwerów wirtualnych podczas gdy realizowane jest dynamiczne przenoszenie maszyn wirtualnych pomiędzy serwerami. Możliwość zmierzenia przepustowości i zrozumienie zapotrzebowania szczytowego jest krytyczne dla środowisk wirtualnych. IOPS (input output operations per second) – IOPS jest miarą liczby indywidualnych zapytań odczytu/zapisu jaką pamięć masowa jest w stanie obsłużyć w ciągu jednej sekundy. Liczba ta jest ściśle powiązana z przepustowością, ale się od niej różni. In many cases, vendors will use IOPS as a measure of the performance of their products, but these figures need to be considered alongside the size of data chunks being transferred in each operation. W wielu przypadkach, producenci sieciowych pamięci masowych korzystają z IOPS jako parametru wydajności, ale należy pamiętać, że przy doborze odpowiedniej jednostki należy rozważyć wielkość bloków danych jakie będzie musiała obsługiwać macierz. Przykładowo łatwiej jest przetwożyć wiele małych bloków o wielkości 4KB niż jeden duży o rozmiarze 1MB. Warto zwrócić też uwagę na to, że odczyt losowych danych jest bardziej czasochłonna niż ciągły zapis. Reasumując parametr IOPS musi być dokładnie osądzony pod kontem wielkości bloków przechowywanych na pamięci masowej oraz rodzaju operacji na nich wykonywanych. Zależność między opóźnieniem, przepustowością i IOPS Opóźnienie, IOPS i przepustowość są ściśle związane. Pamięć masowa, która będzie w stanie przetworzyć operacje I/O z małym opóźnieniem, będzie miała dużą wydajność IOPS. Liczba oblicza się z prostego wzoru 1/opóźnienie, więc jeżeli będzie na poziomie 3 milisekund (1/ to otrzymamy 333 IOPS. Pamięć masowa, która zapewni dużą liczbę IOPS dla dużych bloków danych będzie miała wysoką przepustowość, jej wartość oblicza się poprzez przemnożenie ilości IOPS przez wielkość I/O. Pamięci masowe zarządzają operacjami I/O równolegle lub współbieżnie, co daje im możliwość przetworzenia w tym samym czasie więcej niż jedną operację I/O. Współbieżność osiąga się przez doprowadzenie kilku niezależnych ścieżek do pamięci masowej i wykorzystaniu pamięci systemowej jako cache, w którym kolejkowane są transakcje. Ta metoda sprawia, że trzeba zastosować kolejny parametr pomiaru – długość kolejki (queue depth) – który opisuje ile zapytań I/O pamięć masowa jest w stanie obsłużyć jednocześnie. Pojedynczy dysk posiada parametr długości kolejki na poziomie jedno lub dwucyfrowej, podczas gdy duża korporacyjna macierz dyskowa długość kolejki będzie miała na poziomie dziesiątek lub setek cyfr na jeden LUB, na jeden port lub kombinację obu. Dzięki kolejkowaniu kilku zapytań razem pamięć masowa może zoptymalizować proces zapisu, tym samym redukując opóźnienie związane z przechowywaniem danych, jest to szczególnie skuteczne w przypadku dysków twardych, w ten sposób można znacznie zmniejszyć ruch głowicy. Profil obciążenia oraz gdzie dokonywać pomiaru Identyfikacja i zbieranie danych o poszczególnych wskaźnikach macierzy umożliwiają nam zrozumienie jaką wydajność daje nam dana pamięć masowa, ale wszystkie te informacje trzeba wykorzystać w kontekście profilu operacji I/O oraz gdzie pomiary zostały dokonane. A to dlatego, że każda aplikacja jest inna, co za tym idzie ma inne potrzeby. Przykładem może być VDI i wirtualny serwer, gdzie ruch jest wysoce zróżnicowany ze względu na rozproszenie aktywnych danych w całej objętości wolumenu przechowującego wirtualne dyski. VDI to w 80% odczyt danych więc małe opóźnienie dla operacji I/O daje zauważalne przyspieszenie. Miejsce pomiaru wskaźników jest także bardzo ważne, gdyż pomaga prawidłowo ocenić osiągi I/O na całej ścieżce transportu danych. W dzisiejszych czasach jesteśmy w stanie monitorować operację I/O od początku do końca, dzięki czemu jesteśmy w stanie zweryfikować na którym etapie procesowania występuje opóźnienie. Pomiaru możemy dokonywać w trzech wymiarach, bezpośrednio na pamięci masowej, przy pomocy hypervisor-a lub z poziomu samego hosta. Nie ma dobrych lub złych miejsce do pomiarów; każde daje perspektywy funkcjonowania systemu. Pomiary wykonane z poziomu pamięci masowej pokazują jak dobrze macierz radzi sobie z zewnętrznymi zapytaniami. Pomiary dokonane z poziomu hosta mogą przykładowo pokazać jak zawartość serwera ma wpływ na osiągi danego hosta, a pomiar przy pomocy hypervisor-a pokazuje efektywność sieci macierzy dyskowych. Oba najbardziej popularne hypervisory (vSphere ESXi i Hyper-V) pozwalają na wygenerowania dużego obciążenia w celu optymalizacji osiągów pamięci masowej. Storage DRS w przypadku vSphere, potrafi również na podstawie historycznych pomiarów opóźnień I/O podczas migracji VM zaproponować optymalne osiągi. Podczas gdy Intelligent Placement w Hyper-V dokonuje kalkulacji bazując na IOPS VM. Nie zapomnij o … Wszystko o czym pisaliśmy wyżej bazuje tylko na technologii, ale trzeba pamiętać, że często o wyborze odpowiedniej pamięci masowej decyduje także budżet jakim dysponujemy. W tym przypadku wskaźnikiem będzie PLN/GB, który mierzy koszt pojemności. Jednak wszyscy wiemy, że w przypadku rozwiązań z pamięcią flash współczynnik PLN/GB jest znacznie większy niż w przypadku zwykłych mechanicznych dysków, dlatego w przypadku wymagających aplikacji ten współczynnika warto zastąpić parametrem PLN/IOPS. Praktyka Wzorcowym przykładem jak producenci macierzy powinni prezentować powyższe wskaźniki jest firma Qsan Technology. Prezentują wszystkie parametry, które nas interesują przy doborze macierzy dyskowej do środowiska wirtualnego. Firma Qsan Technology przygotowała bardzo dokładne raporty wydajności dla każdej pamięci masowej dedykowanej do sieci SAN. W ich raportach zawarto informacje o ilości IOPS dla różnych wielkości bloków, nie tylko dla tych przy których macierz ma najlepszą wydajność, żeby ładnie wyglądało to marketingowo. To samo w przypadku wydajności, nie dość, że pokazano wyniki dla różnych wielkości bloków to również zaprezentowano wyniki z podziałem na profil obciążenia, tj. zapis oraz odczyt losowy i sekwencyjny. Żeby tego było mało pokazano jakie wyniki macierz osiągają przy włączonym i wyłączonym cache. Dla tych, którzy chcą zobaczyć jak wyglądają profesjonalne raporty poniżej linki do trzech najbardziej popularnych modeli: Qsan P400Q- S212, Qsan P600Q-S212, Qsan F600Q-S212 Dzięki takim raportom i przeczytaniu tego artykułu nie powinniście już mieć problemów z wyborem odpowiedniej sieciowej pamięci masowej. Jeżeli jednak nie wiecie ile IOPS potrzebujecie to zawsze możecie wypożyczyć macierz Qsan i sprawdzić we własnym środowisku czy spełni wasze wymagania. Podsumowanie Ze względu na losowe charakter środowiska wirtualnego, opóźnienie jest kluczowym wskaźnikiem, który należy brać pod uwagę podczas monitoringu osiągów pamięci masowych. Opóźnienie jest istotne zarówno gdy mamy jedną lub sto maszyn wirtualnych. W momencie, gdy po uwagę bierzemy pojemność pamięci masowej, żeby mieć możliwość obsługi dużej ilości maszyn wirtualnych to wtedy bardzo ważna rolę gra przepustowość. Wynika to z tego, że możliwość skalowania środowiska wirtualnego wymaga odpowiedniego potencjału przepustowości. Jak już wspomnieliśmy szczytowe obciążenie, w krótkich okresach czasu generowane przez VDI dla operacji odczytu i zapisu będzie sprawiać spore problemy. Z punktu widzenia hosta, IOPS jest parametrem, który najlepiej definiuje wydajność. Jest on także wykorzystywany zarówno w prywatnych, jak i wirtualnych infrastrukturach chmury. Nośnik Pamięci na Allegro.pl - Zróżnicowany zbiór ofert, najlepsze ceny i promocje. Wejdź i znajdź to, czego szukasz! lRjs5.