TwojePC.pl © 2001 - 2024
|
|
Poniedziałek 14 stycznia 2019 |
|
|
|
Opracowano nową, bardzo szybką technikę zapisu danych na dyskach magnetycznych Autor: Wedelek | źródło: Myce | 05:58 |
(19) | Researchers Mark Lalieu, Reinoud Lavrijs i Bert Koopmans, pracownicy Instytutu Integracji Fotonicznej działającego przy Uniwersytecie Technicznym w holenderskim Eindhoven, opublikowali w czasopiśmie Nature wyniki prac nad nową technologią zapisu magnetycznego. Jej podstawą jest nowy materiał nazwany syntetycznym ferrymagnetem w którym można zapisywać dane z wykorzystaniem impulsów laserowych o częstotliwości liczonej w femtosekundach (milisekunda to 1,000,000,000,000 femtosekund). Natura użytego materiału pozwala na wydzielenie odseparowanych od siebie domen magnetycznych których kierunek magnetyczny można zmieniać za pomocą pojedynczego impulsu.
W ten sposób zapisywane są logiczne 0 i 1. Znacząco uproszczono też samą głowicę, która oprócz lasera składa się z bardzo cienkich przewodów, za pomocą których przesyłany jest prąd transportując w ten sposób dane do zapisu. Użyte rozwiązanie pozwala na bardzo szybki zapis informacji przy niewielkim zapotrzebowaniu na energię elektryczną.
Prezentowany mechanizm jest już niemal gotowy do implementacji, ale pozwala jedynie zapisywać dane. To oczywiście zbyt mało i dlatego też jego twórcy rozpoczęli prace nad opracowaniem technologii, która pozwoliłaby równie szybko odczytywać dane za pomocą tego samego lasera.
Jeśli wszystko pójdzie zgodnie z planem, to w niedalekiej przyszłości na sklepowych półkach zagoszczą nośniki magnetyczne pozwalające na zapis/odczyt danych z szybkością od 100 do 1000 razy wyższą niż w przypadku obecnie wykorzystywanych dysków.
|
| |
|
|
|
|
|
|
|
|
|
K O M E N T A R Z E |
|
|
|
- Ekhm (autor: Pyth0n | data: 14/01/19 | godz.: 07:59)
Zapis bez odczytu? To jak z tym kawałem:
"WD opracował dysk twardy o nieskończonej pojemności. Wejdzie na rynek, jak go skończą formatować"
- hehe (autor: Qjanusz | data: 14/01/19 | godz.: 09:30)
zapisać można. To już połowa sukcesu.
"...nośniki magnetyczne pozwalające na zapis/odczyt danych z szybkością od 100 do 1000 razy wyższą..." - z tego co wiem, to SATA3 umożliwi rozpędzenie się tak średnio do 3 razy wyższą. Z kolei vnme było zaprojektowane pod krzem, a nie jedną głowicę w HDD.
Trzymam kciuki, ale podchodzę sceptycznie.
- Czyli (autor: kombajn4 | data: 14/01/19 | godz.: 09:47)
tłumacząc na polski opracowali metodę szybkiego zapisu na nowym materiale magnetycznym ale jeszcze nie wiedzą jak to odczytać. Taa to jeszcze trochę zejdzie zanim ta technologia trafi do zastosowań domowych tak od 5 lat w górę. Przy czym szybki zapis/odczyt i tak nie eliminuje podstawowej wady dysków twardych czyli długiego czasu dostępu. SSD pomimo swoich licznych wad się przebiły i sukcesywnie wypierają HDD właśnie dzięki minimalnemu czasowi dostępu do danych. Przypuszczam że zanim ta nowa technologia będzie na tyle zaawansowana żeby móc być wprowadzona do produkcji to SSD znowu odjadą tak że żadnej rewolucji z tego nie będzie.
- @Qjanusz (autor: krzysiozboj | data: 14/01/19 | godz.: 10:52)
kombajn mniej już uprzedził - nim to weszłoby w życie, to pewnie z dwie generacje PC-tów miną, więc byłby i czas na resztę potrzebną do tych transferów.
I tak jak kombajn pisze, raz transfer to nie wszystko, a dwa SSD też w miejscu stały nie będą.
- @up (autor: rookie | data: 14/01/19 | godz.: 11:49)
A ssd od kilku lat nie stoją w miejscu? sata3 cały czas jest standardem od 10 lat. Ssd na pci są bardzo rzadkie...
- @rookie - ssd nvme to już praktycznie standard (autor: Qjanusz | data: 14/01/19 | godz.: 12:06)
i jedyne rozsądne pojęcie SSD jako takiego. SSD SATA nie ma racji bytu. Pisałem o tym juz nie raz. SSD na PCIe szybko tanieje i właśnie jest bardzo popularne.
Pisząc o jednej głowicy w HDD, miałem na myśli właśnie czas dostępu. Kolejka do danych w nvme jest bardzo szeroka i to jest wielką wartością dodaną nvme, która będzie nie do dosęgnięcia przez głowicę. W sumie tutaj wszyscy się zgadzamy.
- @2. (autor: Mariosti | data: 14/01/19 | godz.: 14:01)
Jeśli będą dwie głowice (jedna do zapisu jedna do odczytu), to nie będzie to wielki problem, a wydajnościowo byłoby to znakomite rozwiązanie dla hdd.
Oczywiście lepiej byłoby mieć 2 głowice do zapisu/odczytu.
Zapewne skończy się na klasycznej pojedynczej głowicy.
Co do szybkości zapisu/odczytu 100 do 1000 razy wyższej od obecnych głowic elektromagnetycznych... ta informacja nie ma przełożenia na rzeczywistość bez informacji o porównaniu gęstości zapisu obu metod.
Jeśli gęstość zapisu jest podobna, to do wykorzystania tej teoretycznej możliwości wyższej szybkości zapisu/odczytu danych potrzebne byłyby dyski które fizycznie kręciłyby się 100-1000 razy szybciej niż obecne.
Powiedzmy że ~100tys obrotów na minutę jest możliwe do zrobienia, ale taki dysk będzie głośny, energochłonny, będzie bardzo długo się rozkręcał i wyłączał, nie będzie absolutnie możliwości bezpiecznego poruszania takiego dysku w czasie jego działania, a dodatkowo będzie absurdalnie drogi bo mechanika będzie musiała być tak precyzyjna że jest to trudne do wyobrażenia.
Nie wolno tez zapominać o potencjalnej niezawodności takich dysków - z powodu obciążenia mechaniki raczej trudno byłoby stworzyć taki dysk z wysokim współczynnikiem niezawodności.
Także sumarycznie technologia spoko, ale żeby wykorzystać tą prędkość realnie talerze musiałyby być znacznie mniejsze, droższe, zarazem mniej pojemne, no i sensu względem ssd by i tak nie miały, bo konkurować mogłyby tylko w zadaniach sekwencyjnych.
Co do konkurencji z ssd to jest jeszcze kolejna kwestia.
Jak pci-e 4.0 zacznie się popularyzować to nastanie kolejna generacja kontrolerów ssd które nasycą bez problemu pci-e 4.0 x4, a jeśli byłby taka fanaberia, bądź powstałby standard m.2 x8 (w jakiś magiczny sposób), to nic nie stałoby na przeszkodzie przez stworzeniem kontrolera ssd który nasyci i taki interfejs.
Także zasadniczo fajnie że opracowali coś nowego, ale niestety jest to rozwijanie umierającej technologii której głównym problemem tak na prawdę nie jest sama prędkość zapisu/odczytu liniowego...
Istnieje jednak mimo wszystko możliwość rozwiązania tego problemu, mianowicie taki dysk twardy musiałby mieć ogromną głowicę z np setką takich mini laserowych głowic obok siebie i powinien umożliwiać jednoczesny zapis/odczyt równolegle 100 ścieżek jednocześnie.
Wtedy faktycznie przy zachowaniu ~7200 rpm, obecnej niezawodnej mechaniki dysków twardych, miejmy nadzieję podobnej gęstości zapisu, uzyskalibyśmy dysk który mógłby mieć burst rate na poziomie 20-200GB/s, i o ile wiadomym jest że żaden interfejs tyle nie przyjmie, to jednak z odpowiednio dużym buforem szybkiego ramu w takim dysku twardym (16GB HBM2 ??? :D), głowica miałaby relatywnie dużo czasu na zmienianie pozycji, miałaby spore prawdopodobieństwa znajdowania się nad właściwą "setką" ścieżek w danym momencie (ponieważ taka setka ścieżek miałaby 100x więcej danych zapisanych na sobie), a dodatkowo przy takich burst rate'ach dysk mógłby odczytywać więcej danych niż musi (tj też dane sąsiadujące) i zostawiać je w buforze na wszelki wypadek i nadpisać je tylko w razie konieczności.
W sumie mogłoby to być bardzo ciekawe rozwiązanie gdyby cena była na sensownym poziomie.
- ciekawe jak sprawdzili (autor: Hitman | data: 14/01/19 | godz.: 15:53)
poprawność zapisu? ;))
- @up (autor: Qjanusz | data: 14/01/19 | godz.: 16:11)
usiedli, zapisali, zapalili, podumali i doszli do wniosku że zapis jest poprawny :-)
- Ad 1&8 (autor: faf | data: 14/01/19 | godz.: 16:18)
ech.... czytanie ze zrozumieniem jak z onetu
technologia użyta umożliwia tylko zapis (tą metodą) - to czy zapisało się czy nie sprawdzają standardowo detektorem magnetorezystywnym vel głowica z dysku jak dotychczas (to że wolniej to inny szczegół)
zresztą koledzy z 3 i 7 napisali co trzeba.
jajogłowi nie opracowali dysku - to zrobią inżynierowie. Kolesie z Holandii pomiędzy jednym buchem a drugim wymyślili nowy materiał ferromagnetyczny - nawet dysku nie zrobili - znając życie (proponuje sprawdzić w Wikipedii jak wyglądał pierwszy tranzystor") - zrobili z tego materiału kleksa na szybce i z jednej strony naparzali laserem a z drugiej detektor sprawdzał zmiany kierunku pola magnetycznego - działa ? działa! nawet zajebiście. ale jak pisał Mariosti - zrobić z tego dysk to inna bajka - głowicami się nie należy przejmować. Dysk talerzowy ma obecnie mały sens - wirująca masa jest tak duża że bardzo odczuwalny jest efekt żyroskopowy - laptopy na kant by stawały :)
prawdopodobne zastosowanie to zapis holograficzny - bez wirowania tylko pozycjonowanie lasera/ów - też kłopotliwe ale do realizacji
- Panie Wedelek... (autor: Sebalos | data: 15/01/19 | godz.: 23:49)
Częstotliwość w femtosekundach? Chyba się Panu pojęcia pomyliły... W femtosekundach, to może być wyrażony czas trwania impulsu lub okres.
- @1 - może to drugi projekt WOM (Write Only Memory) w historii? ;-) (autor: Sebalos | data: 16/01/19 | godz.: 00:00)
W latach 70. ubiegłego wieku, w USA istniała firma Sygnetics, która produkowała układy scalone. Jeden z inżynierów, poirytowany długością biurokratycznej ścieżki zatwierdzania nowych układów, wytworzył dokumentację fikcyjnego układu WOM i "wpuścił ją w biurokratyczne tryby firmy". Dopiero po przejściu kilku szczebli zatwierdzania specyfikacji nowego produktu - ktoś się zorientował, że to "fake", co nie powinno być trudne po przeczytaniu tego dokumentu. Dla forumowiczów szczególnie polecam sekcję COOLING...
http://repeater-builder.com/...gontor/25120-bw.pdf
- @12 (autor: Master/Pentium | data: 16/01/19 | godz.: 10:30)
Specyfikacja faktycznie poraża. Poprawiła mi humor na dziś. Faktycznie niezły żart i raczej fatalna merytoryczność osób zatwierdzających.
- @7 kolejny miłośnik układów multigłowicowych (autor: Master/Pentium | data: 16/01/19 | godz.: 10:33)
czyli stary pomysł z rodem z multigłowicowych napędów CD (tak, pojawiły się takie przez moment).
Sorry ale to zwyczajnie NIE zadziała. Kwestia pozycjonowania takiego monstrum zabija jakąkolwiek wydajność o niezawodności nie wspominając.
- @14. (autor: Mariosti | data: 16/01/19 | godz.: 15:14)
Jeśli miałoby to działać na ramieniu tak jak w dzisiejszych dyskach to fakt, byłoby to problematyczne przez wagę czubka głowicy, ale jeśli zamiast ramienia takie głowice byłyby na czymś w rodzaju niskoprofilowych suwnic idealnie prostopadłych do talerzy, to już problemu z pozycjonowaniem by nie było.
Bardziej rozbijałoby się to o cenę takiej głowicy, bo wiadomo że potrzeba byłoby tyle zestawów głowic ile jest stron talerzy w dysku.
- @15 projektowałes kiedyś cokolwiek precyzyjnego? (autor: Master/Pentium | data: 16/01/19 | godz.: 17:00)
wszystkie te głowice musiałby JEDNOCZEŚNIE pozycjonować się z dokładnością z um czy jaka tam teraz jest szerokość ścieżki. Niezależnie od zakłóceń wprowadzanych przez inne.
Dodatkowo musiałyby to robić z szybkością zbliżoną do obecnych rozwiązań.
Wielkość i koszt tego był koszmarny. Awaryjność wręcz kosmiczna. A całość i tak byłaby żałośnie powolna w stosunku do SSD na NAND a nowszych technologiach nie wspominając.
Próbowano tego już w dużo mniej wymagających warunkach (czytniki CD) i wynik był conajmniej zły.
Powracanie tego pomysłu trochę mnie bawi - to jedna z idei które wyglądają super na pierwszy rzut oka ale są pułapką przy próbie realizacji.
Coś jak dwulufowe czołgi (tak, to też próbowano z podobnych powodów).
- @15 Aha koszt głowicy to byłby naprawdę pikuś (autor: Master/Pentium | data: 16/01/19 | godz.: 17:02)
koszt pozycjonowania byłby głównym problemem.
- HDD (autor: pwil2 | data: 16/01/19 | godz.: 18:01)
Jeśli głowica odczytująca byłaby na innym ramieniu niż zapisująca to jak pozycjonować głowicę przy zapisie? Najprościej czytać dane i na podstawie nich ustawiać się nad własciwą ścieżką.
Jeśli zapis byłby 100-1000 razy szybszy to znaczy, że na gęstość byłaby odpowiednio większa (i pojemność).
Dyski talerzowe/magnetyczne nie będą konkurować już nigdy z SSD w desktopach, a służyć do przechowywania dużych ilości danych np. w data center. Mając nośnik o pojemności tysiąca HDD, prędkości zapisu tysiąca HDD, możnaby go wykorzystać jako przestrzeń do backupów. Serwery backupu mają często współczynnik odczyt/zapis jak 1:100+ (pomijając różne opcjonalne weryfikacje i odbudowy).
Nośnik pojemności 10PB, prędkości zapisu 100GB/s i odpowiedniej niezawodności oraz cenie 1000$ schodziłby jak ciepłe bułeczki. Problem z szybką weryfikacją danych, ale można by zapisywać jednocześnie kilka kopii.
- @18 Muszę rozczarować... (autor: Master/Pentium | data: 17/01/19 | godz.: 07:53)
ale gęstość zapisu na obecnych dyskach nie jest ograniczona prędkością zapisu a minimalnym wymiarem domen magnetycznych które potrafimy zapisać.
A więc szybszy zapis nie stworzy dysków 10PB, tzn. nie sam w sobie.
Ale z drugiej strony zmniejszenie domen magnetycznych wymaga ekstra energii, np. w postaci wiązki lasera więc może odmiana tego rozwiązania kiedyś faktycznie pozwoli na znacznie bardziej pojemne dyski.
|
|
|
|
|
|
|
|
|
D O D A J K O M E N T A R Z |
|
|
|
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.
|
|
|
|
|
|
|
|
|
|