2gusia (2gusia) wrote,
2gusia
2gusia

Category:

Черепичная магнитная запись aka SMR

Идея черепичной (Shingled) магнитной записи проста.

Чтобы записать данные, надо приложить большее воздействие к магнитному слою, чем чтобы данные прочитать. Традиционно ширина дорожки ограничивается шириной возможной записи. А при SMR - шириной чтения, которая уже. А при записи дорожки для записи частично накладываются одна на другую.


Слайд 6 из [1] Зелёная - дорожка чтения, сизая - дорожка записи. Сверху традиционная, снизу - черепичная.

В результате доступно произвольное чтание, но НЕ произвольная запись. Если таким образом записывать весь диск, то при каждом изменении уже записанного придётся переписывать всё. Что не приемлимо. Поэтому поверхность делять на ленты (bands) ограниченного размера. Как раз такая лента показана на рис выше. Лента отделена от соседних промежутком и может быть записана независимо от соседок.

Но ленты - это внутренняя машинерия диска. Внешнему миру диск представляется разделённым на зоны (zones)


Слайд 18 из [1]

Зоны создаются двух типов. Основная часть поверхности - черепичные зоны. Меньшая часть - зоны с традиционной записью. Сюда возможна случайная запись. Используются эти зоны для разных целей. Но прежде всего - как кеш для срочной случайной записи. А потом, в момент низкой нагрузки, диск перенесёт данные из кеша в черепичную зону. Напомним, эту идею Сигейт впервые использовал ещё на своих AF дисках - лень вспоминать каким именно звучным словом маркетологи её назвали.

Вся эта штука очевидно непростая с точки зрения софта. Как быть? Вы не поверите, индустрия затрудняется с чётким ответом на это вопрос. Типа э-э-э, можно сделать, чтобы всё это у диска было внутри (узнаём AF диски, которые прятали настояший размер сектора. Но на принципиально новом уровне). Называется Drive Managed - DM. Правда, можно ожидать сильных тормозов. Софт же не знает, что диски стали неспособны к произвольной записи...



Слайд 40 из [2]

Можно поручить расшивать все сложности хосту. Называется HM, Host Managed. Но, как видно из картинки, это уже даже не жёсткий диск - это другой тип накопителя - зонированное блочное устройство. Новые команды  и пр. Ну и, конечно, можно совместить то и другое. Диск может работать как обычный, но понимает и новый набор команд. Первые выпущенные на рынок черепичные диски относятся к DM типу. Совсем недавно пошли и HA. Но, в принципе, различия в прошивке и не исключена техническая возможность изменить тип устройства даже для ранее выпущенных дисков.

"Seagate manufactures and supports SMR Drive Managed (DM) and SMR
Host Aware (HA) drives. Seagate does not currently manufacture SMR
Host Managed (HM) drives. Seagate has 2 drives shipping that are
SMR-DM. Seagate's new 8TB Archive HDD v2 drive is SMR-HA."



В принципе, после небольшой доработки, файловые системы с CoW очень неплохо подходят для хранения холодных данных на черепичных дисках. Действительно, данные пишем в черепичные зоны. Перезаписывать кусочек - и не надо, сама идея CoW предполагает новую запиь сделать в новой зоне. А старую зону - освободить. Надо только что-то сделать с метаданными, которых много и они мелкие. Например, научить систему хранить их в зоне с возможностью случайной записи.


Слайд 14 из [3]

Вон на картинке в лабораторных тестах zfs на двух дисках показывает наивысшие по сравнению с аналогами цифры. Но на одном из тестовых дисков похоже, просто не завелась - работать и работать. Есть и трудности ср.

ZFS (and other COW filesystems) is actually well suited to work on SMR devices, since it can write sequentially into new segments, and doesn't overwrite data in place (scrub excluded).

However, the ZFS block allocator would need to be updated to take this into account, so that it leaves segments idle until (mostly) empty before allocating new data there.

The main difficulty is that ZFS has no mechanism to relocate data in a segment that is being overwritten, since it might be referenced by a snapshot. Ideally it could reallocate the remaining data in an almost-empty segment to the currently written segment, then mark the segment free for later use.


Но это уже тёмный лес. Интереснее что будет, если на всё это наплевать и запустить черепичный диск вместо обычного?

The HGST He8 HDDs completed its rebuild in 19 hours and 46 minutes. The Seagate Archive HDDs completed their rebuild in 57 hours and 13 minutes

Трудно назвать это достоверным экспериментом - не указаны ни марки дисков, ни параметры нагрузки, ни чем заполнены диски, ни размеры записи. Но трёхкратная разница между 19ч 46 мин и 57ч 13 мин - она всё же даёт представление о степени деградации производительности, если SMR диски использовать без готовой к ним файловой системы. Лучше всё же подождать.

PS Есть ещё нудное длинное кино https://www.youtube.com/watch?v=a2lnMxMUxyc
Презентация, по которой слайды так и не вывалили. А там на слайдах важные технические детали - сколько каких зон, какие зоны по размеру и пр. Но мне, признаюсь, лень второй раз это смотреть и вытаскивать цифирь. Интересующиеся сами справятся.


Источники
[1] Timothy Feldman. Host Aware SMR
[2] Mary Dunn, Timothy Feldman. Shingled Magnetic Recording Models, Standardization, and Applications
[3] Adrian Palmer SMR in Linux Systems
Tags: it, smr, железо
Subscribe

  • OpenZFS и XigmaNAS

    Месяц назад я писал про Open ZFS. Там были мысли о том, когда он будет доступен в XogmaNAS. А в конце декабря зацепился на эту тему языками с…

  • Как провожают жесткие диски

    Сдох у меня жесткий диск в NAS Как видно - из SMART отпахал 70428 часов, то есть если 24/7 - больше 8 лет. И, я вам скажу, он не просто крутился…

  • О добавлении диска в ZFS raidz

    Проект OpenZFS дал новый импульс развитию этой файловой системы. Прежде всего потому, что Linux сообщество разработчикоы велико и подключение их к…

  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

  • 0 comments