Ядро. Предпочтительно стабильной серии 2.2.X, или последнее
2.0.X. (Если 2.4 уже вышло, в то время когда Вы это читаете, используйте его)
Патчи RAID. Это обычно патч для последних ядер. (Если Вы найдете 2.4
ядро, патчи уже в нем, и вы можете забыт о них)
RAID утилиты.
Терпение, пицца, и Ваш любимый кофейный напиток.
Все программы могут быть найдены на ftp://ftp.fi.kernel.org/pub/linux RAID
утилиты и патчи в daemons/raid/alpha подкаталоге.
Ядра - в kernel подкаталоге.
Пропатчите ядро, сконфигурируйте его для включения поддержки желаемого уровня
RAID. Скомпилируйте его и установите.
Затем распакуйте, сконфигурируйте, скомпилируйте и установите утилиты RAID.
Так, все хорошо. Если Вы сейчас перезагрузитесь, Вы должны получить файл
называемый /proc/mdstat. Запомните его, этот файл - Ваш друг. Сделав
cat /proc/mdstat посмотрите его содержимое. Это должно Вам сказать, что
у Вас зарегистрированы правильные свойства RAID (RAID режим), и
устройства RAID уже активны.
Создайте разделы, которые хотите включить в RAID набор.
Резервные диски тут не поддерживаются. Если диск умрет, массив умрет вместе с
ним. Не существует информации для помещения на резервный диск.
Вы, возможно удивлены тем, что мы указали здесь chunk-size (размер куска),
при том, что линейный режим просто объединяет два диска в один большой без
параллелизма. Да, Вы полностью правы, это - лишнее. Просто поставьте какой-то
размер куска и не беспокойтесь об этом.
Итак, создадим массив. Запускаем команду
mkraid /dev/md0
Это должно инициализировать ваш массив, записать отдельные суперблоки, и
запустить массив.
Загляните в /proc/mdstat. Вы должны заметить, что массив уже запущен.
Теперь, ВЫ можете создать файловую систему, просто как и на любом другом
устройстве, смонтируйте ее, включите ее в Ваш fstab и тому подобное.
У вас должно быть два или более устройств, приблизительно одного размера, и Вы
хотите объединить их емкость и также производительность путем параллельного
доступа.
Установите файл /etc/raidtab для описания Вашей конфигурации. Пример raidtab
выглядит таким образом:
В линейном режиме, резервные дики не поддерживаются. RAID-0
не имеет избыточности, так что если диск умрет, массив умрет вместе с ним.
Еще раз, просто запустите
mkraid /dev/md0
для инициализации массива. Это должно инициализировать суперблок и
запустить устройство. Загляните в /proc/mdstat чтобы посмотреть, что произошло.
Вы должны увидеть, что Ваше устройство запущено.
/dev/md0 теперь готов к форматированию, монтированию, использованию и
издевательствам.
У вас есть два устройства приблизительно одного размера, и Вы хотите из
зеркализировать. В конце концов, Вы можете использовать больше устройств,
которые Вы можете держать как резервные диски, и которые автоматически станут
частью зеркала, если одно из из активных устройств сломается.
Если у Вас есть резервные диски, Вы можете добавить их в конец спецификации
устройства
device /dev/sdd5
spare-disk 0
Не забудьте установить соответственно nr-spare-disks запись (количество
резервных дисков).
Итак, мы все установили для запуска инициализации RAID. Зеркало должно быть
сконструировано, содержимое ( сейчас это, однако, не важно, так как
устройство все еще не форматировано) двух дисков должно быть синхронизировано.
Подаем команду
mkraid /dev/md0
для начала инициализации зеркала.
Проверьте /proc/mdstat файл. Он должен сказать вам, что устройство /dev/md0
было запущено, зеркало начало реконструироваться, а
также оценочное время завершения реконструкции.
Реконструкция делается в периоды отсутствия ввода-вывода. Так что, ваша система
должна быть еще достаточно отзывчива, хотя Ваш индикатор дисковой активности
должен хорошо светиться.
Процесс реконструкции прозрачен, так что Вы можете, фактически, использовать
зеркало несмотря на реконструкцию.
Попробуйте форматировать устройство, при запущенной реконструкции. Это
должно работать. Также Вы можете смонтировать его и использовать в процессе
реконструкции. Конечно, если неисправный диск разрушается при реконструкции, Вам
не повезло.
Заметьте! Я сам не тестировал эту конфигурацию. Конфигурация ниже
- моя догадка, а не что-то, фактически запущенное мною.
У вас есть три или более приблизительно одного размера диска, один
значительно быстрее других, и Вы хотите скомбинировать их все в одно большое
устройство, которое все еще содержит немного избыточной информации.
В конце концов у вас есть несколько устройств, которые Вы хотите использовать
как резервные диски.
У Вас есть три или более дисков приблизительно одного размера, Вы хотите
скомбинировать их в большое устройство, но еще содержащее некоторую
степень избыточности. В конце концов у Вас есть несколько дисков для
использования как резервных, которые не будут частью массива до отказа
другого устройства.
Если Вы используете N дисков, где S - размер наименьшего, размер всего
массива будет (N-1)*S. Это ``не включает'' пространство используемое для
информации о четности (избыточности). Итак, если любой диск отказывает,
все данные остаются целыми. Но, если два диска отказывают, все данные потеряны.
Если у Вас есть резервные диски, они должны быть вставлены подобным образом,
следуя спецификациям raid-disk;
device /dev/sdh1
spare-disk 0
И так далее.
Размер куска в 32 KB хорошее начальное значение для многих общих применений
файловой системы. Массив, на котором используется вышеуказанный raidtab, -
устройство размером 7 раз по 6 GB = 36 GB (запомните (n-1)*s = (7-1)*6 = 36)
Оно содержит файловую систему ext2 с размером блока 4 Кб. Если Ваша файловая
система намного больше или Вы храните очнь большие фалы, Вы должны установить
больший размер куска и размер блока файловой системы.
Итак, хватит разговоров. Вы установили raidtab, так что посмотрим, работает ли
он. Подаем команду
mkraid /dev/md0
и смотрим, что получилось. Надеюсь Ваши диски заработали как сумасшедшие,
так как начался процесс реконструкции Вашего массива. Загляните в
/proc/mdstat чтобы посмотреть что происходит.
Если устройство успешно создано, начался процесс реконструкции. Ваш массив
не устойчив, пока фаза реконструкции не завершена. Однако, массив полностью
функционален (кроме, конечно, обработки дисковых отказов), и Вы можете его
форматировать и использовать, пока он реконструируется.
Перед форматированием массива, посмотрите секцию специальных опций mke2fs.
Итак, сейчас вы запустили свое RAID устройство, Вы можете всегда остановить его
или снова запустить используя
raidstop /dev/md0
или
raidstart /dev/md0
команды.
Вместо помещения этого в init-файлы и многократных перезагрузок
чтобы заставить это работать, читайте далее, и запустите авто-детектирование.
Вернемся в ``Старые Добрые Времена'' (TM), raidtools читали Ваш read /etc/raidtab
файл и затем инициализировали массив. Однако, это требовало
наличия файловой системы та том, на чем был смонтирован /etc/raidtab.
Это не подходило для загрузки с RAID.
Также, старый подход приводил к сложностям при монтировании файловой системы
на RAID устройствах. Они не должны были, как обычно, вставляться в /etc/fstab
файл, но должны были монтироваться из скриптов инициализации.
Отдельный суперблок решил эти проблемы. Когда массив инициализируется
с опцией persistent-superblock в файле /etc/raidtab, в начале всех
дисков массива записывается специальный суперблок. Это позволяет ядру читать
конфигурацию устройств RAID прямо с затрагиваемых дисков, вместо чтения
конфигурационного файла, который может не всегда доступен.
Однако Вы должны поддерживать целостность файла /etc/raidtab, так как Вам он может
понадобиться позже при реконструкции массива.
Если вы хотите автоматического детектирования RAID устройств при загрузке - отдельный суперблок обязателен. Это описано в секции Автоматическое детектирование.
Размер куска заслуживает обьяснения. Вы можете никогда не писать
полностью параллельно на дисковый набор. Если у Вас два диска и Вы хотите
записать байт, Вы должны, фактически, записать четыре бита на каждый диск,
каждый второй бит должен пойти на диск 0 а другие на диск 1.
Аппаратно это не поддерживается. Вместо этого, мы выбираем некоторый
размер куска, который мы определяем как наименьшую ``атомарную'' порцию данных,
которые могут быть записаны на диски. Запись 16 Кб с размером куска
в 4 Кб, приведет к записи первого и третьего 4 Кбайтных кусочков на первый диск,
а второго и четвертого на второй, в случае RAID-0 из двух дисков. Таким образом,
для длинных записей, вы можете увидеть меньшие накладные расходы
при довольно больших размерах кусков, в то время как массивы, которые в основном
содержит небольшие файлы, имеют преимущество при небольших размерах куска.
Размеры куска должны быть указаны для всех уровней RAID, включая линейный режим.
Однако, размер куска безразличен для линейного режима.
Для оптимальной производительности, Вы должны поэкспериментировать с этим
значением, также как и с размером блока файловой системы, которую вы создаете
в массиве.
Аргумент опции chunk-size в /etc/raidtab указывает размер кусочка в килобайтах.
Так ``4'' означает ``4 Кб''.
RAID-0
Данные записываются ``почти'' в параллельном режиме на диски массива.
Фактически, chunk-size байт записываются на каждый диск
последовательно.
Если Вы указываете размер куска в 4 Кб, и пишете 16 Кб на массив из трех дисков,
RAID система будет писать 4 Кб на диски 0, 1 и 2, параллельно, а оставшиеся 4 Кб
на диск 0.
Размер куска в 32 KB - разумное начальное значение для большинства массивов. Но
оптимальное занчение сильно зависит от количества в дисков, содержимого
файловой системы на массиве, и многих других факторов. Поэкспериментируйте с
этим, для получения производительности.
RAID-1
Для записи, размер куска не влияет, так как все данные, в любом случае, должны
быть записаны на все диски. Однако для чтения, размер куска указывает сколько
данных читаются последовательно с участвующих дисков. Так как все диски
массива содержат одинаковую информацию, чтение может быть сделано параллельно,
подобным RAID-0 образом.
RAID-4
Когда сделана запись на массив RAID-4, также должна быть обновлена информация о
паритете на паритетном диске. Размер куска - размер паритетных блоков.
Если байт записывается на массив RAID-4, потом chunk-size
байт считываются с N-1 дисков, вычисляется информация о паритете, и
chunk-size байт записываются на паритетный диск.
Размер куска также влияет на производительность чтения также как и в RAID-0,
так как считывания с RAID-4 делаются аналогично.
RAID-5
На RAID-5 размер куска имеет такое же занчение как и в RAID-4.
Разумный размер куска для RAID-5 массива - 128 KB, но как обычно, Вы можете
поэкспериментировать с ним.
Посмотрите далее секцию специальных опций mke2fs.
Это влияет на производительность RAID-5.
Существует специальная опция форматирования RAID-4 ил -5 устройств с mke2fs.
Опция -R stride=nn позволяет mke2fs лучше размещать различные ext2
специфичные структуры данных разумным способом на устройство RAID.
Если размер куска 32 Кб, это значит, что 32 Кб последовательных данных
будут лежать на одном диске. Если Вы хотите создать ext2 файловую систему
с размером блока в 4 Кб, Вы сделаете так, что будет восемь блоков файловой
системы в одном куске. Мы можем указать эту информацию для утилиты mke2fs,
при создании файловой системы:
mke2fs -b 4096 -R stride=8 /dev/md0
Производительность RAID-{4,5} строго зависит от этой опции. Я не уверен
как опция stride будет воздействовать на другие уровни RAID. Если у кого-то
есть эта информация, пожалуйста пошлите ее мне.
Размер блока ext2fs строго определяет производительность файловой
системы. Вы всегда должны использовать размер блока 4Кб на любой файловой
системе более чем нескольких сот мегабайт, если Вы не помещаете очень большое
число маленьких файлов на нее.
Авто-детектирование позволяет ядру автоматически распознавать устройства RAID
при загрузке, сразу после завершения обычного детектирования разделов.
Для этого требуется несколько вещей:
Вам нужна поддержка авто-детектирования в ядре. Проверьте это.
Вы должны создать RAID устройства используя отдельный суперблок
Тип раздела устройств используемых в RAID должен быть установлен в
0xFD (запустите fdisk и установите тип в ``fd'')
ЗАМЕТКА: Удостоверьтесь, что Ваш RAID НЕ ЗАПУЩЕН перед сменой типа раздела.
Используйте raidstop /dev/md0 для остановки устройства.
Если Вы сделаете 1, 2 и 3 как указано выше, авто-детектирование должно
быть установлено. Попробуйте перезагрузиться. После загрузки системы,
сделайте cat /proc/mdstat и это должно показать, что Ваш RAID запущен.
При загрузке, Вы должны увидеть сообщения подобные этим:
Oct 22 00:51:59 malthe kernel: SCSI device sdg: hdwr sector= 512
bytes. Sectors= 12657717 [6180 MB] [6.2 GB]
Oct 22 00:51:59 malthe kernel: Partition check:
Oct 22 00:51:59 malthe kernel: sda: sda1 sda2 sda3 sda4
Oct 22 00:51:59 malthe kernel: sdb: sdb1 sdb2
Oct 22 00:51:59 malthe kernel: sdc: sdc1 sdc2
Oct 22 00:51:59 malthe kernel: sdd: sdd1 sdd2
Oct 22 00:51:59 malthe kernel: sde: sde1 sde2
Oct 22 00:51:59 malthe kernel: sdf: sdf1 sdf2
Oct 22 00:51:59 malthe kernel: sdg: sdg1 sdg2
Oct 22 00:51:59 malthe kernel: autodetecting RAID arrays
Oct 22 00:51:59 malthe kernel: (read) sdb1's sb offset: 6199872
Oct 22 00:51:59 malthe kernel: bind<sdb1,1>
Oct 22 00:51:59 malthe kernel: (read) sdc1's sb offset: 6199872
Oct 22 00:51:59 malthe kernel: bind<sdc1,2>
Oct 22 00:51:59 malthe kernel: (read) sdd1's sb offset: 6199872
Oct 22 00:51:59 malthe kernel: bind<sdd1,3>
Oct 22 00:51:59 malthe kernel: (read) sde1's sb offset: 6199872
Oct 22 00:51:59 malthe kernel: bind<sde1,4>
Oct 22 00:51:59 malthe kernel: (read) sdf1's sb offset: 6205376
Oct 22 00:51:59 malthe kernel: bind<sdf1,5>
Oct 22 00:51:59 malthe kernel: (read) sdg1's sb offset: 6205376
Oct 22 00:51:59 malthe kernel: bind<sdg1,6>
Oct 22 00:51:59 malthe kernel: autorunning md0
Oct 22 00:51:59 malthe kernel: running: <sdg1><sdf1><sde1><sdd1><sdc1><sdb1>
Oct 22 00:51:59 malthe kernel: now!
Oct 22 00:51:59 malthe kernel: md: md0: raid array is not clean --
starting background reconstruction
Это отрывок при авто-детектировании массива RAID-5, который не был чисто
остановлен (например при крахе машины). Была автоматически инициирована
реконструкция. Монтирование этого устройства вполне безопасно,
так как реконструкция прозрачна и все данные целы ( только
паритетная информация противоречива - но она не нужна, пока диск не откажет).
Автоматически стартующие устройства также автоматически останавливаются при
выключении. Не беспокойтесь о init скриптах. Просто используйте устройства
/dev/md как любые другие /dev/sd или /dev/hd устройства.
Да, это в самом деле очень просто.
Вы можете взглянуть в Ваш init-scripts для любых raidstart/raidstop
комманд. Они часто есть в стандартных RedHat init скриптах.
Они используются для RAID старого стиля, и не используются в RAID нового стиля
с авто-детектированием. Посто удалите строки, и все будет очень просто.
Существует несколько путей для установки системы, которая монтирует
свою корневую файловую систему на устройство RAID. На текущий момент, только
графический инсталлятор RedHat Linux 6.1 позволяет прямую установку на
устройство RAID. Так что вполне вероятно Вам прийдется немного повозиться,
если это Вам нужно, но это вполне возможно.
Последний официальный дистрибутив lilo (версия 21) не работает с устройствами
RAID, и, таким образом, ядро не может быть загружено с устройства RAID. Если Вы
используете эту версию, Ваша файловая система /boot должна быть
расположена на не-RAID устройстве. Чтобы быть уверенным, что Ваша система
загрузится в любом случае, создайте подобные /boot разделы на всех
дисках вашего RAID, таким образом BIOS всегда загрузит данные с первого
попавшегося диска. Это требует, чтобы Вы не загружались с отказавшего диска.
Для redhat 6.1 стал доступен патч к lilo 21, который способен найти
/boot на RAID-1. Заметьте, что это не работает для любого другого
уровня, RAID-1 (mirroring) - единственный поддерживаемый уровень RAID. Этот патч
(lilo.raid1) может быть найден в dist/redhat-6.1/SRPMS/SRPMS/lilo-0.21-10.src.rpm на любом зеркале redhat.
Пропатченая версия LILO позволит boot=/dev/md0 в lilo.conf и
сделает каждый диск зеркала загрузочным.
Другой путь быть уверенным, что Ваша система сможет всегда загрузится - создать
загрузочную дискету после завершения всех установок. Если диск, на котором,
расположена файловая система /boot умирает, Вы сможете всегда
загрузиться с дискеты.
В случае загрузки системы с RAID, корневая файловая система (/)
должна монтироваться на устройство RAID. Ниже предлагается два метода для
достижения этого. Так как ни один из текущих дистрибутивов (по крайней мере
которые я знаю) не поддерживает инсталляцию на RAID устройство, методы предполагают, что Вы устанавливаете на обычный раздел, и затем, когда установка завершена,
перемещаете содержимое Вашей не-RAID корневой файловой системы на новое RAID
устройство.
Метод 1
Этот метод предполагает, что У вас есть резервный диск, который не входит в
конфигурируемый RAID, и на который Вы можете инсталлировать систему.
Сначала установите обычную систему на ваш дополнительный диск.
Запустите планируемое ядро, возьмите raid-патчи и утилиты и сделайте
загрузку Вашей системы с новым RAID-способным ядром. Убедитесь, что поддержка
RAID в ядре, и не загружается как модуль.
Итак, сейчас Вы должны сконфигурировать и создать планируемый к
использованию RAID для корневой файловой системы. Эта стандартная процедура
описана в этом документе.
Просто убедитесь, что все в порядке, попробуйте перезагрузить систему,
чтобы посмотреть загрузится ли новый RAID. Должен загрузиться.
Поместите файловую систему на новый массив (используя
mke2fs), и смонтируйте его в /mnt/newroot
Сейчас, скопируйте содержимое Вашей текущей корневой файловой системы
(с резервного диска) на новую корневую файловую систему (массив). Есть много
способов это сделать, один из них
cd /
find . -xdev | cpio -pm /mnt/newroot
Вы должны модифицировать файл /mnt/newroot/etc/fstab для
использования правильного устройства (корневого устройства /dev/md?)
для корневой файловой системы.
Сейчас, размонтируйте текущуюt /boot файловую систему, и смонтируйте вместо нее загрузочное устройство указанное в /mnt/newroot/boot.
Это требуется для LILO для успешного запуска на следующем шаге.
Обновите /mnt/newroot/etc/lilo.conf для указания на правильные
устройства. Загрузочное устройство должно все еще быть обычным диском (не-RAID
устройством), но root устройство должно указывать на Ваш новый RAID. Когда
сделано, запустите
lilo -r /mnt/newroot
Этот запуск LILO дожен завершиться без ошибок.
Перезагрузите систему, и смотрите, чтобы все происходило как ожидается :)
Если Вы делаете это с IDE дисками, удостоверьтесь что установили в BIOS, что
все диски ``auto-detect'' типа, таким образом BIOS позволит Вашей машине
загружаться даже если диск отсутствует.
Метод 2
Этот метод требует, чтобы Вы использовали raidtools/патч, которые включают
директиву failed-disk. Это должны быть утилиты/патч для всех ядер
от 2.2.10 и выше.
Вы можете использовать этот метод только на RAID уровня 1 и выше.
Идея состоит в использовании установки системы на диск специально отмеченный
как отказавший в RAID, тогда скопировав систему на RAID, запущенный в
деградированном режиме, и затем сделав доступным для RAID уже не нужный
``инсталляционный диск'', уничтожаете старую установку, но запускаете RAID в не
деградированном режиме.
Сначала, установите обычную систему на один диск (который позже будет
частью Вашего RAID). Важно, чтобы этот диск ( или раздел) не был наименьшим.
Если это так, будет позже не возможно добавить его в массив RAID!
Теперь, возьмите ядро, патчи, утилиты и т.п. Вы уже заучили это.
Сделайте Вашу систему загрузочной с Вашим новым ядром, который
содержит необходимую поддержку RAID скопмилированой в ядре.
Сейчас, установите RAID с вашим текущим корневым устройством как
отказавшим диском в фале raidtab. Не помещайте
отказавший диск как первый диск в raidtab, это создаст
проблемы с запуском. Создайте RAID, и поместите файловую систему на него.
Попробуйте перегрузиться и посмотреть, запустится ли RAID должным образом
Скопируйте системные файлы и ре-конфигурируйте систему для использования
RAID в качестве корневого устройства, кaк описано в предыдущей секции.
Когда Ваша система успешно загрузиться с RAID, Вы можете модифицировать
файл raidtab для включения предыдущего отказавшего диска как
обычного raid-диска. Сейчас, raidhotadd диск ваш RAID.
Сейчас Вы должны получить систему, которая может загружаться с не
деградированного RAID.
Чтобы ядро смогло смонтировать корневую файловую систему, вся поддержка
для устройства, на котором расположена корневая файловая система, должна
быть в ядре. Таким образом, в случае монтирования файловой системы на RAID
устройстве, ядро должно содержать поддержку RAID.
Обычный способ удостовериться, что ядро может видеть RAID устройство -
просто скомпилировать ядро с вкомпилированой поддержкой RAID. Убедитесь, что
компилируете поддержку RAID в ядро, а не как модули. Ядро
не может загружать модули (с корневой файловой системы) перед монтированием
файловой системы.
Однако, с RedHat-6.0 поставляется с ядром, которое содержит поддержку RAID
нового стиля в виде модулей, я здесь опишу как можно использовать стандартное
ядро RedHat-6.0 и все еще загружать систему с RAID.
Загрузка с RAID в виде модуля
Для достижения этого, Вы должны указать LILO использовать RAM-диск.
Используйте команду mkinitrd для создания ramdisk, содержащего
все модули ядра необходимые для загрузки корневого раздела. Это можно сделать
так:
mkinitrd --with=<module> <ramdisk name> <kernel>
Например:
mkinitrd --with=raid5 raid-ramdisk 2.2.5-22
Это должно гарантировать, что ядро найдет указанный RAID модуль при
монтировании устройства во время загрузки.
Никогда, НИКОГДА, никогда не пере-размечайте разделы дисков, которые
являются частью рабочего RAID. Если Вы должны изменить таблицу разделов на диске,
который - часть RAID, сначала остановите массив, затем пере-размечайте.
Поместить много дисков на одну шину очень просто. Обычная шина Fast-Wide SCSI
может выдерживать до 10 Мб/с, что меньше, чем могут дать многие современные
диски. Размещение шести таких дисков на одной шине, конечно, не даст ожидаемого
прироста производительности.
Многие SCSI контроллеры дадут Вам наивысшую производительность, если
SCSI шины почти маскимально забиты дисками на них. Вы не увидите
увеличения производительности от использования двух 2940s с двумя старыми SCSI
дисками, вместо простого подключения двух дисков к одному контролеру.
Если Вы забудете опцию persistent-superblock, Ваш массив может сразу не
запуститься после остановки. Просто пере-создайте массив с установленной
опцией в raidtab.
Если RAID-5 отказывается реконструироваться после удаления и повторного
добавления диска, это может быть из-за порядка устройств в raidtab.
Попытайтесь переместить первую ``device ...'' и ``raid-disk ...'' пару
в низ описания массива в фале raidtab.
Большинство ``сообщений об ошибках'' , которые мы видим в linux-kernel,
от людей, у которых как-то не работает правильный патч RAID с правильной версией
raidtools. Если Вы используете 0.90 RAID, убедитесь, что используете raidtools
для этой версии.
Emanual.ru – это сайт, посвящённый всем значимым событиям в IT-индустрии: новейшие разработки, уникальные методы и горячие новости! Тонны информации, полезной как для обычных пользователей, так и для самых продвинутых программистов! Интересные обсуждения на актуальные темы и огромная аудитория, которая может быть интересна широкому кругу рекламодателей. У нас вы узнаете всё о компьютерах, базах данных, операционных системах, сетях, инфраструктурах, связях и программированию на популярных языках!