четверг, 24 апреля 2008 г.

Кластер RedHat: некоторые аспекты и тонкости реализации и использования(ч.5)

Часть 4

Продолжаем тестирование по пунктам.

9. Отключение emulex контроллера на активной ноде (имитация отказа доступа к SAN storage)
10. Отключение emulex контроллера на пассивной ноде (имитация отказа доступа к SAN storage)

При останове на активной ноде - сервисы мигрируют, нода перезагружается.
При останове на пассивной - нода выпадает из кластера, перезагружается (qdiskd мониторинг)

среда, 23 апреля 2008 г.

Кластер RedHat: некоторые аспекты и тонкости реализации и использования(ч.4)

Часть 3
Часть 2
Часть 1

Повторение отключений интерфейсов (сетевых и оптического к SAN) но не логически, а физически.

Результаты сходны, однако проявилась неприятность. Дело в том, что данный кластер мониторится также при помощи quorum диска ( qdiskd ). В настройках которого добавлена опция heuristic. Эвристическая проверка проводилась пингованием соседней ноды. В результате при отключении интерфейса, через который шел пинг, на пассивной ноде, перегружались обе ноды, и активная и пассивная!

среда, 16 апреля 2008 г.

CentOS 5.1 и D-Link Wifi

Столкнулся с серьезной проблемой.

Имеем WiFi: D-link Access Point DWL-2100AP и сетевушку D-Link DWL-G550 PCI на чипе Atheros AR5212

Сама сетевушка завелась без проблем (драйвер ath_pci), а вот коннектиться к точке доступа в упор не захотела. Притащил на работу. проверил на другой машине с AP Netgear - без малейших проблем запускается. С 2100AP - не хочет.

В общем, после танцев с бубнами перешили точку доступа на последнюю прошивку - полегчало, завелось сразу же, WPA2 поднялся без проблем на wpa_supplicant.

вторник, 15 апреля 2008 г.

Кластер RedHat: некоторые аспекты и тонкости реализации и использования(ч.3)

Часть 1
Часть 2

5. Поочередное отключение сетевых интерфейсов на активной ноде


  • Отключение eth0 командой ifdown eth0 (поочередно на обеих нодах)
    Сервисы мигрировали на другую ноду. Нода с поврежденным интерфейсом осталась работать.

  • Отключение eth3 командой ifdown eth3.
    Тут интересней. Интерфейс eth3 используется для внутрикластерной коммуникации.
    Как я понял, ноды пообщались через qdiskd (SAN раздел), активную (на которой был отключен интерфейс) отправили на ребут, сервисы мигрировали.


6. Поочередное отключение сетевых интерфейсов на пассивной ноде


  • Отключение eth0
    Никакой реакции кластера. Что и следовало ожидать

  • Отключение eth3
    Кластерным ПО зафиксированы проблемы на ноде, отправлена на перезагрузку.


понедельник, 14 апреля 2008 г.

Кластер RedHat: некоторые аспекты и тонкости реализации и использования(ч.2)

Часть 1

Результаты тестирования кластера:

1. Штатное выключение активной ноды.
Останов ноды производился командой shutdown -h now.
Сервисы смигрировали. Время миграции сервисов - десятки секунд (менее минуты) и, в основном, определяются временем остановки и старта собственно запускаемых программ.

2. Штатное выключение пассивной ноды.
Отработало нормально. Но есть особенность. В некоторых случаях (зависимость от чего-либо не определена) после запуска компьютера нормально не стартует rgmanager. Признаки: на одной ноде clustat выдает нормальный статус обеих нод, на второй - не показывает состояние кластерных сервисов.

Проблемы установки Windows XP или Устанавливайте Лицензионное ПО!

Сегодня заменяли на одной из машин Vista Business на Windows XP (пользователь на висту уже полгода матерился).

XP - лицензионная, OEM версия, свежие поставки, SP 2a.

Железо: MB Asrock Conroe XFire E-SATA (не надо кривиться, эти материнки на удивления оказались весьма неплохи), PIV, видео MSI 7300GT Silent, HDD - Seagate 250 16M кеша.

Начали ставить "лицензионно чистую" XP. В процессе установки - синий экран с комментарием: "Вам бы на вирусы провериться неплохо бы..."

Глаза у меня несколько округлились, в голове мелькали мысли: "Какие вирусы, блин! Машина чистая с переформаченным винтом! Разве что MS в нагрузку с дистрибутивом рассылает...". В общем, не долго думая, берется OEM диск с более ранних (годовой давности) поставок с SP2. Все становится на "ура" и работает.

Вот такая реализация рекламных лозунгов: "Приобретая лиценионное ПО вы получаете надежную операционную систему"

Кластер RedHat: некоторые аспекты и тонкости реализации и использования

Итак, для того, чтобы обеспечить бесперебойную работу важных сервисов (как минимум, в режиме 24х7), в нашей организации было решено провести ряд экспериментов с кластерным решением от RedHat (RedHat Cluster Suite).

Исходные условия:
в датацентре выделили два компьютера HP Proliant DL380
- CPU: 4 Intel Xeon 3Ghz
- RAM 4Gb
- 4 гигабитных сетевых карты (задействовано только две)
- OS: Enterprise Linux Server release 5.1 (Carthage), он же Oracle Unbreakable Linux 5.1
- внешний SAN storage для кластерных сервисов, подключение через 2хгигабитную карту emulex, fiber optic.
- кластерная FS была выбрана ocfs2 (GFS2 показала себя очень нестабильной)

На все это была установлена RedHat Cluster Suite из стандартного комплекта.