16 самых больших ошибок при настройке кластеров HA и DRS VMWARE

 

  1. Не планирование изменений в аппаратном обеспечении.

    Включить EVC режим на кластерах, и стараться использовать оборудование, которое имеет очень похожие процессоры. Не смешивайте процессоры Intel и AMD. И даже если все ЦПУ одного вендора, новые процессоры будут поддерживать дополнительные инструкции не доступные на старых моделях. Обратите внимание на Процессоры, которые вы покупаете.

  2. Не планирование svMotion (storage vMotion).

    Снапшоты — зло, и вы НЕ должны их использовать, кроме как в редких случаях. Убедитесь, что ваши VMDK в presistent режиме или используйте RDM. Серверы должны видеть исходный и целевой датастор, и кластер должен иметь достаточно ресурсов, чтобы в момент переноса иметь две одновременно запущенные копии ВМ.

  3. Не достаточно узлов в кластере.

    Планируйте необходимые ресурсы кластера и учитывайте необходимость резерва. Как правило, резервы по ресурсам на хостах должны в сумме быть как один полноценный сервер. Решением является использование политики admission control и планирование выхода из строя одного хоста.

  4. Установка в резерв целиком одного хоста.

    Не все ВМ являются критичными и у каждой есть разный приоритет перезапуска. Резервирование всего выделенного хоста может быть нерациональным. Используйте для резерва процент ресурсов, который чуть меньше, чем вклад каждого хоста в полный кластер, в отношении на суммарное количество хостов. Например, в четырех узловом кластере, каждый сервер вносит 25%, в этом случае можно установить процент резерва примерно 20 или 15%.

  5. Отсутствие приоритетов перезапуска VM.

    Если вы используете предложение из 4-го пункта, необходимо правильно настроить приоритет перезапуска VM, поскольку вы не будете резервировать ресурсы кластера для перезапуска ВСЕХ ваших виртуальных машин. Установите обычным ВМ низкий приоритет, а отдельным ВМ поднимите приоритет до среднего или высокого по мере необходимости.

  6. Отключение контроля за резервом (admission control).

    Плохая идея! Никогда, никогда, никогда не делайте этого! Включите опцию – «do not power on if inadequate cluster resources»

  7. Не изменение процента резервирования ресурсов.

    По мере добавления узлов в кластер необходимо пересчитать процент резервирования ресурсов, иначе система будет разбалансирована.

  8. Покупка разнородных серверов.

    Отказоустойчивость должна предусматривать вариант отказа самого большого сервера в кластере. Если есть кластер из шести серверов с 96 ГБ оперативной памяти, и затем вы добавляете сервер с 384 ГБ оперативной памяти, будут слишком разбалансированные расчеты для резервирования, и у вас останется много неиспользованных ресурсов.

  9. Изоляция хостов.

    Это запутанная тема для многих. До версии vSphere 5.0 в этой настройке можно было сделать ошибки, которые давали не совсем ожидаемые результаты. Можно на уровне хоста настроить отключение виртуальных машин при изоляции, но на уровне каждой конкретной виртуальной машины изменить настройки, если на ВМ есть критические приложения, для которых нужно убедиться, что их отключение не случайная ошибка. Начиная с версии 5.0 к настройке изоляции хоста добавились хартбиты хранилища, которые используются только в случае, если сеть хоста не доступна. Серверы в кластере должны иметь по крайней мере одно общее хранилище.

  10. Чрезмерное использование reservations, limits and affinities для ВМ.

    Используйте shares вместо reservations и ограничьте использование affinities (или anti-affinities) правил. Эти ограничения могут оказать влияние на производительность DRS. Используйте с осторожностью!

  11. Делать ограничение по памяти.

    Никогда не делайте это, никогда, никогда! Ограничивайте использования памяти с помощью приложений, если это возможно. Например, вы можете настроить SQL, чтобы ограничить объем памяти, который он будет использовать внутри гостевой виртуальной машины.

  12. Думать, что вы умнее, чем DRS.

    Ни один человек не может вычислить значения всех переменных и выдать правильный ответ. Пусть программное обеспечение делает свою работу.

  13. Не понимание правил DRS балансировки.

    Расчёты по DRS cлишком сложны

  14. Быть слишком либеральными.

    Миграция отнимает ресурсы, будь они пропускной способностью сети или процессорным временем. Не надо настраивать DRS для постоянном миграции рабочей нагрузки между серверами. Необходимо настроить пороги, чтобы сделать разумной миграцию, когда ресурсы действительно находятся вне баланса. vMotion было прикольным 5 лет назад, но сейчас нет необходимости постоянно двигать ВМ просто для забавы.

  15. Слишком много узлов кластера.

    Хотя технически ограничение на кластер 32 узла, но лучше использовать не более 16-24. Чем больше хостов, тем больше расчетов у DRS и все больше и больше потребление ресурсов.

  16. Создание больших виртуальных машин.

    Это новые значения в схеме лицензирования vSphere 5.0. Назначайте нужное количество памяти и виртуальных ЦП для ВМ. Не будьте слишком либеральны. Делайте правильный размер VM, не увеличивайте их ресурсы без необходимости.

Рубрика: Без рубрики | Добавить комментарий

Установка Windows Server 2012 и Windows 8 на ESXi 4.1

Используемая версия ESXi 4.1 Update 3 r800380

Хост – HP Proliant DL380 G5 CPU – Intel Xeon 5160

  1. В настройках BIOS для CPU должен быть включен параметр

    VT-x VT-d
    и No-Execute Memory Protection (Execute Disable Bit)

  2. Делаем ВМ с ОС Windows Server 2008 R2
  3. Скачиваем файл: bios.440.rom

    Кладём его в папку с ВМ

  4. Добавляем в расширенные настройки ВМ

bios440.filename = «<full path to rom image>»
mce.enable = TRUE
cpuid.hypervisor.v0 = FALSE
vmGenCounter.enable = FALSE     

                                    

Рубрика: Без рубрики | Добавить комментарий

Установка FreeNAS 8.3.1 на виртуальную машину VMWare

  1. Создаём ВМ.

    FreeNAS создан на основе системы FreeBSD, поэтому в типе создаваемой ВМ выбираем FreeBSD (64 bit)

     

  2. Вбираем два сетевых интерфейса. Один для управления, другой для сети iSCSI

     

  3. Подключаем ISO образ FreeNAS-8.3.1-RELEASE-p2-x64.iso к ВМ и запускаем установку

  4. После перезагрузки нужно дождаться завершения запуска FreeNAS

    Один интерфейс получил IP адрес по DHCP

    Второй (который будет смотреть в iSCSI сеть) остался пустым

  5. Заходим через веб-браузер.

    Нужно сменить пароль

  6. Из консоли конфигурим оба сетевых интерфейса. Ставим на них статику

  7. Конфигурим шлюз по умолчанию

  8. Конфигурим ДНС – 6 пункт
  9. К ВМ подключаем диск для стораджа как РДМ

     

  10. Службы -> Управление службами – включаем iSCSI

  11. Добавляем портал – сетевой интерфейс на котором будет висеть таргет

     

  12. Добавляем инициатор. Слушаем все подключения изо всех сетей

  13. Добавляем таргет. Указываем созданный портал и инициатор

     

  14. Делаем экстент диска

  15. Связываем цель и экстент

  16. Всё. На этом настройка iSCSI со стороны FreeNAS закончена.

    Со стороны ESXi добавляем Kernel интерфейс смотрящий в сеть iSCSI

    Создаём софтверный iSCSI адаптер

    В настройках софтверного iSCSI адаптера указываем Dynamic Discovery — IP нашего iSCSI Target FreeNAS

     

     

  17. Если всё подключилось правильно, то в настройке Static Discovery увидим имя нашего таргета

  18. А в настройках Storage Adapter-а будет виден опубликованный диск

     

    P.S. Во время создания экстента FreeNas выдавалась ошибка.

    Пофиксилось очисткой данных с диска для которого создавался экстент.

     

     

Рубрика: Без рубрики | Добавить комментарий

Подключение локального диска как RDM на ESXi 5

  1. Находим идентификатор диска

     

  2. Заходим на хост ESXi по SSH
  3. Переходим в директорию с виртуальной машиной

    cd /vmfs/volumes/kiv01esx03lstore01/kiv01san01/
    смотрим файлы расположенные в папке

    ls –l
    находим путь к локальному диску

  4. ls -l /vmfs/devices/disks/

    Создаем vmdk файл ссылкой на RDM (параметр -r для Virtual mode  параметр -z для Phisical mode):
    vmkfstools -z /vmfs/devices/disks/<device> <имя ВМДК-диска>.vmdk

  5. В нашем случае будет так (для ввода удобнее пользоваться «TAB-ом»):

    vmkfstools –z /vmfs/devices/disks/t10.ATA_____ST2000DM0012D1CH164__________________________________W1E35E68 iSCSI.vmdk

     

  6. Смотрим в папке с ВМ появился новый диск

     

  7. Подключаем диск в ВМ как существующий:

Рубрика: Без рубрики | Добавить комментарий

Как писать в блог на WordPress через Microsoft Word

Для работы нам понадобится Microsoft Word 2007 или 2010, а также WordPress выше версии 3.0.1 (если Ваш WordPress имеет версию ниже, то почитайте урок о том, как обновить WordPress).

  1. Напишите статью в Word’е.
  2. Зайдите в админку WordPress –> Параметры –> Написание.
  3. В разделе «Удаленная публикация» напротив фразы «XML-RPC» поставите галочку (Включить протоколы публикации XML-RPC для WordPress, Movable Type, MetaWeblog и Blogger.):

  4. В Microsft Word нажимаете на Файл –> Сохранить и отправить:

  5. Далее выбираете Опубликовать как запись блога –> Опубликовать как запись блога:

  6. В результате этих действий откроется новый документ. Теперь в разделе «Запись блога» заходите в Учетные записи:

  7. Нажимаете на кнопку Создать:

  8. Далее выбираете поставщика блога WordPress:

  9. Нажимаете на кнопку «Далее»:
  10. Вводите в правильном месте адрес Вашего блога, имя пользователя и пароль к нему, поставьте галочку «Сохранить пароль» и нажмите на кнопку Ок (если у Вас где-нибудь «выскочет» окно «Параметры рисунка», просто выберите там пункт «Мой поставщик блога»):

  11. Далее из кнопки «Опубликовать» выбираете пункт «Опубликовать как черновик» (я обычно так делаю, чтобы потом иметь возможность редактирования в плане SEO). Но вы, конечно же, можете сразу же опубликовать свежий пост в блог напрямую:

    Я, как всегда, прописываю название поста, описание к нему и ключевые слова с помощью плагина Platinum SEO Pack и др. необходимые вещи (более подробно, как это делаю я, написано здесь).

    Ну вот и все, по-моему, для любителей писать тексты в Microsoft Word — просто идеальное решение.

Рубрика: Без рубрики | Добавить комментарий

Подключение диска массива QSAN P300Q-D316 к vSphere по iSCSI

Подключение дополнительной полки расширения.

В меню полка расширения видна в настройках  Volume Configuration:

Ниже указаны все диски расположенные в этой полке:

Создаём новую Raid-группу.

Включаем Write Cache  (данные сначала будут писаться в кеш, а не напрямую на диски)

Readahed – подразумевается что доступ к данным идёт последовательный. Поэтому система “догадывается” какие данные будут читаться следующими и загружает их в кеш для следующего использования.

Comand queuing – работа диска со множественным набором команд в очереди.

Один диск делаем Global Spare

Создаём виртуальный диск:

Write-through cache -  техника кэширования, в которой завершение запроса записи не происходит, пока данные хранятся в кеше. Окончание записи происходит после синхронизации данных кэша и физических дисков

Write-back cache — техника кэширования, в которой завершение запроса записи происходит, как только данные попали в кеш. Это ускоряет скорость записи системы, но приводит к риску, когда данные могут быть рассинхронизированы между кэшем данных и физическими дисками на короткий промежуток времени.

Аттачим виртуальный диск к хосту, и вешаем его на определённый таргет  массива:

Делаем Rescan  Storage Adapters в сфере.

Теперь можно добавлять новый Datastore:

Нужно сравнить WWN  виртуального диска на хранилище с WWN  датастора на сфере!

Чтобы убедиться что подключаем  нужный диск!

Рубрика: Без рубрики | Добавить комментарий

Почему Raid 1+0 лучше чем Raid 0+1

RAID 0+1 диски объединяются в stripe-массив, а затем, зеркалируются, то есть половина носителей массива используется как страйп, а половина – как зеркало.

RAID 10 диски попарно объединяются в зеркала, а затем, зеркальные пары объединяются в stripe.

В любом случае (0 +1 или 1 +0), потеря одного диска не приводит к выходу из строя RAID системы. Разница между двумя этими конфигурациями в вероятности того, что потеря второго диска из системы приведет к сбою всей системы.

В RAID 0 +1, нужно потерять один любой диск с каждого набора A и B — это приведет к потере функциональности системы.

В RAID 1 +0, нужно  потерять все диски в зеркале. Это оба диска в любом номером пары на схеме.
Вероятность отказа всей системы в RAID 0 +1  =  (n / 2) / (n — 1), где n общее количество дисков в системе .

Вероятность отказа системы в RAID 1 +0 =  1 / (N — 1).

Таким образом, используя 8-дисков, вероятность того, что потеря второго диска убьёт всю  RAID систему равна  4/7 для RAID 0 +1  и 1/7  для RAID 1 +0.

Еще одним различием между двумя конфигурациями RAID является производительность, когда система находится в нерабочем состоянии, т.е. после того, как Raid потерял один или несколько дисков, но не потерял полную работоспособность.

В RAID 0 +1, потеря любого диска в наборе является причиной сбоя всего набора и набор удаляется из системы RAID. Это означает, что вы остаетесь с RAID 0 системой, состоящей из оставшегося набора дисков. Это, вероятно, немного улучшает производительность записи и слегка ухудшает производительность чтения.

В RAID 1 +0, потеря диска даёт тот же эффект на каждое зеркало, которое теряет диск, но не на систему в целом. Иными словами, RAID 1 +0, как правило, даёт большую производительность при сбое диска, чем режим RAID 0 +1.

Еще одно отличие, это скорость, с которой RAID система восстанавливается после замены неисправного диска. RAID 1 +0 только переписывает один диск, в то время как RAID 0 +1 должен переписать весь набор дисков. Таким образом, RAID 1 +0 будет восстанавливаться значительно быстрее.

Рубрика: Без рубрики | 1 комментарий

Настройки виртуализации в BIOS-е сервера HP ML150 G6

чтобы войти в утилиту BIOS Setup, выполните следующие действия:

Подключите клавиатуру и монитор к серверу.

  1. Включите сервер. Если сервер уже включен, нужно перезагрузить его кнопкой Reset.
  2. Когда появится логотип HP на экране в первые секунды как загружается сервер, нажмите клавишу F10.
  3. Через несколько секунд  будет отображаться главное меню (на рисунке). Примечание: Если не успели нажать F10 и сервер начал загружать операционную систему, необходимо перезагрузить сервер снова.

Главное меню программы BIOS Setup:

Главное меню программы BIOS Setup

Далее  надо зайти в меню  Advanced (сверху ) и затем в CPU Configuration :

меню Advanced

В меню  CPU Configuration   нужно поменять  значение на  [Enabled]   (если оно стоит [Disabled])  в пунктах:

Intel (R) Virtualization Tech       

 Intel (R)  VT-x

Intel (R)  VT-d

Processor  Hyper-Threading

Менять  значение можно кнопками  + или -

Если в каких-то из этих пунктов уже стоит [Enabled], то менять ничего не нужно.

В других пунктах тоже менять ничего не нужно.

Далее нужно нажать F10

Нажать Y для сохранения настроек и выйти.

После этого нужно выключить сервер

И через 3-4 секунды запустить.

Сервер должен начать загружать Операционную систему.

Монитор и клавиатуру можно отключать.

Всё.  Спасибо.

 

Рубрика: Без рубрики | Добавить комментарий