Home-Virtual-Lab (vSphere + Microsoft iSCSI) — Часть 1

в 11:08, , рубрики: hardware, iscsi, virtual lab, VMware, Windows Server 2012, виртуализация, Серверное администрирование, системное администрирование, метки: , , , ,

Добрый день Коллеги,

Вступление

Это моя первая статья на Хабре. Я не очень знаком с аудиторией сайта, поэтому что то может быть написано слишком кратко, а что то наоборот слишком подробно — не судите строго, обязательно исправлюсь, главное задавайте вопросы и пишите в комментария что было лишнее. Спасибо!

Цель

Дело было в мае, на тот момент я уже пол года работал как папа-Карло (хотя наверное даже хуже, у него хотя бы нарисованный очаг был) и порядком устал от такой жизни. Уволился по собственному желанию и решил подтянуть свои технические знания. Как нельзя кстати, пришелся ежегодный форум VMware в Москве. По его результатам решил все же построить дома свою виртуальную лабораторию. Такие мысли бродили в голове уже давно, поэтому когда несколько лет назад я собирал себе компьютер, поставил в него 8Гб оперативной памяти (тогда это было избыточно) и планировалось поднять на нем несколько виртуалок. На практике так ничего и не сделал т.к. не удобно совмещать игровую и рабочие системы, а главное не было цели. Сейчас цель есть – VMware ChargeBack, продукт о котором я знаю уже довольно много лет, но если раньше он явно был сырой (убедился в этом в ходе продолжительной дискуссии с вендором), то в ходе все того же форума VMware я понял что продукт растет и мне стоит освежить свои знания.

Техническая часть

Стандартным вариантом для систем виртуализации являются блейд сервера, они удобны т.к. занимают мало места, легко расширяемы и управляются с одной консоли корзины или даже целой стойки. Данные же лежат на централизованном дисковом массиве, доступ к которому осуществляется по SAN (FC) или Ethernet (iSCSI, FCIP).Но что хорошо для организации не годится для дома, причем сразу по многим причинам, начиная от цены и заканчивая размерами и уровнем шума.
Блейд корзина HP С7000
Небольшое отступление, в моей домашней сети есть несколько компьютеров, каждый выполняет свою роль и по мере жизненного цикла что то меняется, что то перетекает из одной роли в другую и так далее. Большинство моих данных расположены на файловом сервере (если быть точнее копия данных). Для просмотра фильмов собран достаточно компактный HTPC (было ужасное требование по глубине компьютера т.к. он стоит на полке над телевизором). Ну и конечно есть обычный стационарный компьютер для работы и игр. Все три компьютера достаточно старые и имеют разный форм фактор: файловый сервер — mATX, HTPC – mini-ATX и АТХ у основного компьютера, сокет везде 775-й т.к. собиралось все примерно в одно время. Причем цель стояла максимум эффективности за меньшие деньги.

Большие претензии были как раз к медленной работе домашнего «файл сервера». Название громкое, но по сути это обычный офисный компьютер с той лишь разницей что в нем стоит несколько жестких дисков собранных в софтовый Raid-5 массив. Материнская плата – бюджетная, на устаревшем Intel 9хх чипсете, процессор 640-й (одно ядро прескот) и 2Гб памяти, компьютер достался мне бесплатно, я лишь докупил 3 жестких диска по 1Тб которые поставил в серверные салазки 5.25"-3.5" с целью улучшения вентиляции. Последней каплей стала сгоревшая сетевая карта.

В меньшей степени я был недоволен НТРС, большинство фильмов он воспроизводит отлично, но с некоторыми ремуксами иногда возникают проблемы. Причины проблем две (если не брать во внимание кривые руки тех кто делает ремуксы), первая это видеокарта Intel X4500HD (материнская плата Intel DG45FC) которая не имеет столь же отлаженных драйверов как у nVidia или AMD. Вторая была связана с моим, уже устаревшем телевизором (50" плазма Самсунга), он не умеет добавлять кадры при проигрывание 24р фильмов, в итоге изображение иногда немного дергается. Существует софтверное решение – проигрыватель который умеет вставлять кадры и делает картинку реально плавной, но к сожалению активация данного режима возможна только при наличие 4-х физических ядер, тогда как на HTPC их только два (процессор Intel Dual Core 5200).
К основному системнику претензий нет, отчасти потому что с момента его покупки я поменял видеокарту с GTX 260 на 560 Ti, а также перенес систему на SSD ADATA S511. В общем полная замена системника запланирована на 2013 год.
Итого, имеем несколько компьютеров разного форм фактора и с разной степенью претензий. Таким образом к основной задаче по построению виртуальной лабы добавилась вторая — навести порядок.

После долгих размышлений и подсчетов получилась такая картина:

  1. HTPC должен быть все в том же mini-ATX форм факторе и желательно с 4-мя физическими ядрами. Причем Ivy Bridge пришлось отбросить т.к. младшая линейка на тот момент еще не вышла.
  2. После замены HTPC использовать имеющееся железо под файловый сервер, тем самым перевести его на mini-ATX форм фактор (такой план был запланирован изначально) и прикупить наконец приличный корпус. Пока же решить проблему с сетевой картой минимальными средствами.
  3. Основной компьютер не трогать до 2013 года т.к. старичка Q9400 разогнанного до 3.6ГГц хватает и сейчас, как и 8Гб оперативки, ну а отстутствие SATA3 и USB 3.0 я пока переживаю без проблем.
  4. Оборудование под виртуальную лабу привязать к одному из первых трех пунктов т.к. она нужна временно, пока я нахожусь без работы и имею свободное время.

Начну с простого. На барахолке одного известного сайта была приобретена отличная (но устаревшая) материнская плата ASUS P5N7A-VM. Чем она хороша? Форма фактор mATX, встроенная графика достаточная для простеньких игр и просмотра фильмов, гигабитная сеть, твердотельные конденсаторы. Также у коллеги по работе нашелся процессор Intel E4600 – самое то для файл сервера. Кроме того с материнской платой мне досталось 2*2Гб оперативной памяти, что приятно т.к. в качестве операционной системы я использую Windows (да, я знаю про FreeNAS и прочие системы, но мне нужен именно Windows Server в силу моей исторической любви к «окошкам»). Замечу также что в дальнейшем данное железо уедет на дачу т.к. более чем достаточно для работы с документами и старых игрушек.

файлсервер

Прошу обратить внимание, что это временное решение, поэтому я сильно не увлекался его доработкой, главное что диски не греются а система относительно не шумит. На боковой стенке вырезано окно в котором стоит тихий (16дб) 120мм вентилятор закрытый декоративным-пылевым фильтром (кожух от автомобильной аккустики). На фотографии на процессоре стоит активное охлаждение, как будет минутка поменяю на пассивное, как было раньше. Состояние всех компонентов системы мониторится Everest-ом, проблем не было даже жарким летом.

Но вернемся к главной теме – сервер для виртуальной лаборатории (далее просто хост). Пролистав прайс листы магазинов я пришел к выводы что оптимально будет использовать для хоста виртуализации оборудование которое в дальнейшем можно будет применить в качестве HTPC. Такое решение привело меня к процессору AMD A8-3800 серии. Почему? Все просто, относительно низкая цена, хорошая (лучшая) встроенная графика, более дешевые и/или функциональные материнские платы и главное 4 физических ядра! Но как быть с памятью? Формат mini-ATX накладывает серьезные ограничения в виде 2-х слотов. Оказалось все не так страшно, модуль памяти объемом 8Гб стоит совсем немного дороже двух модулей по 4Гб, хотя еще совсем недавно 8Гб плашки были уделом достаточно дорогих серверов и «стоили как самолет».

В итоге было куплено следующее железо:

  1. Процессор AMD A8-3870K (достаточно и обычного 3850, но разница в цене была смешная, тогда как ликвидность версии К гораздо выше).
  2. Материнская плата Gigabyte GA-A75N-USB3 (отдельно рад тому что есть USB 3.0).
  3. Оперативная память Geil Black Dragon 2*8Gb PC3-12800 (частоты выше стандартных опять же по причине минимальной разницы в цене, но лучшей ликвидности).

покупки

В ходе сборки обнаружилась первая проблема. Кулер Thermalright, который я снял с файловогосервера, не имеет крепления под процессоры AMD! Мелким шрифтом написано что оно опционально. Но меня этим не испугать, тем более что на мой взгляд из массы кулеров только у единиц действительно нормальные крепления.Thermalright XP-120

Первым делом надо демонтировать штатные скобы, они явно не годятся для установки да и просто мешаются.

Thermalright XP-120

Примериваемся как лучше поставить и где что мешается. Вариантов не так много из-за размеров радиатора и материнской платы.

Home Virtual Lab (vSphere + Microsoft iSCSI) — Часть 1
Home Virtual Lab (vSphere + Microsoft iSCSI) — Часть 1
Home Virtual Lab (vSphere + Microsoft iSCSI) — Часть 1
Home Virtual Lab (vSphere + Microsoft iSCSI) — Часть 1

Все не так плохо. Зачем только лепят эти ужасные наклейки на память, они же не отрываются нормально. Теперь подумаем из чего бы сделать крепеж? Что это за жестянка лежит…

Home Virtual Lab (vSphere + Microsoft iSCSI) — Часть 1
Home Virtual Lab (vSphere + Microsoft iSCSI) — Часть 1

Отверстия в заглушке от корпуса совпали с крепежными винтами, да еще хватило одной заглушки распиленной пополам. Острые края подточил напильником. Места контакта материнской платы с крепежными винтами защищены шайбами из диэлектрического материала. Пора примерить радиатор:

habrahabr
habrahabr
habrahabr
habrahabr

Не могу сказать что полностью удовлетворен. Крепеж прогибается и буквально миллиметры остаются до некоторых элементов материнской платы. Но в данный момент надо просто проверить работу и понять какой нужен крепеж, чтобы все было красиво. Система запустилась, все отлично. Разве что пришлось повозиться с монитором, у материнской платы нет аналогового выхода, как и у моего тестового монитора нет цифрового входа – пришлось использовать монитор основного компьютера.

Следующий вопрос, а где хранить данные? Первое и самое простое что пришло в голову — взять диски из файлового сервера, подключить их к материнской плате и собрать Raid-0. Но оказалось, что VMware vSphere не содержит драйверов для Raid контроллера чипсета A75 – а я даже не подумал об этом, сказалось то что до этого я ставил гипервизоры только на брендовые сервера.

Поразмыслив я решил использовать iSCSI подключение через гигабитную домашнюю сеть. Конечно это хуже чем прямое подключение, но мне ведь важна не скорость, а изучение современных технологий. Раз технологии современных то пусть и операционная система на файловом сервере будет новой – Windows Server 2012 RC (в данный момент уже доступна финальная версия). Тем более что судя по отзывам, в данной ОС технология презентования томов по iSCSI стала лучше чем в версии 2008 R2.
Новый логотип Майкрософта
Но для начала я все же закончу техническую часть. Зачастую временное решение самое постоянное, но я стараюсь опровергнуть эту аксиому, поэтому работы по созданию нормального крепления для кулера были продолжены. В силу того что мои запасы фурнитуры не велики, я приобрел разных винтов, шайб и гаек. Все дело в том что винты должны были быть не слишком короткие и не слишком длинные т.к. в первом случае они не доставали до крепежной пластины, а во втором упирались в радиатор.

habrahabr
habrahabr

Кроме того вырезал из толстого оргстекла П образную пластину (черчеж был сделал сразу после сборки первого варианта) и просверлил в ней отверстия по винты. Примеряем пластину по месту. Дабы улучшить эстетический вид, пластина отшкурена до матового состояния. Понимаю что при работе этой красоты будет не видно, но мне самому приятно знать что я это сделал.

habrahabr
habrahabr

Равномерно притягиваем радиатор к процессору. Не поленился даже и снял его после пробной инсталяции, просто чтобы убедится что отпечаток процессора ровный и нет перекосов.

habrahabr
habrahabr

Была мысль соеденить свободные концы полоской такого же оргстекла, более того она даже видна на одной из фоток выше, но в итоге решил что она будет лишней, прочтости оказалось и так более чем достаточно.

habrahabr
habrahabr

На последней фотографии система в собранном виде. На флешке операционка. Почему флешка голая? Корпус был слишком большой и тяжелый – металл да еще покрашенный под золото. Черно-белый проводок это кнопка включения т.к. корпус пока не выбрал. Файловый сервер а также хост виртуализации стоят у меня в коридоре и подключены в Wi-Fi роутер ASUS RT-N56U который имеет 4 гигабитных порта. Покупка оборудования и его первая сборка была произведена в конце мая, вторая итерация по улучшению крепления была проделана в середине лета.

На этом я хотел бы закончить техническую часть. Рассказ о настройке ПО уже готова и будет опубликована в ближайшие дни.

Спасибо за то что прочитали статью до конца. Уверен что в ней куча орфографических и синтаксических ошибок, но мой редактор (жена) занята более важными делами, также некоторые фото оставляют желать лучшего, в общем прошу простить и сильно не ругать, во всем виновата нехватка времени. Не стесняемся задавать вопросы и оставлять комментарии.

Автор: infeneon

* - обязательные к заполнению поля


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js