В данном материале описывается процесс миграции свежеустановленного гипервизора Proxmox 3.0 в программный RAID1. Разработчики Proxmox в своей wiki пишут о том, что данное решение официально не поддерживается и не рекомендуется к использованию. Взамен этого предлагается использовать решения на протестированных аппаратных raid-контроллерах. Тем не менее в сети можно найти несколько мануалов по этой теме и практики успешной эксплуатации softraid'а совместно с Proxmox'ом. К сожалению, большинство этих мануалов нельзя назвать пошаговыми руководствами к действию: все они содержат те или иные ошибки, которые мешают достигнуть требуемого результата. Взяв за основу один из таких мануалов, я попытался исправить эту ситуацию. Приведённое ниже решение несколько раз было по шагам протестировано сначала в виртуалке, а затем использовано для миграции данных на реальном железе. В результате этого получился рабочий how-to, который предлагается вашему вниманию. Кому интересно, добро пожаловать под cut.
Читать полностью »
Рубрика «proxmox» - 4
Миграция PROXMOX VE 3.0 в software RAID1
2013-07-16 в 13:53, admin, рубрики: kvm, linux, LVM, mdadm, proxmox, RAID1, виртуализация, системное администрирование, метки: kvm, linux, LVM, mdadm, proxmox, RAID1Вышел релиз системы управления виртуализацией Proxmox 3.0
2013-05-24 в 19:14, admin, рубрики: proxmox, виртуализация, метки: proxmox Proxmox одна из лучших оболочек в виде веб интерфейса для openvz и kvm(как бы я хотел увидеть хороший аналог для centos, говорят это будет opennode).
Удобно что умеет разные штуки для авторизации к примеру ldap, настройку для пользователей всевозможных ролей. Также proxmox умеет работать в кластере HighAvailability, кстати кто юзает проксмокс есть ли возможность распределять нагрузку по нодам проксмокса автоматом? На proxmox я перешел после того как redhat перестало суппортить xen.
Новый релиз базирует на Debian 7, и поддерживает говорят uefi(слава богу я его не встречал на серверах).
Вроде бы появился механизм клонирования виртуалок, вроде удобная и тривиальная вещь, но до сих пор не было.
Перенос физической машины в кластере ProxmoxVE2(3) с DRBD на новое железо
2013-05-24 в 6:04, admin, рубрики: drbd, proxmox, виртуализация, кластер, метки: drbd, proxmox, кластер Имея кластер из двух серверов стоящих на Proxmox с объединенным по DRBD хранилищем, бывает нужно обновить узел в этом кластере, без остановки работы машин в нем. Задача не сложная, но некоторые моменты не всегда вспоминаешь в процессе.
Поэтому, для себя, действия были записаны для будущего копипаста в консоль. Ну а раз уже написаны, почему бы не поделиться с людьми?
P.S. В конце небольшой бонус про расширение блочного устройства по имени DRBD, тюнинг и полезные ссылки.
Кластерное хранилище в Proxmox. Часть третья. Нюансы
2013-04-30 в 7:50, admin, рубрики: cluster, gfs2, iscsi, openvz, proxmox, Блог компании «Alawar Entertainment», виртуализация, системное администрирование, метки: cluster, gfs2, iscsi, openvz, proxmoxЗдравствуйте!
Третья часть статьи является своеобразным приложением к двум предыдущим, в которых я рассказывал о работе с Proxmox-кластером. В этой части я опишу проблемы, с которыми мы сталкивались в работе с Proxmox, и их решения.
Авторизованное подключение к iSCSI
Если вам понадобилось при подключении к iSCSI указать креденшиалы — лучше это делать в обход Proxmox. Почему?
- Во-первых, потому что через web-интерфейс Proxmox невозможно создать авторизованное iSCSI-подключение.
- Во-вторых, даже если вы решите создать в Proxmox неавторизованное подключение с тем, чтобы указать авторизационную информацию вручную, то вам придется бодаться с системой за возможность изменить конфигурационные файлы таргетов, так как при неудачной попытке подключения к iSCSI-хосту Proxmox перезаписывает информацию о таргетах и производит повторную попытку подключения.
Кластерное хранилище в Proxmox. Часть вторая. Запуск
2013-01-24 в 13:52, admin, рубрики: cluster, gfs2, iscsi, proxmox, Блог компании «Alawar Entertainment», виртуализация, системное администрирование, метки: cluster, gfs2, iscsi, proxmox
Здравствуйте!
Это вторая часть статьи о работе c кластерным хранилищем в Proxmox (первую можно найти тут). Сегодня поговорим о подключении хранилища к кластеру.
В качестве кластерной системы мы используем Global File System 2.
GFS2 в Proxmox функциональна, но разработчики Proxmox официально не поддерживают ее. Однако ядро Proxmox основано на RedHat-ядре RHEL6x-ветки. То есть поддержка GFS2 в ядре весьма зрелая. Обвязка тоже ведет себя вполне стабильно, за исключением нескольких нюансов, о которых я расскажу позже. Сам пакет gfs2-utils представляет собой практически не измененную (есть лишь патчи в стартовых скриптах на предмет подгона под дебиановскую специфику) стабильную редхатовскую версию gfs2-utils-3.1.3
Пакет gfs2-utils появился в Proxmox в феврале 2012 года. Родной же дебиановский пакет gfs2-tools дико конфликтует (что неудивительно) со всем RedHat-кластером из Proxmox, поэтому до Proxmox версии 2.0 из коробки GFS2 была совершенно неюзабельна.
Итак, огромным плюсом является то, что фундамент для взведения GFS2 в Proxmox уже выстроен.
Читать полностью »
Кластерное хранилище в Proxmox. Часть первая. Fencing
2012-12-20 в 10:27, admin, рубрики: cluster, proxmox, Блог компании «Alawar Entertainment», виртуализация, системное администрирование, метки: cluster, proxmoxЗдравствуйте!
Хочу рассказать о том, как мы используем у себя Proxmox Virtual Environment.
Я не буду описывать установку и первоначальную настройку — Proxmox очень прост и приятен и в установке, и в настройке. Расскажу о том, как мы используем систему в кластерном окружении.
Для полноценной работы кластера необходимо, чтобы управление виртуальной машиной оперативно могли брать на себя разные хосты кластера. Данные виртуалок при этом не должны никуда копироваться. То есть все хосты кластера должны иметь доступ к данным конкретной машины, или, иными словами, все хосты кластера должны работать с единым хранилищем данных, в рамках которого работает конкретный набор виртуальных машин.
Proxmox работает с двумя типами виртуализации: уровня операционной системы, на основе OpenVZ и аппаратной, на основе KVM. В этих двух типах используется разный подход к утилизации дискового пространства. Если в случае с OpenVZ-контейнерами работа с диском виртуальной машины осуществляется на уровне файловой системы хоста, то в случае с KVM-машинами используется образ диска, в котором находится собственная файловая система виртуальной машины. Операционная система хоста не заботится о размещении данных внутри KVM-диска. Этим занимается гипервизор. При организации работы кластера вариант с образами диска реализуется проще, чем работа с файловой системой. Данные KVM-машины с точки зрения операционной системы хоста могут просто находиться "где-то" в хранилище. Эта концепция замечательно ложится на схему работы LVM, когда образ KVM-диска находится внутри логического тома.
В случае же с OpenVZ мы имеем дело с файловой системой, а не просто с областями данных на Shared Storage. Нам нужна полноценная кластерная файловая система.
О кластерной файловой системе речь пойдет не в этой части статьи. О работе с KVM — тоже. Сейчас поговорим о подготовке кластера к работе с общим хранилищем.
Читать полностью »
Настройка ipv6 в Proxmox и заметки о lvm
2012-11-10 в 12:34, admin, рубрики: Hetzner, IPv6, LVM, proxmox, виртуализация, метки: Hetzner, IPv6, LVM, proxmox
В многих местах вижу вопросы о том, как настроить ipv6 для контейнеров в proxmox, а так-же, почему не работает онлайн бекап.
Сам уже довольно давно пользуюсь proxmox для виртуализации openvz (разделение сервисов, тесты, дев. окружения) ну и все это крутится на hetzner.
О том, как установить и настроить proxmox — писать не буду, на Хабре в частности, да и в интернете в целом — этой информации полно. Не смотря на то, что лучший источник такой информации — официальный вики.
Но что в вики нет, так это того, как же правильно ставить proxmox на дебиан.
Читать полностью »
Установка системы управления виртуализацией (openvz, kvm) proxmox 2.2 на сервер в Hetzner
2012-11-09 в 15:40, admin, рубрики: Hetzner, kvm, openvz, proxmox, виртуализация, метки: Hetzner, kvm, openvz, proxmox
Proxmox для конечного потребителя веб интерфейсом для управления виртуальными машинами, позволяет создавать виртуальные машины linux в kvm и openvz контейнерах, windows в kvm. Резать ресурсы в видео количества ядер cpu, объема памяти, ограничения io в мегабайтах в секунду и iops (только kvm). Присутствуют автоматические бекапы, возможно делать их на удаленное хранилище, можно пометить некоторые диски в виртуалках галочкой “не для бекапа”.
Читать полностью »
Живая миграция виртуальных машин в ProxMox VE 2.x
2012-07-22 в 3:26, admin, рубрики: cluster, high availability, kvm, proxmox, qemu, виртуализация, живая миграция, системное администрирование, метки: cluster, high availability, kvm, proxmox, qemu, виртуализация, живая миграцияНедавно был поднят вопрос об использовании VmWare vMotion в небольшом кластере гипервизоров, однако цена данной возможности заставила немного пошевелиться в поисках альтернатив.
Так родился небольшой тестовый дайджест по настройке и эксплуатации возможности Live Migration виртуальных машин на основе QEMU в ProxMox VE 2.1 с использованием iSCSI NAS.
Нужно сказать что во второй версии ProxMox VE, девелоперы избавились от центральной ноды менеджмента кластера. Теперь ее роль может исполнять любая нода кластера, «был бы кворум» (с)