Рубрика «виртуализация» - 100

image

Компания Synology объявила о выходе на рынок нового NAS сервера корпоративного класса RackStation RS10613xs+ со сверхвысокой производительностью до 400,000 IOPS чтения с возможностью масштабирования до 106 дисков. Помимо этого, новый продукт обладает несколькими уровнями резервирования, для обеспечения надежной и непрерывной работы.
Читать полностью »

Применение виртуализации ввода вывода для повышения масштабируемости ЦОДа и защиты инвестиций в существующее оборудованиеУважаемые читатели,

мы открываем цикл публикаций, посвященный инновационной технологии виртуализации серверного ввода-вывода, в котором сделаем краткое сравнение с технологиями FCoE и iSCSI, детально рассмотрим устройство виртуализации ввода-вывода и архитектуру ЦОД с использованием данной технологии, ознакомим аудиторию с основными характеристиками и особенностями подключения и эксплуатации устройства виртуализации ввода-вывода, а также покажем результаты сравнительного тестирования.

Представляем вашему вниманию первую статью цикла.
Читать полностью »

25 октября вышла новая версия нашего флагманского продукта – Veeam Backup & Replication 6.5. Новая версия включила в себя ряд интересных усовершенствований, одна из которых – восстановление виртуальных машин (ВМ) из “снэпшотов” SAN (аппаратных снимков). Ниже я коротко расскажу про эту технологию подробнее.

Кратко об СХД HP LeftHand Storage

После появления виртуальных сред в компаниях появилась возможность запуска на одном сервере нескольких ВМ. Со временем количество серверов, ВМ и приложений в компании растет, а емкости и производительности систем хранения данных (СХД) становится недостаточно. Эта проблема решается добавлением дополнительных дисковых полок до того момента, пока контроллерная пара СХД не станет узким местом в развитии инфраструктуры. При наступлении такой крайней ситуации обычно компании решают либо заменить контроллерную пару (upgrade), либо поставить новую СХД.

С точки зрения архитектуры HP SAN Left Hand Storage (HP SAN) принципиально отличается от стандартных СХД тем, что масштабируются не только по емкости, но и про производительности. HP SAN не имеет отдельных контролеров и отдельных дисковых полок, а каждый массив обладает своими ресурсами (процессор, диски, кэш, порты ввода / вывода), поэтому наращивая массив компания не только увеличивает дисковые ресурсы, но и процессорную емкость, кэш, т.д.

Таким образом, HP SAN представляет из себя кластер из узлов хранения, где каждый узел – это полноценное хранилище данных. Между узлами происходит автоматическое перераспределение данных, и все это управляется через единую консоль. При добавлении новых узлов производительность и надежность HP SAN только возрастает.

Подробнее можно посмотреть хорошее поясняющее видео (на английском).
Читать полностью »

image

В многих местах вижу вопросы о том, как настроить ipv6 для контейнеров в proxmox, а так-же, почему не работает онлайн бекап.

Сам уже довольно давно пользуюсь proxmox для виртуализации openvz (разделение сервисов, тесты, дев. окружения) ну и все это крутится на hetzner.

О том, как установить и настроить proxmox — писать не буду, на Хабре в частности, да и в интернете в целом — этой информации полно. Не смотря на то, что лучший источник такой информации — официальный вики.

Но что в вики нет, так это того, как же правильно ставить proxmox на дебиан.
Читать полностью »

Установка системы управления виртуализацией (openvz, kvm) proxmox 2.2 на сервер в Hetzner
Proxmox для конечного потребителя веб интерфейсом для управления виртуальными машинами, позволяет создавать виртуальные машины linux в kvm и openvz контейнерах, windows в kvm. Резать ресурсы в видео количества ядер cpu, объема памяти, ограничения io в мегабайтах в секунду и iops (только kvm). Присутствуют автоматические бекапы, возможно делать их на удаленное хранилище, можно пометить некоторые диски в виртуалках галочкой “не для бекапа”.
Читать полностью »

image
«1. Держите сервера за границей»
(с) 9,5 правил ведения безопасного бизнеса в России

Вводная часть.

Мы — маленькая компания из 10 сотрудников, половина из которых периодически работает удаленно.
Что мы имели изначально: сервер с Windows и терминальным доступом, который стоял в офисе. У всех пользователей были ноутбуки. Никакой особо конфиденциальной информации у нас нет, за исключением важной для бизнеса информации.
В один прекрасный момент меня окончательно «добила» паранойя и было принято решение вынести сервер за пределы офиса.

Читать полностью »

Корпорация IBM официально представила новую систему хранения начального уровня Storwize V3700, предназначенную для малого и среднего бизнеса, которая должна заменить чрезвычайно успешную DS3500 (NetApp E2600).

Читать полностью »

image

Пользователь твиттера с ником STUN опубликовал сегодня исходные коды ядра VMware ESX Server.

WILD LEAKY LEAK. FULL VMware ESX Server Kernel LEAKED 1337x.org/torrent/421062/VMware-ESX-Server-Kernel-LEAKED/ #Anonymous #AntiSec

Читать полностью »

Задача: Запустить, настроить n (в примере будем запускать 3) qemu машин с ОС ubuntu-12.04.1-server-amd64-1шт. и FreeBSD-9.0-RELEASE-amd64. Версия amd64 является рекомендованной разработчиками ubuntu.

1. Инсталляция (Не забываем обновить порты товарищи BSD'дельники)


main [16:54:emulators/qemu]# cd /usr/ports/emulators/qemu                                                 
main [16:55:emulators/qemu]# make install clean


                                                                  

Итак:


main [17:25:emulators/qemu-devel]# pkg_info | grep «qemu»                                                 
kqemu-kmod-devel-1.4.0.p1_5 Kernel Accelerator for QEMU CPU Emulator (development versi
qemu-0.11.1_11 QEMU CPU Emulator                                                                                
main [17:25:emulators/qemu-devel]# 


                                                                                   
Ускоритель и процессорный эмулятор установлены.

2. Создание рабочего пространства и настройка окружения

main [17:40:/usr/QEMU]#mkdir —p /usr/QEMU/UbuEx1


Скачаем образ загрузочного диска ubuntu-12.04.1-server-amd64.iso с официального сайта. Загружаем модули ядра и добавляем их в loader.conf (создаем при необходимости)


main [17:53:/usr/QEMU]# touch /boot/loader.conf
main [17:53:/usr/QEMU]# echo 'kqemu_load=&aquo;YES»' > > /boot/loader.conf
main [17:53:/usr/QEMU]# echo 'aio_load=&aquo;YES»' > > /boot/loader.conf


kqemu.ko — Модуль акселерации.
aio.ko — Модуль асинхронного ввода-вывода.

Или можно добавить модуль aio в ядро, так же для эмуляции работы в сети нам потребуется устройство tap, а следовательно в ядро необходимо подгрузить следующие модули:


options VFS_AIO
device tap
options IPFILTER
options IPFILTER_LOG

main [17:53:/usr/QEMU]# cd /usr/src
main [17:53:/usr/QEMU]# make buildkernel KERNCONF=< kernel_name >

main [17:53:/usr/QEMU]# make installkernel KERNCONF=< kernel_name >

main [17:53:/usr/QEMU]# shutdown —r now


Если не подгрузить модуль aio.ko то QEMU упадет с криком:


Bad system call: 12 (core dumped)


В том случае если вы планируете налаживание сетевого взаимодействия между хостовой FreeBSD и гостевыми системами необходимо так же загрузить седующие модули:


main [18:14:~]# kldload if_bridge
main [18:14:~]# kldload if_tap


После перезагрузки мы увидим, наши модули как погруженные в ядро:


main [18:22:~]# kldstat
Id Refs Address Size Name
1 28 0xffffffff80200000 1203808 kernel
2 1 0xffffffff81404000 2bdd0 kqemu.ko
3 1 0xffffffff81612000 42a7 linprocfs.ko
4 1 0xffffffff81617000 1e00b linux.ko
5 1 0xffffffff81636000 1582 fdescfs.ko
6 1 0xffffffff81638000 64b00 radeon.ko
7 1 0xffffffff8169d000 13a2b drm.ko
8 1 0xffffffff816b1000 2655 if_tap.ko
9 1 0xffffffff816b4000 55fe if_bridge.ko
10 1 0xffffffff816ba000 353d bridgestp.ko


bridgestp.ko — подгрузился автоматически.

Далее убедитесь что ваша основная шина IDE-master подерживает тенологию DMA (сейчас ее поддерживает большенство архитектур)

Так как неободимые модули ядра уже загружены — продолжим подготовку хостовой ОС к предстоящей настройке сети в гостевой ОС. После загрузки модуля if_tap.ko, среди сисемных переменных появятся те, которые регулируют работу интерфесов tap*. Нас интересует две —


main [19:26:~]# sysctl -a | grep «net.link.tap»
net.link.tap.debug: 0
net.link.tap.devfs_cloning: 1
net.link.tap.up_on_open: 0
net.link.tap.user_open: 0


net.link.tap.up_on_open — переводит интерфес в положение up, когда открыт /dev/ tap. net.link.tap.user_open — позволит пользователям открывать /dev/tap. Для ограничения использования устройств /dev/tap* изменим его владельца и права доступа к нему. Это можно сделать задав правила devfs в файле /etc/devfs.rules, по умолчанию в FreeBSD 9.0 его нет, поэтому создаем.


main [20:12:~]# touch /etc/devfs.rules
main [20:18:~]# echo "[sysqemu=11]" >> /etc/devfs.rules
main [20:17:~]# echo «add path 'tap*' mode 0660 group qemu» >> /etc/devfs.rules


Теперь изменим переменные:


main [20:20:~]# sysctl net.link.tap.user_open=1
net.link.tap.user_open: 0 -> 1
main [20:21:~]# echo net.link.tap.up_on_open=1
net.link.tap.up_on_open=1


Теперь подготовим сеть. Мне необходимо, чтобы ко всем машинам можно было подключиться снаружи по IP и они имели выход в локальную сеть виртуалных машин. Итак необходимо создать bridge интерфейс объеденив в него 3 tap интерфейса.
Читать полностью »

Состоялся выпуск новой версии Veeam Backup & Replication 6.5 для VMware и Hyper-V. Версия содержит более 50 усовершенствований, большая часть которых вошла и в бесплатную версию продукта. Наиболее интересные и важные среди них:

  • E-Discovery и гранулярное восстановление объектов Exchange сервера
  • Восстановление из снимков дисков HP SAN
  • Поддержка vSphere 5.1 и Windows Server 2012 Hyper-V
  • Обеспечение корректности IP пакетов соединений при передаче резервных копий через WAN

Рассмотрим их подробнее:
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js