Существуют различные методы организации централизованной системы хранения данных.
Тем не менее большинство таких методик так или иначе можно свести к одному из трёх направлений…
Три пути к СХД
Первый путь — сделать ставку на широко разрекламированные решения от известных брендов. Когда покупается оборудование самых известных и дорогих производителей. Устанавливается и обслуживается подобная система исключительно силами высокооплачиваемых специалистов, прошедших обучение на курсах от вендора и сдавших экзамен на сертификат.
Такая система является достаточно надёжной, производительной и, разумеется, дорогостоящей.
Конечно, жизнь диктует свои компромиссы, но если говорить о стратегии подхода, это то, что описано выше.
Примером такого подхода могут послужить, например, системы хранения от Dell EMC со средой передачи данных на базе Fibre Channel от Brocade. Среди российских систем затруднительно назвать таких же известных и «маститых» производителей.
Второй путь лежит в приобретении уже готового решения «под ключ». Если в первом варианте присутствовал некоторый элемент неопределённости на этапе выбора производителя, оборудования, исполнения и тому подобного, то во втором случае уже всё собрано, протестировано и полностью готово к работе.
Примером такого подхода может служить система «Полибайт» от российской компании ООО «АРСИЭНТЕК». Если говорить о зарубежных производителях, то на ум приходит СХД в составе IBM Pure Systems.
Третий путь заключается в более или менее полном контроле над создаваемой системой. То есть системный архитектор, инженер или администратор сам выбирает конфигурацию СХД, подбирает оборудование, зачастую от различных производителей, полагаясь не только на знакомое название, но и на свои знания и опыт.
Если говорить о том какой подход предпочтительней, то нужно учесть множество факторов. Среди них:
- Сколько денег заложено в бюджете?
- Какой прирост данных ожидается за определённый период времени?
- Какие требования к отказоустойчивости и минимальному времени простоя?
- Как будет организован доступ к данным?
- Кто будет монтировать, подключать и обслуживать эту систему?
- Как будет выполняться резервное копирование?
И так далее.
Как видим, это довольно непростая задача.
Поэтому сложные системы уровня Enterprise тяготеют к первым двум направлениям, в которых меньше «тёмных мест» и «белых пятен» для проектировщика. В то же время крупный бизнес готов смириться с относительно высокими затратами в обмен на отработанный подход, расширенную гарантию и поддержку от вендора.
Однако, если мы говорим о сравнительно небольших предприятиях, которым, соответственно, нужна не такая уж мощная система хранения данных, то здесь дело обстоит несколько иначе.
На первое место в этом случае чаще всего выходит экономия бюджета. Второе место по традиции занимает простота реализации.
Разумеется, любая организация, большая или малая, заботится о сохранности своих данных, наличии доступа к ним и решении таких вопросов как возможность нарастить объёмы хранения. Но когда бюджет ограничен, а сама ИТ-инфраструктура не так сложна, то для малых предприятий будет выгодней самостоятельная закупка оборудования и последующее создание системы хранения данных.
И здесь есть два варианта: купить готовую недорогую СХД или сделать свою, на основе популярных решений, например, специализированных дистрибутивов открытых операционных систем. Таких, как Linux, FreeBSD или Open Indiana.
Сеть для доступа к данным
Мы что-то упустили, не так ли?
Всё это время тщательно обдумывали на базе чего строить систему хранения данных, но без внимания остался вопрос: «А как организовать к ней доступ?»
То есть нужна сеть. При этом сеть может понадобится как для обмена данных с клиентскими устройствами, так и для управления СХД.
В первую очередь определимся со средой передачи данных. Под этим термином подразумевается сугубо аппаратный аспект — как именно происходит передача (перенос) единицы информации от физического передатчика к приёмнику. На сегодня можно выделить два основных направления:
- Медный кабель (чаще всего витая пара с коннектором RJ45);
- Оптоволокно (на основе коннектора SFP+).
ПРИМЕЧАНИЕ. Часто производитель предлагает универсальное, или, как принято говорить, конвергентное решение для среды передачи данных. В этом случае один и тот же порт на сетевом оборудовании может быть использован либо для витой пары, либо для оптоволоконного соединения. Такая универсальность достигается за счёт использования соответствующих переходников — трансиверов.
Построение среды передачи данных с применением оптоволокна обойдётся значительно дороже. Если предприятие небольшое и всё оборудование (как серверное, так и СХД) размещено в нескольких стоящих рядом стойках или шкафах — можно без особых проблем выбрать медный кабель.
Большинство недорогих систем хранения данных рассчитано на эксплуатацию в локальных IP-сетях на базе семейства Ethernet и гораздо реже — на основе стандарта Fiber Channel с использованием соответствующего оборудования (fabric).
Аналогично обстоит дело в популярных дистрибутивах для построения самодельных СХД, таких, как FreeNAS. Для таких решений IP-сети — основная или даже единственная рабочая среда.
Теперь осталось выбрать оборудование. Можно отдать предпочтение устройствам от известных, широко разрекламированных брендов, таких как Cisco, Brocade, Juniper.
Этот вариант хорош тем, что нет необходимости задаваться вопросами надёжности, производительности, а также поиску информации по настройке, обслуживанию и так далее.
Минусом является тот факт, что покупка такого оборудования сводит на нет все предыдущие усилия по экономии. Нет особого смысла создавать бюджетную СХД, если в итоге понадобится приобретать дорогостоящие устройства для сетевого доступа. Не будет ли логичней сразу пойти по первому пути, описанному во вводной части этой статьи и строить СХД исключительно на аппаратном обеспечении от известных брендов или же просто купить решение «под ключ»?
Второй вариант на первый взгляд кажется не таким простым — подобрать надёжное, производительное, но при этом недорогое оборудование от менее «раскрученного» производителя. Здесь важно сразу определиться с нужными параметрами.
Критерии подбора сетевого оборудования для бюджетной СХД
Так как речь идёт о построении сети для хранения и доступа к данным, то на первый план выходят вопросы производительности и отказоустойчивости.
Крайне важно, чтобы у коммутаторов было хорошее внутреннее аппаратное обеспечение, в первую очередь, специализированный производительный процессор и достаточный объем оперативной памяти. Не менее важна операционная система, оптимизированная для выполнения соответствующих задач.
Если говорить о скорости передачи данных, то 10 Gigabit Ethernet выглядит оптимальным решением на сегодня. Сетевые карты 10GBE уже достаточно давно встраиваются в серверные материнские платы. Зачастую 1 Gigabit Ethernet используется только для подключения рабочих станций, а на серверном оборудовании встречается всё реже и реже.
Интерфейсы 40 Gigabit Ethernet и 100 Gigabit Ethernet пока применяются не так часто. Я ещё не встречал 40 GBE встроенные в серверные материнские платы.
Исходя из этого, вырисовываются требования к производителю.
Это не должно быть оборудование NoName или из низшей ценовой категории. Устройства от малоизвестных вендоров применимы только после расширенного тестирования на отказоустойчивость и наработку на отказ.
Несмотря на то, что для коммутаторов снятие с поддержки и другие неприятности в случае срабатывания антироссийских санкций не так критичны, всё-таки не стоит на это попадать. Ещё момент: санкции могут осложнить закупку оборудования в дополнение к уже эксплуатируемому, и придётся всё равно искать другого производителя и устраивать «зоопарк».
Если нет желания получить подобные проблемы, можно выбрать оборудование от российских производителей или поискать среди вендоров, не поддерживающих санкции против России.
Стоит отметить тот факт, что российские компании относительно недавно стали активно работать на этом сегменте рынка. Если речь идёт о коммутаторах уровня доступа, например, для подключения рабочих станций к сети, то воспользоваться предложением российских компаний — очень неплохая идея. Но для организации сетевой инфраструктуры систем хранения требуются скоростные проверенные решения. Цена вопроса в случае сбоя и последующей потери данных может быть очень высока.
Можно купить или взять на тестирование несколько отечественных устройств и провести самостоятельные исследования. Но сколько времени это может занять, не говоря про другие ресурсы?
Поэтому лучше воспользоваться проверенными решениями от вендоров, лояльных к России и успевших снискать некоторую популярность. Наиболее известны сейчас HUAWEI и Zyxel.
К сожалению, у HUAWEI не удалось найти коммутаторы с портами исключительно для медных проводников витой пары. Использование трансиверов (переходников) предполагает дополнительные расходы.
А вот у Zyxel есть две достаточно интересные серии коммутаторов 10 GBE с «медными портами»:
12-портовый Smart-коммутатор 10GbE — XS1920 Series
24-портовый коммутатор 10GbE L2+ — XS3700 Series
Коммутатор Zyxel XS1920-12
Для построения недорогих сетей небольших организаций вариант с 12 портовым Zyxel XS1920 Series выглядит достаточно интересно: невысокая цена в сочетании с хорошей аппаратной составляющей:
- Процессор — CAVIUM 7010 800MHZ. [5]
- Оперативная память — 128Mb.
В качестве firmware используется операционная система разработки Zyxel — ZyNOS V4.30 ((AASR.1) C0), специализированная ОС для управления коммутаторами.
Среди стандартных функций полезных при организации СХД: Jumbo Frame, VLAN и LAG — присутствуют в данном устройстве.
Вместо заключения
Создать собственную систему хранения данных, отвечающую поставленным требованиям — не так уж и просто, но вполне возможно.
Один из главных вопросов — грамотная постановка задачи и подбор оборудования для её реализации. Как видим, современный рынок сетевого оборудования готов предоставить нужное решение.
В следующей статье будут рассмотрены практические аспекты построения небольших сетей хранения данных.
Источники
- [1] Сайт Dell EMC
- [2] Сайт продукта «Полибайт»
- [3] Страничка IBM Pure Systems на сайте IBM
- [4] Сайт компании Zyxel
Автор: Zyxel_Russia