Рубрика «цод» - 28

FAQ про охлаждение дата центров: как сделать дёшево, сердито, надёжно и вписаться в габариты площадки

— Какой обычно есть выбор для охлаждения ЦОДа?

  • Фреоновое охлаждение. Проработано, просто, доступно, но главный минус — ограниченные возможности по манёвру в энергоэффективности. Также часто мешают физические ограничения по длине трассы между наружными и внутренними блоками.
  • Системы с водой и гликолевыми растворами. То есть хладагентом всё ещё остаётся фреон, а вот хладоносителем уже будет другое вещество. Трасса может быть длиннее, но главное, что открывается многообразие вариантов настройки режимов работы системы.
  • Системы комбинированного типа: кондиционер может быть и фреонового, и водяного охлаждения (здесь масса нюансов).
  • Охлаждение воздухом с улицы — это различные варианты фрикулинга: роторные теплообменные аппараты, прямые и косвенные охладители и так далее. Общий смысл — либо прямой теплоотвод фильтрованным воздухом, либо замкнутая система, где уличный воздух охлаждает внутренний через теплообменник. Нужно смотреть на возможности площадки, так как возможны внезапные решения.

— Так давайте бахнем классические фреоновые системы, в чём проблема?
Классические фреоновые системы отлично работают в малых серверных и, не часто, средних ЦОДах. Как только машзал переваливает за 500–700 кВт, возникают проблемы с размещением наружных блоков кондиционеров. Для них банально не хватает места. Приходится искать свободные площади подальше от ЦОДов, но тут вмешивается длина трассы (её не хватает). Конечно, можно спроектировать систему на пределе возможностей, но тогда растут потери в контуре, снижается эффективность, усложняется эксплуатация. В итоге для средних и больших ЦОДов сугубо фреоновые системы зачастую невыгодны.Читать полностью »

Новая жизнь старой СХД — волшебное железо Violin для ускорения массивов

Если у вас стоят такие СХД, как EMC Clariion, VNX, VMAX, Symmetrix DMX3, DMX4, AMS 2000, HUS и другие подобные, и вам не хватает их производительности, у меня хорошая новость.

Новую быструю СХД покупать, возможно, не надо. Если вам достаточно ускорить задачи чтения, есть решение куда дешевле апгрейда массива и проще по внедрению, чем диски в Symmetix. Называется Violin Maestro.

Это аппаратный кэш на чтение, который подключается между хостом и СХД. Железка уже протестирована и уже в России. Её можно брать и ставить без какого-либо простоя и остановок. Читать полностью »

В ходе тестирований производительности ведущих флеш-систем мы, в какой то момент, задались вопросами: Каково же влияние файловой системы на производительность реальной СХД? Насколько оно существенно и от чего зависит?

Известно, что файловая система является инфраструктурным программным слоем, реализуемым на уровне ядра ОС (kernel space) или, что реже — на пользовательском уровне (user space). Будучи промежуточным слоем между прикладным/системным ПО и дисковым пространством, файловая система должна вносить свою паразитную нагрузку, влияющую на показатели производительности системы. Следовательно, при расчетах реальной производительности СХД следует учитывать зависимость фиксируемых параметров от реализации файловой системы и ПО, использующего данную файловую систему.
Читать полностью »

Заказчиком этого проекта стал московский институт МФТИ. Выполнять для легендарного Физтеха большой и ответственный проект очень почетно, но и ответственность ложится серьезная.

Работы предстояли в дата-центре института, расположенном в Долгопрудном Московской области. Это сердце всех информационных систем МФТИ. Здесь собраны вычислительные мощности, которые используют как для научной и учебной работы (моделирование, расчеты) так для служебных целей (почта и коммуникации, бухгалтерия и т.п.)

Как мы построили инженерную инфраструктуру для дата центра Физтеха

Читать полностью »

В Хельсинки 4 сентября 2014 пройдет конференция про ЦОДы, 3D-печать, Business Gamification, Big Data и измерительные технологии. Язык конференции — английский.

Если вы как раз планируете найти клиентов или партнеров в Европе, у вас есть шенгенская виза, можете регистрироваться на сайте конференции.

Входной билет на конференцию стоит денег (от 250 EUR). Однако одни из организаторов конференции — Digitice Finland — с давних пор питают теплые чувства к Хабру. Поэтому первым семи читателям, которые пришлют мне запрос в хабрапочту, я обещаю код для бесплатной регистрации.

А надо ли вам туда? Чтобы решить, посмотрите краткую программу под катом, а подробности — на официальном сайте конференции (на англ. языке).

До встречи с теми, кто захочет поехать!
Читать полностью »

Опрос на тему: «Требования к ЦОДу облачного провайдера»

Здравствуйте, уважаемые читатели!

Рынок облачных технологий находится в постоянном развитии: каждый день появляются все более технологичные сервисы и продукты, для доступности и качественной работы которых требуются все новые и новые мощности центров обработки данных.

На нашем отраслевом профессиональном портале AllDataCenters.ru мы решили провести опрос потребителей и поставщиков облачных услуг, чтобы узнать, какие требования к дата-центрам являются ключевыми, и какие услуги наиболее востребованы.

Читать полностью »

IPv4 - past, IPv6 - future

Всем известно, что адресное пространство IPv4 имеет весьма ограниченный объем и с учетом развития всемирной паутины на сегодняшний момент подходит к концу. Адресное пространство IPv6 имеет значительно больший объем. Переход на IPv6 неизбежен для всех, это лишь вопрос времени. А для нас, как для сервис-провайдера облачных услуг, важно быть готовыми к такому переходу, как внутри собственной сети, так и для наших клиентов. Далее о переходе на IPv6 и схеме сети ИТ-ГРАД.Читать полностью »

Как мы переводили облако с Ethernet 10G на Infiniband 56G
Кабель Mellanox MC2609125-005

В нашем случае Infiniband работал бы в пять раз быстрее, чем Ethernet, а стоил бы столько же. Сложность была только одна – всё это нужно было делать без прерывания облачных сервисов в ЦОДе. Ну, это примерно как пересобрать двигатель автомобиля во время движения.

В России таких проектов попросту не было. Все, кто до сих пор пытались переходить с Ethernet на Infiniband, так или иначе останавливали свою инфраструктуру на сутки-двое. У нас же в облачном «плече», которое находится в дата-центре на Волочаевской-1, около 60 крупных заказчиков (включая банки, розницу, страховые и объекты критичной инфраструктуры) на почти 500 виртуальных машинах, размещенных на примерно сотне физических серверов. Мы первые в стране получили опыт перестроения стораджевой и сетевой инфраструктуры без даунтаймов и немного гордимся этим.

Как мы переводили облако с Ethernet 10G на Infiniband 56G
Infiniband-кабель на входе в сервер

В итоге пропускная способность каналов связи между серверами «облака» выросла с 10 Гб/сек до 56 Гб/сек.Читать полностью »

Многие считают: построили ЦОД, и дело сделано. На самом деле только после этого и начинается каждодневное решение большой и сложной задачи — эксплуатации дата-центра.

Основные проблемы, которые возникают при управлении эксплуатацией ЦОДа, — обеспечение безотказной работы и снижение расходов на эксплуатацию не в ущерб надежности.

Грамотное решение и первой, и второй задачи определяется рамками программы эксплуатации дата-центра. Периодически в отрасли ведутся разговоры о том, что для правильной эксплуатации должна быть принята единая программа эксплуатации. И она, безусловно, должна быть. Но вот что касается единой… На разных объектах начинка разная, поэтому и программы для разных ЦОДов будут отличаться. Во всяком случае, когда площадка проходит сертификацию Uptime Institute на операционную устойчивость, каждый объект рассматривается индивидуально. Инструкции для ИТ-специалистов будут везде одинаковые, а для персонала, обслуживающего инженерное оборудование, и технические, и аварийные регламенты будут разными.
Читать полностью »

Продолжаем тему, начатую в статьях "Тестирование флеш СХД. Теоретическая часть" и "Тестирование флеш СХД. IBM RamSan FlashSystem 820". Сегодня мы рассмотрим возможности одной из наиболее «массовых» моделей компании Violin Memory. Стартап, основанный выходцами из Fusion-io, стал первопроходцем и духовным лидером идеологии построения систем хранения данных исключительно на основе флеш-памяти. Массив Violin 6232 был выпущен в сентябре 2011 года и пробыл флагманом вплоть до выхода модели 6264 в августе 2013 года.

Тестирование флеш СХД. Violin 6232 Series Flash Memory Array

Нас, как технических специалистов, в большей мере, заинтересовала архитектура массивов Violin Memory, являющаяся их отличительной особенностью и несомненным преимуществом по сравнению с конкурентами. Каждый компонент — это собственная разработка компании:

  • Собственные flash модули (VIMM);
  • Собственная операционная система VMOS, оптимизированная для работы с flash;
  • Собственный запатентованный RAID (vRAID), лишенный недостатков стандартных RAID 5,6.

Система без единой точки отказа, где все компоненты продублированы. Где замена компонентов или обновление прошивки ни только не требуют остановки работы, но и не снижают производительности: 4 контроллера, отсутствие внутреннего кэша, запись полными «страйпами», оптимальные алгоритмы «сбора мусора». Такая архитектура позволяет получить высочайшую производительность, минимизировать задержки и побочные явления (Write Cliff), обеспечивает доступность данных уровня 99,9999 и нивелирует потери производительности при возможном выходе компонентов из строя. Богатый, продуманный интерфейс управления гармонично добавляет удобства работы с оборудованием Violin.
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js