Рубрика «дата-центр» - 18

Когда мы в разговоре слышим слово «юг», наше сознание непроизвольно рисует солнечные картины, соленый бриз, стаи морских птиц, пальмы. В этой статье пойдет разговор о самом южном дата центре в мире, но, несмотря на сезонное изобилие солнца, Вы не найдете здесь разгуливающих в бикини курортниц. При полярной станции Амундсена-Скота, что разместилась на 89 градусах 59 минутах и 24 секундах южной широты, для поддержания работы нейтринной обсерватории был создан и успешно функционирует дата-центр «Ледяной Куб» (Ice Cube data center). О задачах этого ИТ-узла и о тех условиях, в которых приходится поддерживать работоспособность оборудования, и пойдет речь далее в статье.

Самый южный дата-центр - 1Читать полностью »

Очень много статей посвящено информационной безопасности, защите данных на техническом уровне, но люди и бизнес иной раз в желании всех переиграть переигрывают сами себя. Для того, чтобы надежней защитить свои данные, а иной раз по незнанию или нежеланию подумать на несколько ходов вперед, оформляют услуги размещения и аренды серверов в дата-центрах на подставные компании или же третьих лиц. Собственно к написанию данной заметки меня подтолкнул уже сутки длящийся вынос мозга мне и всем нашим сотрудникам. И такая ситуация уже не первый раз возникает.

Одно ООО «Рога и копыта» возможно в целях защиты своих данных оформило договор с нашим дата-центром не на себя, а на своего то ли сотрудника, то ли приходящего системного администратора. Можно ли сделать это в каких-либо других целях мне неизвестно.

Теперь ООО «Рога и копыта» по всей видимости плохо рассталось с человеком, на которого оформлены серверы. Человек этот попросил серверы выключить, и у ООО «Рога и копыта» весь бизнес встал. Мы оказались в крайне неприятной ситуации. Но действовать мы обязаны по закону и отправлять всех в суд, полицию.
Читать полностью »

Активность пользователей в сети интернет всегда была очень важным фактором, которому исследовательские организации уделяли особо много внимания. Распределение пользователей по странам, плотность подключений, временные рамки наибольшей/наименьшей активности в течение суток — это все исходные параметры на основе которых проводится работа по оптимизации нагрузок для той или иной территории. Пиковые нагрузки на интернет каналы — это краеугольный камень организации ИТ-инфраструктуры, без статистических данных, без понимания базовых понятий их возникновения невозможно наладить действительно эффективную модель работы сети.

Благодаря всеобщей интернетизации планеты (доступности и дешевизны интернета), а также беспечности рядовых пользователей, стало возможным отследить практически каждый не защищенный от сетевой атаки гаджет (будь это стационарный/мобильный ПК, смартфон, планшет, игровая консоль). Так, нашумевшая в свое время «Интернет перепись IPv4 2012», которая отображает активность незащищенных сетевых устройств по всему миру, стала отличным, многослойным нагромождением информации для анализа, которая до сих пор даёт людям почву для размышления.

В любой момент времени около третьей части пользователей сети интернет находятся on lineЧитать полностью »

Париж, 1989 год — начало создания одного из величайших и дорогостоящих творений современности, Большого адронного коллайдера. Это событие несомненно можно назвать подвигом, но установка, образовавшая почти 27-километровое кольцо, вкопанное более чем на 90 метров под землёй на франко-швейцарской границе, бесполезна без огромных вычислительных мощностей и не менее огромного хранилища данных.

CERN планирует увеличение своих вычислительных возможностей до 150 000 ядер
Читать полностью »

Практика эксплуатационщика: 1000 дней без простоя ЦОДа TIER III
Окисление контактов перемычки аккумулятора вызвало нагрев. При наружном осмотре следов окисления не видно, поскольку оно произошло между клеммой аккумулятора и наконечником перемычки.

Пару недель назад у меня и коллег случился маленький праздник: 1000 дней непрерывной работы ЦОДа без простоя сервиса. В смысле — без влияния на оборудование заказчиков, но со штатными и не очень работами по системам.

Ниже я расскажу о том, как я и мои коллеги обслуживают ЦОД повышенной ответственности, и какие бывают подводные камни.
Читать полностью »

FAQ про охлаждение дата центров: как сделать дёшево, сердито, надёжно и вписаться в габариты площадки

— Какой обычно есть выбор для охлаждения ЦОДа?

  • Фреоновое охлаждение. Проработано, просто, доступно, но главный минус — ограниченные возможности по манёвру в энергоэффективности. Также часто мешают физические ограничения по длине трассы между наружными и внутренними блоками.
  • Системы с водой и гликолевыми растворами. То есть хладагентом всё ещё остаётся фреон, а вот хладоносителем уже будет другое вещество. Трасса может быть длиннее, но главное, что открывается многообразие вариантов настройки режимов работы системы.
  • Системы комбинированного типа: кондиционер может быть и фреонового, и водяного охлаждения (здесь масса нюансов).
  • Охлаждение воздухом с улицы — это различные варианты фрикулинга: роторные теплообменные аппараты, прямые и косвенные охладители и так далее. Общий смысл — либо прямой теплоотвод фильтрованным воздухом, либо замкнутая система, где уличный воздух охлаждает внутренний через теплообменник. Нужно смотреть на возможности площадки, так как возможны внезапные решения.

— Так давайте бахнем классические фреоновые системы, в чём проблема?
Классические фреоновые системы отлично работают в малых серверных и, не часто, средних ЦОДах. Как только машзал переваливает за 500–700 кВт, возникают проблемы с размещением наружных блоков кондиционеров. Для них банально не хватает места. Приходится искать свободные площади подальше от ЦОДов, но тут вмешивается длина трассы (её не хватает). Конечно, можно спроектировать систему на пределе возможностей, но тогда растут потери в контуре, снижается эффективность, усложняется эксплуатация. В итоге для средних и больших ЦОДов сугубо фреоновые системы зачастую невыгодны.Читать полностью »

Бывает, что любители и ИТ-специалисты создают центры обработки данных в своих домах, размещая оборудование в импровизированных серверных комнатах, гаражах, подвалах или домашних офисах. Таких людей называют серверофилы («server huggers»). Это люди, стремящиеся быть ближе к оборудованию, которое они используют.

Домашние центры обработки данных, или, как их называют, «пещерные ДЦ», играют немаловажную роль в современной жизни и развитии ИТ-технологий. Данные ДЦ, в противовес крупномасштабным дата-центрам, являются первопроходцами в испытании серверного оборудования. Такого рода энтузиасты питают страсть к ИТ и, как правило, одни из первых начинают использовать новые серверные системы, тестируя их в экстремальных условиях.

Дата центр в домашних условиях
Читать полностью »

TelecityGroup расширяет свой дата центр Suvilahti в Хельсинки

Спешим поделиться новостями о грядущем расширении дата-центра Suvilahti.

Завершение следующего этапа строительства, запланированное на октябрь этого года, позволит увеличить мощность ЦОД на 400 кВт и площадь для размещения ИТ-оборудования на 200 кв.м. Совокупная мощность дата-центра составит 1,35 МВт, а общая площадь машинных залов – 1050 кв.м.
Читать полностью »

Как мы переводили облако с Ethernet 10G на Infiniband 56G
Кабель Mellanox MC2609125-005

В нашем случае Infiniband работал бы в пять раз быстрее, чем Ethernet, а стоил бы столько же. Сложность была только одна – всё это нужно было делать без прерывания облачных сервисов в ЦОДе. Ну, это примерно как пересобрать двигатель автомобиля во время движения.

В России таких проектов попросту не было. Все, кто до сих пор пытались переходить с Ethernet на Infiniband, так или иначе останавливали свою инфраструктуру на сутки-двое. У нас же в облачном «плече», которое находится в дата-центре на Волочаевской-1, около 60 крупных заказчиков (включая банки, розницу, страховые и объекты критичной инфраструктуры) на почти 500 виртуальных машинах, размещенных на примерно сотне физических серверов. Мы первые в стране получили опыт перестроения стораджевой и сетевой инфраструктуры без даунтаймов и немного гордимся этим.

Как мы переводили облако с Ethernet 10G на Infiniband 56G
Infiniband-кабель на входе в сервер

В итоге пропускная способность каналов связи между серверами «облака» выросла с 10 Гб/сек до 56 Гб/сек.Читать полностью »

Компания SAFEDATA предлагает своим заказчикам услугу резервного копирования виртуальных машин, созданных ими в рамках услуги «Виртуальный ЦОД». В качестве инструмента для выполнения резервного копирования применяется программный продукт компании Veeam под названием Backup & Replication Enterprise for Vmware. Высокий уровень партнерских отношения с Veeam подтвержден статусом VEEAM Gold Cloud Provider, которым владеет наша компания.

В рамках услуги резервного копирования заказчику предоставляются средства для осуществления резервного копирования своих виртуальных машин, место для хранения резервных копий, а также возможность восстановления виртуальной машины из резервной копии по запросу заказчика.

Вся система резервного копирования строится на собственном оборудовании SAFEDATA, а архитектура решения построена с дублированием всех узлов ИТ-инфраструктуры и с учетом принципов отказоустойчивости.

Создание резервных копии виртуальных машин производится ежедневно, в ночное время. Глубина хранения каждой резервной копии составляет 14 суток.

Преимущества резервного копирования виртуальных машин от SAFEDATA:
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js