Рубрика «дата-центр» - 14

Как устроены бекапы заказчиков в нашем дата-центре TierIII - 1

Самое простое — наше S3-хранилище. В этом случае мы предоставляем только пространство, без какой-то логики и организации копирования. Дёшево, просто, надёжно, как удар дубинкой в темноте. В S3 умеют копировать большинство продуктов бекапа — Veritas NetBackup/Backup Exec, CommVault, Veeam, EMC Networker и др. Такое решение разворачивается за 2 часа.

Второй подход — полноценная инфраструктура резервного копирования. Мы даём заказчику фактически в аренду часть программно-аппаратного комплекса. И в этом случае заказчик получает не просто хранилку, а сервис резервного копирования целиком, включая программную организацию логики копирования. Например, если заказчик размещается в дата-центре на Волочаевской и пользуется услугой, то комплекс Avamar собирает бекапы из его инфраструктуры и делает как копию в этом же ЦОДе, так и копию на другую площадку при необходимости. Помимо этого, в системе есть внутренние средства защиты самого Avamar — cлепок системы снимается два раза в сутки, дедуплицируется, сжимается.

Все, конечно, отлично, но по объективным причинам (кризис все успели почувствовать) мы стали искать более бюджетные, но при этом функциональные варианты. Читать полностью »

Ожидания направлений развития в сфере хранения и обработки данных до 2020 года. Основные тренды - 1

Развитие ИТ-инфраструктуры — это неуклонный процесс, который был, есть и непременно будет, набирая все только большие обороты. Взяв очередную высоту стандартов осуществления своей деятельности, перед сетевыми инженерами открываются новые горизонты, достижение которых становится для них очередным вызовом и основой их повседневных трудов. Для успешного функционирования ИТ-компаний всегда было очень важным точно определить цели, направления развития, самые актуальные тренды ведь как можно наблюдать именно ИТ-сфера находится на самом острие технологического прогресса и особо подвержена внедрению нововведений. В древности, за возможностью заглянуть в день грядущий, люди обращались к оракулам и вещунам, сейчас же эту столь вакантную деятельность «окучивают» профессиональные ассоциации, проводя всевозможные опросы и создавая на их основе самые разносторонне направленные отчеты.

Именно таким отчетом, совсем недавно, порадовала ИТ-сообщество AFCOM(Association for Computer Operation Management). Предметом полномасштабного исследования стало функционирование дата-центров. Со слов представителей AFCOM представленный отчет является настоящим событием, поскольку охватил самые широкие слои специалистов задействованных в работе ЦОД(Центр Оброботки Данных). Сетевые инженеры, менеджеры, программисты и владельцы компаний-провайдеров в представленном докладе дадут нам более четкое виденье той ситуации, в которой отрасль находится сейчас и где она окажется в ближайшие 3-4 года. Далее в статье будут представлены основные акценты на которых базируется вышеупомянутый отчет, что претендует быть наиболее репрезентативным и наиболее актуальным среди всех аналогичных проведеных в 2015 году.

Читать полностью »

В борьбе за уменьшение расходов, владельцы серверных ферм находятся в постоянном поиске возможностей сократить счета за электроэнергию. Не секрет, что дата-центры потребляют 1-2% электричества, которое вырабатывается в мире, но, что интересно, серверы — они же мозг ЦОД — потребляют всего третью часть энергии.

Снежная система охлаждения. White Datacenter Project - 1

Оказывается, самой «прожорливой» является система охлаждения серверной фермы, если она организована на традиционной схеме на чиллерах или прецизионных кондиционерах с прямым расширением (DX -системы). Поэтому владельцы ЦОД уже давно начали уделять повышенное внимание модернизации систем охлаждения серверов, постоянно внедряются новые технологии, дабы достичь приемлемого уровня энергоэффективности, при этом, не забыв и о матушке природе.

В то время как Microsoft решил окунуть свои серверные фермы «на дно океана», дабы сократить расходы на эксплуатацию, японцы решили охладить свои хранилища информации при помощи свыше — снегом. Читать полностью »

Компания Teo Group, которая является лидером телекоммуникаций и IT-услуг на литовском рынке, представила новый дата центр. Он находится в столице Вильнюс, р-н Жирмунай. Новый ДЦ — энергоэффективный и размещен в самом заселенном районе. Серверной ферме был присвоен уровень надежности Tier III, в надежде, что данная площадка будет постоянно использоваться.

Литовский ДЦ Teo Group и его система охлаждения KyotoWheel - 1Читать полностью »

В технологическом развитии облачных дата-центров (Cloud DC) можно выделить три этапа:

  1. DC 1.0 — этап консолидации, т. е. переход от автономных, разрозненных дата-центров к облачным распределённым.
  2. DC 2.0 — современный этап, характеризующийся фундаментальным сдвигом в системном дизайне и развёртывании дата-центров, когда благодаря виртуализации ресурсов и динамической оркестрации услуг DSO (Dynamic Service Orchestration) значительно возросли коэффициент загрузки ресурсов и гибкость их распределения.
  3. DC 3.0 — следующий этап развития, вызванный быстрорастущими потребностями в ИКТ-услугах, а также ростом объёмов данных в сетях крупных интернет-компаний. Пока большинство технологий DC 3.0 находится в зачаточном состоянии, и дальнейшие пути их развития недостаточно ясны.

Тенденции развития облачных дата-центров - 1
Рис. 1. Этапы развития дата-центров: анализ прошлого, текущего состояния и прогнозы Читать полностью »

Эта заповедная аббревиатура PUE (Power Usage Effectiveness) стала широко известной не только среди узкого круга специалистов — проектировщиков дата-центров, но и среди такой обширной аудитории, как потребители услуг предоставляемых этими самыми дата-центрами. Впервые PUE, коэффициент характеризующий энергоэффективность ЦОД( Центр Обработки Данных), был введен еще в 2006 году. Его предложила использовать некоммерческая организация Green Grid, которая была создана из специалистов ИТ-отрасли. За десять лет своего существования коэффициент успел послужить не только мерилом эффективности ИТ-инфраструктуры, но и причиной множества споров про корректность самого его применения, как и о необходимость разработки более актуального алгоритма оценки энергоэффективности дата-центров. Стоит вспомнить и то, как в погоне за «минутой славы», маркетологи компаний-провайдеров запускали рекламные кампании, пользуясь откровенно слабыми местами коэффициента, весьма изощренно кичась упомянутым мерилом, желая того или нет, доводили до абсурда само существование этого коварного PUE.

Станет ли юбилейный 2016 год фактически последним для существования столь привычного, весьма простого и понятного в использовании коэффициента, породившего огромное количество дискуссий, и если «да», то что же придет ему на смену? В этих и некоторых других вопросах, связанных с энергоэффективностью дата-центров мы и попробуем разобраться в этой статье.

PUE празднует 10-ти летний юбилей. Какой грустный подарок ему подготовило ИТ-сообщество? - 1Читать полностью »

Особенности поддержки 10 дата-центров по всему миру: мой опыт и грабли - 1
Это 2 Петабайта бэкапа

У нас 14 дата-центров по всему миру, из которых я занимаюсь обслуживанием десяти. Лет пять назад я думал, что там, за границей, всё блестит, поддержка внимательная и вежливая и ошибается только совсем по мелочам. Мои иллюзии довольно быстро развеялись.

Вот пример. Стоят у нас в стойках серверы, по сути — дисковые полки, предназначенные для «медленных» данных бэкапов. Место на них кончалось. В каждом сервере было по 24 диска и 36 слотов, мы решили добить ещё по 12 HDD. Я отправил тикеты, объяснил, что мы делаем и зачем, добавил, что нужно поставить диски в неподсвеченные слоты.

Через 10 минут мониторинг показал, что у нас выпал диск в первом сервере. «Ничего себе, коллеги жгут», — подумали мы. Наверное, задели или ещё что-то… Но тут почти сразу выпали второй и третий диски. Я начал звонить в немецкий саппорт, и мне ответил коллега из Индии.Читать полностью »

Началось строительство крупнейшего дата-центра в России (для Google и Facebook) - 1

Генподрядчик ООО «ЦХД Инжиниринг» приступил к активной фазе строительных работ на площадке строительства крупнейшего российского Центра обработки и хранения данных вблизи Калининской АЭС (Тверская область).

24 февраля 2016 г. в основание одного из зданий комплекса уложен первый кубометр бетона. Первую очередь ЦОД введут в строй в марте 2018 года.
Читать полностью »

У зарубежных компаний история с ИТ-инфраструктурой очень простая: они как росли себе на Западе, так там всё и осталось. В России, как правило, нет даже инженеров, а все сервисы предоставляются откуда-нибудь из Ирландии, Франкфурта, Бостона или других городов, где находится головная организация и её дата-центры.

Драматически ситуация поменялась после вступления в силу поправок к ФЗ-152, гласящих, что персональные данные российских граждан нужно записывать, систематизировать, хранить и обрабатывать с использованием баз данных, находящихся исключительно в нашей стране. Некоторые компании приняли решение поднимать дата-центры в Москве, чтобы не терять бизнес. В нашем случае получилось примерно так (изменены некоторые компоненты и названия, так как есть соглашение о неразглашении — иностранцы, что вы хотите):

Как мы перевозили дата-центр западной компании в РФ из-за закона о персданных - 1

Сложностей море, например, такие:

  • Полное отсутствие ИТ-персонала в российском офисе, занимающегося миграцией систем и управлением всего проекта в целом — нужно общаться с сетевиками из Европы или США и разработчиками, например, из Шанхая.
  • Мало поднять прокси-структуру — нужно реально по факту обрабатывать данные в России. А, значит, в Москве (или в другом городе, но, как правило, действие происходит в столице) должен быть развёрнут инстанс CMS, почты, прикладного ПО для работы с продажами, бухгалтерия и так далее.
  • Нужно перевезти всё это быстро и без существенных простоев, а потом ещё и поддерживать в плане инфраструктуры (приклад в данном случае поддерживают «родные» ИТ-команды).

Читать полностью »

Новый способ охлаждения дата-центра от Microsoft

Leona Philpot — «подводный» способ охлаждения дата-центра от Microsoft - 1

Погрузить компьютер под воду (не пытайтесь воспроизвести в реальной жизни — так бы гласила бегущая строка в рекламе). Но вот мировому гиганту Microsoft данное действие показалось отличнейшей идеей. Ведь известно, что на запитку систем охлаждения серверов затрачивается немалое количество электроэнергии, которая не так уж и дешево стоит. Почти половина от общего энергопотребления серверной фермы уходит на охладительные устройства (кондиционеры, чиллеры и т.д.). Поэтому многие компании уже давно в поисках новых эффективных методов охлаждения для своих «детищ». Не так давно, а если быть точными, то в августе 2015 года компания Microsoft решила сьекономить на оплате счетов за электроэнергию, погрузив экспериментальный прототип нового подводного дата-центра на морское дно. Так родился прототип ЦОД под кодовым названием Leona Philpot соответственно проекту Natick.
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js