Российский бизнес переступает через невидимую черту. В результате массового внедрения корпоративных информационных систем компании стали фиксировать и накапливать информацию, которая до этого не учитывалась или пылилась в бумажных архивах. Некоторое время им хватало стандартных серверов. Однако темпы роста данных со временем только увеличиваются. Например, в компании «Юнимилк», размер базы данных на начало 2005 года составлял 60 Гб. Всего за год она увеличилась более чем в пять раз – до 310 Гб. Море корпоративной информации постоянно расширяется, а вместе с ним в прямой пропорции увеличивается и стоимость хранения. Уйти от прямой зависимости между темпами роста количества информации и затратами на ее хранение позволяет строительство центра обработки данных (ЦОД). Это программно-аппаратный комплекс, включающий в себя систему хранения данных (СХД), сеть для их передачи, средства обработки (сервера) и специфичное программное обеспечение. Строительство ЦОД позволяет удешевить хранение информации путем более эффективного использования разных типов дисковых массивов. Кроме того, за счет концентрации в одной точке вычислительных мощностей оптимизируются затраты на эксплуатацию помещений и обслуживающий персонал.
Глобальный взгляд. Главной предпосылкой к созданию ЦОД является внедрение корпоративной информационной системы и последующее накопление информации в базах данных. Однако эксперты выделяют и другие причины. Это увеличение доли более «тяжелого» мультимедийного контента, рост объема естественно увеличивающихся данных, таких как почтовые системы, а также принятие нормативных актов о гарантированном сроке хранения электронных документов в определенных отраслях. «Одним из факторов является переход на новые версии программных продуктов, имеющие высокие требования к дисковому пространству», – говорит Сергей Барышев, технический директор R-Style. Поэтому общей тенденцией становится уменьшение размеров компаний, которым требуется ЦОД. С проблемой хранения и обработки данных сталкиваются не только крупные холдинги, но и сектор SMB (малый и средний бизнес). В ответ на спрос поставщики оборудования для ЦОД одновременно развивают два направления. Во-первых, выпускают для крупных корпораций системы сверхбольшой емкости с программным обеспечением, позволяющим управлять информацией в соответствии с концепцией ILM (Information Lifecycle Management – управление жизненным циклом информации). Во-вторых, расширяют спектр недорогих и простых в управлении комплексов, предназначенных для сектора SMB.
Ограниченность ресурсов и желание сэкономить на IT играют с заказчиками центров обработки злую шутку. Один из экспертов рассказал, что зачастую компании исключают обязательные для дублирования компоненты. В результате система может рухнуть в случае неполадок, некритичных при использовании правильной схемы построения ЦОД.
Отдельная ветка развития рынка обработки данных связана с созданием географически распределенных центров. Правда, одно дело, когда основной и резервный ЦОД размещены в разных зданиях или городах. Это делается для того, чтобы в случае неполадок или форс-мажорных обстоятельств, например пожара или стихийных бедствий, быстро «переключить» компанию и вести бизнес без остановки. Другое дело, когда резервный ЦОД располагается в другой стране, скажем на Кипре. В реалиях бизнеса по-русски такое размещение позволяет эффективно защищаться от нежелательных визитов и возможной утечки коммерческой тайны на сторону. В таком случае на основном ЦОД устанавливаются устройства, позволяющие экстренно уничтожать информацию.
Тендерные отношения. Опрошенные «Ф.» эксперты отмечают низкую квалификацию персонала корпоративных IT-служб, недостаточную для реализации и развития сетей хранения данных своими силами. Потому наблюдается приверженность даже не к брэнду производителя «железа», а к системному интегратору, устанавливавшему ЦОД. А потому необходимо серьезно подойти к выбору «внедренца». Правда, Михаил Плисс, IT-директор компании «Юпимилк» утверждает, что здесь все довольно просто: «Есть рынок услуг и есть тендер на их поставку». Главное – определиться с требованиями к будущему центра обработки. Во-первых, оборудование ЦОД должно быть производительным и позволять работать программному обеспечению, автоматизирующему бизнес-процессы компании, причем с учетом стратегических перспектив. «Проблемы роста или свертывания бизнеса, слияний и поглощений должны решаться за минимальную стоимость, – рассказывает Михаил Плисс. – Это накладывает требования к масштабированию программ и серверов». Во-вторых, необходимо, чтобы инфраструктура центра обеспечивала достаточную для бизнеса доступность и надежность. По словам Руслана Русавского, начальника отдела системного программирования и администрирования МДМ-банка, именно эти два критерия вместе со стоимостью и масштабируемостью были основными для учреждения на тендере по выбору поставщика решения. В результате проект по внедрению ЦОД с общим объемом данных в 10 Тб занял 5,5 месяца. «Внедрение ЦОД позволило на 30% увеличить производительность критичных для бизнеса приложений банка, а также увеличить общую производительность СУБД Oracle более чем на 24%», – рассказывает Руслан Русавский. Стоимость проекта банк не раскрывает.
Кстати, Андрей Узварик, начальник отдела вычислительных платформ IBS, советует отдельно остановиться на цене будущего центра обработки данных, а именно совокупной стоимости владения. По его мнению, в ней можно выделить как минимум восемь составляющих. Это проектирование, создание инфраструктуры (системы электропитания, кондиционирования), закупка-монтаж оборудования и настройка ПО, техподдержка, эксплуатация (обслуживание систем жизнеобеспечения, расходы на электроэнергию), содержание и обучение персонала, постпроектные работы (для соответствия изменившимся организационным задачам, и, наконец, модернизация. «Наиболее часто учитываются только два самых очевидных звена – покупка и техподдержка, – рассказывает Андрей Узварик, – в то время как остальные не менее важны и затратны».
Наконец, вне зависимости от выбора производителя следует тщательно продумать размещение ЦОД. «Критерии расположения весьма схожи у разных производителей, – размышляет Сергей Барышев. – Они продиктованы в основном требованиями физической безопасности центра обработки данных и технологическими особенностями его функционирования». Так, ЦОД должен располагаться в специально оборудованном помещении, в котором решены вопросы контролируемого доступа, отведения выделяемого в процессе работы тепла, пожаротушения, вентиляции, кондиционирования и бесперебойного энергоснабжения. «Физические размеры помещения должны позволять масштабировать ЦОД с помощью добавления новых компонентов, – рассказывает Сергей Барышев. – Должен быть резерв для последующего расширения системы по питанию, коммутации и отводу тепла».
Рабочие лошадки. Основные части любого ЦОД – объединенные в сеть SAN (Storage Area Network – область сетевого хранения) системы хранения данных и сервера. СХД обычно поставляются как уже готовые решения. Их производят такие вендоры, как HP, IBM, EMC, Hitachi Data Services, Sun Microsystems, Fujitsu Siemens, а также российские «Аквариус», Kraftway и R-Style. Система хранения данных – это несколько больше, чем просто набор жестких дисков. Для начала необходимо обеспечить взаимодействие между ними (см. врезку).
От выбора интерфейса взаимодействия напрямую зависит дальнейшая скорость работы всего ЦОД и его конечная стоимость. Когда денежных ресурсов хватает, а для бизнеса критически важна скорость доступа к информации, то построить на дорогом Fibre Channel можно весь центр обработки. Так, по словам Юлии Остроуховой, представителя сотового оператора «Вымпелком», SAN-сеть ее компании построена именно по каналам FC. «В результате каждому серверу из общего пула дискового пространства выделяется столько, сколько ему требуется, – рассказывает Юлия Остроухова. – Такая организация системы позволяет централизованно расширять емкость дискового пространства, использовать его более эффективно и повышать общую надежность и скорость работы системы». Строительство ЦОД «Вымпелком» начал в 2000 году, когда объем информации составлял 4 Тб. За пять лет ее размер увеличился в 50 раз – до 200 Тб. Назвать точную сумму, затраченную на создание ЦОД, в «Вымпелкоме» затруднились. «Общая стоимость оборудования составляет десятки миллионов долларов, – говорит Юлия Остроухова. – А недавно эта сумма была фактически умножена на два, так как создан резервный центр обработки данных, который моментально включается в работу в случае выхода из строя основного».
Однако обычно компании работают в условиях острого недостатка финансирования. А потому, так или иначе, стараются сэкономить на хранении данных. Для этого при построении ЦОД одновременно используется несколько видов интерфейсов передачи данных. «У серьезных компаний при создании ЦОД существует сегментация как минимум по трем разновидностям мест хранения данных, – рассказывает Владимир Ткачев, директор НТЦ компании «Аквариус». – В первой высокоскоростной части содержится наиболее востребованная информация базы данных. Априори их ценность самая высокая. Данные второго уровня требуют длительного хранения и являются достаточно важными, но некритичными для бизнеса. Для них требования к месту существенно выше, а к скорости – ниже. Наконец, третья часть – резервные копии». Соответственно при создании гибридных систем для баз данных используется Fibre Channel. Для информации второго уровня – внутренние SATA-диски. Наконец, для резервных копий – дешевые ленточные накопители или внешние SATA-хранилища.
При создании небольшого ЦОД необходимо учитывать еще один фактор. В отдельных случаях стоимость решений на базе SATA и FC может почти не отличаться друг от друга. Так, при реализации решения на небольших объемах, примерно до 2 Тб, стоимость решений на SATA будет всего на 20-30% дороже аналогичной СХД на базе Fibre Channel. Однако для системы большего объема на 16 Тб разрыв в стоимости будет ощутимо выше – в 2-2,5 раза.
Что касается средств обработки информации, то здесь все больший вес набирают «лезвия» – blade-сервера. Помимо компактной конструкции они позволяют сократить расходы на кабели и сетевые карты, значительно снижают расходы на подготовку серверов к работе и их обслуживание. «Лезвие» – это модульная одноплатная компьютерная система, включающая в себя процессор и оперативную память, а зачастую и жесткий диск. Они вставляются в специальную полку с объединительной панелью, обеспечивающей подачу электроэнергии. Эта полка с «лезвиями» и является blade-сервером. Помимо компактности «лезвия» намного проще в обслуживании обычных «стоечных» машин. Быстро завоевать рынок «лезвиям» мешает более высокая стоимость – на 20-30% для серверов начального уровня и на 100% для «топовых» моделей.
Концепция ILM. Все программное обеспечение для ЦОД можно разделить на три категории. Первая обеспечивает управление хранилищами, как правило, это Microsoft 2003 Storage Server. ПО второй категории предназначено для управления потоками данных внутри ЦОД. Этот софт обычно привязан к производителям СХД. Наконец, третья часть объединяет виртуализацию данных и ILM. Про первые два рассказывать нет смысла – они слишком специфичны. А вот за перспективное ПО третьей категории между производителями развернулись настоящие войны.
Основная идея концепции ILM заключается в том, что данные имеют разную ценность, которая уменьшается по мере их устаревания. Поэтому необходим механизм, обеспечивающий их перемещение по уровням иерархии хранения так, чтобы наиболее ценная информация находилась на самых быстрых и надежных носителях, и наоборот. Все основные игроки на рынке СХД предлагают свои программные решения для реализации на концепции ILM на практике. Однако в реальности ее внедрение в полной мере пока нигде невозможно. Для этого до сих пор никто не сделал полный пакет необходимого для этого программного обеспечения.
Технология виртуализации хранения данных позволяет организовывать логические диски, абстрагируясь от физических. В СХД это необходимо для упрощения управления. Дело в том, что хоть SAN и позволяют объединять в единую сеть, например, FC-, SATA- диски и ленточные накопители, серверы по-прежнему продолжают использовать каждый ресурс хранения по отдельности. Виртуализация «сплавляет» группы различных устройств в единый «пул». Помимо упрощения управления повышается эффективность использования ресурсов, обеспечивается легкая миграция между различными уровнями хранения, снимаются проблемы несовместимости. Проблема в том, что существующие технологии виртуализации обладают ограниченной масштабируемостью и вносят дополнительное звено в канал передачи данных, что увеличивает нагрузку на сеть.
i
Для обеспечения взаимодействия дисковых массивов между собой и серверами разработаны так называемые интерфейсы передачи данных. При создании СХД используются две группы интерфейсов. Во-первых, параллельные ATA и SCSI, а также его современная версия на основе IP (пакетной передачи данных через интернет) iSCSI. Их главное преимущество – в относительной дешевизне. Недостатков больше – устаревшие последовательные интерфейсы имеют целый ряд ограничений, в частности задержки в передаче сигналов, зависимость скорости передачи информации от качества кабелей и разъемов. Все это не позволяет достичь высокой производительности СХД. Правда, медленный протокол iSCSI хорошо себя чувствует за счет отсутствия ограничений по расстоянию, на которое передаются данные. Поэтому его используют для связи географически распределенных резервного и основного ЦОД. На помощь параллельным пришли последовательные интерфейсы FC (Fibre Channel) и SATA (Serial ATA). Первый – полная противоположность своим медлительным предшественникам. Его отличает высокая скорость передачи данных (до 4 Гбит в секунду) и поддержка соединения серверов и СХД на расстояние до 100 км. Основной недостаток – довольно высокая стоимость решений на его базе, что делает FC неэффективным для создания систем начального уровня. Для снятия этих ограничений был разработан интерфейс SATA. Его пропускная способность – до 300 Мб в секунду, а по стоимости он вполне может конкурировать с SCSI. Наконец, в 2003 году был разработан последовательный интерфейс SAS (Serial Attached SCSI) с относительно невысокой стоимостью и потенциальной пропускной способностью до 12 Гбит в секунду. Планировалось, что SAS-решения будут активно продаваться уже в 2005 году. Однако реальность расставила все на свои места и теперь ориентировочная дата реального начала продаж – середина 2006 года. Хотя практически все мировые вендоры уже представили свои решения на SAS, но в них еще есть нерешенные проблемы, в первую очередь по совместимости с ранее установленными СХД.
Журнал «Финанс.» № 47 (137) 19 декабря 2005 – 8 января 2006 – IT плюс финансы
Андрей Школин
Подписывайтесь на телеграм-канал Финсайд и потом не говорите, что вас не предупреждали: https://t.me/finside.