Параметр
|
Категория 5
|
Категория 6
|
Категория 7
|
TIA/EIA-
568-A
|
TSB-95
|
ISO/IEC 11801
|
Затухание, дБ
|
24,0
|
24,0
|
24,0
|
21,7
|
20,8
|
NЕХТ, дБ
|
27,1
|
27,1
|
27,1
|
39,9
|
62,1
|
РS–NЕХТ, дБ
|
---
|
---
|
24,1
|
37,1
|
59,1
|
ACR, дБ
|
3,1
|
3,1
|
3,1
|
18,2
|
41,3
|
РS–АСR, дБ
|
---
|
---
|
0,1
|
15,4
|
38,3
|
EL–FEXT, дБ
|
---
|
17,0
|
23,2
|
fts[1]
|
РS–FЕХТ,дБ
|
---
|
14,4
|
14,4
|
20,2
|
ffs
|
Возвратные потери, дБ
|
---
|
8,0
|
10,0
|
12,0
|
14,1
|
Задержка
распространения, нс
|
---
|
548
|
548
|
548
|
504
|
Требования на кабели указанной категории (класса) были впервые
опубликованы в 2000 г. и включали дополнения, важные для работы систем 1000Base-T, использующих двунаправленную передачу данных
по всем четырем парам кабеля UTP. Стандарт расширил
предельные значения характеристик базовой категории 5 и определил несколько
новых критериев, необходимых для скоростной передачи сигнала при использовании
всех четырех пар. В спецификации категории 5е / класса D
был введен дополнительный запас по таким параметрам, как затухание NEXT, ELFEXT и возвратные потери (Return Loss — RL), а также введено определение суммарных
перекрестных наводок, аппроксимирующих полные наводки в кабелях UTP при одновременной передаче сигналов по всем его витым парам.
Приложения данного класса Е и компоненты СКС категории 6 первоначально
имели нормируемые характеристики до частоты 200 МГц, которая впоследствии была
увеличена до 250 МГц. Необходимость расширения частотного диапазона
гарантируемых параметров была обусловлена требованием обеспечения потенциальной
возможности поддержки функционирования двухпарных вариантов интерфейсов Gigabit
Ethernet. СКС указанной категории (класса) обеспечивают вдвое
больший, чем СКС категории 5е / класса D, запас по
отношению сигнала к шуму. Отношение затухания сигнала к уровню перекрестных
наводок, т.е. защищенность, таких кабелей имеет положительное значение вплоть
до 200 МГц. В процессе разработки спецификации на кабели категории 6 / класса Е
была выявлена необходимость ограничить преобразование дифференциального сигнала
в синфазный сигнал и обратно путем определения баланса компонентов, что
позволяет реализовать кабельные системы с повышенной электромагнитной
совместимостью (Electromagnetic Compatibility — EMC). Хотя СКС категории 6 / класса Е были первоначально предназначены для
приложений 100Base-T и 1000Base-T, некоторая часть инсталлированной базы этих СКС
способна поддерживать и приложения 10G Base-T. В технических бюллетенях TIA TSB-155 и ISO/IEC 24750 представлены не только новые нормы на
характеристики кабельных систем категории 6 / класса Е, но и процедуры полевого
квалификационного тестирования, которые позволяют удостовериться в том, что эти
СКС смогут поддерживать приложения 10G Base-T.
Возможности цифровой обработки сигналов (Digital Signal Processing — DSP), реализованные в системах 10GBase-T, обеспечивают полное подавление внутренних
наводок между витыми парами кабеля. Вместе с тем эти системы становятся
особенно чувствительными к нежелательным наводкам между соседними кабелями и
кабельными компонентами, получившими название межкабельных наводок (alien
crosstalk). Так как межкабельные наводки в СКС категории 6 /
класса Е зависят от особенностей их инсталляции (например, от плотности
объединения кабелей в связки и степени заполнения кабельных каналов), значения
параметров передачи определялись для наихудших условий «типичной» кабельной
среды. Это означает, что системы 10GBase-T должны работать по каналам UTP категории 6 /
класса Е протяженностью до 37 м. В зависимости же от фактического уровня
межкабельных наводок такие системы могут работать по каналам UTP категории 6 / класса Е протяженностью 37–55 м. Учитывая тот факт, что
общий экран из фольги кабелей F/UTP
категории 6 / класса Е значительно снижает межкабельные наводки, указанные
ограничения на длину канала на эти кабели не распространяются. В технических
бюллетенях TIA TSB-155 и ISO/IEC 24750 также содержатся рекомендации, касающиеся методов ослабления
межкабельных наводок, которые вы можете использовать в том случае, если
инсталлированный канал категории 6 / класса Е не соответствует требованиям к
минимальному уровню межкабельных наводок. В частности, рекомендуется:
·
использовать для систем 10GBase-T несмежные разъемы коммутационной панели;
·
разносить аппаратные шнуры или задействовать
улучшенные шнуры;
·
применять шнуры на основе кабеля F/UTP;
·
разобщать кабельные связки;
·
заменять компоненты категории 6 / класса Е на
компоненты категории 6А / класса ЕА.
Кабельные системы категории 6 / класса Е не рекомендуются для новых
инсталляций, где будут использоваться системы 10GBase-T. Дело, в частности, в том, что, хотя устройства для полевого
тестирования кабельных систем на соответствие новым значениям параметров PSANEXT и PSAACRF как раз сейчас и появляются на рынке,
методология тестирования остается крайне сложной и трудоемкой. Кроме того,
большинство инсталляций потребуют ослабления межкабельных наводок. Довольно
часто разработанные методы ослабления наводок реализуются с трудом из-за
существующих ограничений на степень заполнения кабельных каналов и на
потенциальную возможность замены компонентов. Помимо этого, отсутствуют
руководства по методике проведения аттестации для крупномасштабных инсталляций
или выполнению модернизации кабельных систем в будущем. Так как стандарт на СКС
категории 6 / класса Е был опубликован в 2002 г., сейчас он находится где-то в
середине намеченного 10-летнего срока службы описываемой им СКС. Чтобы
обеспечить максимальные производительность и прибыль на инвестиции,
проектировщики СКС стараются сегодня использовать кабельные системы уже более
высоких категорий.
СКС категории 6а / класса ЕА рассчитаны на работу в расширенном
частотном диапазоне и на более эффективное подавление межкабельных наводок, что
необходимо для обеспечения работы систем 10G Base-T по 100-метровому каналу. Кабельная проводка категории 6а / класса ЕА
обеспечивает положительное значение отношения сигнала к межкабельным наводкам
на частотах до 500 МГц и способна не только противостоять неблагоприятным
условиям кабельной среды, но и, когда придет время модернизации сети,
гарантированно поддерживать приложение 10G Base-T. Спецификации на эти СКС впервые содержат требования к балансировке
каналов и постоянных линий, что обеспечивает им более высокую электромагнитную
совместимость, чем у СКС предыдущих поколений. Спецификации на СКС категории 6а
/ класса ЕА обеспечивают должный запас по всем рабочим характеристикам, включая
суммарные межкабельные наводки. Определяется также такой параметр, как средние
суммарные межкабельные наводки по всем четырем витым парам кабеля UTP, который используется комитетом IEEE при
моделировании пропускной способности кабельного канала.
С принятием стандарта IEEE 802.3an на Ethernet 10G Base-T появилось
приложение, для функционирования которого нужна полоса в 500 МГц. Однако
некоторые параметры до сих пор окончательно не определены. Поэтому в настоящее
время пригодность решения Категории 6А для передачи сигналов сетевых
интерфейсов 10G Base-T полностью не гарантируется. Категория 7 / класс F,
напротив, опирается на утвержденный стандарт, чем обеспечивается совместимость
оборудования различных производителей. Спецификация описывает характеристики
систем на основе полностью экранированного кабеля, т.е. кабеля из индивидуально
экранированных витых пар, заключенных в общий экран. Благодаря своей полностью
экранированной конструкции кабель категории 7 обеспечивает положительное
значение отношения затухания к уровню перекрестных наводок на частотах до 600
МГц и отличные показатели электромагнитной совместимости. Преимущество
кабельной проводки класса F по сравнению с другими
категориями (классами) СКС состоит в том, что она ориентирована на поддержку
приложений, которые появятся вслед за системами 10GBase-T. СКС категории 7 — это единственная среда передачи, рассчитанная на
15-летний срок службы, и она способна обеспечить максимальную окупаемость
инвестиций с учетом 15-летнего срока эксплуатации.
Категория 7 обладает еще одним преимуществом. Хотя удовлетворяющий
требованиям стандарта кабель имеет достаточно большой внешний диаметр, пучок
кабелей подобной разновидности оказывается тоньше по сравнению с пучком
неэкранированных кабелей категории 6а. Причина парадокса в том, что при
построении неэкранированных систем необходимо предусмотреть либо достаточно
большой зазор между отдельными кабелями, либо некоторое воздушное пространство
под оболочкой. Это составляет необходимое условие достижения требуемого уровня
защищенности от межкабельных переходных помех. Соответственно для укладки
такого кабеля требуются лотки меньшего размера, чем для кабеля категории 6А.
Как следствие, общая стоимость монтажа и последующей эксплуатации оказывается
ниже, но самое главное — кабель можно проложить в самых стесненных условиях.
В СКС категории 7 используется разъем, описанный в спецификации IEC 61076-3-104:2002. Он состоит из вилки и гнезда оригинальной
конструкции, отличной от конструкции разъема RJ-типа. К
преимуществам этого разъем относятся простота его использования, большой запас
рабочих характеристик, поддержка многих приложений. Нелишне добавить, что
стандарт ISO 15018 рекомендует указанный разъем в качестве
интерфейса категории 7. Он серийно выпускается многими производителями, и
кабельная индустрия, и разработчики приложений, похоже, готовы к внедрению
полностью экранированной кабельной проводки.
Как известно, прогресс остановить невозможно. Поэтому нет ничего
удивительного в том, что органы по стандартизации приступили к разработке
стандарта на Категорию 7А, или Класс FA. Основным движущим мотивом являются не
новые разновидности Ethernet, а требования мультимедийной техники. Кабели
ориентированы на применение преимущественно в отелях и жилых домах и позволяют
прокладывать там тракты, ширина полосы пропускания которых составляет 1000 МГц.
В результате по единой проводке можно передавать самые разнообразные сигналы
телекоммуникационных служб, начиная от аналоговых телефонных сигналов 2,4 кГц и
заканчивая телевидением высокой четкости. Для кабельного телевидения необходимы
различные полосы частот: 862 МГц в Европе, 855 МГц в США и 765 МГц в Японии.
При гарантированной ширине полосы в 1000 МГц кабель категории 7а / класса FA
может применяться для поддержки функционирования этой разновидности аппаратуры
и даже имеет определенные резервы. Согласно теоретическим расчетам,
максимальная пропускная способность достаточна для поддержки функционирования
40-гигабитного Ethernet, который многими рассматривается как один из возможных
вариантов следующего (после 10-гигабитного Ethernet) поколения этого сетевого стандарта.
При столь высокой емкости категория 7а имеет значительно больший срок службы по
сравнению с решениями категории 6а. Для подавляющего большинства предприятий
это гарантирует отсутствие затрат на смену проводки на протяжении последующих
15 лет. За это время можно провести четыре или даже пять обновлений сетевой
инфраструктуры, что выгодно отличает данное решение от обычных десяти лет
службы и возможности не более трех-четырех модернизаций.
На межкабельные переходные влияния впервые обратили внимание при
разработке оборудования Fast Ethernet. При практической эксплуатации проводки
они возникали случайным образом. Однако реальной проблемой это стало при
внедрении технологии Gigabit Ethernet, которая работала по кабельным трактам категории
5е или 6. Одним из способов ее решения стал отказ от формирования столь
приятных глазу регулярных жгутов кабелей и переход к укладке «вразброс», что
устраняет опасность параллельного прохождения кабелей на достаточно длительном
участке. Явление переходной помехи вызвало самые большие трудности при
разработке неэкранированных конструкций кабелей категории 6а. Для решения этой
задачи были предложены интересные технические решения, в том числе
спиралевидные разграничительные элементы под оболочкой и кабели с овальной
формой поперечного сечения. Все эти нововведения были направлены на то, чтобы
максимально увеличить расстояние между однотипными парами в соседних кабелях
жгута и предотвратить их параллельную прокладку. Если системные администраторы
хотят быть уверенными в том, что этого нежелательного явления удастся избежать,
им следует рассмотреть возможность применения систем категории 7а / класса FA,
конструкция кабеля которых предусматривает наличие индивидуального пленочного
экрана вокруг каждой пары и общую оплетку из металлической проволоки.
Единственной медножильной системой, проверенной на тестах серии Tempest
американского правительства, что считается наилучшей гарантией защиты
передаваемого сигнала от несанкционированного прослушивания с помощью новейших
технических средств, пока остается решение категории 7а / класса FA компании
Siemon. Проблема несанкционированного доступа к конфиденциальной информации
становится все более актуальной для различных организаций, прежде всего
финансовых учреждений.
Стандарты ISO/IEC 11801 и TIA/EIA 568-A устанавливают ограничения на максимальные
длины кабелей и соединительных шнуров горизонтальной и магистральных подсистем.
Дополнительно еще раз подчеркнем, что максимальные длины электрических
кабельных линий для передачи сигнала указанного класса приведены для случая
построения этих линий из симметричного кабеля и других компонентов с категорией
не ниже указанной.
Длина кабеля горизонтальной подсистемы установлена равной 90 м (плюс 10 м на соединительные шнуры). Выбор именно этого значения произведен, исходя из
возможностей витой пары как направляющей системы электромагнитных колебаний
передавать сигналы наиболее массовых (на момент принятия стандартов)
высокоскоростных приложений типа Fast Ethernet. Учитывались
достигнутый технический уровень элементной базы и применяемые схемотехнические
решения приемопередатчиков современного сетевого оборудования. Не последнюю
роль при выборе именно этого значения максимальной длины играли архитектурные
особенности типовых офисных зданий. В случае реализации горизонтальной разводки
на волоконно-оптическом кабеле длина кабельной трассы ограничена величиной 90 м из тех соображений, что она гарантированно позволяет выполнить ограничения протокольного характера
сетей Fast Ethernet по максимальному диаметру
коллизионного домена.
Основным назначением подсистемы внутренних магистралей является
объединение в единое целое технических помещений в пределах одного здания.
Соответственно, максимальная длина кабеля такой магистрали устанавливается
стандартами равной 500 м.
Подсистема внешних магистралей, которая объединяет отдельные здания, согласно
стандарту ISO/IEC 1801 может включать
в себя кабели максимальной длиной 1500 м. Дополнительно оговаривается, что максимальная
длина магистральных кабелей между кроссовой этажа и кроссовой внешних
магистралей не может превышать 2000 м (500 м кабеля внутренней и 1500 м кабеля внешней магистрали) при условии применения коммутационных и оконечных шнуров
стандартной длины. В случае использования одномодового волоконно-оптического кабеля
указанное значение может быть увеличено до 3000 м. При современном состоянии уровня волоконно-оптической техники с использованием обычной
серийной аппаратуры это расстояние может быть равным 100 и более километрам.
Однако при необходимости обеспечения связи на столь большие расстояния
стандартами предполагается, что для передачи информации будут использоваться
линии и каналы связи общего пользования различных телекоммуникационных
операторов.
Длины коммутационных и оконечных шнуров зависят от выбранной схемы
подключения сетевого оборудования, типа среды передачи сигнала и подсистемы
СКС, к которой относится данный конкретный шнур или их совокупность. Согласно
стандарту ISO/IEC 11801 в редакции 2000 года максимальная суммарная длина
кабелей шнуров в горизонтальной подсистеме составляет:
·
9 м в случае схемы коммутационного подключения для
электрического кабеля;
·
10 м в случае схемы коммутационного соединения для
электрического кабеля;
·
10 м при любой схеме подключения в
волоконно-оптическом варианте.
Максимальная длина коммутационного шнура, применяемого в кроссовых
магистральных подсистем (КЗ и КВМ), согласно стандарту ISO/IEC 11801 равна 20 м. Длина оконечных шнуров, предназначенных для подключения
сетевого оборудования в этих технических помещениях, не должна превышать 30 м.
ЦОД, или
центр обработки данных, является выделенной сетью, которая обособлена от
локальных и глобальных сетей. Он обычно служит для взаимодействия между
собой устройств хранения данных, подключенных к одному или более серверам. ЦОД
часто характеризуется высокими скоростями передачи
данных (до нескольких Гб/с) между внешними устройствами хранения и своей
высоко масштабируемой архитектурой. Также отличительной особенностью ЦОДа является наличие специализированного программного обеспечения
для управления, контроля и настройки.
Общая структурная
схема ЦОДа изображена на рис. 3.1.
Рис. 3.1. Общая
структурная схема ЦОДа.
ЦОДы могут обеспечить
много выгод. Централизация операций хранения данных и их управления – это одна
из главных причин, почему технологии ЦОДа в настоящее время тщательно изучаются
и получают широкое распространение. Администрирование всех ресурсов памяти на
фоне высокого роста их объема может быть очень дорогим. ЦОДы могут существенно
уменьшить трудности обработки большого количества данных и
затраты на управление и при этом обеспечить
существенные технические преимущества.
ЦОДы могут быть
построены на высокоскоростных интерфейсах нескольких различных типов.
Фактически, многие ЦОДы сегодня используют комбинацию различных интерфейсов. В
настоящее время, технология Fibre Channel фактически служит стандартом, который используется в большинстве ЦОДов.
Fibre Channel - это стандартизированное
промышленное соединение и высокопроизводительный последовательный протокол
ввода-вывода, который поддерживает одновременную передачу по многим протоколам и безразличен к типу передаваемых данных. Также следует заметить, что в качестве интерфейсы между
внутренними компонентами элементов ЦОДа, таких как диски памяти и RAID контроллеры, часто
используются как интерфейсы SCSI.
Обеспечение высокой
производительности операций хранения, современная надежность и масшабируемость –
это основные выгоды ЦОДа. Эффективность хранения ЦОДа может быть намного выше, чем в традиционном
способе, когда внешнее устройство памяти напрямую присоединяется к компьютеру,
в значительной степени из-за очень высоких скоростей передачи данных
электрических интерфейсов, используемых для взаимодействия устройств в ЦОДе (таких
как Fibre Channel).
Следует заметить, что
производительность может также исходить из возможностей, обеспеченных гибкой
архитектурой ЦОДа, таких как балансирование нагрузки и резервирование LAN-free. Даже надежность хранения может быть сильно
расширена специальными особенностями, возможными в ЦОДе. Свойства, подобные
избыточным путям ввода-вывода, кластеризации серверов и дублированию данных «на горячую» (локальному и/или
удаленному), могут гарантировать доступность данных и приложений. Возможность добавления
емкости памяти и других ресурсов хранения без необходимости останавливать
серверы или сети клиента может быть легко достигнута благодаря технологии ЦОДа.
Эти особенности могут сразу обеспечить большие сбережения стоимости, уменьшение
отказов сети, безболезненное расширение памяти и уменьшение сетевой нагрузки.
Применяя выделенные и
высокоскоростные сети для операций хранения и резервирования, ЦОДы могут быстро
оправдать их использование. Выгрузка таких задач, как резервирование данных, из
локальных и глобальных сетей, жизненно важна в сегодняшней информационной
среде, где сетевые нагрузки и пропускная способность – это критические
параметры, которыми организации оценивают свою собственную производительность и
даже прибыль.
Как и многие
информационные технологии, ЦОДы зависят от новых и развивающихся стандартов,
чтобы гарантировать взаимную совместимость между своими компонентами.
Аппаратное обеспечение ЦОДа, такое как концентраторы и коммутаторы Fibre
Channel, контроллеры шин, мосты и системы
хранения типа RAID, опирается на большое количество принятых стандартов,
определяющих их совместимость.
Программное обеспечение
ЦОДа, не менее важное, чем его аппаратное обеспечение, часто предоставляет
многие из особенностей и выгод, благодаря которым ЦОДы приобрели известность.
Программное обеспечение ЦОДа может обеспечить или запустить основополагающие
особенности и возможности, включая:
·
Управление ЦОДом.
·
Контроль за ЦОДом
·
Настройка ЦОДа.
·
Управление избыточными путями
ввода-вывода.
·
Резервирование без участия сервера.
·
Дублирование данных (локальных
и удаленных).
Состав аппаратных средств ЦОДа
представлен на рис. 3.2.
Рис. 3.2. Состав
аппаратных средств ЦОДа.
ЦОДы созданы из
уникальных аппаратных компонентов. Эти компоненты сконфигурированы вместе,
чтобы сформировать непосредственно сам ЦОД, и обычно включают в себя
разнообразное оборудование. Системы хранения RAID, концентраторы, коммутаторы, мосты, серверы,
резервирующие устройства, платы интерфейсов и кабели – всё объединяется, чтобы
сформировать единую систему хранения, которая обеспечивает необходимые ресурсы,
облегчающие функционирование организации.
Очень важно правильно выбрать аппаратные
устройства и их конфигурацию для создания ЦОДа. Многие из стандартов, которыми
регулируются ЦОДы, затрагивают способность к взаимодействию. Некоторые из этих
стандартов все еще развиваются и не были одинаково приняты всеми изготовителями
оборудования, используемого в ЦОДах. Это может привести к трудностям при
совместном использовании устройств от различных производителей и поставщиков. С
тех пор как ЦОДы для своей надлежащей работы стали зависеть от программного
обеспечения, может быть жизненно важным предоставить информацию о последних
версиях программного обеспечения (и встроенного программного обеспечения) и о
потенциальных проблемах совместимости.
Тесная работа с компаниями, которые
специализируются на дизайне, интеграции и реализации ЦОДов, может обеспечить
большие выгоды. Эти фирмы обычно знакомы с последним программным обеспечением и
оборудованием и могут ускорить процесс успешного развертывания технологии ЦОДа.
Работая с другими продавцами, изготовителями и стандартами, эти специалисты в
области ЦОДов могут гарантировать, что обещанные выгоды реализованы и успешно
интегрированы в новую или в уже существующую информационную инфраструктуру.
Самые современные ЦОДы
включают в себя системы RAID как первичные устройства хранения данных. Эти
системы стали сейчас высоко развитыми и определяют те
важные особенности, которые
ожидаются от современного ЦОДа. Прежде всего, системы RAID предлагают
возможность защиты данных (отказоустойчивость) в случае выхода из строя некоторого
компонента ЦОДа или пути ввода-вывода . Защита действует даже при выходе из
строя основополагающих элементов, таких как дисководы. Дополнительно,
посредством многочисленных методов data striping
и конфигурации контроллера, сегодняшние системы RAID предлагают
очень высокую производительность, емкость памяти, масшабируемость и
жизнеспособность. Другие факторы надежности, доступные в сегодняшних системах RAID, включают в
себя системы избыточного охлаждения, источники питания, контроллеры и даже мониторинг
схем. Эти и другие особенности и характеристики, вносят решающий вклад в
высокую доступность данных в ЦОДе. Современные системы RAID могут даже
разрешить прямое подключение оборудования резервирования, таким образом, облегчается резервирование типа LAN-free и даже резервирование типа serverless, а также
дублирование данных.
Корни технологии RAID можно проследить,
оглянувшись назад до 1987, когда Паттерсон, Гибсон и Катц в Университете
Калифорнии в Беркли издали статью, озаглавленную как «A Case for Redundant Arrays of Inexpensive Disks (RAID)». Идеи, представленные и объясненные в
статье, повествовали об объединении множества маленьких недорогих дисководов в
массивы с целью предоставить возможности, которые не могли поддерживать
отдельные диски. Эти новые возможности выражались в улучшающейся производительности
ввода-вывода и автоматического сохранения содержания дисков в течение и после выхода
из строя диска или другого компонента.
Эти массивы дисков
представлены компьютеру как отдельный логический модуль памяти (LUN) или диск.
Дополнительные выгоды от использования массивов дисков включают в себя способность
делать эти массивы отказоустойчивыми путем избыточного сохранения данных
различными способами. Пять архитектур, уровни RAID от 1 до 5, определенные работой Беркли, обеспечивают
отказоустойчивость при помощи различных компромиссов в особенностях и характеристиках
работы диска. В целом, эта идея должна была улучшить надежность системы
хранения, значительно увеличивая среднее время между отказами (MTBF) для массива
и резко улучшать производительность системы хранения. Шестой, общий тип
архитектуры RAID, RAID 0, был впоследствии определен как тип, позволяющий
существенно улучшить производительность операций ввода-вывода на массиве, но он
не обеспечивает никакой защиты данных при аппаратном сбое диска. Несмотря на
это, использование массивов RAID 0 способно принести очень существенную пользу. Массивы
RAID
0 идеальны для приложений, которые требуют самую высокую пропускную способность,
какая только возможна. Обратите внимание, что эти приложения должны быть
способны допустить возможную потерю данных, и прерывание обслуживания, если
диск или другой компонент в массиве выходит из строя.
Разработка и развертывание технологий ЦОДа
вовлекают в себя все больше специализированного оборудования взаимосвязи. В эту
категорию часто попадают концентраторы, коммутаторы и
мосты Fibre Channel. Эти аппаратные средства
отвечают за объединение всех внешних устройств хранения данных между собой,
например, систем RAID, устройств записи на ленту и
серверов в ЦОДе.
Эти устройства
взаимосвязи несколько похожи на своих «коллег» из локальных сетей. Они выполняют
такие функции, как обмен кадров с данными, преобразование интерфейсов и сред (т.е.
от меди к оптической среде, от интерфейса Fibre Channel к интерфейсу SCSI), расширение
сети, повышение полосы пропускания, и они также позволяют параллельную передачу
данных. Сейчас потребители, вовлеченные в проектирование и организацию своих локальных
и глобальных сетей, все больше и больше внимания обращают на блоки, из которых
собирается ЦОД, чтобы создать свои собственные решения на их основе.
Концентраторы и коммутаторы Fibre
Channel, мосты FC – SCSI – это строительные компоненты, с помощью которых
администраторы смогут построить системы резервирования на основе ЦОДа, осуществить
кластеризацию серверов, увеличить полосу пропускания, продлить расстояния
передачи и дать им другое применение, требуемое современными запросами в
технике. Выбор соответствующих компонентов для применения их по назначению
требует понимания того, что каждый из них может сделать. Когда, например,
коммутатор является лучшим решением, чем концентратор?
Когда коммутаторы и концентраторы должны использоваться в комбинации? Нет
универсальных ответов на эти вопросы, но понимание архитектуры и способностей коммутаторов,
концентраторов и мостов обеспечит знание для того, чтобы сделать правильный
выбор при проектировании ЦОДа.
Концентратор Arbitrated Loop подобен по функциях концентратору в сети Ethernet
или Token Ring. Концентраторы проектировались
в ответ на проблемы, которые возникли, когда Arbitrated Loop были построены путем простого соединения передающих линий одного устройства с принимающими линиями другого.
Такая рукотворная
шлейфовая организация связей между тремя или более устройствами пригодна, чтобы
сделать закольцованный путь передачи данных или петлю, но создает существенные
проблемы при устранении неисправностей и добавлении или удалении устройств. Например,
при добавлении нового устройства всегда будет нарушена вся петля, поскольку в
нее добавляются новые связи. Если кабель рвется, или приемопередатчик выходит
из строя, то чтобы идентифицировать неисправную связь, необходимо исследовать
все кабели и соединения между всеми устройствами.
Концентраторы решают эти
проблемы, свертывая топологию петли в конфигурацию звезды. Так как каждое
устройство связано с центральным концентратором, концентратор становится центром
добавлений, перемещений или изменений в сети.
Концентраторы Arbitrated Loop обеспечивают схему обхода
порта, которая автоматически перенастраивает петлю,
если устройство удалено, добавлено или неисправно. Прежде, чем новому
устройству будет позволено встать в петлю, концентратор, как минимум, проверит его
и проверит качество его сигнала. Устройства с низким качеством сигнала, или
несоответствующей тактовой частотой, будут оставлены в режиме транзитной
передачи и позволят другим устройствам в петле продолжать работать без сбоя. На
концентраторах обычно устанавливаются светодиоды для каждого порта, которые наглядно
отображают статус оборудования: подключено, в режиме обхода или наличие плохой
связи. Эти особенности обеспечивают намного более динамичную среду, в которой
проблемы могут быть идентифицированы с большим удобством, особенно когда
устройства могут быть подсоединены к включенному оборудованию или отсоединены
без сбоя физического уровня.
Порт концентратора может
быть изготовлен или под электрический или под оптический ввод. Эта возможность
очень полезна при проектировании или конфигурирования сети. Например, если было
бы желательно расположить концентратор на некотором расстоянии от сервера, то оптическое
подключение (длинноволновое или коротковолновое) могло бы использоваться между
сервером и концентратором, в то время как медные подключения могли
использоваться между концентратором и локальными контроллерами. Концентраторы
могут быть расположены каскадом, чтобы обеспечить дополнительные порты для
обеспечения большего количества связей.
Реальная топология
фрагмента сети с концентратором Arbitrated Loop представлена на рис. 3.3.
Рис. 3.3. Топология
концентратора Arbitrated Loop.
Коммутаторы Fibre Channel значительно более сложны, чем
петлевые концентраторы Arbitrated Loop и в дизайне и в функциональных возможностях. В то время как
концентратор – это просто проводной концентратор для общедоступного сегмента
сети скоростью 100 Мб/с, то коммутатор
обеспечивает
высокоскоростной механизм маршрутизации и скорости передачи данных до 100 Мб/с для
каждого порта. Кроме специальных функций управления, концентраторы обычно не
участвуют в деятельности технологии
Fibre Channel на
уровне протоколов в отличие от коммутатора, который принимает очень активное
участие в сеансах связи по Fibre Channel, он одновременно
следит за службами, которые обеспечивают сеанс и наблюдает за потоком кадров
между отправителями и адресатами в каждом порту. Обеспечение служб сеанса связи, скорость передачи данных в 100 Мб/с на каждый порт и расширенная
логика, требуемая для распределения потов информации, сохраняют изначально
высокую стоимость порта у коммутаторов первого
поколения. Коммутаторы второго
поколения, основанные на ASIC
(специализированных интегральных схемах), фактически уменьшили стоимость порта
больше, чем в половину. Это переносит коммутаторы
Fibre Channel в пределы досягаемости сетей больших предприятий.
Также существует технология Fibre Channel
Arbitrated Loops (FC-AL).
Она представляет собой последовательные интерфейсы,
которые создают логические двухточечные подключения между портами с минимальным
числом приемопередатчиков и без функции централизованного переключения. Однако
полная пропускная способность включения FC-AL поделена между всеми портами в петле. FC-AL поэтому является
решением с более низкой стоимостью. Следует заметить, что только единственная
пара портов в петле может передавать одновременно, в то время как другие порты в
петле действуют в качестве повторителей.
Топология фрагмента сети
с коммутатором представлена на
рис. 3.4.
Рис. 3.4. Топология
коммутатора.
Мосты Fibre Channel – SCSI обеспечивают преобразование
между этими двумя различными электрическими
интерфейсами и поэтому позволяет IT-менеджерам увеличить
инвестиции в существующие запоминающие устройства типа SCSI, и при этом получить всё преимущество от
выгод, свойственных технологии Fibre Channel. Эти
устройства обычно используются, чтобы подключить сети Fibre Channel к
унаследованным внешним устройствам хранения данных, таким как системы
резервирования на магнитную ленту.
Так как самые современные ЦОДы
связаны между собой при помощи Fibre Channel и так как
много устройств резервирования используют интерфейсы SCSI, то часто
требуется мост между ними. Существует много производителей мостов, но очень
важно подтвердить совместимость моста с выбранным резервным устройством перед
попыткой собрать их вместе или закупить. Эта проблема в ЦОДах имеет много
протестов и часто является областью, где выгода извлекается из прямого опыта. Консультанты,
продавцы оборудования, и провайдеры ЦОДов могут быть превосходными источниками
для информации о такого рода совместимости.
Структурная схема
системы резервного копирования данных представлена на рис. 3.5.
Рис. 3.5. Структурная
схема системы резервного копирования данных.
Одна из особенностей архитектуры ЦОДа, позволяющая экономить
средства, – это ее способность осуществлять операции резервного копирования от
серверов локальных сетей. Эта возможность может значительно увеличить величину
пропускной способности ЛВС для сетевых клиентов и оконечных пользователем во время
операций резервного копирования. Когда серверы серверов локальных сетей
освобождены от задач перемещения данных, они становятся доступными для
использования в других целях.
Системы резервирования
типа LAN-free и serverless оптимизируют операции резервного копирования, выгружая
трафик резервных данных из ЛВС, таким способом увеличивается величина
пропускной способности ЛВС для оконечных пользователей. Резервирование типа serverless еще
больше увеличивает производительность, удаляя из более, чем 90 процентов
административной работы, выполняемой сервером локальной сети, т.е. работы по
резервному копированию данных. Это достигается путем включения некоторых из
сведений о резервном копировании в сам ЦОД или путем обеспечения непосредственной
прямой связи между внешними устройствами. Это может значительно освободить
серверы локальной сети, освобождая их от большого объема администрирования и
рутинного перемещения данных. Использование систем
резервирования, основанных на ЦОДах, позволяет
администраторам оптимизировать использование сети и серверов.
Традиционное резервирование
заставляет прикладной сервер, сервер резервирования и ЛВС работать только в
собственных целях. Следовательно, как объем сохраняемых данных растет, так и время
и ресурсы сети, необходимые для их хранения, тоже растут. Теперь, когда предприниматели
и организации приблизились к необходимости круглосуточной работы, задачи резервирования
сравнимы с деловыми задачами, критичными ко времени обслуживания и сетевым ресурсам.
Неизменно, это вызывает перегрузку сети и может закончиться замедлением и даже
остановкой производства.
При операциях
резервирования типа serverless ведущие компьютеры сети (серверы) не обрабатывают
резервируемые данные самостоятельно. Вместо этого они просто управляют и контролируют
резервирование без как такового перемещения информации. Резервируемые данные копируются
непосредственно с диска на ленту или с диска на диск внешними устройствами ЦОДа,
которые используют для этого заключенные в себя сведения. Эти сведения могут
быть произвольно расположены даже в других компонентах
ЦОДа, таких как концентраторы и коммутаторы Fibre Channel. Освобожденные от бремени рутинной транспортировки данных,
ресурсы сервера локальной сети могут быть возвращены к более производительному
использованию. Или, другими словами, сервер накопления или сервер резервирования
делегированы в роли координатора процесса резервного копирования, а не «перемещателя» данных.
Для сравнения, в простых
операциях резервирования типа LAN-free трафик резервируемых и восстанавливаемых данных
удален из ЛВС, но все еще течет через сервер управления, так как данные
все-таки перемещаются между хранилищем и устройствами, подлежащими резервированию.
Выгода все еще ценна, так как пока трафик резервируемых данных удален из ЛВС,
сокращается нагрузка на сеть. Однако только резервирование типа serverless освобождает
сервер управления, перенося задачи перемещения данных на сильные внешние
устройства.
Сейчас сильные внешние
устройства могут осуществлять большую часть резервного копирования данных,
поддерживая более новые технологии и API, такие как «команда расширенного копирования»,
которые позволяют перемещать данные между запоминающими устройствами по разным
шинам. Сервер резервирования отдает команду «перемещателю» данных в ЦОДе и
затем устраняется от фактического перемещения данных. Цепочка, по которой
перемещаются данные, состоит только из источника, адресата и устройств ЦОДа.
Ограничения, связанные с памятью, вводом-выводом и работой центрального
процессора резервного сервера, устранены, так как данные перемещаются через
высокоэффективное устройство копирования, которое оптимизировано для транспортировки.
Логика здесь довольно очевидна, сервер резервирования освобождается для других
критических деловых задач, что способствует его консолидации. Больше нет необходимости
устанавливать выделенный сервер резервирования. Также следует заметить, что
операции резервного копирования могут происходить намного быстрее по сетям с более
высокими скоростями, например, построенных на технологии Fibre
Channel.
Системы резервирования типа
serverless могут также
обеспечить дополнительные сбережения стоимости, устраняя дорогие
высокопроизводительные серверы. Другое уникальное преимущество в архитектуре
резервирования такого типа – это ее способность направлять одни и те же данные
к нескольким ленточным библиотекам или другим адресатам одновременно, даже если
они географически отдалены друг от друга, без потребности физически копировать
и перемещать ленты, что является важным преимуществом в случае экстренного
восстановления.
С точки зрения аппаратного обеспечения, оборудование резервного копирования данных, используемое
в ЦОДах, по сути то же самое, что и используется в общепринятых конфигурациях.
Различия в том, какими интерфейсами эти устройства связаны со своими ведущими серверами и системами хранения пользователя.
При рассмотрении или
разработке систем резервирования типа
serverless важно обратить внимание, что некоторые из этих производителей
предлагают мощные мосты, включающие в себя встроенные функции копирования. Как было
упомянуто выше, эти особенности требуются для правильной работы резервирования
типа serverless. На практике, маленькие приложения, выполняющиеся на
выбранном сервере, дистанционно активизируют и дают инструкции программам-агентам,
а затем «сидят» и контролируют процесс, пока мощный мост, или подобное ему устройство,
перемещает данные.
Эти программы-агенты, в
том числе и встроенные, могут быть найдены даже в некоторых
коммутаторах и концентраторах Fibre Channel. В некоторых
компаниях разработали специальные программы, которые
могут быть загружены в эти модули, чтобы дать им возможности независимого копирования.
При всех этих доступных вариантах нужно видеть важность очень тщательного подбора
компонентов. Первое время пользователи ЦОДа будут иметь желание
проконсультироваться со специалистами перед покупкой данного оборудования для применения
его в системе резервного копирования.
Хотя системы
резервного копирования данных на основе ЦОДа обычно используют библиотеку
накопителей на магнитных лентах, ее сервер и дисковую память, соединенные
вместе инфраструктурой Fibre Channel, становится обычным
включать в них поддержку копирования с диска на диска.
С сегодняшней информационной политикой, требующей удаленного дублирования
сайта, понятие резервного копирования данных теперь может означать намного
больше, чем только создание лент. Оно может включать в себя дублирование данных
на местные или удаленные диски через глобальные сети и резервирование с диска
на диск, что позволяет приспособиться к автономной обработке данных в
современном информационном мире.
Задачи и функции специализированного
программного обеспечения ЦОДа проиллюстрированы на рис. 3.6.
Рис. 3.6. Функции программного обеспечения ЦОДа.
Сейчас более чем
когда-либо прежде, программное обеспечение играет жизненно важную роль в
успешном развертывании ЦОДов. Большая часть технологий, и многие из
особенностей, обеспечиваемых ЦОДами, фактически внедрены в их программное обеспечение. Выбор и настройка программных
компонентов очень важны и должны аккуратно выполняться всегда, начиная от
управления томами и до резервирования типа serverless.
Много компаний предлагают широкое разнообразие программных
продуктов и решений, которые специально предназначены для увеличения
эффективности, доступности данных и управляемости ЦОДов. Некоторые из этих
решений были разработаны компаниями для конкретных «линеек» систем
хранения данных. Другие предложения более универсальны и открыты и сделаны для
очень широкого диапазона требований пользователей и оборудования.
В настоящее время и проектирование и реализация ЦОДов могут быть довольно сложными задачами. Это происходит из-за проблем,
касающихся их конфигурации, распределения ресурсов и контроля. Эти трудности привели
к потребности осуществлять более активное управление самими ЦОДами, их клиентскими
серверами и объединенными ресурсами. Хотя несколько ранее в своем развитии, программное обеспечение управления ЦОДами много заимствовало из идей, функций
и выгод, которые были доступны и развиты в
традиционных локальных и глобальных сетях, но новые потребности привели к новой
категории программного обеспечения.
Было бы идеально, если
б программное обеспечение управления было
универсально и работало с любым ЦОДом. Но в сегодняшней обстановке, когда
существует большое количество продавцов ЦОДов и разнообразие аппаратных
компонентов, это программное обеспечение часто бывает частным, то есть привязанным
к конкретным изделиям и продавцам. Пока такое положение только начинает
меняться, и это все еще означает, что программное обеспечение управления ЦОДами
должно выбираться с большой аккуратностью и изучением изготовителей
оборудования ЦОДов, платформ операционных систем, встроенного программного обеспечения,
клиентских приложений и даже другого программного обеспечения, которое можно запустить
в ЦОДе. До тех пор пока программное обеспечение управления ЦОДами не станет
универсальным, будет весьма важно и даже жизненно необходимо тесно сотрудничать
с поставщиками оборудования, чтобы достичь лучших результатов и больших выгод
при управлении ЦОДом.
При выборе
программного обеспечения управления ЦОДа важно и нужно задать много вопросов,
касающихся его применения. Спросите о поддерживаемых операционных системах, о проблемах
совместимости с оборудованием других производителей, о любых ограничениях,
которые могут накладываться в особенных случаях, и немного поинтересуйтесь самими
компонентами, которые установлены или будут установлены в ЦОДе. Даже при получении
ЦОДа, полностью собранного одним единственным поставщиком, все равно
благоразумно задать эти же вопросы, особенно, связанные с совместимостью.
Понятие «управление» часто имеет разный смысл для разных людей.
Сетевой администратор, например, заинтересован только транспортировкой данных
или надежным перемещением информации пользователя от одного пункта в другой.
Поэтому сетевой администратор обеспокоен такими проблемами управления, как
использование пропускной способности, обеспечение избыточных связей в сети с ячеистой топологией, чтобы гарантировать альтернативные пути для
данных, поддержка большого числа протоколов, безошибочная доставка, и так
далее. Одним словом, сетевой администратор заинтересован в получении данных от
А до B и обычно не знает том, что случается с данными, как только они достигают
пункта назначения.
Администратор хранилища,
с другой стороны, менее обеспокоен транспортировкой данных, чем их организацией
и размещением, как только они достигает своего пункта назначения. Уровни
RAID, целостность файлов, резервное копирование на магнитную
ленту, использование дисков, и так далее – это повседневная «головная боль» администратора
хранилища. Управление хранилищем предполагает, что данные достигли точки B
неповрежденными и затем решается, как они должны быть записаны, на диск или на
магнитную ленту.
Такие различные взгляды
на администрирование сходятся в ЦОДе с тех пор, как надлежащее функционирование
центров обработки данных потребовало как управления транспортировкой данных,
так и управления размещением данных. Вводя работу с сетями между серверами и
памятью, ЦОД вынуждает традиционное управление хранилищем расширить свои
возможности, чтобы можно было поддерживать сетевое администрирование, а также
ЦОД поощряет расширение досягаемости традиционного сетевого управления в
вопросах размещения и организации данных. Следовательно, структуры сетевого управления
включают в себя утилиты управления хранилищем для ЦОДа, в то время как поставщики
программного обеспечения в свою очередь включают в свои
продукты модули, которые могут контролировать транспорт Fibre Channel в сети.
Интеграция функций
управления сетью и управления хранилищем – уникальный результат эволюции ЦОДов,
она подтверждает переход от модели, в центре внимания которой был сервер, к
модели, в центре внимания которой данные.
В идеале, решение
развертывать управляемый или неуправляемый ЦОД должно быть определено его
применением. Если ЦОД может потенциально противостоять сбоям из-за неисправности
сети, то налагаются меньшие требования на дополнительные возможности
управления. Однако во многих ранних инсталляциях ЦОДов по умолчанию были установлены неуправляемые конфигурации
или из-за недостатка управляемых компонентов, или в предположении, что маленькие
ЦОДы не требуют управления. Некоторые из этих ранних инсталляций продолжают
выполнять критические приложения, пытаясь при этом компенсировать недостаток
управления путем представления избыточных путей для данных. Однако такое
решение не заменит управления. В отсутствие управления может быть незамечен
отказ маршрута резервирования, что приведет к отказу всей системы, если отключился
основной маршрут.
Информационные сети и сети предприятий так зависят от непрерывного
доступа к данным, что бывает трудно осуществить даже запланированные изменения
в сети и соблюсти график резервного копирования на магнитную ленту. Часто в
маленьких ведомственных инсталляциях, выполненных одним производителям, время,
потраченное на определение и устранение простой проблемы, может привести к
недопустимому сбою оконечных пользователей.
Без инструментов, способных
быстро определять и изолировать проблемы, среднее время восстановления медленно
увеличивается, заполняя промежуток между начальными признаками поломки и всеми
ремонтными процессами, требуемыми для поиска и, наконец, устранения неисправного
кабеля, приемопередатчика, контроллера шины или ошибку приложения. Получать
оценку возможностей управления подобным способом крайне нежелательно.
Применительно к ЦОДу понятие кластеризация
серверов обычно относится к
группированию серверов с целью увеличения их производительности и обеспечения
защиты от отказов при неустойчивой работе одного из серверов. Непрерывная
доступность данных и приложений в течение и после отказа сервера – это основная
выгода от архитектуры кластеризации серверов в ЦОДе.
Хотя серверы могут быть сгруппированы
вместе вне пределов ЦОДа, есть много выгод, связанных с группированием их именно
внутри ЦОДа в качестве его части. Эти выгоды заключаются в общем доступе к дискам
и системам резервного копирования на магнитную ленту, в более высокой производительности
дублирования, в улучшенной
масшабируемости памяти и в расширении доступности ресурсов. Это возможно,
благодаря преимуществам, которые свойственны системам хранения на основе ЦОДа.
Во многих случаях,
специализированное программное обеспечение, применяемое в серверных кластерах,
может даже вернуть сервер назад в кластер, в случае если он восстановлен и снова
готов работать как прежде. Другие программы могут даже разделять прикладные задачи
между серверами в кластере, чтобы резко поднять производительность
системы и уменьшить время реакции.
Кластеризация серверов может быть очень ценна в
плане восстановления после отказа. В этих случаях сгруппированные серверы можно
было бы присоединить к глобальной сети взамен прямого подключения к интерфейсам
ЦОДа, чтобы обеспечить покрытие достаточного географического расстояния. Однако
такие, удаленно подключенные серверы могли бы подключаться еще и к локальным
ЦОДам в месте их расположении, а эти ЦОДы в свою очередь могли бы включить в
себя еще и дополнительные сгруппированные серверы.
Термин «кластеризация» имеет несколько значений в информационных
технологиях. Во всех случаях под понятием «кластеризация» понимается любая
ситуация, в которой большое число серверов совместно используют данные или
выполняют одну и ту же задачу.
В атмосфере современного бизнеса и электронной коммерции все
больше и больше пользователей критически зависят от своих информационных
ресурсов. В результате, они требуют, чтобы эти ресурсы всегда были доступны.
Выход из строя любого ресурса может иметь серьезные деловые значения, включая
потерянный доход и потерянный бизнес. Экстремальный случай, когда выйдет из
строя целая система, может заставить закрыть бизнес. Стоимость одного часа
простоя системы может находиться в пределах от десятков тысяч долларов до
нескольких миллионов долларов в зависимости от характера бизнеса. Поэтому
многие пользователи требуют, чтобы их системные ресурсы были непрерывно
доступны, т.е. они должны быть доступными 24 часа в сутки, 365 дней в году. Для
многих предпринимателей стали важными технологии, которые поддерживают
компьютерные системы с высокой степенью доступности.
Кластеризация – это ключевая технология,
которая активирует непрерывную доступность данных и приложений. Кластер – это
совокупность нескольких законченных систем, работающих вместе с целью создать
одну систему с объединенной вычислительной мощностью. Перспективным для
оконечного пользователя является тот факт, что кластер работает так, как если
бы это была отдельная система. Задача может быть распределена среди множества
систем, работающих в кластере. Вывод из строя любой отдельной части кластера (запланированный или незапланированный) не будет прерывать
предоставление услуги пользователю. Пользовательские процессы могут быть даже относительно
прозрачно перенесены из одной системы в другую в пределах кластера.
Архитектура ЦОДа также может
приспосабливаться к многомерному росту. Особые технологии управления хранилищем
могут гарантировать возможность непрерывного увеличения емкости памяти, таким образом,
серверы приложений всегда имеют память такой емкости, в которой они нуждаются. ЦОД
также облегчает добавление новых серверов, если необходима большая
производительная мощности, при этом каждый сервер имеет доступ к хранимым
данным. На ЦОДе может быть создано множество копий данных для более
эффективного обращения к ним, так устраняется ненадежность, свойственная
отдельному диску.
Дублирование данных
очень выгодно в современных информационных технологиях. Например, это может
позволить системным администраторам создавать и управлять многочисленными
копиями важной деловой информации внутри глобального предприятия. Это может
максимизировать устойчивость работы предприятия, позволяя восстанавливаться
после отказа, распространять
содержимое файлового сервера в Интернете, улучшать производительность ведущих
узлов путем перемещения данных на вторичные серверы для резервирования. Дублирование
данных применяется все чаще благодаря архитектуре ЦОДа, отличающейся высокой доступностью
данных.
Копирование данных с
одного сервера на другой или с одной системы хранения данных на другие может
быть осуществлено по-разному. Традиционно, для размещения информации
организации использовали технологии на основе магнитной ленты. Однако во многих
организациях, которые строили свою коммерческую деятельность на информационной
инфраструктуре, возрастал спрос на мгновенный доступ к информации. До пор пока
еще устойчивы системы восстановления и размещения данных на основе магнитной ленты,
организации не смогут использовать модель мгновенного доступа к информации.
Многие организации дополняют или заменяют свои уже существующие системы размещения
данных и восстановления на системы онлайнового дублирования.
Дублирование информации
обычно производится одним из двух основных способов:
1.
Дублирование памяти состоит в «оптовом» перемещении файлов или блоков с данными с одного сервера
на другой или несколько других. Дублирование
памяти не зависит от приложений, которые копируются. Это означает, что множество
приложений может быть запущено на основном сервере и одновременно копироваться
на дополнительный сервер.
2. Дублирование на прикладном уровне специализировано для конкретных приложений таких, как
базы данных или web-сервера, и обычно происходит по непосредственной команде
самого приложения. Если на одном и тот же сервере запущено множество приложений, то дублирование на прикладном уровне должно
применяться к каждому приложению индивидуально.
Удаленное дублирование памяти может быть осуществлено или на
уровне массивов
данных или на уровне центрального процессора:
1.
Дублирование памяти на уровне массивов или аппаратным способом означает, что данные копируются с одного дискового массива на
другой, аналогичный по типу и модели. Чтобы соединить два массива обычно
требуется выделенный канал, такой как ESCON (Enterprise Systems Connection), и может также потребоваться множество
других аппаратных частей, таких как мосты памяти.
2.
Дублирование памяти на уровне центрального процессора осуществляется
программным обеспечением и не зависит от использования дисковых массивов. Это
дублирование выполнено на стандартных протоколах типа TCP/IP поверх
существующей сетевой инфраструктуры типа ATM.
Независимо от того,
выполнено ли дублирование памяти на уровне массивов или на уровне центрального
процессора, оно работает в одном из двух режимов
1. Синхронное дублирование. При
синхронном дублировании данные должны быть переданы получателю прежде, чем
операция записи завершится на ведущей системе. Это обеспечивает самый высокий
из возможных уровень потока данных для получателя, так как в любой момент времени
он будет иметь точно такие же данные, что и источник. Однако синхронное дублирование
может привести к задержкам при работе источника, особенно если между источником
и получателем медленное сетевое подключение. Некоторые системы комбинируют
синхронное и асинхронное дублирование, резко переключаясь на асинхронное
дублирование, когда возникают неполадки, и затем возвращаясь к синхронному,
когда коммуникационные проблемы решены.
2.
Асинхронное дублирование. При
использовании асинхронного дублирования, источник не ждет подтверждения от
получателя и продолжает передавать информацию. Программы могут кэшировать
данные и посылать их партиями в течение периодов, когда сеть доступна.
Одна из многих полезных и часто рекламируемых
особенностей ЦОДа – это его простая масшабируемость. Но в то время как технологии
ЦОДа, действительно, делают довольно простым добавление физических устройств,
важно понимать, что простое добавление аппаратных ресурсов к ЦОДу не
подразумевают, что его пользователи и их операционные системы или другие элементы
ЦОДа смогут автоматически распознают их. Это особенно сильно проявляется при
наращивании емкости памяти ЦОДа.
Большинство ЦОДов объединяет
несколько типов аппаратных средств хранения данных. Обычно это оборудование представлено
системами хранения типа RAID и JBOD. Самый простой способ повысить емкость памяти состоит в добавлении дополнительных
дисководов к системам RAID и JBOD в ЦОДе. И пока системы RAID будут автоматически
обнаруживать эти дополнительные дисководы, они не будут распространять на них
изначально созданные файловые системы прежде, чем пополнится объем дисковой
памяти. Фактически, большинство клиентских серверов ЦОДа и их операционные
системы ничего автоматически не станут делать с дополнительно добавленной емкостью.
Простая причина этого состоит в том, что пока емкость памяти увеличивается путем добавления дополнительных аппаратных элементов
(дисководов), файловые системы, которые были сформированы в системе хранения
прежде, чем начали добавлять дополнительные диски, не будут сами собой распространяться
на новое дисковое пространство. Нужна определенная помощь от специализированного
программного обеспечения, способного управлять томами и файловой системой. Это
особенно сильно проявляется при расширении систем JBOD. Как только емкость памяти увеличена или путем расширения систем RAID, или путем
расширения систем JBOD, администратор должен вручную воспользоваться утилитами
операционной системы, выполняющейся на клиентском сервере ЦОДа, чтобы или
подготовить или создать новые файловые системы на добавленных устройствах в
системах JBOD или на
добавленном пространстве LUN в системах RAID.
Но проблема возникает со многими, если не со всеми,
немодифицированными операционными системами, когда желательно просто пополнить
или добавить новую дополнительную емкость к уже существующим томам или файловым
системам. В идеале, ранее существовавшие файловые системы нужно стереть и затем
заново их создать, чтобы подключить новую память. Существует программное
обеспечение способное «незаметно» увеличивать емкость памяти и в томах и в
файловых системах. Фактически, такое программное обеспечение может выполнить
это расширение
прозрачно и даже без потребности демонтировать
файловые системы или останавливать серверы.
Другая свойственная многим ЦОДам особенность – это способность
разрешать совместное использование всей памяти множеству серверов, даже если
эти серверы работают под различными операционными системами. Это означает, что память отдельной системы
хранения может быть разделена между различными серверами или исключительно
назначена одному из них. Но, пожалуйста, обратите внимание на то, что это совместное
использование относится к памяти, доступной системе хранения, а не к данным,
содержащимся в ней. Здесь также нужно заметить, что для совместного
использования данных, расположенных в общедоступной памяти, почти всегда
требуется специальное программное обеспечение, особенно, если данные должны
быть разделены между серверами, работающими под различными операционными
системами.
Даже в случаях, когда системы хранения используются без файловых
систем, такие как некоторые прикладные базы данных, все еще можно добавлять
память без остановки серверов. Все, что для этого нужно, – установить
необходимое программное обеспечение для управления соответствующими
приложениями.
Наряду с особенностями, изложенными выше, программное обеспечение
управления томами и файловыми системами может обеспечить другие многочисленные
возможности в пределах ЦОДа. Некоторые из этих предложений включают в себя
программное обеспечение, способное создавать тома RAID на системах JBOD, изменять уровни RAID «на лету», формировать
большие непрерывные логические тома их отдельных дисков или систем RAID, и осуществлять
открытое управление файлами.
Область использования СКС для ЦОД предопределяет значительное
снижение требований к универсальности. Для кабельной системы такого типа
удобство коммутации проводки не является обязательным, поскольку она не
предназначена для обслуживания пользователей, часто меняющих свои рабочие
места. Вместе с тем, центры обработки данных имеют очень жесткие ограничения по
занимаемой площади. Перечисленные особенности оказывают прямое влияние на
применяемые в СКС технические решения. С сокращением размеров ЦОД все более
компактными становятся и компоненты проводки.
Нынешние панели занимают в шкафу минимум места. Именно в ЦОД стали
широко применяться панели, плотность которых близка к теоретической — 48 портов
на 1U высоты. Другим способом увеличения плотности портов является отказ от
классического горизонтального организатора. Это порождает ряд интересных
решений в виде угловых панелей, когда кабель сразу уводится в вертикальный
организатор, благодаря чему монтажное пространство не расходуется на установку
вспомогательных компонентов. Однако в этом случае кроссировка будет затруднена.
И хотя компания Panduit предлагает специальный инструмент, который упрощает
работу с 48-портовыми панелями, это решение оптимально лишь для объектов, где
переключения происходят не очень часто.
Использование схем высокой плотности позволяет на 23% экономить площадь
помещения. Кроме того, меньшее число системных компонентов дает возможность на
43% сократить время на инсталляцию. Также сократить сроки инсталляции можно,
задействуя претерминированные решения, которые предлагают многие производители.
Претерминированные кабельные системы тестируются на заводе, поэтому не надо
тратить время на их проверку на объекте инсталляции. Экономия времени может
оказаться весьма существенной, если учесть, что, например, на тестирование
одного медножильного тракта для сети со скоростью передачи данных до 10 Гб/с
уходит около 45 минут.
Очень полезным для ЦОДов может оказаться решение по организации
коммутационных центров без коммутационных шнуров. Для этого используются
коммутационные панели с переключателями, которые обеспечивают соединение верхнего
и нижнего порта панели, заменяя обычный коммутационный шнур. Нет коммутационных
шнуров, нет и связанных с ними проблем — никто случайно не выдернет чужой шнур,
из-за повреждения вилки не нарушится контакт и т. п., — а значит, повышается
надежность физической инфраструктуры. Еще одно удобное для ЦОДов решение —
коммутационные панели, оборудованные разъемами RJ-45 не только с фронтальной,
но и с задней стороны. Их использование значительно упрощает подключение
активного оборудования к задней стороне панелей.
Согласно статистическим данным, основной источник сбоев в работе ЦОДов
(57% отказов) связан с человеческими ошибками на стадии проектирования, монтажа
и обслуживания оборудования. К слову, из-за перегрева оборудования в ЦОДах
случается только 22,3% отказов. Исключить ошибки персонала нельзя, но их можно
минимизировать. Это позволяют сделать решения с избыточными характеристиками,
качественная система управления кабелями и шнурами, четкая идентификация и
маркировка кабелей, портов и шнуров, а также упрощение методики монтажа
компонентов.
Горизонтальная проводка, будучи частью телекоммуникационной кабельной
системы ЦОД, ограничена местом разделки кабеля в пункте размещения оборудования
и горизонтальным коммутационным подключением в распределительном пункте
горизонтальной подсистемы или главным коммутационном подключением в главном
распределительном пункте. В состав горизонтальной проводки входят
горизонтальные кабели, установленные разъемы, коммутационные кабели или
перемычки. Кроме того, она может содержать точки консолидации в зональных
распределительных пунктах. Горизонтальная проводка прокладывается по топологии
звезда. Каждое соединение в распределительном пункте оборудования должно быть
подключено к горизонтальному коммутационному подключению в распределительном
пункте горизонтальной подсистемы или — через горизонтальный кабель — к главному
коммутационному подключению в главном распределительном пункте. Горизонтальная
проводка не должна содержать больше одной точки консолидации в зональном
распределительном пункте между коммутационным подключением в распределительном
пункте горизонтальной проводки и местом разделки кабеля в пункте размещения
оборудования.
Магистральная проводка соединяет главный распределительный пункт,
распределительный пункт горизонтальной подсистемы и узлы ввода. Магистральная
проводка состоит из магистральных кабелей, главных коммутационных подключений,
разъемов, коммутационных кабелей или перемычек, используемых для коммутационных
подключений между магистральными линиями. Магистральная проводка также должна
иметь топологию звезда, когда каждое подключение от распределительного пункта горизонтальной
проводки проложено напрямую к главному кроссу в главном распределительном
пункте. В магистральной проводке не допускается более одного иерархического
уровня коммутационного подключения.
Наличие магистрального коммутационного подключения не обязательно.
Когда магистральная коммутация не используется, кабельная линия, идущая от
главного кросса к месту разделки этого кабеля в пункте размещения оборудования,
считается горизонтальной проводкой. Если горизонтальные кабели проходят
напрямую через распределительный пункт горизонтальной проводки, необходимо
иметь достаточный запас в распределительном пункте для перемещения кабелей в
случае перехода на схему с магистральным коммутационным подключением.
На сегодняшний день большинство производителей СКС предлагают решения
для скорости передачи данных 10 Гб/с на основе как волоконно-оптических, так и
медных кабелей. Волоконно-оптические кабельные системы, которые обеспечивают
максимальную дальность 300 м по многомодовому волокну OM3, характеризуются
высокой стоимостью внедрения и сложностью модификации. Волоконно-оптические
кабели рекомендуется использовать в статичных сегментах ЦОДа, например, для
построения магистрали.
Медные кабельные системы, поддерживающие скорость передачи данных 10
Гб/с, имеют меньшую максимальную дальность – до 100 м, – но характеризуются
невысокой стоимостью внедрения и внесения изменений. Медные кабели лучше
применять в горизонтальной подсистеме, которая является наиболее динамичной
частью кабельной системы ЦОДа. Однако бич медных СКС при их использовании в
высокоскоростных сетях – это повышенная уязвимость к межкабельным наводкам (ANEXT),
которые зачастую носят непредсказуемый характер. Наиболее надежный способ
устранения этих проблем – использование экранированных СКС, которые дают
большой запас по устойчивости. При использовании экранированной проводки для
таких сетей необходимо именно телекоммуникационное заземление, которое подробно
описано в стандарте EN 50174-2. Оно обеспечивает выравнивание напряжений между
различными точками заземления и гарантирует контролируемый путь тока на землю
без влияния на телекоммуникационные кабели.
Рост популярности более производительных экранированных решений вызван
тем, что большинство заказчиков осознают: их кабельные системы должны быть
готовы к будущим запросам. 93% руководителей предполагают, что их ЦОД
просуществует более 10 лет, причем 46% рассчитывают даже на 20 лет работы.
Хотя стандарт IEEE 802.3ae на приложение 10GBase-T уже ратифицирован,
стандарты на кабельные системы в виде дополнений к документам ISO/IEC 11801 и
TIA/EIA 568B.2 до сих пор находятся на стадии доработки и утверждения. Дата их
окончательной ратификации постоянно переносится. Проблемы здесь связаны не
столько с определением характеристик самой кабельной системы, сколько с рядом
сопутствующих вещей, в том числе со спецификацией тестирования, что является
наиболее уязвимым местом.
Администраторов интересуют и проблемы монтажа. Исторически сложилось,
что легкие и быстрые решения UTP пользовались предпочтением на многих рынках,
однако современные методы монтажа экранированных систем S/FTP позволяют
экономить время при заделке компонентов, упрощают монтаж и делают его
практически аналогичным установке неэкранированных кабельных систем UTP
Категории 6а. Подобные разработки приобретают все большую популярность еще и за
счет роста помехоустойчивости и снижения излучения в окружающую среду.
Хотя доля экранированных медных кабельных систем (F/UTP — с общим
экраном, S/FTP — с индивидуальным экранированием пар) увеличивается, решения по
категории 6а все еще составляют значительный процент планируемых проектов.
Клиенты хотели бы иметь возможность выбирать из нескольких кабельных систем, но
для этого надо понимать преимущества каждой. Кроме пропускной способности
канала передачи данных следует учитывать и другие факторы: безопасность
инфраструктуры, пространство для прокладки кабеля в трассах, средства
управления кабельными потоками, исходную стоимость системы, расходы на ее
поддержку в течение жизненного цикла, помехоустойчивость и предпочтения
глобального рынка.
Перекрестные помехи при передаче со скоростью 10 Гб/с вызывают
серьезную обеспокоенность. В кабеле c витыми парами каждая пара имеет свой шаг
скрутки: это позволяет уменьшить наводки с одной пары на другую под одной и той
же оболочкой. Но если рядом расположены несколько кабелей, то пары одинакового
цвета имеют одинаковый шаг повива. На высоких частотах между такими парами
будут сильны внешние перекрестные наводки. Это явление не удается точно
смоделировать, а значит, его нельзя нейтрализовать с помощью специальной
обработки сигналов активным оборудованием. Как результат, уменьшить его влияние
удается только за счет изменения конструкции кабеля и методов монтажа.
Для обычной категории 6 длина кабеля, по которому предполагается
реализовать приложение 10G Base-T,
обычно не превышает 55 м, и при этом должны соблюдаться правила монтажа,
позволяющие уменьшить перекрестные наводки. Для категории 6а (неэкранированной
UTP или экранированной F/UTP), а также для Категории 7 (кабели с индивидуальным
экранированием пар S/FTP) длина канала составляет 100 м. Внешний диаметр кабеля
UTP категории 6а — 9.0 мм, а в случае кабеля обычной Категории 6 — всего 6.35
мм. Между этими двумя типами кабелей располагаются системы категории 7 и
экранированные кабели F/UTP категории 6а, у которых внешний диаметр кабеля
равен 8,38 и 6,73 мм, соответственно. Хотя такая разница и не выглядит очень
существенной, она сказывается при расчете емкости трасс и пространств в больших
системах.
Чтобы гарантировать передачу со скоростью 10 Гб/с в системах обычной
категории 6 на расстояниях до 55 м и уменьшить внешние перекрестные наводки,
применяются разные методы, описанные в бюллетене TIA TSB-155: переход на
экранированные коммутационные шнуры, отказ от увязки кабелей в пучки на первых
15 м и последних 15 м кабельного канала, пространственное разделение портов,
например, сигналы приложения 10G Base-T разрешается передавать только по нечетным портам, в то время как четные
задействуются для менее скоростных приложений. Для достижения таких же
характеристик передачи, как у систем с более высокой производительностью,
потребуются дополнительные затраты — как трудовые, так и материальные. Там, где
уже проложены каналы обычной категории 6, любой канал протяженностью свыше 55 м
придется заменить, если не удается свести к минимуму внешние перекрестные
наводки. А это неизбежно повлечет за собой увеличение совокупной стоимости
владения системой.
В обоих стандартах — и TIA, и ISO — методы уменьшения внешних
перекрестных наводок одни и те же: во многих случаях они предполагают замену
разъемов, коммутационных панелей и кроссов, в результате чего увеличиваются
расходы как на оплату труда специалистов, так и на компоненты. Важно отметить,
что в категории 6а используются кабели большего диаметра. Это позволяет
увеличить расстояние между парами в соседних кабелях и тем самым уменьшить внешние
перекрестные помехи. Экранированные F/UTP и полностью экранированные S/FTP
кабели предотвращают внешние перекрестные наводки за счет экранов. Несмотря на
очевидные преимущества категории 7 – более высокие рабочие характеристики и
низкая совокупная стоимость владения, отсутствие дополнительных затрат на
уменьшение перекрестных наводок и длительный срок службы благодаря поддержке
приложений со скоростью передачи данных свыше 10 Гб/с, – некоторые компании
либо сохраняют у себя уже существующие системы обычной категории 6, либо по
привычке отдают предпочтение неэкранированным системам.
Специалисты компании Nexans раскрыли серьезные недостатки
имеющихся на рынке неэкранированных кабельных продуктов для сетей со скоростью
передачи данных 10 Гб/с. Большой диаметр соответствующих кабелей – для снижения
межкабельных наводок разработчики стараются максимально разнести сердечники
кабеля друг от друга – влечет за собой дополнительные затраты на кабельные
трассы, а специальная организация кроссовых полей – 10-гигабитовые порты
располагаются в шахматном порядке – не позволяет строить системы высокой
плотности. Для проверки же соответствия неэкранированной СКС требованиям, предъявляемым
10-гигабитовыми решениями, необходимы длительные и дорогостоящие тесты: одни
только специальные насадки для измерительного оборудования стоят порядка 3.5 – 4
тысяч евро. По данным Nexans, тракты одной коммутационной панели на 24 порта
придется тестировать 6 – 8 часов, а значит, на проверку всей кабельной системы
ЦОДа могут уйти месяцы. При выборочном же тестировании можно пропустить важные
тракты, что чревато серьезными отказами.
Применение экранированных СКС снимает практически все
обозначенные выше проблемы, и потому компания Nexans рекомендует именно эти
системы в качестве медножильных решений для 10-гигабитовых сетей. Что касается
волоконно-оптических СКС, то здесь компания предлагает решения на основе
многомодовых волокон OM3, имеющих дальность работы до 300 м, и улучшенных
волокон ОМ3, имеющих дальность работы до 450 м, а также на основе одномодовых
волокон, имеющих дальность работы свыше 450 м. Однако решение на многомодовом
волокне (пассивный тракт плюс порты активного оборудования) стоит примерно в
полтора раз ниже, чем на одномодовом, а поскольку для ЦОДов протяженности
трактов 300 – 450 м вполне достаточно, то для этих объектов имеет смысл
ориентироваться именно на многомодовые системы.
Учитывая все вышесказанное для ЦОД, их построение весьма
желательно на компонентах СКС категорий 6А, 7А и классов ЕА, FA, определенных в
последних редакциях стандартов ISO и TIA/EIA.
Компания Nexans разработала линейку
компонентов категории 6А специально с 10-гигабитовых систем, с гарантированной
полосой пропускания до 500 МГц.
Данный кабель разработан для приложения 10GBase-T Ethernet.
Внешний вид кабеля представлен на рис 4.1.
Рис. 4.1. Кабель LANmark-6 10G.
Особенности
кабеля LANmark-6 10G:
·
Гарантированная полоса частот до 500 MГц.
·
Конструкция F/UTP.
·
Экранированный, без межкабельных наводок AXT.
·
Простой монтаж.
·
Однослойная фольга с обратной скруткой для быстрой
очистки
·
Имеет только 7.1 мм в диаметре.
В кабеле LANmark-6 10G содержится четыре пары, закрытые
общим экраном из одного слоя фольги, причем отдельная каждая из пар защитным
экраном не покрывается. Такая конструкция называется F/UTP (Foiled UnTwisted Pair). Она позволяет снизить
межкабельные наводки AXT (Alien Crosstalk), но не может уменьшить переходное затухание на ближнем конце NEXT
и переходное затухание на дальнем конце FEXT.
Экранированный LANmark-6 10G EVO коннектор разработан
специально для линейки компонентов 10G.
Внешний вид коннектора представлен на рис 4.2.
Рис. 4.2. LANmark-6 10G EVO коннектор.
Особенности LANmark-6 10G EVO коннектора:
- Рабочие
характеристики гарантированы на частотах до 500 MГц.
- Экранированный, без
межкабельных наводок AXT.
- Простой монтаж.
- Небольшой размер.
- Быстрота
инсталляции.
Для работы с приложением 10GBase-T Ethernet компания Nexans рекомендует коммутационные панели LANmark со
встроенным автоматическим заземлением.
Внешний вид коммутационные панели представлен на рис 4.3.
Рис. 4.3. Коммутационная панель LANmark.
Особенности
коммутационной панели LANmark:
·
2-х сторонняя Clip On система.
·
Clip On система для коннектора на передней части
панели.
·
Clip On для кабеля. Сзади расположены фиксаторы из
нержавеющей стали.
Коммутационный шнур LANmark-6 10G разработан специально для
линейки компонентов 10G.
Внешний вид коммутационного шнура представлен на рис 4.4.
Рис. 4.4. LANmark-6 10G коммутационный шнур.
Особенности коммутационного шнура LANmark-6 10G:
·
Гибкий кабель.
·
Запатентованная технология коннектора.
·
Рабочие характеристики гарантированные на частотах до
500 MГц.
·
Экранированный, без межкабельных наводок AXT.
·
Выпускаются шнуры стандартной длины.
·
Существует версия шнура длиной 10 м с односторонней
заделкой под СР-шнур.
Стандартные
шкафы Quick Mount II и III предназначены для монтажа
системы LANmark-6 10G.
Внешний вид шкафа представлен на рис 4.5. Схема шкафа в
разобранном состоянии показана на рис. 4.6.
Рис. 4.5. Шкаф Quick Mount.
Рис. 4.5. Разобранный шкаф Quick Mount.
Особенности монтажного шкафа Quick Mount:
·
Основание 800 x 800 мм, высота 42 HU;
·
Передняя металлическая дверь со стеклянным окном;
·
Доступ в шкаф со стороны любой двери;
·
Замок на фронтальной двери EuroLock;
·
Конструкция запатентована;
·
6 коробок – удобная транспортировка;
·
Полная высота 2070 мм;
·
Разборная конструкция;
·
Фиксированные или передвигающиеся внутренние
стойки.
Органайзеры
для кабеля, обеспечивают быстрое и надежное закрепление кабеля в шкафу и
хранение коммутационных шнуров с оптимальным радиусом изгиба. Кабельные
органайзеры типа 1 HU и 2 HU обеспечивают организованное
хранение коммутационных шнуров при установке в телекоммуникационные шкафы.
Внешний
вид кабельных органайзеров представлен на рис 4.7.
Рис. 4.7. Внешний вид кабельных органайзеров.
Расположение
кабелей и кабельных органайзеров в монтажном шкафу показано на рис. 4.8.
Рис. 4.8. Кабельные органайзеры LANmark.
График зависимости вносимых кабелем потерь от частоты
передаваемого сигнала приведен на рис. 4.9.
Рис. 4.9. График вносимых потерь.
Графики характеристик NEXT (переходное затухание на ближнем
конце) приведены на рис. 4.10.
Рис. 4.10. Графики характеристик NEXT.
Графики характеристик ACR
(защищенность от переходных помех) приведены на рис. 4.11.
Рис. 4.11. Графики характеристик ACR.
Графики характеристик ELFEXT
(эквивалентный уровень переходного затухания на дальнем конце) приведены на
рис. 4.12.
Рис. 4.12. График характеристик ELFEXT.
Графики
характеристик AXT (межкабельные наводки)
приведены на рис. 4.13.
Рис. 4.13. Графики характеристик AXT.
Оборудование ЦОДа размещено в аппаратном зале размером 5 х
3 м. В помещении расположен кабельный ввод, к которому с одной стороны
подключается транспортная магистральная сеть, а другой стороны – кабели
горизонтальной подсистемы СКС.
План
размещения оборудования ЦОДа приведен на рис. 6.1.
Рис. 6.1. План размещения оборудования ЦОДа.
Исходные
данные:
Число звеньев ПД в горизонтальной подсистеме – .
Минимальная длина кабеля – .
Максимальная длина кабеля – .
Расчет
средней длины кабеля:
Расчет
общей длины кабеля:
Расчет
числа катушек кабеля:
Расчет
числа коннекторов:
Расчет
числа коммутационных панелей:
.
Определение
высоты монтажного шкафа:
Наибольшую высоту имеет шкаф высотой 42 HU. Для
расположения коммутационных панелей потребуется 3 шкафа.
Список
всего необходимого оборудования приведен в таблице 6.1.
Таблица 6.1. Состав
оборудования горизонтальной подсистемы.
Кабель, м
|
Катушки кабеля
|
Коммутационные панели
|
Коннекторы RJ-45
|
Монтажный шкаф высотой
42 HU
|
14832
|
49
|
103
|
9888
|
3
|
Исходные
данные:
Интенсивность отказов 1 км кабеля – .
Среднее время восстановления 1 км кабеля – .
Расчет
интенсивности отказов всей горизонтальной подсистемы:
Расчет
среднего времени безотказной работы горизонтальной подсистемы:
Расчет
коэффициента готовности горизонтальной подсистемы:
Таким образом, можно сделать вывод, что спроектированная
горизонтальная подсистема способна выполнять свои функции с необходимым
качеством.
В данном проекте была спроектирована структурированная
кабельная система для центра обработки данных. ЦОД функционирует на сетевом
приложении 10G Base-T со скоростью
передачи данных 10 Гбит/с. Для построения СКС был выбран вариант с топологией
иерархической звезды на основе кабеля конструкции F/UTP
категории 6a. Предполагается реализовать СКС
на оборудовании линейки LANmark-10G
компании Nexans Cabling Solutions. Выбранное оборудование соответствует
принятым международным стандартам ISO/IEC 11801, EN 50173, TIA/EIA 568A.
В проекте был произведен расчет объема необходимого
оборудования и расчет показателей надежности спроектированной структурированной
кабельной системы.
[1] ffs – for
future study – для будущего изучения в
соответствующем комитете по стандартизации.