Базы данныхИнтернетКомпьютерыОперационные системыПрограммированиеСетиСвязьРазное
Поиск по сайту:
Подпишись на рассылку:

Назад в раздел

ПК-серверы старшего класса

div.main {margin-left: 20pt; margin-right: 20pt} ПК-серверы старшего класса Майк Гурвиц ПК-серверы стали мощнее, надежнее и доступнее, чем когда-либо прежде. Однако им еще предстоит проделать большой путь в ряде ключевых областей.

Мы живем в благоприятные времена для ПК-серверов. Быстродействующие микросхемы, восьмипроцессорная симметричная обработка и высокая надежность подняли эти когда-то скромные машины на новые высоты. Но многое из того, что выглядит как прогресс, — в действительности всего лишь бег на месте.

Например, спрос на восьмипроцессорные серверы Intel очень мал. Некоторые крупные производители, в частности Gateway (http://www.gateway.com) и Toshiba (http://www.toshiba.com), их вообще не производят. Те же, кто выпускает такие продукты, предназначают их для крупных приложений с высокими требованиями к вычислительной мощности. Но имеющиеся слабости с точки зрения надежности, доступности и масштабируемости делают их менее подходящими для поддержки высококритичных приложений. В этой области главную скрипку по-прежнему играют мэйнфреймы, компьютеры RISC/UNIX и AS/400.

Другая область, где прогресс оказывается также по сути иллюзорным, — это процессоры. В 2000 году 32-разрядным микросхемам придет на смену новое поколение 64-разрядных процессоров. Но адаптация операционных систем и программного обеспечения к аппаратному обеспечению займет по крайней мере год. Это означает, что дополнительные разряды не имеют никакой разницы в большинстве ситуаций. Кроме того, множество обычных приложений для серверов на базе Intel — сервисы файлов и печати, электронная почта и базы данных — никогда не предъявляли чересчур высоких требований к вычислительным ресурсам. Данная тенденция останется неизменной и в ближайшее время, покуда областью наибольшего роста для серверов на базе Intel будут Internet-приложения с акцентом на ввод/вывод, такие, как сервис Web и электронная почта.

Один из сдерживающих факторов прогресса в области ПК-серверов — это их все более активное превращение в потребительский товар, о чем свидетельствуют падение цен и рост объемов продаж. По данным компании PC Data (http://www.pcdata.com), занимающейся исследованиями рынка, за год, с первого квартала 1998 года по первый квартал 1999 года, средняя цена сервера Compaq, продаваемого через дилеров, упала с 4488 до 4156 долларов, а средняя цена сервера Hewlett-Packard — с 4351 до 3293 долларов. Средняя цена сервера возросла только у IBM, но при этом надо учитывать, что отправная точка была и без того низкой — с 3193 до 3406 долларов.

Падение цен отражает тот факт, что большинство заказчиков стремятся получить больших быстродействия от процессора, пространства на диске и скорости ввода/вывода на каждый потраченный доллар. Яркие новые функции являются для них второстепенным фактором. Intel имеет мало стимулов для изменения структуры спроса, так как у компании практически нет конкурентов на рынке ПК-серверов старшего класса. (AMD и другие составляют ей конкуренцию лишь на рынке настольных и портативных систем.)

Однако производители ПК, такие, как Compaq, Dell Computer, Data General (http://www.dg.com), Hewlett-Packard и IBM, не хотят довольствоваться статусом производителя товаров потребительского уровня, так как это отрицательно сказывается на прибыли. Они хотят освоить новые рынки, чтобы их менеджерам по продажам было чем пускать пыль в глаза. Среди новых возможностей, дающих скромные преимущества по умеренной цене, — некоторые усовершенствования в системе ввода/вывода, например использование более быстрых и надежных разновидностей шины PCI, таких, как PCI-X и Hot-Plug PCI, а также «плотная упаковка» серверов в целях экономии драгоценного пространства в серверной комнате. (Дополнительную информацию о конкретных продуктах можно найти во врезке «Предложения серверов старшего класса».)

ВОСЬМИПРОЦЕССОРНЫЕ СЕРВЕРЫ

Восьмипроцессорные ПК-серверы создаются на базе набора микросхем Profusion, технологию которого Intel приобрела вместе с компанией Corollary в 1997 году. После ряда задержек со стороны Intel этот набор микросхем начал наконец-то появляться в серверах Compaq, Data General, HP, IBM и других.

Производители заявляют, что эти серверы предназначаются для приложений с высокими требованиями к компьютерным ресурсам, в том числе для добычи данных, центров обработки данных, консолидации серверов и Internet. Однако, по мнению Джеймса Г. Джонсона, директора занимающейся исследованиями рынка компании Standish Group (http://www.standishgroup.com), серверы Intel не обладают требуемой надежностью, доступностью, масштабируемостью и управляемостью для поддержки этих высоко-критичных приложений.

Проблема даже не в самих серверах, а в операционных системах, таких, как Linux и Windows NT. В настоящее время Linux недостаточно хорошо масштабируема. И хотя легионы программистов трудятся в поте лица над преодолением этого ограничения, на данный момент Linux остается преимущественно однопроцессорной ОС.

NT масштабируется достаточно хорошо до четырех процессоров и делает некоторые успехи на уровне восьми процессоров. Однако, как отмечает Джонсон, она по-прежнему не способна эффективно выполнять более одного приложения одновременно и значительно уступает Sun Solaris с точки зрения надежности, доступности и управляемости. Из-за этих недостатков заказчики разочаровываются в NT как в ОС для высококритичных сред.

НА УРОВНЕ

В стремлении сделать серверы Intel как можно более надежными, отказоустойчивыми и управляемыми многие производители внедряют функции и возможности, ранее ассоциировавшиеся исключительно с мэйнфреймами, мини-компьютерами и машинами RISC/UNIX. IBM, например, заимствовала развитую технологию у своих машин старшего класса и включила ее в свои ПК-серверы. Высоконадежная память «с коррекцией при потере микросхемы» была первоначально разработана по заказу НАСА для ее марсохода Mars Rover. Благодаря ей компьютер будет продолжать функционировать, даже если он лишится микросхемы памяти во встроенном модуле. Как утверждает директор по маркетингу продуктов семейства серверов Netfinity Джим Гарган, она предлагается теперь в качестве опции для Netfinity 7000 M10 и должна стать стандартной технологией памяти в других продуктах старшего класса Netfinity.

Другая недорогая высокотехнологическая новинка для повышения надежности, SP Switch, была представлена для ПК-серверов Netfinity ранее в этом году. Компонент, ведущий свое происхождение от RS/6000, обеспечивает прямой ввод/вывод, так что, например, выход из строя сетевой платы никак не сказывается на других сетевых платах или контроллерах дисков. Это значительное преимущество по сравнению с архитектурой разделяемой шины, такой, как SCSI или Fibre Channel Arbitrated Loop (FC-AL).

Производители ПК-серверов заявляют, что на аппаратном уровне они могут обеспечить работоспособность серверов 99,9% времени с помощью таких технологий, как память с исправлением ошибок, избыточные источники питания, вентиляторы и диски, а также за счет применения таких заменяемых в горячем режиме компонентов, как диски и сетевые платы. Приведенная величина соответствует не более девяти часам простоя в год при круглосуточной работе серверов без учета простоев из-за сбоев ОС и программного обеспечения. Для тех приложений, для которых предназначены восьмипроцессорные серверы, стоимость простоя может достигать десятков тысяч долларов в час. Для сравнения машины AS/400 и RISC/UNIX часто обеспечивают 99,999-процентную надежность, или около 5 минут в год. Эти цифры ставят под сомнение целесообразность использования серверов Intel вместо более надежных машин.

ВОЗРОСШАЯ ОТКАЗОУСТОЙЧИВОСТЬ

Несмотря на заметные успехи производителей по «укреплению» индивидуальных ПК-серверов с помощью массивов RAID, ИБП и избыточных компонентов, все же им еще предстоит проделать большой путь. Например, современные ПК-серверы не поддерживают избыточные ЦПУ или память. И даже самый отказоустойчивый ПК-сервер не выдержит потопа или пожара.

Избыточные серверы позволяют преодолеть ограничения индивидуальных серверов. Например, ОС NetWare компании Novell предлагает возможность зеркалирования серверов уже многие годы. Если один из серверов выйдет из строя, то другой будет продолжать функционировать, не прерывая обслуживания пользователей. С точки зрения пользователей, два сервера выглядят как один.

Подобное решение имеется и для Windows NT. Endurance 4000 компании Marathon Technologies (http://www.marathontechnologies.com) объединяет четыре сервера NT для создания одного отказоустойчивого комплекса. Компьютеры разбиты на две пары — так называемые «двойки». В каждой двойке один компьютер занимается обработкой, а другой — вводом/выводом с сетью и дисками. Два вычислительных элемента (Compute Element, CE) синхронизированы, как и два процессора ввода/вывода. Если вычислительный элемент или процессор ввода/вывода выйдет из строя, то его двойник в другой двойке берет на себя все операции без прерывания обслуживания. Endurance 4000 будет продолжать функционировать до тех пор, пока по крайней мере один вычислительный элемент и один процессор ввода/вывода остаются работоспособными. Любые уцелевшие элементы могут работать совместно. Например, один уцелевший вычислительный элемент может использовать два процессора ввода/вывода.

Два модуля ввода/вывода имеют один и тот же IP-адрес, но только один из них передает пакеты в любой данный момент времени, исключая таким образом проблемы, связанные с дублированием IP-адресов. Оба модуля ввода/вывода способны принимать данные одновременно.

Две двойки могут быть связаны прямым многомодовым оптическим кабелем протяженностью до 1,5 км. Это позволяет обеспечить защиту от аварий при наводнениях и пожарах.

В Marathon подчеркивают, что Endurance не является кластерной технологией, и выделяют три ее преимущества по сравнению с такими решениями, как Microsoft Cluster Server (MSCS).

Во-первых, в случае сбоя обслуживание не прерывается ни на секунду. Замена оборудования может производиться без остановки операционной системы или приложений. Вычислительный элемент или процессор ввода/вывода, содержащие отказавший компонент, просто отключается для замены компонента. При включении питания Endurance автоматически ресинхронизирует двойки. Например, при поломке диска на сменивший его диск будет записана зеркальная копия его двойника из другой двойки. В случае же MSCS при сбое обслуживание пользователей прерывается на какое-то время, обычно не дольше минуты, но иногда и на больший срок.

Во-вторых, Endurance работает одинаково хорошо со всеми приложениями — как заказными, так и покупными. В случае же MSCS приложения требуется модифицировать для достижения прозрачной подмены одного сервера другим. Лишь немногие продаваемые программы готовы для работы с MSCS.

В-третьих, разделение обработки и ввода/вывода предотвращает их конкуренцию за память. Это означает, что ошибка General Protection Fault (GPF) в модуле ввода/вывода не приведет к зависанию приложения.

Что касается недостатков, программное обеспечение Endurance стоит больше, чем MSCS, тем более что как стандартная возможность NT Enterprise Edition это серверное ПО предоставляется по сути бесплатно (Endurance продается за 27 500 долларов). Кроме того, для Endurance вам потребуется четыре компьютера, в то время как для MSCS — только два. Однако ввиду того, что MSCS требуются гораздо более мощные устройства для выполнения NT Enterprise Edition, четыре компьютера для Endurance могут оказаться дешевле, чем два для MSCS. Кроме того, это сравнение цен не учитывает стоимость модификации программ для работы в кластере, а также текущих расходов на обслуживание, в том числе на администрирование и при простоях.

Кроме того, Endurance использует вычислительные ресурсы менее эффективно. В кластере MSCS в обычном режиме два компьютера выполняют вычислительные задачи независимо. В случае Endurance оба вычислительных элемента выполняют одни и те же вычислительные задачи, расходуя понапрасну вычислительную мощь одного CE в обычном режиме работы. На самом деле, вы получаете даже меньшую вычислительную мощь, чем если бы один CE работал независимо. Endurance снижает производительность на 10% в результате накладных расходов на взаимодействие между устройствами.

Модули ввода/вывода Endurance функционируют в свободно параллельном режиме по отношению друг к другу, поэтому вероятность одного и того же программного сбоя в один и тот же момент времени чрезвычайно мала. С другой стороны, CE тесно синхронизированы между собой, так что один и тот же программный сбой произойдет на них одновременно.

По этой причине организация серверов Endurance в кластер имеет определенный смысл. Endurance обеспечивает высокий уровень защиты от аппаратных сбоев и исключает многие типичные программные сбои, а кластеризация минимизирует простои, вызванные остальными сбоями программного обеспечения.

В июне 1999 года HP выбрала Endurance в качестве решения по обеспечению доступности для HP NetServer. Таким образом, обслуживание и поддержка Endurance теперь доступны во всем мире через сервисные центры Hewlett-Packard.

МАСШТАБИРОВАНИЕ

Когда речь идет о масштабируемости и ПК-серверах, два вопроса имеют первостепенное значение. Один — насколько хорошо серверы Intel масштабируются с четырех процессоров до восьми? И второй — могут ли они масштабироваться свыше восьми процессоров?

В значительной мере масштабируемость зависит от приложений и продуктов. Но, вообще говоря, масштабируемость должна улучшиться, в частности в связи с совершенствованием Windows производители микросхем и оборудования получают возможность проверить свои решения. Однако предварительное тестирование, предпринятое HP и IBM, показывает, что восьмипроцессорные ПК-серверы имеют лишь в 1,5-1,7 раза большую производительность, чем предшествующее поколение четырехпроцессорных серверов. Для сравнения серверы RISC/UNIX старшего класса имеют показатель масштабируемости в диапазоне 1,8-1,9.

Учитывая эту далеко не впечатляющую масштабируемость, некоторые специалисты выражают сомнения по поводу достоинств восьмипроцессорной обработки на базе Profusion. «Я хотел бы видеть подтверждение, что она представляет значительные преимущества с точки зрения производительности, — говорит Марк Тангуей, директор по планированию продуктов в Toshiba. — Седьмой и восьмой процессоры дают только часть от своей реальной мощности».

Тангуей считает, что восьмипроцессорным компьютерам на базе Xeon отпущено не много времени, так как четырехпроцессорные машины на базе 64-разрядных микросхем Merced (ожидается, что они появятся в третьем квартале 2000 года) превзойдут их по производительности при, вероятно, меньшей стоимости.

Тангуей говорит, что заказчики Toshiba видят несколько преимуществ использования двух четырехпроцессорных машин по сравнению с одной восьмипроцессорной: они стоят меньше, имеют лучшую отказоустойчивость и проще для замены. Кроме того, две четырехпроцессорные машины могут быть объединены в кластер с помощью таких технологий, как MSCS. Windows 2000 должна предоставить средства распределения нагрузки, так что кластер может функционировать как один компьютер. Это позволит более эффективно использовать ресурсы кластера.

Toshiba не выпускает восьмипроцессорных серверов, как и Gateway. Последняя ориентирует свои серверы ALR на рынок серверов среднего и младшего класса. Gateway не исключает возможность появления среди ее предложений восьмипроцессорных машин, но не собирается торопиться с их выпуском, во всяком случае до тех пор, пока этого не потребуют заказчики. Как считает старший менеджер по серверам Gateway Рей Хеберт, это может случиться не ранее 2000 года.

Тангуей полагает, что отсутствие спроса со стороны заказчиков может ограничить многопроцессорные решения на базе Intel максимум четырьмя процессорами, потому что кластеры способны обеспечить ту же производительность и отказоустойчивость по меньшей цене.

В настоящее время MSCS поддерживает только кластеры из двух машин, но когда-нибудь и это ограничение будет преодолено. NetWare позволяет организовать кластер из 16 машин, но она пользуется меньшей популярностью, чем NT или UNIX в качестве ОС для центров обработки данных или приложений Internet. К тому же она не пригодна для консолидации серверов NT.

Производители RISC/UNIX предлагают в настоящее время решения на базе одной системы с более чем восемью процессорами. Сервер E10000 Starfire от Sun, например, масштабируется до 64 процессоров. Это обеспечивает постепенную масштабируемость без трудностей перехода от некластерных к кластерным решениям.

ВВОД И ВЫВОД

Как гласит популярная среди конкурентов компании шутка, каждый год серверы Intel ждут быстрее и быстрее. Перемещение данных всегда было слабой точкой архитектуры ПК, потому что вычислительная мощь росла гораздо более быстрыми темпами, чем скорость обмена данными с дисками или сетью. Как быстро работает процессор, не имеет никакого значения, если ему приходится ждать получения данных.

В 1998 и 1999 гг. Intel удалось добиться значительных достижений в этой области благодаря выпуску процессоров с кэшем второго уровня на плате. В предыдущих процессорах кэш второго уровня был внешним по отношению к ЦПУ. В случае же кэша на плате связующая процессор с кэшем шина (Back Side Bus, BSB) работает со скоростью процессора. Когда же кэш располагается на отдельной микросхеме, то она работает с половинной скоростью. Размещение кэша на плате позволяет передавать данные более эффективно и, таким образом, значительно увеличивает производительность.

Все процессоры Xeon, начиная с Pentium II Xeon (представленного в июне 1998 года), имели на плате кэш второго уровня объемом от 512 Кбайт до 2048 Кбайт. Однако первый 64-разрядный процессор под кодовым названием Merced не предусматривает этой возможности. Foster, появление которого ожидается в первом квартале 2001 года, будет представлять собой 32-разрядную микросхему с частотой свыше 1000 МГц и, по всей вероятности, иметь кэш второго уровня на плате. 64-разрядный McKinley, который должен появиться позже в том же году, представляет собой неизвестную величину в том, что касается кэша второго уровня. (Дополнительную информацию смотри в таблице.)

Помимо кэша второго уровня производители серверов пытаются решить проблему ввода/вывода и двумя другими способами — увеличением объема поддерживаемой оперативной памяти и извлечением максимума возможного из шины ввода/вывода PCI.

До конца 1999 года большинство наиболее мощных ПК-серверов должны будут поддерживать до 4 Гбайт памяти — максимум адресуемой памяти для Windows NT. В 2000 году мы можем также ожидать появления серверов с поддержкой оперативной памяти объемом до 8 Гбайт, так как Windows 2000 должна будет уметь использовать такой гигантский объем памяти.

Увеличение емкости оперативной памяти позволяет увеличить скорость доступа в случае приложений для работы с большими объемами данных, так как приложение получает возможность кэшировать значительный объем информации в памяти. Память же на несколько порядков быстрее, чем диски.

PCI ПОЛУЧАЕТ НОВЫЙ ИМПУЛЬС

Что касается PCI, то здесь нас может ожидать в скором времени две значительные новинки. Intel увеличивает в два раза скорость и ширину шины PCI. Тем временем несколько крупных производителей ПК объединили свои усилия по определению PCI-Х, еще более быстрой версии PCI.

Наиболее широко используемой в настоящее время шиной PCI является 32-разрядная шина с частотой 33 МГц. Intel также представила 64-разрядную шину PCI на 33 МГц и 64-разрядную шину PCI на 66 МГц. В результате пропускная способность шины возросла до 4,2 Гбит/с.

Compaq, HP и IBM превзошли и эту величину. Их 64-разрядная версия шины PCI на 133 МГц под названием PCI-X будет иметь общую пропускную способность свыше 8,5 Гбит/с. Эта технология должна, как ожидается, стать доступной во второй половине 2000 года.

Скорее всего, использование PCI-X не должно существенно сказаться на стоимости компьютеров. Шина является обратно совместимой, т. е. старые платы PCI и новые PCI-X могут работать вместе по одной и той же шине PCI. Однако в этом случае шина PCI-X будет работать со скоростью наиболее медленной платы на шине. Производители могут обойти это затруднение посредством создания машин со стандартной шиной PCI и отдельной шиной PCI-X.

По сравнению с PCI 32/33 шина PCI-X является огромным шагом вперед. Как заявляет IBM, работающая на максимальной скорости шина PCI-X будет иметь в десять раз большую пропускную способность по сравнению с PCI 32/33. По сравнению с PCI 64/66 выигрыш в производительности будет менее впечатляющим. Как показало предварительное тестирование Compaq на симуляторе, 4-слотовая реализация PCI-X, работающая на частоте 66 МГц, имеет только на 25% лучшую производительность, чем PCI 64/66.

Как говорит Мартин Уиттакер, менеджер и главный архитектор группы корпоративных систем и программного обеспечения в Hewlett-Packard, в силу своей разделяемой архитектуры PCI-X будет работать с частотой 66 МГц в случае четырех плат, 100 МГц в случае двух плат и 133 МГц в случае одной платы.

Как считает Тангуей из Toshiba, PCI-X лучше всего подходит для малых и средних компаний или отделов, где используются четырехпроцессорные серверные системы общего назначения — другими словами, в ситуациях, когда потребности ввода/вывода лишь немного превышают те, с которыми стандартная шина PCI справляется без проблем.

Скорость — далеко не единственное преимущество PCI-X. Ее разработчики также отмечают, что PCI-X улучшает изоляцию сбоев шины тем, что она помогает операционной системе более эффективно работать с адаптерами при возникновении исключительных ситуаций.

Важнейшим вопросом для PCI-X является, однако, то, насколько широкое распространение она получит. Несмотря на открытость спецификации только создатели шины представили поддерживающие ее системы. Они заявляют, что PCI-X просуществует два-три года, пока ее не сменит более быстрая спецификация. Тогда встает вопрос: может быть, стоит подождать появления следующего поколения систем ввода/вывода на базе коммутирующих структур? Эта технология должна появиться вскоре после PCI-X во второй половине 2000 года.

«PCI-X отпущено время до появления коммутирующих структур, — считает Боб ВанСтейнберг, руководитель корпоративной группы компании Dell. — Однако PCI-X потребует от множества производителей контроллеров модернизации программного обеспечения и внесения модификаций в их наборы микросхем ввода/вывода». На время написания статьи Dell откладывала свое решение в отношении PCI-X до того момента, когда станет ясно, насколько широкой поддержкой будет пользоваться шина.

КОММУТИРУЕМЫЙ ПРЯМОЙ ВВОД/ВЫВОД

После 2000 года шина PCI будет, вероятно, вытеснена коммутируемым прямым вводом/выводом. Эта технология имеет два основных преимущества по сравнению с разделяемыми шинами, такими, как PCI. Во-первых, с увеличением скорости разделяемой шины ее протяженность и количество поддерживаемых ею устройств неизбежно уменьшается в целях обеспечения качества сигнала. Вместе с тем прямой ввод/вывод позволяет разносить использующие ввод/вывод устройства на большие расстояния и практически неограниченно расширяем с точки зрения числа устройств. Таким образом, он прекрасно подходит для корпоративных сетевых технологий, системных сетей и кластеров.

Во-вторых, когда одно из устройств на разделяемой шине выходит из строя, это обычно сказывается на всех остальных устройствах. В случае коммутируемого прямого ввода/вывода отказавшее устройство может быть изолировано, так что оно не влияет на остальные устройства.

Коммутируемый прямой ввод/вывод имеет две разновидности: Next Generation I/O (NGIO) от Intel и Future I/O от 3Com, Adaptec, Cisco Systems, Compaq, HP и IBM.

Скорее всего, NGIO будет обладать рядом преимуществ по сравнению с Future I/O, в частности он должен появиться раньше. Появление продуктов на базе NGIO можно ожидать уже в конце 2000 года, тогда как выпуск продуктов на базе Future I/O начнется не ранее 2001 года.

NGIO будет также поддерживать более длинные медные кабели. Спецификация определяет последовательный медный интерфейс с поддержкой расстояний до 17,5 м. Первичное же межсоединение Future I/O использует параллельный медный кабель с ограничением на расстояние в 10 м. Однако Future I/O определяет также два волоконно-оптических интерфейса, один — для расстояний до 300 м, а второй — для расстояний свыше 300 м.

Среди других преимуществ Future I/O поддержка более высоких скоростей и более широкие возможности для усовершенствований. NGIO определяет интерфейс на 2,5 Гбит/с (около 200 Мбайт/с), тогда как первичное межсоединение Future I/O будет работать со скоростями 1 Гбайт/с. (Обе технологии являются двунаправленными, так что общая пропускная способность в два раза превышает приведенные цифры.) И хотя общая пропускная способность NGIO может быть увеличена посредством тиражирования (т. е. использования нескольких портов для подключения одного устройства), для того чтобы она сравнялась с производительностью Future I/O, потребуется десяток соединений NGIO.

Что касается возможности инноваций, сторонники Future I/O утверждают, что жесткие ограничения NGIO затрудняют для производителей расширение функциональных возможностей программного и аппаратного обеспечения. Например, Уиттакер из HP говорит, что большинство определений NGIO дается на уровне регистров, а это означает, что технология должна быть реализована «в кремнии», а его функционирование жестко регламентировано. Future I/O определяется преимущественно в терминах функций, открывая перед производителями возможность для разработки и реализации новых функций.

NGIO имеет также серьезные ограничения с точки зрения конкурентной борьбы. Главенствующую роль на форуме NGIO играет Intel, т. е. производители будут вынуждены по сути распространять технологию Intel. Этот фактор является, вероятно, главным мотивом к выдвижению инициативы Future I/O, где нет четко выраженного монополиста.

«Мы не видим перспектив у NGIO, — заявляет Уиттакер. — Нам не нужна слабая и незавершенная техническая спецификация». Однако Отто Пиджпкер из Intel говорит, что «NGIO имеет более широкую сферу применения в том смысле, что она в равной мере удовлетворяет требованиям ПК серверов младшего, среднего и старшего класса, между тем как Future I/O ориентируется главным образом на серверы старшего класса».

Тем не менее, как стало известно уже после написания статьи, несмотря на наметившееся противостояние, лагерям удалось договориться об объединении усилий и разработке общей спецификации System I/O.

ВЕРХНЯЯ ПЛАНКА

ПК-серверы вряд ли смогут в обозримом будущем заменить мэйнфреймы, AS/400 или даже более масштабируемые компьютеры RISC/UNIX. Скорее они будут выполнять те же задачи, с которыми всегда справлялись наилучшим образом, — обеспечивать наибольшую отдачу от затрат с точки зрения вычислительных циклов и дисковой подсистемы.

Помните, однако, что кривая эффективности имеет перегиб в своей верхней части: четырехпроцессорный компьютер обеспечит вам, вероятно, большую отдачу на каждый вложенный доллар, чем, например, восьмипроцессорный. Кроме того, слабости ПК-серверов с точки зрения надежности, управляемости и отказоустойчивости могут обойтись вам дороже в долгосрочной перспективе.

Майк Гурвиц — независимый писатель и консультант. С ним можно связаться по адресу: mhurwicz@psgroup.com.

Процессоры Intel для серверов с 1998 по 2001 год.

Источник: Intel, Cnet

Потребность в скорости. Первые восьмипроцессорные машины на базе процессоров Pentium III Xeon на 550 МГц появились в третьем квартале 1999 года. В четвертом квартале этого года или в первом квартале следующего Intel должна выпустить процессор Pentium III Xeon с частотой 700 МГц или более (под кодовым названием Cascades). Cascades будет иметь также шину Front-Side Bus (FSB) на 133 МГц, связывающую ЦПУ с памятью. Имеющаяся версия FSB работает с частотой 100 МГц. После Cascades должны появиться 64-разрядные процессоры: Merced, McKinley и Foster.
Кодовое имя Официальное название Разрядность Тактовая частота процессора Кэш второго уровня Тактовая частота шины ввода/вывода Дата представления
Xeon Pentium II Xeon 32 400-500 МГц на плате 100 МГц Июнь 1998 г.
Tanner Pentium III Xeon 32 500-550 МГц на плате 100 МГц Март 1999 г.
Cascades Pentium III Xeon 32 700+ МГц на плате 133 МГц Четвертый квартал 1999 г.
Merced (Itanium) ? 64 800+ МГц ? ? Третий квартал 2000 г.
Foster ? 32 1000+ МГц на плате ? Первый квартал 2001 г.
McKinley ? 64 1000+ МГц ? ? 2001 г.
Предложение серверов старшего класса

AST
Premium 2000H
http://www.ast.com/server/

Compaq Computer
Proliant 7000 — Xeon
http://solutions.compaq.ru

Data General
Aviion AV 8900 (восьмипроцессорный)
http://www.dg.com/aviion/

Dell Computer
PowerEdge 6300
http://www.dell.ru

Gateway
ALR 9200
http://www.gateway.com/prod/cp_srv_category.shtml

Hewlett-Packard
NetServer LXr 8500 (восьмипроцессорный)
http://www.hp.ru/pc/servers/

IBM
Netfinity 8500 (восьмипроцессорный)
http://www.ibm.ru/pc/server/

Micron
NetFrame 9200
http://www.micronpc.com/commercial/servers/enterprise/nf9200/index.html

Toshiba
Magnia 7000
http://www.csd.toshiba.com

Ресурсы Internet

PCI Special Interest Group предлагает информацию по PCI и PCI-X на http://www.pcisig.com.

Дополнительную информацию о Future I/O можно узнать на http://www.futureio.org.



  • Главная
  • Новости
  • Новинки
  • Скрипты
  • Форум
  • Ссылки
  • О сайте




  • Emanual.ru – это сайт, посвящённый всем значимым событиям в IT-индустрии: новейшие разработки, уникальные методы и горячие новости! Тонны информации, полезной как для обычных пользователей, так и для самых продвинутых программистов! Интересные обсуждения на актуальные темы и огромная аудитория, которая может быть интересна широкому кругу рекламодателей. У нас вы узнаете всё о компьютерах, базах данных, операционных системах, сетях, инфраструктурах, связях и программированию на популярных языках!
     Copyright © 2001-2024
    Реклама на сайте