div.main {margin-left: 20pt; margin-right: 20pt}
О степени пригодности Интернет для обучения и проведения
научных исследований
Оценку указанной пригодности можно сформировать, в основном, с
учетом следующих трех показателей:
1) Реактивность и пропускная способность Интернет;
2) Отлаженность, реальная согласованность и освоенность программных
изделий разных фирм для реализации интероперабельных распределенных
информационно-вычислительных систем на основе
www/CORBA/DBMS/Java/C++...-технологии;
3) Степень наполнения ресурсов Интернет (библиографических, фактографических
и т.п.)
Проблема обеспечения удовлетворяющей всех реактивности и пропускной
способности Интернет, пожалуй, самая насущная (без ее решения нереально говорить
о приемлемом решении двух других) и самая трудная, потому что в большей степени
зависит от трех факторов: финансового, технического и программного (имеется в
виду "системное" программное обеспечение типа протокольного, программное
наполнение рутеров и переключателей, средства динамического управления проводкой
трафика по линиям связи при реализации сервиса QoS/DS/Managed Bandwidth).
Насколько все это нужно, скажем, для научных исследований и в каком
географическом масштабе (локальном по организациям, национальном,
международном)? Смотря для каких и когда. Если говорить о реальных масштабах
сетевого обмена информацией, то сейчас считается происшедшей инверсия "закона
80/20", существовавшего в мире 80-х годов (80% межкомпьютерных обменов
происходило внутри LAN и только 20% - между ними, т.е. между "сайтами"; более
того, внутри LAN картина была похожей: трафик внутри группы был намного больше
межгруппового, см. [1]. Сейчас все наоборот). Более того, появились работы (и
целые предметные области), которые в принципе невозможно эффективно выполнять
без сетевого обмена. Примером являются исследования, проводимые международными
коллаборациями вокруг экспериментов на ускорителях в области физики высоких
энергий. Есть не так много смежных дисциплин, которые выставляли бы столь же
жесткие, повышенные требования к способностям Интернет: более-менее подходящие
примеры есть в области космических исследований, метеорологии, климатологии,
биоинформатике, науке о Земле (например, по проекту EOS DIS от NASA и
геологического общества США, см. [1]).
Два года назад Международный Комитет по ускорителям будущего
(ICFA), куда входят и представители Российских физических центров, образовал
сетевую службу ICFA-NTF (см. [2,3]).
Комитет ICFA представляет интересы около 20000 пользователей в 20
больших Лабораториях (в ранге институтов) и 400 университетов в 100 странах
мира. Задачей NTF стало изучить и оценить состояние компьютерных сетей,
используемых всем указанным сообществом, анализируя их возможную эволюцию в
ближайшие 10 лет (в частности, ко времени начала работы ускорителя LHC в ЦЕРНе);
выработать рекомендации по улучшению общей ситуации с сетевым обеспечением для
нужд физики высоких энергий и ядерной физики. Для решения этой задачи в составе
NTF было образовано пять рабочих групп под общим руководством Дэвида О. Вильямса
(ЦЕРН):
Status WG, Monitoring WG, Remote Regions WG, Reguirements WG и
Recommendations WG. Результаты их годовой работы в виде отчетов-обзоров
размещены на серверах ЦЕРН и SLAC, их копии есть на сервере ЛВТА ОИЯИ
(см.[1]-[6], см. также нашу заметку через подраздел "Problems at Network support
for tasks in HEP", http://www.jinr.ru/info.html), и мы отметим здесь основные
положения указанных материалов.
Каждая из организаций-членов ICFA использует подключение своей
локальной сети к национальной акадимической/исследовательской сети или
собственные прямые каналы международной связи, а также каналы, связывающие
национальные сети. Так, сети типа ACONET (Австрия), GARR (Италия), DFN
(Германия), Super Janet (Великобритания) и другие национальные европейские сети,
построенные на сетках каналов с пропускной способностью от 2 до 155 Мврs,
объединены трансевропейскими опорными сетями типа Ebone и QUANTUM/TEN-155:
пропускная способность связи между опорными узлами АТМ/IP-ориентированной
ТЕN-155 составляет 155 Мврs, подключение национальных сетей к таким узлам в
настоящий момент - на скоростях от 10 Мbрs до 34/45/155 Mbps (см. [7]).
Американские исследовательские Лаборатории подключены к ESnet,
финансируемой DoE и имеющей пропускную способность до 622 Mbps.
Так FNAL, Лаборатория Ферми(Батавия), имеет два канала по 155 Mbps
с ESnet; LBNL и LANL - по каналу 622 Mbps. У ESnet есть линии связи с TEN-155 и
рядом отдельных европейских центров (например с ЦЕРН и DESY) с пропускной
способностью 90/155 Mbps. На таком же уровне связь японской национальной сети
NACSYS с TEN-155 и ESnet.
Американские университеты либо подключаются к ESnet, либо
пользуются инициативной опорной сетью Интернет2 (пропускная способность 622
Mbps, используется технология vBNS разработки NSF/MCI).
Сетевая нагрузка (на ресурсы национальных сетей и международные
линии связи) от сообщества ICFA составляет около 5% от всего объема трафика
академических и исследовательских сетей (например, в 1997 году из 500 Mbps по
связям национальных сетей через трансатлантические кабели (при их суммарной
пропускной способности 20 Gbps) около 25 Mbps приходилось на членов сообщества
ICFA).
С вхождением Российских научно-образовательных организаций в
указанное выше сетевое сообщество - положение особое. Формально российской
национальной сетью для науки и высшей школы, повидимому, считается RBNet,
финансируемая Министерством науки и технологий РФ, однако ее естественными
дополнениями являлись и RUNNet, FreeNet, EmNet. : . Все они имели по крайней
мере по одному внешнему каналу на Запад, с емкостью от 256 Kbps до 6 Mbps на
канал. Ни в каком из сетевых проектов, упомянутых выше (или тех, что еще будут
упоминаться), типа TEN-34/QUANTUM/TEN-155, Россия, похоже, не участвует, и в
документах ICFA-NTF есть только упоминание о соединении ряда физических
институтов бывшего СССР с DESY через систему Radio-MSU. По этой причине научные
центры России, даже имеющие неплохие каналысвязи с центрами коммутации в Москве
и Петербурге (от 2 до 10 Mbps), испытывают массу неудобств из-за низкой
пропускной способности интернациональных линий связи.
На какие виды операций в Internet приходятся указанные выше затраты, из чего
состоит трафик сообщества ICFA?
50-60% - обмен физическими данными (в т.ч. 6-8% через AFS);
15-20% - Web (включая почту).
Остальное -Х-Windows внутри континентов, telnet - между (там его доля
велика), Java/CORBA технология.
Доля видеоконференций и т.п. пока невелика (140 часов в 1997г. у
ЦЕРНа, затем рост и 140 часов к марту 1998г. у коллабораций LHC через систему
VRVS).
Оценка качества по проценту потерь пакетов (в основном для "интерактивной"
работы):
хорошо (близко к идеальному) при потерях в пределах 1%,
терпимо (приемлемо) до 5%,
нетерпимо (недопустимо) при более чем 10%.
Каждая проводка трафика через Интернет идет в среднем через 15-20
промежуточных узлов (маршрутизаторов, переключателей), и важна их реактивность
по времени (скажем, в пределах 400 милисекунд от начальной до конечной точки -
по ping или traceroute).
По результатам измерений, проводившихся из FNAL и SLAC весной 1998
г. на линиях с Европой, признана очень хорошей связь с ЦЕРН, Германией (DESY),
Италией, Швейцарией, частью Франции; средней - с Чехией, Данией, Польшей,
Швецией; близкой к недопустимой - с Бельгией, Голландией, Ирландией, UK,
некоторыми французскими университетами, Венгрией, Германией для американских
университетов; с Россией как членом ICFA.
Связь с Канадой - от приемлемой до плохой (в зависимости оттого - с
кем). Качество связи (производительность) по США, особенно внутри ESnet и между
ESnet и vBNS - очень хорошее, в Европе (между "сайтами") хорошее в рамках связей
через TEN-34/155.
Положение в остальной части мира признано плохим. Главная причина
низкой производительности - перегруженность стыка сетей и трансконтинентальных
линий связи.
Итак, с применением интерактивного режима использования Интернет
(включая режим реального времени) у мирового Сообщества ICFA в целом дело уже
обстоит неважно, и практически по-настоящему распределенные глобальные
интероперабельные информационно-вычислительные системы с применением JAVA/CORBA
технологии отсутствуют. Нужно сразу сказать, что на прогресс в их внедрении
влияют и проблемы недостаточной согласованности / совместимости или освоенности
программных продуктов разных фирм, занимающихся реализацией ORB, сопряжением
CORBA с WWW и т.д.
Часть трудностей в освоении и применении Java/CORBA технологии при
построении информационно-вычислительных систем отмечена, например, в сообщении
[8]; здесь же говорится и о том, что "интеграция технологий WWW и CORBA не
представляет собой какого-либо законченного решения, которое можно "взять с
полки".
Каковы же предвидимые потребности физики высоких энергий и ядерной физики в
услугах Интернет, насколько он будет способен их удовлетворять?
Уже сейчас идет массовый съем и обработка данных (событий) с
экспериментальных детекторных установок типа BaBar, CDF, STAR, DO, RHIC, KLOE,
NA48, NA49, COMPASS и т.д. с накоплением ежегодно сотен Терабайт информации (до
Петабайта у некоторых после 2005 года); каждая из установок ATLAS, CMS и ALICE,
начинающих работать на коллайдере LHC (ЦЕРН) в 2005 году, будет накапливать
более Петабайта (PB) ежегодно. Как подготовка самих экспериментов
(проектирование, моделирование и т.д.), так и их ведение (организация и контроль
сеансов работы, калибровка аппаратуры, обработка данных) - дело
международной коллаборации. Практически все коллаборации
ориентируются на распределенное управление, хранение и обработку данных.
Например, детектор BaBar в SLAC'е (Стенфорд) даст в 2000 году по 200 Гигабайт
информации в сутки; в коллаборации BaBar есть региональные центры (INFN в Риме,
IN2P3 в Лионе, RAL в Англии) и предполагается, что будет производиться
копирование накапливаемых "сырых" данных для региональных центров, чтобы они
независимо от базового центра вели часть обработки.
У коллабораций CMS и ATLАS - более централизованная модель
обработки; с передачей в периферийные центры только реконструированных (по
геометрии) событий, частями и по запросу. Передача 200 Гигабайт хотя бы в один
региональный центр в течение рабочего дня требует наличия у Центральной
Лаборатории линии связи на 50 Mbps. Дневная производительность установок типа
PHENIX и STAR - до 500 Гигабайт в 2000 году ... . Транспортировка лентами с
емкостью от 0,2 до 1,6 Терабайт частично решает проблему, но неоперативна. В
2005 году речь пойдет о ежедневных Терабайтах, а следовательно о линиях связи
для их передач на скоростях от 100 Mbps до 1 Gbps и более из Центральных
Лабораторий. Ясно, что проблема потерь пакетов при таких передачах (даже порядка
1%) резко обостряется. Считается, что каждый индивидуальный физик (член
коллаборации) должен иметь не менее 0.75 Mbps - связи со своей техникой (PC,
рабочей станцией), организация - от 300 до 2.5 Gbps, национальная сеть 100
организаций - от 50 до 100 Gbps; в предположении, что 10-20% обменов - внешние
(за пределы национальной сети), то на международной линии каждой национальной
сети нужно иметь полосу пропускания порядка 10 Gbps. (см. [1] - [3]).
Есть и другая общая форма требования к увеличению пропускной
способности и реактивности Интернет для задач физики высоких энергий и ядерной
физики: удвоение каждый год, т.е. тысячекратное увеличение за 10 лет.
Насколько считается это реальным с технической, программной и
финансовой точки зрения? Насколько обоснована уверенность в том, что с 2000-го
года в Internet'е для физиков (по крайней мере западных) основными будут 155/622
Mbps - линии связи, а с 2005 года будут доступны гигабитные скорости обмена?
В материалах [1] - [6] и [8] фиксируются следующие реалии:
I. Совершенствование техники связи (имеющиеся достижения):
1) Использование на телефонных линиях технологии xDSL для
мегабитных/сек подводок информации к PC/рабочей станции индивидуального
пользователя;
Наличие образцов модемов с пропускной способностью, не уступающей технике
DSL;
2) Применение технологии WDM/DWDM на оптических линиях связи
(наличие уже в 1997 году коммерческих стандартов на реализацию в оптоволокне от
8 до 16 каналов по 2.5 Gbps, наличие с 1997 г. в реальной эксплуатации WDM-линий
по несколько десятков Gbps у ISP типа MCI);
Использование подобной технологии в проектах сетей США: NGI (Next
Generation Internet), PACI, National Grid, SuperNet и др.; в проекте Oxygen по
кабельной трансконтинентальной связи (с пропускной способностью от 1.2 до 622
Gbps к 2002 году). Заметим, что в опытном порядке реализована и терабитная
скорость цифровой передачи по волокну (при теоретическом пределе от 50 до 75
Tbps при цифровой и 150 Tbps - аналоговой технике);
3) Развитие техники беспроводной связи (622-мегабитные каналы на
ряде имеющихся экспериментальных спутников);
4) Прогресс в технике пакетной передачи, наличие маршрутизаторов /
переключателей с пропускной способностью до 100 Gbps (более 10 миллионов пакетов
в секунду) при наблюдаемой устойчивой тенденции роста скорости срабатывания
схем, организации их параллельной работы и т.д.
II. Активное введение в практику использования Интернет
программного и технического обеспечения QoS/DS/Managed Bandwidth Service. Как
технический термин - это метод оптимизации использования сетевой пропускной
способности, при котором различные (по своей природе, принадлежности и
назначению) потоки данных, делящих одни и те же линии связи, трактуются имеющими
разничные уровни приоритета.
В реализации могут применяться очереди ожидания, резервные полосы
пропускания и т.п. Элементы этой технологии применялись еще в 1996/97 годах на
линии ЦЕРН - США для обеспечения трафика видеоконференций (использовались
устройства типа Cisco Stratacom Multiplexer). На маршрутизаторах реализуется
политика идентификации спецтрафика для отправки его пакетов с приоритетом,
проводки через предназначенные для этого линии связи (если есть) и т.д.
Технология QoS/DS наиболее оптимально реализуется на (ATM + IP)
ориентированных сетях, и в частности была предусмотрена для реализации проекта
QUANTUM/TEN-155 трансевропейской опорной сети, которая обещает предоставить
емкость в 622 Mbps к 2001 году и последующий переход на гигабитные скорости
[7].
III. Развитие и упрощение межсетевых соглашений, надежды на
сокращение числа провайдеров для академическихи исследовательских организаций (в
идеале - до одного, типа World Com)
IV. При устойчивой тенденции совершенствования сетевых технологий и
возможностей (и соответствующем снижении как себестоимости средств связи, так и,
в меньшей степени, их рыночной стоимости) можно надеяться (при условии
регулируемой финансовой политики и пользовательского влияния на рынок сетевых
услуг) на сохранение и в будущем затрат на оплату сетевых услуг примерно в том
же объеме, что и сегодня, но при описанном выше росте объема и качества
трафика.
Общая рекомендация для сообщества ICFA:
Поскольку собственного Intranet/Extranet завести не по средствам, а
от применения Internet никуда не уйти, оно должно: развиваться в рамках
существующих обстоятельств и возможностей, максимально совершенствуя (или
лоббируя это совершенствование) свои "домашние сети"; содействовать развитию и
применению средств типа QoS/DS, особо влияя на развитие и удешевление
трансконтинентальных связей; инициировать проекты по разработке и реализации
оптимальных сетевых моделей обработки данных (например, структур по схеме
"клиенты - Java агенты - серверы"); объединяться с представителями других
дисциплин в выработке мер и системы отношений с провайдерами сетевых услуг.
Литература
1. ICFA Network Task Force: Requirements for HENP (Edited by
Harvey B.Newman) http://l3www.cern.ch/~newman/icfareq98.html
http://jicom.jinr.ru/LCTA/txt/Reports_probl_net/icfareq98.htm
2. Interim Report of the Networking Task Force (Edited by
David O.Williams) http://nicewww.cern.ch/~davidw/icfa/InterimReport.html
http://jicom.jinr.ru/LCTA/txt/Reports_probl_net/InterimReport.htm
3. Status Report of the ICFA Networking Task Force, July 1998.
http://nicewww.cern.ch/~davidw/icfa/July98Report.html
http://jicom.jinr.ru/LCTA/txt/Reports_probl_net/july98report.html
4. Networking Task Force, Present Status Working Group:
Interim Report (Prepared by R.Tirler) http://nicewww.cern.ch/~tirler/pswg.html
http://jicom.jinr.ru/LCTA/txt/Reports_probl_net/pswg.htm
5. Report of the ICFA-NTF Monitoring Working Group (Edited
by les Cottrell and Warren Hatthews) http://www.slac.stanford.edu/xorg/icfa/htf/mon-wg-report-may98.html
http://jicom.jinr.ru/LCTA/txt/Reports_probl_net/mon-wg-report-may98.htm
6. Report of the ICFA-NTF Recommendations Working Group
(Mark O.Kaletka(FNAL), Michael Ernst(DESY), Yukio Karita(KEK), Larry
Price(ANL), David Williams(CERN) ) http://nicewww.cern.ch/~davidw/icfa/RecommWG.html
http://jicom.jinr.ru/LCTA/txt/Reports_probl_net/recommwg.htm
7. The Next Generation of European Researh Networking http://www.dante.net/ten-155.html
8. Опыт применения технологии CORBA, Java(RMi) при построении
информационных систем с многозвенной архитектурой (Ахтырченко К.В.,
Аристархов А.А., НИВЦ МГУ) http://www.citforum.ru/Seminars/cis99/corba.shtml
9. High Speed Networks: On to Petabit Networks (By Graig
Partridge) http://www.data.com/25years/petabit.html
Лаборатория вычислительной техники и автоматизации, Объединенный
институт ядерных исследований, Дубна Московской области. Оригинал тут. 1999. В.П.Шириков, Л.А.Калмыкова
|