На главную страницу AlgoNet В сотрудничестве с ZDNet
АРХИВ СТАТЕЙ 2001-8-16 на главную / новости от 2001-8-16
AlgoNet.ru
поиск

 

Место для Вашей рекламы!

 

Все новости от 16 августа 2001 г.

Отечественный суперкомпьютер работает на науку

Суперкомпьютер МВС 1000М

Суперкомпьютер МВС 1000М

Известие о вводе в эксплуатацию отечественного суперкомпьютера производительностью в 1 Тфлопс вызвало в кругах специалистов, как в России, так и за рубежом, большой интерес.

Мы побеседовали о нем с заместителем директора по исследованиям и разработкам Межведомственного суперкомпьютерного центра (МСЦ) Борисом Шабановым. Общение сопровождалось экскурсией по МСЦ, где нам показали все вычислительные комплексы и сам новейший суперкомпьютер, вплоть до отдельных блоков, что развеяло всякие сомнения в реальности данного события.

PC Week: Какова история создания Межведомственного суперкомпьютерного центра?

Борис Шабанов: В 1994 г. была принята государственная программа по созданию телекоммуникационной сети для нужд науки и высшей школы. В ней участвовали Российская академия наук, Министерство образования, Госкомитет по науке, Российский фонд фундаментальных исследований. Подобные программы действуют во всех развитых странах: Германии, США и др.

PC Week: В США это Интернет-2, а в Германии?

Б. Ш.: В Германии — DFN, сеть, которая объединяет 13 вычислительных центров, в частности, DLA (Центр космических технологий), DMD (Центр информационных технологий), Институт Макса Планка и др. DFN на 90% финансируется Министерством науки Германии, а часть денег поступает от федеральных земель, для которых участие в подобных программах — и престиж, и рабочие места. Везде такие программы движутся в одном направлении.

Решение о создании нашего центра было принято в 1995 г., но только в 1997-м нам дали деньги на покупку суперкомпьютера. В те времена, если помните, случилась серия скандалов, связанных с покупкой вычислительной техники у IBM и SGI. В результате осталась одна компания Hewlett-Packard — больше не у кого было покупать.

Мы приобрели симметричную мультипроцессорную машину V2600 на RISC-процессорах PA-8000. И не ошиблись. Впоследствии нам удалось сделать апгрейд и перейти на микропроцессоры PA-8600, что увеличило производительность системы примерно в 10 раз.

Кластер на серверах HP V Class

Кластер на серверах HP V Class

Сейчас это 64-процессорный кластер с пиковой производительностью 141 Гфлопс. (Между прочим, несмотря на то что мы — Академия наук и проект имеет стратегическое значение, таможня с нас все равно берет пошлины за ввоз, как с оборудования, так и с лицензий на программное обеспечение.)

Центр продолжал развиваться, и в настоящее время кроме V2600 мы имеем:

Кластер из 16 ПК имеет пиковую производительность 17 Гфлопс

Кластер из 16 ПК имеет пиковую производительность 17 Гфлопс

  • кластер МСЦ 2000, состоящий из 16 двухпроцессорных узлов на основе 550 МГц процессора Intel Pentium III (всего 32 процессора);

  • комплекс МВС 1000/200 (128 Alpha 21164, 500 МГц) с пиковой производительностью 128 ГФлопс;

  • отечественный суперкомпьютер МВС 1000М (768 ЦП Alpha 21264, 667 МГц).

    Это кластерная система с пиковой производительностью 1 Тфлопс. Она состоит из 384 вычислительных блоков (рис. 1).

    В каждом из них установлено по два процессора Alpha с 2 Гб ОЗУ, связанных друг с другом высокоскоростной сетью Myrinet (2 Гбит/с). Сеть поддерживает передачу данных между процессорами во время параллельных вычислений;

  • система визуализации на рабочих станциях J2240 и J5000 фирмы Hewlett-Packard с мощными графическими акселераторами трехмерной графики;

  • архивная система на базе двухпроцессорного сервера К-класса фирмы Hewlett-Packard (K580) с трехуровневой иерархией внешней памяти емкостью 10 Тб с программной системой оптимизации размещения информации по уровням.

Все вычислительные мощности объединяются локальной сетью по технологиям Gigabit Ethernet, Ethernet 10/100 и АТМ. Каналы ATМ-155 Мбит/с, FastEthernet 100 Мбит/с, Thick Ethernet 10 Мбит/с соединяют МСЦ с глобальными сетями.

Эффективную разработку приложений и поддержку многопрофильных баз данных обеспечивает СУБД Informix. Для централизованного мониторинга и управления всеми ресурсами центра используется система HP OpenView.

Доступ пользователей к ресурсам МСЦ осуществляется с рабочих мест на основе UNIX-станций, X-терминалов и персональных компьютеров непосредственно в специализированном зале МСЦ, а также удаленно через Интернет, используя защищенные методы соединения.

PC Week: Помнится, что в соответствии с упомянутой программой было запланировано создание 20 суперкомпьютерных вычислительных центров.

Б. Ш.: Да, именно так. В этой программе было выбрано то же направление развития, какое принято во всех развитых странах, и в первую очередь в США, у которых очень активная позиция в области развития суперкомпьютерных вычислений.

У них имеются целевые программы и специальные советы, которые развивают это направление. Есть даже совет при Президенте США. Их программы нацелены на обеспечение безусловного лидерства США в области суперкомпьютерных вычислений, что имеет первостепенное значение для национальной безопасности и развития страны.

В этой программе есть оборонная составляющая — стратегическая компьютерная инициатива, а параллельно идет программа, финансируемая Национальным научным фондом для науки и образования. Еще в 1985 г. в США было принято решение создать сеть из пяти суперкомпьютерных центров.

С течением времени эта программа изменялась, и сейчас существует три центра: в университете Сан-Диего (Калифорния), Суперкомпьютерный центр штата Иллинойс, и в университете Питсбурга. Эти центры развиваются, в них вкладываются немалые деньги.

В рамках этой программы строится Интернет-2, в который, кстати сказать, мы имеем прямой выход. Сейчас скорость нашего подключения 12 мбит/с, со временем ее планируется довести до 90 мбит/с.

PC Week: Планируется ли создание аналога Интернета-2 для академических институтов России?

Б. Ш.: Такие планы есть, и их осуществлением активно занимаются другие организации, например, Центр научных телекоммуникаций РАН, Центр телекоммуникаций МГУ и РосНИИРOC.

PC Week: Что понимается под предоставлением вашим центром услуг?

Б. Ш.: В первую очередь мы предоставляем вычислительные мощности, а так как серьезные вычисления требуют хранения больших объемов информации, то и услуги по их хранению.

Наш центр создан на бюджетные деньги; для ученых из институтов Академии наук, университетов, выполняющих работы по грантам РФФИ, Российского фонда технологического развития, наши услуги бесплатные. Вся информация находится в свободном доступе.

Мы объясняем возможности системы, предоставляем документацию. То есть даем клиенту машину класса “Формулы-1”, а как он на ней поедет — зависит от его искусства.

PC Week: Какого рода задачи большей частью считают ваши пользователи?

Б. Ш.: 50% всех задач — биологические.

PC Week: В каком направлении развивается программное обеспечение комплекса?

Б. Ш.: Прежде всего мы занимаемся совершенствованием системы управления ресурсами компьютера: распределением нагрузки и ее оптимизацией. Система работает на управляющей машине и планирует прохождение всех задач.

Второе направление — совершенствование математической библиотеки. Третье — система мониторинга состояния комплекса. Если что-нибудь происходит, например, при счете задачи, использующей 512 процессоров, зависает один блок, то надо срочно принимать меры.

PC Week: Но ведь комплекс построен из надежных элементов. Что в нем может отказывать?

Б. Ш.: Ну, скажем, из-за изменения температуры немного меняется тактовая частота, а так как блоки работают синхронно, пропадает синхронизация и надо их ресинхронизировать.

Кроме того, важным направлением является совершенствование и развитие библиотеки MPI и развитие системы отладки параллельных программ, работающих на кластере. К ней относятся отладчики, профилировщики, обеспечивающие контроль за прохождением задач.

Еще одно направление — это программы, представляющие программисту кластер как систему с общей памятью, с когерентным кэшем.

PC Week: А как обстоят у вас дела с визуализацией результатов счета?

Б. Ш.: Это очень важная проблема. В Америке уделяют огромное внимание наглядному показу результатов расчетов. Там есть культура представления результатов, есть группы специалистов, которые помогают исследователю визуализировать результаты. У нас тоже есть такая группа.

PC Week: На американском КРЕЕ еще лет двадцать назад были устройства вывода результатов расчетов на кинопленку, так что поведение модели можно было посмотреть в виде фильма. У вас есть подобные устройства?

Б. Ш.: Такие технические возможности у нас есть. Проблема состоит в том, что нужны универсальные специалисты, которые понимают, как распараллелить задачу, чтобы ее сосчитать, как хранить результаты вычислений в базе данных и как надо представить результаты компьютерного эксперимента. А таких нет ни у нас, ни в мире.

Поэтому создаются коллективы из специалистов какой-то предметной области, например биологов или специалистов по аэродинамике, к ним “пристыковываются” люди, не только хорошо знающие математику, но и понимающие, как задачу можно выполнить на параллельных машинах. К ним присоединяются специалисты, понимающие, как лучше представить результаты. То есть для каждой задачи создается своя междисциплинарная группа.

PC Week: Как структурирован центр?

Б. Ш.: Первый уровень — это дежурная смена. Она следит за работой техники и обеспечивает ее функционирование. Второй уровень — администрирование, инженерная и программная поддержка. Все аппаратные средства и программные продукты записаны за конкретными людьми, и если пользователь не может получить поддержку у дежурной группы, он выходит на какого-либо специалиста из второго эшелона.

Также есть отделы, занимающиеся продвинутым администрированием. Их задача — развитие центра, выработка стратегического направления, и, кроме того, они работают с теми пользователями, которым не смогли помочь первые два эшелона поддержки. Тематический отдел занимается сетевой структурой, защитой, организацией доступа, мониторингом работы центра и т. п.

Имеется также отдел управления базами данных — его специалисты помогают исследователю правильно организовать хранение полученных данных. (У нас под HP UX работают СУБД Informix и Oracle.) Третья группа — это специалисты по высокопроизводительным вычислениям. Они могут объяснить, как работать с комплексами и какие инструменты использовать. Четвертая группа помогает исследователю выбрать подходящее средство визуализации.

У нас нет отдела, специально занимающегося разработкой приложений. Мы оказываем услуги и предоставляем вычислительные мощности, пользуясь которыми, исследователь решает свои задачи. Перечисленные отделы консультируют пользователей и читают им лекции. В центре работают базовые кафедры Физтеха, МИЭТа и МИРЭА. Там мы читаем лекции и ведем лабораторные работы.

PC Week: Традиционным тестом для сравнения реальной производительности суперкомпьютеров является LINPAK. Какие результаты показывает на нем наш суперкомпьютер?

Б. Ш.: Сейчас на этом тесте мы показываем 60% от пиковой производительности. Предполагаем к сентябрю довести производительность до 70%. Это вполне приличный результат, если учесть, что на этом тесте суперкомпьютер КРЕЙ дает 85% от теоретической производительности, но это векторная машина.

PC Week: Какой суперкомпьютер сделан в Китае?

Б. Ш.: Структура у всех — кластер. Микропроцессор — SPARC, а сетевая технология такая же, как у нас.

PC Week: Появление новой машины существенно приблизило возможности МСЦ к американским суперкомпьютерным центрам — разрыв по производительности, который раньше измерялся порядками, теперь сократился до пяти раз. Надолго ли хватит такого запаса прочности?

Б. Ш.: В этой области, чтобы не отстать, нужно обновлять машинный парк каждые два года.

PC Week: Спасибо за беседу.
Обсуждение и комментарии

Alex
17 Aug 2001 3:03 PM
А что, собственно говоря, в этом ОТЕЧЕСТВЕННОМ суперкомпьютере ОТЕЧЕСТВЕННОГО?
Идеи создания матриц компьютеров, можно сказать, интернациональные: кто-то предложил, остальные - развивали...
Что, конкрено, сделали РОССИЙСКИЕ ученые в этом проекте? Выбрали элементную базу, архитектуру СУПЕРА? Разработали собственную операционную систему?
 

Александр Думенко - a_dumenkoorenburgneft.ru
18 Aug 2001 2:01 PM
Коллега, стоит относиться к данной разработке как к появлению "инструмента" для российской науки, причем достаточно недорогого, а значит, достаточно доступного. И перестаньте мерять достижения только абсолютными величинами - знаете поговорку: "Придумано в Европе, запатентовано в США, сделано в Японии". Пусть с помощью ЭТОГО компьютера наука решит задачу отставания от других стран, а уж потом придумывает НОВЫЕ компьютеры (кстати тут вспомнить развитие "Эльбруса")...
 

Кострюков Сергей - ksergonline.debryansk.ru
20 Aug 2001 5:42 PM
Это типа гибрида ЭВМ ЕС и Intel Pentium4?
 

Noname
21 Aug 2001 1:59 PM
Насколько вообще правомерно складывать производительность процессоров и выдавать это за вычислительную мощность? Попахивает шарлатанством. Это не назовешь даже пиковой производительностью.
 

Юзьвер - salesquant-x.com
22 Aug 2001 4:15 PM
>А что, собственно говоря, в этом ОТЕЧЕСТВЕННОМ суперкомпьютере ОТЕЧЕСТВЕННОГО?

Отечественные в этом проекте только деньги.
И деньги немалые.
И вылетевшие, из карманов спящих спокойно налогоплательщиков, по большому счету, в трубу...
Я даже не буду обсуждать насколько эффективно используется Alpha-кластер,
>Что сделали РОССИЙСКИЕ ученые в этом проекте?
и в чью трубу они улетели...

Но в этой хвалебной статье умело умалчивается вопрос цены/производительности, напрямую связанный с качеством (процентом брака) и ценой закупленной техники и понесенных бюджетом затрат...
Именно это обстоятельство и отличает в корне это "академическое" начинание от научного проекта Beowulf!

Читая статью так и хочется воскликнуть: "А БЫЛ ЛИ ТЕНДЕР, ГОСПОДА УЧЕНЫЕ ?!"
 

Эдуард Пройдаков - chiefpcweek.ru
23 Aug 2001 9:33 PM
Ответы на вопросы.
1. Г-ну Безымянному дилетанту. Существует КОКОМовская методика расчета производительности таких систем. По ней все и считают. При желании ее можно найти в Сети. Никто ничего лучше пока не придумал.
2. Г-ну Экономисту. Соотношение цена/производительность считается для массовой продукции, состав уникального комплекса обычно оптимизируется под заданный параметр -- в данном случае, скорее всего, под производительность. Совершенно очевидно, что здесь разрабатывалась структура комплекса и архитектура плат, производилось комплексирование, наладка, тестирование, подгонка системного ПО.
Все суперЭВМ, которые продаются в Россию западными странами, имеют ограничение по производительности на уровне ниже 100 Гфлопс и контролируются на области применения.
 

 

← июль 2001 10  13  14  15  16  17  20  21  22 сентябрь 2001 →
Реклама!
 

 

Место для Вашей рекламы!