Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна





НазваниеАрхитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна
страница10/11
Дата публикации26.08.2013
Размер1.52 Mb.
ТипУчебный курс
100-bal.ru > Информатика > Учебный курс
1   2   3   4   5   6   7   8   9   10   11

POWER CHALLENGE XL превосходит старшие модели Cray по размеру оперативной памяти, уступая по производительности ввода-вывода и максимальному размеру дискового пространства. Больший возможный размер памяти в системах SGI связан с использованием дешевой DRAM-технологии по сравнению с дорогой высокопроизводительной SRAM-памятью в Cray C90/T90.



Sun Ultra Enterprise — это серия масштабируемых, удобных в управлении и надежных серверов. Ее можно разделить на следующие группы:

-серверы рабочих групп: Sun Enterprise 10s, 250, 220R, 450 и 420R;

серверы отдела предприятия: Sun Enterprise 3500 и 4500;

серверы масштаба предприятия: Sun Enterprise 5500, 6500 и 10000.

Sun Enterprise 10s — сервер Sun начального уровня, взаимодействующий со всеми клиентами сети: персональными компьютерами (ПК), системами Macintosh, рабочими станциями UNIX, сетевыми компьютерами. Благодаря процессору UltraSPARC-IIi, работающему с тактовой частотой 440 МГц, поддерживающему до 1 ГБ памяти, 4 PCI слота расширения и до 18,2 ГБ на внешнем носителе, эта система предоставляет недорогую платформу для работы критических сетевых приложений. Сервер Sun Enterprise 10s предназначен для Web, электронной почты, файловых служб и служб печати. Кроме того, Solaris для Intranet — расширение операционной системы Sun Solaris — обеспечивает предоставление Web-услуг.



Sun Microsystems представляет двухпроцессорный SMP-сервер масштаба рабочей группы. В линейке продуктов Sun сервер Sun Enterprise 250 позиционируется между системами Sun Enterprise Ultra 5s и 10s и сервером Sun Enterprise 450 и замещает собой сервер Sun Enterprise 150. Сервер Sun Enterprise 250 поставляется в виде напольного решения или стойки.

Сервер Sun Enterprise 250 удобен для небольших, возможно, удаленных офисов, рассчитанных на 50-100 пользователей. Сервер Sun Enterprise 250 поддерживает каждодневную работу офиса: выполнение приложений баз данных, финансовых приложений, поддержку обмена сообщениями, предоставление сервиса приложений, а также поддержку стандартных приложений рабочих групп (документооборот, распределение и планирование товаров и услуг и т.д.). Он также подходит для рынка провайдеров Internet-услуг и офисных приложений.

Сервер Sun Enterprise 250 поддерживает от 128 Мбайт до 2Гбайт оперативной памяти, при этом скорость передачи данных достигает 1,6 Гбайт/с. Он также вмещает в себя до шести 1-дюймовых или 1,6-дюймовых дисков UltraSCSI со скоростью внешнего интерфейса 40 Мбайт/с, допускающих работу в режиме «горячей замены». Используются диски на 4,2 Гбайт, 9 Гбайт или 18 Гбайт, таким образом, максимальный объем хранимых данных равен, соответственно, 25 Гбайт, 54 Гбайт или 108 Гбайт. 

Сервер Sun Enterprise 220R — двухпроцессорный сервер масштаба рабочей группы, предназначенный для проведения сетевых вычислений и основанный на технологии UltraSPARC. Этот сервер следующего поколения предоставляет заказчику возможности мультипроцессорной системы, диски UltraSCSI, шину ввода/вывода PCI, являющуюся стандартом в отрасли, в компактном корпусе, предназначенном для монтажа в промышленные стойки. Содержит до двух процессоров UltraSPARC-II с тактовой частотой 450 МГц и 2 Гбайт памяти.
Сервер Sun Enterprise 450 предназначен для организации электронной почты, работы с базами данных, создания кластерных комплексов, предоставления Web-сервиса, обеспечения управления ресурсами предприятия.

В составе сервера работают до четырех процессоров UltraSPARC с тактовой частотой 300 МГц или 400 МГц, внутренняя шина UPA со скоростью 1,6Гбайт/с и подсистема ввода-вывода на базе шины PCI, обеспечивающая пропускную способность 600 Mбайт/с. Оперативная память расширяется до 4Гбайт, встроенные диски Ultra SCSI емкостью до 84 ГБ с режимом быстрой «горячей замены» и возможности подключения внешних накопителей общей емкостью до 6 Tбайт.

Сервер может взаимодействовать с любыми рабочими станциями, Intel и Macintosh. Надежность заложена в сервер Sun Enterprise 450 изначально: такие возможности, как коррекция ошибок ECC на внутренней шине и в памяти, автоматическое восстановление системы после сбоя и резервируемые с режимом «горячей замены» блоки питания и дисковые накопители присутствуют здесь в стандартной конфигурации.

Сервер Sun Enterprise 420R — четырехпроцессорный сервер масштаба рабочей группы, предназначенный для проведения сетевых вычислений и основанный на технологии UltraSPARC. Сервер предоставляет возможности мультипроцессорной системы, диски UltraSCSI, шину ввода/вывода PCI, являющуюся стандартом в отрасли, в компактном корпусе, предназначенном для монтажа в промышленные стойки.

Сервер Sun Enterprise 420R предназначен для Internet-провайдеров и провайдеров услуг, финансовых учреждений, для организации высокопроизводительных вычислений и для любых отраслей, где требуется мощный сервер обработки данных, занимающий немного места. Чрезвычайно важно, что сервер Sun Enterprise 420R обеспечивает высокий уровень производительности при полной двоичной совместимости вверх и вниз по всей линейке серверов и рабочих станций.

Сервер Sun Enterprise 3500 дает возможность исполнять сложные деловые приложения и предоставлять Internet/Intranet услуги с той же производительностью и доступностью, что и весьма дорогостоящие крупномасштабные системы. Время простоев значительно снижено благодаря устойчивой архитектуре сервера, средствам системного управления и новым программным возможностям, таким как динамическая реконфигурация и выбор альтернативного маршрута (Dynamic Reconfiguration and Alternate Pathing).

Сочетание масштабируемой операционной системы Sun Solaris, которая устанавливается на всех серверах Sun, и модульных аппаратных компонентов позволяет легко наращивать производительность и расширять возможности системы. В качестве сервера приложений Enterprise 3500 демонстрирует высокую производительность, объединяя возможности восьми UltraSPARC процессоров, связанных высокопроизводительной системой Gigaplane. Общая архитектура семейства серверов Sun Enterprise 3500-6500 позволяет производить локальное наращивание вычислительных мощностей путем подключения до 30 процессоров. Программное обеспечение Sun Enterprise SyMON облегчает управление системой, благодаря простому в использовании интерфейсу и системе предупреждения сбоев аппаратного обеспечения. 

Сервер Sun Enterprise 4500 — это компактный сервер среднего уровня с вычислительными возможностями, практически в два раза превосходящий возможности наращиваемости сервера Sun Enterprise 3500. Сервер обеспечивает доступность для критически важных приложений и удобные средства управления системой для деловых приложений баз данных и электронной коммерции. Общая модульная архитектура семейства серверов от Sun Enterprise 3500 до Sun Enterprise 6500 облегчает модификацию. Благодаря использованию в серверах Sun операционной системы Solaris можно работать с более чем 12000 приложений.

В сервере Sun Enterprise 4500 возможна установка до 14 процессоров. До 4 серверов Sun Enterprise 4500 можно установить в стойку центра данных. Программное обеспечение Sun Enterprise management Center облегчает управление системой, благодаря простому в использовании интерфейсу и системе предупреждения сбоев аппаратного обеспечения. Общая архитектура семейства серверов от Sun Enterprise 3500–6500 позволяет производить локальное наращивание вычислительных возможностей путем подключения до 30 процессоров.

Сервер Sun Enterprise 5500 предназначен для больших систем центров данных. Число процессоров меняется от одного до 14. Основная память расширяется от 256 Мбайт до 14 Гбайт. Возможные конфигурации наполнения одного банка от 256 Мбайт до 1 Гбайт (группы из 8 модулей SIMM). Имеется внешний массив хранения данных. Поддерживается более 6 Тбайт данных.

Сервер Sun Enterprise 6500 создан для выполнения критически важных промышленных приложений, таких как хранилища данных и ERP-системы. Модульные компоненты этого высокомасштабируемого сервера позволяют увеличивать производительность и возможности ввода/вывода. Такие возможности, как динамическая реконфигурация и выбор альтернативного маршрута (Dynamic Reconfiguration and Alternate Pathing), введенные в операционную систему Solaris, позволяют добавлять, удалять, модифицировать и обслуживать системные компоненты, не прекращая работы сервера. Использование в сервере Sun Enterprise 6500 операционной системы Solaris гарантирует ему масштабирование до максимальных возможностей. Количество процессоров меняется от одного до 30. Основная память масштабируется от 256 Мбайт до 30 Гбайт. Возможные конфигурации наполнения одного банка от 256 Мбайт до 1 Гбайт (группы из 8 модулей SIMM). Поддерживается более 10 Тбайт данных.

Сервер Enterprise 10000 нацелен на работу с важными приложениями: информационными хранилищами, системами принятия решений, консолидированных ЛВС (LAN) или высокообъемных приложений с онлайновой обработкой транзакций (OLTP).

Enterprise 10000 — это единственная UNIX-система, обеспечивающая работу с независимыми разделами, как на мэйнфрейме, что весьма важно для эффективного использования вычислительного центра. Система обеспечивает масштабирование в том, что касается производительности, числа пользователей, емкости приложений, расширяясь до 64 процессоров UltraSPARC с тактовой частотой 400 МГц, и включает дисковую подсистему в том же едином корпусе. Свойства обеспечения постоянной работоспособности SunTrust делают систему Enterprise 10000 наиболее надежной в своем классе.

Система Enterprise 10000, вмещающая до 64 Гбайт разделяемой памяти, с шириной пропускания внутрисистемной магистрали до 12 Гбайт/с для быстрой пересылки данных и фиксированного времени задержки, а также с поддержкой RAID 0, RAID 1 и RAID 5, превосходит по производительности все другие масштабируемые системы. Кроме того, обеспечивается поддержка до 20 Тбайт дискового пространства, что существенно для проектов крупнейших вычислительных центров. Возможности «горячей замены» позволяют легко производить обновление и замену компонентов в существующих системах без необходимости их перезагрузки или выключения питания.

Лекция № 16
Кластеры и массивно-параллельные системы различных производителей..
Семейство массово-параллельных машин ВС МВС-100 и МВС-1000
Массивно-параллельные масштабируемые системы МВС предназначены для решения прикладных задач, требующих большого объема вычислений и обработки данных. Суперкомпьютерная установка системы МВС представляет собой мультипроцессорный массив, объединенный с внешней дисковой памятью и устройствами ввода-вывода информации под общим управлением персонального компьютера или рабочей станции.
Основные области фактического применения суперкомпьютеров МВС-100/1000:

  1. Решение задач расчета аэродинамики летательных аппаратов, в том числе явления интерференции при групповом движении.

  2. Расчет трехмерных нестационарных течений вязкого сжимаемого газа.

  3. Расчеты течений с локальными тепловыми неоднородностями в потоке.

  4. Разработка квантовой статистики моделей поведения вещества при экстремальных условиях.

  5. Расчеты структурообразования биологических макромолекул.

  6. Моделирование динамики молекулярных и биомолекулярных систем.

  7. Решение задач линейных дифференциальных игр. Динамические задачи конфликтов управления.

  8. Решение задач механики деформируемых твердых тел, в том числе с учетом процессов разрушения.

Программное обеспечение, установленное на вычислительных системах, по сути, минимально по своему объему: трансляторы с языков FORTRAN и С (С++); дополнительные средства описания параллельных процессов; программные средства PVM и MPI; средства реализации многопользовательских режимов и удаленного доступа.

Межведомственный суперкомпьютерный центр (МСЦ) был открыт 5 ноября 1999 года. В нем в качестве основной машины была установлена 16-процессорная система фирмы HP V2250 производительностью 15 Гопер/с. Параллельно с этой системой в МСЦ работал также 96-процессорный вариант отечественной системы МВС-1000. Суммарная производительность всех систем центра достигала 230 Гопер/с (2,3х1011).




МВС-100

Подход, который используется при создании отечественных суперкомпьютеров, состоит из закупки новейших комплектующих изделий, создания на этой основе суперкомпьютерных систем, их интеграции в информационно-вычислительные сети и необходимых усилий в области применения, т.е. в разработке прикладных программ и методов математического моделирования. Такая концепция реализована в мультипроцессорной вычислительной системе МВС-100.
МВС-100 — это отечественная мультипроцессорная система второго поколения. В настоящее время она заменяется на МВС-1000. Система поставляется в виде типовых конструктивных модулей по 32, 64 и 128 процессоров. Число процессоров в модулях и число модулей может варьироваться. Для основной обработки применяются микропроцессоры Intel 860 с производительностью до 100 МФлоп (64 разряда при двойной точности) и присоединенной оперативной памятью, изменяемой от 8 до 32 Мбайт. Для межпроцессорного обмена в каждом узле используется транспьютер, работающий с той же оперативной памятью, а также памятью внешнего обмена объемом 2-8 Мбайт. Общая пропускная способность 4 транспьютерных каналов для внешнего обмена — 20 Мбайт/с. Система МВС-100 эксплуатируется в ряде институтов РАН и промышленности. Установки МВС-100 с суммарной производительностью более 50 Гопер/с эксплуатируются в вычислительных центрах РАН (в Москве, Екатеринбурге, Новосибирске, Владивостоке) и в отраслевых ВЦ. Показана возможность эффективного распараллеливания вычислений и обработки данных.

МВС-1000 — система третьего поколения, основанная на использовании микропроцессоров Alpha 21164 (разработка компании DEC-Compaq; выпускается также заводами фирм Intel и Samsung) с производительностью до 1-2 Гопер/с и присоединенной оперативной памятью объемом 0,1-2 Гбайт. Система МВС-1000 с производительностью до 1 Tфлоп состоит из 8 стоек (512 узлов).
В основном исполнении системы межпроцессорный обмен структурно аналогичен используемому в системе МВС-100 и реализуется в двух модификациях: на базе «транспьютероподобного» связного микропроцессора TMS320C44 (фирма Texas Instruments), имеющего 4 канала с пропускной способностью каждого в 20 Мбайт/с, либо на базе связного микропроцессора SHARC ADSP 21060 (фирма Analog Devices), имеющего 6 внешних каналов с пропускной способностью каждого 40 Мбайт/с.

Исполнение МВС-1000К отличается использованием для межпроцессорного обмена коммутационной сети MYRINET (фирма Myricom, США) с пропускной способностью канала в дуплексном режиме 2x160 Мбайт/с. Кроме того, предусмотрено подключение к каждому процессору памяти на жестком диске с объемом 2-9 Гбайт. В стандартной стойке располагается до 64 процессоров системы МВС-1000 или 24 процессора системы МВС-1000К. Предусмотрены средства системного объединения стоек для установок с большим числом процессоров.
Процессорные узлы связаны между собой по схеме, сходной с топологией двухмерного тора (для 4-линковых узлов). Конструктивным образованием МВС-1000 является базовый вычислительный блок, содержащий 32 вычислительных модуля.
Для управления массивом процессоров и внешними устройствами, а также для доступа к системе извне используется так называемый хост-компьютер (управляющая машина). Обычно это рабочая станция AlphaStation с процессором Alpha и операционной системой Digital Unix (Tru64 Unix) или ПК на базе Intel с операционной системой Linux.
Начиная с 1999 года, все вновь выпускаемые МВС-1000 строятся как кластеры выделенных рабочих станций. Это означает, что, в отличие от ранних версий МВС-1000, в качестве вычислительного модуля используются не специализированные ЭВМ, предназначенные только для применения в качестве деталей суперкомпьютерной установки, а обычные персональные компьютеры. В качестве коммуникационной аппаратуры используются обычные сетевые платы и коммутаторы, применяемые для построения офисных локальных сетей.
В качестве базовой ОС узла используется Linux, что фактически является общепринятым мировым стандартом для построения систем такого класса. Это позволило многократно расширить и упростить, по сравнению с ранними версиями МВС-1000, адаптацию разнообразного программного обеспечения, как свободно распространяемого, так и коммерческого.
Разработчики МВС-1000 предлагают пользователям набор единых архитектурных решений, охватывающий три класса параллельных вычислительных систем: 

  • большие и сверхбольшие системы, состоящие из сотен узлов. Примером такой системы может служить МВС-1000М, эксплуатирующаяся в настоящее время в Межведомственном суперкомпьютерном центре РФ;

  • средние и малые системы, поставляемые по заказу. В настоящее время серийно выпускаются МВС-1000/16 и МВС-1000/32, из 16 и 32 процессоров, соответственно. В ИПМ РАН в настоящее время в регулярной эксплуатации находится одна установка МВС-1000/16. Кроме того, аналогичные системы успешно эксплуатируются в целом ряде научных центров страны;

  • виртуальные параллельные системы на базе офисной локальной сети. Для освоения и изучения параллельных технологий, а также для постоянной эксплуатации в условиях острого дефицита финансовых средств, предлагается программное обеспечение, позволяющее организовать полноценную параллельную систему на базе оборудования вузовского компьютерного класса, или аналогичной офисной локальной сети. При этом с точки зрения пользователя система не только не отличается от «настоящей» по способу работы, но и позволяет получать очевидный выигрыш в скорости при выполнении реальных программ. В отличие от реализованных аппаратно суперкомпьютеров МВС-1000, такой полностью виртуальный суперкомпьютер называется МВС-900.



ВС с распределенной памятью компании Sequent
Sequent
В 1999 году компьютерные корпорации IBM и Sequent объявили о своем слиянии, и в июле того же года Sequent фактически стала подразделением IBM. После этого IBM остановила значительное обновление линии серверов NUMA Q, выпускавшихся Sequent.

Рис. Sequent
Sequent являлся поставщиком масштабируемых NUMA-серверов (серии NUMA-Q 1000 и NUMA-Q 2000), включающих до 64 процессоров Intel и предназначенных в основном для коммерческих систем онлайновой обработки транзакций и поддержки СУБД.

Кроме того, NUMA-технологии, разработанные специалистами Sequent, используются и в серверах от IBM. Разработчики IBM утверждают, что NUMA станет определяющей технологией для UNIX- и NT-серверов уже в начале 21 века.
Sequent была, по-видимому, второй после IBM компанией, осуществившей поставки UNIX-кластеров баз данных в середине 1993 года. Она предлагала решения, соответствующие среднему и высокому уровню готовности своих систем. Первоначально Sequent Hi-Av Systems обеспечивали дублирование систем, которые разделяли общие диски. Пользователи могли выбирать ручной или автоматический режим переключения на резерв в случае отказа. Hi-Av Systems обеспечивает также горячее резервирование IP-адресов и позволяет кластеру, в состав которого входит до четырех узлов, иметь единственный сетевой адрес.
Компания Sequent одной из первых освоила технологию Fast-Wide SCSI, что позволило ей добиться значительного увеличения производительности систем при обработке транзакций. Компания поддерживает дисковые подсистемы RAID уровней 1, 3 и 5. Кроме того, она предлагает в качестве разделяемого ресурса ленточные накопители SCSI. Модель SE90 поддерживает кластеры, в состав которых могут входить два, три или четыре узла, представляющих собой многопроцессорные системы Symmetry 2000 или Symmetry 5000 в любой комбинации. Это достаточно мощные системы. Например, Sequent Symmetry 5000 Series 790 может иметь от 2 до 30 процессоров Pentium 66 МГц, оперативную память емкостью до 2 Гбайт и дисковую память емкостью до 840 Гбайт.

При работе с Oracle Parallel Server все узлы кластера работают с единственной копией базы данных, расположенной на общих разделяемых дисках.


Кластеры и массивно-параллельные системы различных производителей. Современные суперкомпьютеры: Hitachi SR8000, Серия Fujitsu VPP5000, Cray T3E-1200, ASCI White

Серия Hitachi SR8000
Серия SR8000 или Супертехнический сервер была разработана для численного моделирования сложных научно-технических задач (структурный анализ, динамика жидкости, предсказание погоды и т.п.). Серия объединяет возможности как векторного суперкомпьютера S-3000, так и параллельного компьютера SR2201.
Высокопроизводительный 64-разрядный RISC-микропроцессор разработан и создан Hitachi с использованием CMOS-технологии 0,14 микрометровой длины логических элементов. Для максимальной эффективности микропроцессоров на крупномасштабных задачах используются возможности псевдовекторной обработки. Это позволяет данным выбираться из оперативной памяти конвейерным способом без задержки сменяемых процессов. В результате данные подаются из памяти в арифметические устройства также эффективно, как в суперкомпьютере векторного типа.

Выпускаются модели SR8000 и SR8000 E1/F1/G1.
Для 144-узловой конфигурации модели G1 (450 МГц) при решении полной системы линейных уравнений размерностью 141000 была достигнута скорость в 1709 Гфлоп/ (теоретически возможная - 2074 Гфлоп/с), что дало эффективность 63%. На 112-узловой модели F1 (375 МГц) достигнута скорость в 1035 Гфлоп/с из 1344 Гфлоп/с (эффективность — 77%). На отдельном узле при решении полной линейной системы и симметричной задачи на собственные значения (порядок 5000) процессорные скорости были выше 6,2 и 4,1 Гфлоп/с, соответственно.

Серия VPP5000 является преемником прежних систем VPP700/VPP700E (последняя система имеет тактовый цикл 6,6 нс вместо 7 нс). Глобальные изменения в архитектуре относительно серий VPP700 малы. Тактовый цикл был уменьшен наполовину. Архитектура узлов VPP5000 почти идентична узлам VPP700. Каждый узел в системе, называемый процессорным элементом (ПЭ), является мощным векторным процессором (9,6 Гфлоп/с пиковой скорости и тактовый цикл 3,3 нс). Векторный процессор дополнен RISC-скалярным процессором с пиковой скоростью 1,2 Гфлоп/с. Формат скалярных команд имеет 64 разряда и может выполнять до 4 операций параллельно. Каждый ПЭ имеет память до 16 Гбайт и каждый ПЭ непосредственно соединяется с другими ПЭ со скоростью передачи 1,6 Гбайт/с.
VPP5000U — это однопроцессорная машина без сети и расширений передачи данных, которые требуются для VPP5000.
Скалярное устройство поддерживает RISC-архитектуру «очень длинного командного слова» (VLIW — Very Long Instruction Word), одновременно выполняя до 4 команд за один тактовый цикл. Высокая скалярная производительность достигается посредством как первого и второго кэшей, так и асинхронного выполнения обращения к памяти, команд с плавающей запятой и векторных команд.
Векторное устройство состоит из 4 конвейеров, векторного регистра и регистра маски (mask register) со скоростью векторных операций до 9,6 Гфлоп/ПЭ. Конвейер квадратного корня увеличивает производительность в операциях, включая квадратные корни. Векторные операции выполняются со скоростью 2,4 Гфлоп.
Все ПЭ соединяются через высокоскоростную сеть с поперечной коммутацией. Особое устройство связи между ПЭ, называемое DTU (Data transfer unit), делает возможным одновременное выполнение соединений между процессорами и вычисления. Это позволяет выполнять передачу и прием данных со скоростью 615 Мбайт/с в каждом направлении, в то время как ПЭ выполняют вычисления.
Система VPP5000 имеет дополнительные возможности для операций с плавающей запятой расширенной точности и непрямого доступа к памяти, возникающего в различных вычислительных алгоритмах.
Компоненты ПЭ являются высокопроизводительными энергосберегающими CMOS (complementary metal oxide semiconductor) LSI-микросхемами, произведенными по 0,22 мк технологии и содержащими до 33 миллионов транзисторов каждая, со временем вентильной задержки (gate delay time) в 24 пикосекунды. Для оперативной памяти используется 128-разрядная SDRAM (synchronous dynamic RAM) со временем произвольного доступа в 45 наносекунд.
Проведенные тесты показали, что для системы из 32-х процессоров при решении полной линейной системы порядка 170 880 скорость составила 296,1 Гфлоп/с (эффективность — 96%). Для отдельного процессора скорость в 6,04 Гфлоп/с была достигнута при решении системы порядка 2 000. При вычислении многочлена 10-го порядка была определена скорость в 8,68 Гфлоп/с (эффективность — более 90%).
Основные технические характеристики:

  • Год выпуска — ноябрь 1999.

  • 9,6 Гфлоп векторной производительности на ПЭ.

  • 1,2 Гфлоп скалярной производительности.

  • Масштабируется от 1 до 128 ПЭ (512 ПЭ для особого размещения) и достигает пиковой производительности 1,228 Тфлоп.

  • 4, 8 или 16 Гбайт оперативной памяти SDRAM на ПЭ (максимум 2 Tбайта на систему).

  • 76,8 Гбайт/с пропускная способность памяти (memory transfer bandwidth) на ПЭ.

  • 64-разрядная архитектура.

  • операционная система UXP/V Unix System V Release 4.


Спецификации системы VPP5000/U:

  • Число процессоров: 1.

  • Теоретическая пиковая производительность: 9,6 Гфлоп.

  • Оперативная память: 4-16 Гбайт.


Спецификации системы VPP5000:

  • Число процессоров: от 4 до 128 (512 ПЭ для особого размещения).

  • Теоретическая пиковая производительность: от 38,4 Гфлоп до 1,229 Тфлоп (4,915 Тфлоп для 512 ПЭ).

  • Оперативная память: от 16 Гбайт до 2 048 Тбайт (8 192 Тбайт для 512 ПЭ).

  • Пропускная способность шины: 1,6 Гбайт/с/ПЭ.


Современные суперкомпьютеры — Cray T3E-1200.

Системы Cray T3E — это масштабируемые параллельные системы, которые используют DECchip 21164 (DEC Alpha EV5) RISK-процессоры с пиковой производительностью 600 Мфлоп и 21164А для машин Cray T3E-900 и Cray T3E-1200. Каждый процессорный элемент (ПЭ) Cray T3E имеет свою собственную DRAM-память объемом от 64 Мбайт до 2 Гбайт. В отличие от системы CRAY T3D, в которой исполняемая задача запрашивает фиксированное количество процессоров на все время выполнения, в CRAY T3E свободные процессоры могут использоваться другими задачами. Модели T3E, T3E-900, T3E-1200, Т3Е-1350.
Каждый узел в системе содержит один процессорный элемент (ПЭ), включающий процессор, память и средство коммутации, которое осуществляет связь между ПЭ. Система конфигурируется до 2048 процессоров. Пиковая производительность составляет 2,4 Тфлоп. Разделяемая, высокопроизводительная, глобально адресуемая подсистема памяти делает возможным обращение к локальной памяти каждого ПЭ в Cray T3E. Процессорные элементы в системе Cray T3E связаны в трехмерный тор двунаправленной высокоскоростной сетью с малым временем задержки, которая в шесть раз превосходит по скорости аналогичную сеть в Cray T3D. Также добавлена адаптивная маршрутизация, при которой возможен обход участков с высокой эффективностью передачи.
Системы Cray T3E выполняют операции ввода/вывода через многочисленные порты на один или более каналов GigaRing. Каналы ввода/вывода интегрированы в трехмерную межузловую сеть и пропорциональны размеру системы. При этом при добавлении ПЭ пропускная способность каналов ввода/вывода увеличивается, и масштабируемые приложения могут выполняться на системах с большим числом процессоров также эффективно, как на системах с меньшим числом процессоров.
Для Cray T3E была создана масштабируемая версия операционной системы ОС UNICOS — ОС UNICOS/mk. Операционная система UNICOS/mk разделена на программы-серверы, распределенные среди процессоров Cray T3E. Это позволяет управлять набором ресурсов системы как единым целым. Локальные серверы обрабатывают запросы ОС, специфичные для каждого ПЭ. Глобальные серверы обеспечивают общесистемные возможности, такие как управление процессами и файловые операции.
В добавлении к пользовательским ПЭ, которые выполняют приложения и команды, системы Cray T3E включают специальные системные ПЭ, которые выполняют глобальные серверы UNICOS/mk. Так как глобальные серверы расположены на системных ПЭ и не дублируются по всей системе, UNICOS/mk эффективно масштабируема, полнофункциональна и обслуживает от десятков до тысячи ПЭ с минимальной перегрузкой. 
UNICOS/mk обеспечивает следующие программные функции:

  • Распределение серверов управления файлами. Функции файлового сервера распределяются, используя локальные файловые программы-сервера, для обеспечения максимальной производительности и эффективности.

  • ПЭ может генерировать не только последовательную, но и параллельную передачу данных, используя некоторые или даже все ПЭ данной программы.

  • Множество глобальных файловых серверов: система управления файлами распределена на множество системных ПЭ, которые позволяют полностью использовать параллельные дисковые каналы, поддерживаемые на Cray T3E.


Система T3E-1200

Быстродействие серии Cray T3E-1200 в два раза превышает производительность систем Cray T3E при уменьшенной вдвое стоимости за Мфлоп. Конфигурации в воздушно-жидкостном охлаждении имеют от 6 процессоров, а в жидкостном — от 32 процессоров. Каждый процессор имеет производительность в 1,2 Гфлоп; для всей системы пиковая производительность меняется от 7,2 Гфлоп до 2,5 Тфлоп. Масштабируется до тысяч процессоров. Серия выпущена в 1997 году.
Система предназначена для наиболее важных научных и технических задач в аэрокосмической, автомобильной, финансовой, химико-фармацевтической, нефтяной и т.д. отраслях промышленности, а также в широких областях прикладных исследований, включая химию, гидродинамику, предсказание погоды и сейсмические процессы.
Для поддержки масштабируемости используется оперативная система UNICOS/mk —масштабируемая версия UNICOSR. Системы T3E-1200 поддерживают как явное распараллеливание распределенной памяти посредством CF90 и C/C++ с передачей сообщений (MPI, MPI-2 и PVM) и передачу данных, так и неявное распараллеливание посредством возможностей HPF и Cray CRAFT.
На системах Т3Е каждый интерфейс GigaRing имеет максимальную пропускную способность в 500 Мбайт/с.
В дополнение к высокой производительности и пропускной способности процессорных элементов и высокой масштабируемости, системы Cray T3E-1200 имеют две уникальные особенности: STREAMS и E-Регистры. STREAMS доводят до максимума пропускную способность локальной памяти, позволяя микропроцессору запускать при полной скорости для ссылки на вектороподобные данные. Е-Регистры предоставляют операции gather/scatter (соединение/вразброс) для ссылок на локальную и удаленную память и используют полную пропускную способность внутреннего соединения для удаленного чтения и записи отдельного слова.
Оценка производительности вычислительной системы производилась при решении плотной линейной системы уравнений порядка 148800 на машине Т3Е-1200 с 1200 процессорами. Была достигнута скорость в 1,127 Тфлоп/с, что составляет 63% эффективности.
1   2   3   4   5   6   7   8   9   10   11

Похожие:

Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна iconВыпускной вечер 2004г
Владимир Жириновский, Ирина Хакамада и Владимир Владимирович Путин с супругой …не приехали. Но только сегодня и только для вас у...
Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна iconПрокопьев Валерий Викторович Методист: Гончаров Владимир Борисович...
Образовательная – дать преставление о составе программного обеспечения компьютера
Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна iconРеферат
Вячеслав Геннадьевич, Богославский Дмитрий Дмитриевич, Бодягин Владимир Михайлович, Бодягин Андрей Владимирович, Волков Сергей Денисович,...
Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна iconК статьям журнала «Компьютерная оптика»
Юрий Владимирович Микляев3 (доцент, e-mail: ), Владимир Евгеньевич Дмитриенко4 (ведущий научный сотрудник, e-mail: ), Владимир Сергеевич...
Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна iconПрезидентская программа подготовки управленческих кадров для организаций...
Авторский коллектив: Владилен Быстров, Александр Кобышев, Евгений Кобышев, Александр Козлов, Владимир Лысков-Штреве
Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна iconУрок на тему: «Ансамблевое музицирование в классе баяна, аккордеона»
Проводит лауреат Международных конкурсов, преподаватель рам им. Гнесиных селиванов александр Владимирович
Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна iconДиректор школы: Передвигин Владимир Владимирович
Приоритетные цели и задачи развития школы, деятельность по их решению в отчетный период 20
Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна iconПрограмма дисциплины Безопасность жизнедеятельности для направления...
Автор программы: к т н., доцент кафедры физического воспитания Полшков Александр Владимирович
Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна iconОбщественного объединения «белорусский республиканский союз молодежи»...
Координатор конференции – Председатель Совета молодых ученых нан беларуси Казбанов Владимир Владимирович
Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна iconКомаров владимир борисович (10. 05. 1890 08. 10. 1971) Комаров Владимир...
Цели и задачи дисциплины: Дать студентам представление о принципах формирования компьютерного изображения, работы с фото и видео...
Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна iconУрок физики в 7 классе по теме «Давление газов, жидкостей и твердых тел»
Разработал учитель физики мбоу «Ладомировская сош» Ломакин Александр Владимирович
Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна iconБоб Фьюсел Александр Владимирович Лихач Супермозг. Тренинг памяти, внимания и речи
...
Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна iconВладимира Владимировича Набокова 1899-1977
Набо́ков владимир Владимирович (12 (24) апреля 1899, Петербург — 3 июля 1977, Монтре, Швейцария), русский и американский писатель;...
Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна iconАлександр Александрович Бушков Владимир Путин. Полковник, ставший капитаном
I. порядок применения правил землепользования и застройки городского округа лыткарино и внесения в них изменений
Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна iconТема: Разработка автоматизированного программного комплекса управления...
Омский институт водного транспорта (филиал) фбоу впо «Новосибирская государственная академия водного транспорта»
Архитектуры многопроцессорных вычислительных систем Авторы: Богданов Александр Владимирович Дегтярев Александр Борисович Корхов Владимир Владиславович Мареев Владимир Владимирович Станкова Елена Николаевна iconПрограмма по формированию навыков безопасного поведения на дорогах...
Аббакумов Сергей, Чехлов Александр, Шайдуров Владимир, мбоу инженерный лицей нгту, г. Новосибирск


Школьные материалы


При копировании материала укажите ссылку © 2013
контакты
100-bal.ru
Поиск