Московский Государственный Инженерно-Физический Институт
(Технический Университет)
Студентa гр.
Преподаватель Фисун В.А.
Москва 1998
Классификация систем параллельной обработки данных
На протяжении всей истории развития вычислительной техники делались попытки найти какую-то общую классификацию, под которую подпадали бы все возможные направления развития компьютерных архитектур. Ни одна из таких классификаций не могла охватить все разнообразие разрабатываемых архитектурных решений и не выдерживала испытания временем. Тем не менее в научный оборот попали и широко используются ряд терминов, которые полезно знать не только разработчикам, но и пользователям компьютеров.
Любая вычислительная система (будь то супер-ЭВМ или персональный компьютер) достигает своей наивысшей производительности благодаря использованию высокоскоростных элементов и параллельному выполнению большого числа операций. Именно возможность параллельной работы различных устройств системы (работы с перекрытием) является основой ускорения основных операций.
Параллельные ЭВМ часто подразделяются по классификации Флинна на
машины типа SIMD (Single Instruction Multiple Data - с одним потоком команд
при множественном потоке данных) и MIMD (Multiple Instruction Multiple Data
- с множественным потоком команд при множественном потоке данных). Как и
любая другая, приведенная выше классификация несовершенна: существуют
машины прямо в нее не попадающие, имеются также важные признаки, которые в
этой классификации не учтены. В частности, к машинам типа SIMD часто
относят векторные процессоры, хотя их высокая производительность зависит от
другой формы параллелизма - конвейерной организации машины.
Многопроцессорные векторные системы, типа Cray Y-MP, состоят из нескольких
векторных процессоров и поэтому могут быть названы MSIMD (Multiple SIMD).
Классификация Флинна не делает различия по другим важным для вычислительных моделей характеристикам, например, по уровню "зернистости" параллельных вычислений и методам синхронизации.
Можно выделить четыре основных типа архитектуры систем параллельной
обработки:
1) Конвейерная и векторная обработка.
Основу конвейерной обработки составляет раздельное выполнение некоторой операции в несколько этапов (за несколько ступеней) с передачей данных одного этапа следующему. Производительность при этом возрастает благодаря тому, что одновременно на различных ступенях конвейера выполняются несколько операций. Конвейеризация эффективна только тогда, когда загрузка конвейера близка к полной, а скорость подачи новых операндов соответствует максимальной производительности конвейера. Если происходит задержка, то параллельно будет выполняться меньше операций и суммарная производительность снизится. Векторные операции обеспечивают идеальную возможность полной загрузки вычислительного конвейера.
При выполнении векторной команды одна и та же операция применяется ко
всем элементам вектора (или чаще всего к соответствующим элементам пары
векторов). Для настройки конвейера на выполнение конкретной операции может
потребоваться некоторое установочное время, однако затем операнды могут
поступать в конвейер с максимальной скоростью, допускаемой возможностями
памяти. При этом не возникает пауз ни в связи с выборкой новой команды, ни
в связи с определением ветви вычислений при условном переходе. Таким
образом, главный принцип вычислений на векторной машине состоит в
выполнении некоторой элементарной операции или комбинации из нескольких
элементарных операций, которые должны повторно применяться к некоторому
блоку данных. Таким операциям в исходной программе соответствуют небольшие
компактные циклы.
2) Машины типа SIMD.
SIMD компьютер имеет N идентичных процессоров, N потоков данных и один
поток команд. Каждый процессор обладает собственной локальной памятью.
Процессоры интерпретируют адреса данных либо как локальные адреса
собственной памяти, либо как глобальные адреса, возможно, модифицированные
добавлением локального базового адреса. Процессоры получают команды от
одного центрального контроллера команд и работают синхронно, то есть на
каждом шаге все процессоры выполняют одну и ту же команду над данными из
собственной локальной памяти.
Машины типа SIMD состоят из большого числа идентичных процессорных
элементов, имеющих собственную память. Все процессорные элементы в такой
машине выполняют одну и ту же программу. Очевидно, что такая машина,
составленная из большого числа процессоров, может обеспечить очень высокую
производительность только на тех задачах, при решении которых все
процессоры могут делать одну и ту же работу. Модель вычислений для машины
SIMD очень похожа на модель вычислений для векторного процессора: одиночная
операция выполняется над большим блоком данных.
Такая архитектура с распределенной памятью часто упоминается как архитектура с параллелизмом данных(data-parallel), так как параллельность достигается при наличии одиночного потока команд, действующего одновременно на несколько частей данных. Сеть, соединяющая процессоры, обычно имеет регулярную топологию такую как кольцо SLAP:
Сеть с топологией кольцо
В отличие от ограниченного конвейерного функционирования векторного процессора, матричный процессор (синоним для большинства SIMD-машин) может быть значительно более гибким. Обрабатывающие элементы таких процессоров - это универсальные программируемые ЭВМ, так что задача, решаемая параллельно, может быть достаточно сложной и содержать ветвления. Обычное проявление этой вычислительной модели в исходной программе примерно такое же, как и в случае векторных операций: циклы на элементах массива, в которых значения, вырабатываемые на одной итерации цикла, не используются на другой итерации цикла.
Модели вычислений на векторных и матричных ЭВМ настолько схожи, что
эти ЭВМ часто обсуждаются как эквивалентные.
3) Машины типа MIMD.
MIMD компьютер имеет N процессоров, независимо исполняющих N потоков команд и обрабатывающих N потоков данных. Каждый процессор функционирует под управлением собственного потока команд, то есть MIMD компьютер может параллельно выполнять совершенно разные программы.
MIMD архитектуры далее классифицируются в зависимости от физической
организации памяти, то есть имеет ли процессор свою собственную локальную
память и обращается к другим блокам памяти, используя коммутирующую сеть,
или коммутирующая сеть подсоединяет все процессоры к общедоступной памяти.
Исходя из организации памяти, различают следующие типы параллельных
архитектур:
• Компьютеры с распределенной памятью (Distributed memory)
Процессор может обращаться к локальной памяти, может посылать и получать
сообщения, передаваемые по сети, соединяющей процессоры. Сообщения
используются для осуществления связи между процессорами или, что
эквивалентно, для чтения и записи удаленных блоков памяти. В
идеализированной сети стоимость посылки сообщения между двумя узлами сети
не зависит как от расположения обоих узлов, так и от трафика сети, но
зависит от длины сообщения.
• Компьютеры с общей (разделяемой) памятью (True shared memory)
Все процессоры совместно обращаются к общей памяти, обычно, через шину или
иерархию шин. В идеализированной PRAM (Parallel Random Access Machine -
параллельная машина с произвольным доступом) модели, часто используемой в
теоретических исследованиях параллельных алгоритмов, любой процессор может
обращаться к любой ячейке памяти за одно и то же время. На практике
масштабируемость этой архитектуры обычно приводит к некоторой форме
иерархии памяти. Частота обращений к общей памяти может быть уменьшена за
счет сохранения копий часто используемых данных в кэш-памяти, связанной с
каждым процессором. Доступ к этому кэш-памяти намного быстрее, чем
непосредственно доступ к общей памяти.
• Компьютеры с виртуальной общей (разделяемой) памятью (Virtual shared
memory)
Общая память как таковая отсутствует. Каждый процессор имеет собственную локальную память и может обращаться к локальной памяти других процессоров, используя "глобальный адрес". Если "глобальный адрес" указывает не на локальную память, то доступ к памяти реализуется с помощью сообщений, пересылаемых по коммуникационной сети.
MIMD архитектуры с распределенной памятью можно так же классифицировать по пропускной способности коммутирующей сети. Например, в архитектуре, в которой пары из процессора и модуля памяти (процессорный элемент) соединены сетью с топологий решетка, каждый процессор имеет одно и то же число подключений к сети вне зависимости от числа процессоров компьютера. Общая пропускная способность такой сети растет линейно относительно числа процессоров. В топологии клика каждый процессор должен быть соединен со всеми другими процессорами. С другой стороны в архитектуре, имеющей сеть с топологий гиперкуб, число соединений процессора с сетью является логарифмической функцией от числа процессоров, а пропускная способность сети растет быстрее, чем линейно по отношению к числу процессоров.
Сеть с топологией 2D решетка(тор)
Сеть с топологией 2D гиперкуб (тор)
.
Термин "мультипроцессор" покрывает большинство машин типа MIMD и
(подобно тому, как термин "матричный процессор" применяется к машинам типа
SIMD) часто используется в качестве синонима для машин типа MIMD. В
мультипроцессорной системе каждый процессорный элемент (ПЭ) выполняет свою
программу достаточно независимо от других процессорных элементов.
Процессорные элементы, конечно, должны как-то связываться друг с другом,
что делает необходимым более подробную классификацию машин типа MIMD. В
мультипроцессорах с общей памятью (сильносвязанных мультипроцессорах)
имеется память данных и команд, доступная всем ПЭ. С общей памятью ПЭ
связываются с помощью общей шины или сети обмена. В противоположность этому
варианту в слабосвязанных многопроцессорных системах (машинах с локальной
памятью) вся память делится между процессорными элементами и каждый блок
памяти доступен только связанному с ним процессору. Сеть обмена связывает
процессорные элементы друг с другом.
Базовой моделью вычислений на MIMD-мультипроцессоре является
совокупность независимых процессов, эпизодически обращающихся к разделяемым
данным. Существует большое количество вариантов этой модели. На одном конце
спектра - модель распределенных вычислений, в которой программа делится на
довольно большое число параллельных задач, состоящих из множества
подпрограмм. На другом конце спектра - модель потоковых вычислений, в
которых каждая операция в программе может рассматриваться как отдельный
процесс. Такая операция ждет своих входных данных (операндов), которые
должны быть переданы ей другими процессами. По их получении операция
выполняется, и полученное значение передается тем процессам, которые в нем
нуждаются. В потоковых моделях вычислений с большим и средним уровнем
гранулярности, процессы содержат большое число операций и выполняются в
потоковой манере.
4) Многопроцессорные машины с SIMD-процессорами.
Многие современные супер-ЭВМ представляют собой многопроцессорные системы, в которых в качестве процессоров используются векторные процессоры или процессоры типа SIMD. Такие машины относятся к машинам класса MSIMD.
Языки программирования и соответствующие компиляторы для машин типа
MSIMD обычно обеспечивают языковые конструкции, которые позволяют
программисту описывать "крупнозернистый" параллелизм. В пределах каждой
задачи компилятор автоматически векторизует подходящие циклы. Машины типа
MSIMD, как можно себе представить, дают возможность использовать лучший из
этих двух принципов декомпозиции: векторные операции ("мелкозернистый"
параллелизм) для тех частей программы, которые подходят для этого, и гибкие
возможности MIMD-архитектуры для других частей программы.
Многопроцессорные системы за годы развития вычислительной техники претерпели ряд этапов своего развития. Исторически первой стала осваиваться технология SIMD. Однако в настоящее время наметился устойчивый интерес к архитектурам MIMD. Этот интерес главным образом определяется двумя факторами:
1.Архитектура MIMD дает большую гибкость: при наличии адекватной поддержки со стороны аппаратных средств и программного обеспечения MIMD может работать как однопользовательская система, обеспечивая высокопроизводительную обработку данных для одной прикладной задачи, как многопрограммная машина, выполняющая множество задач параллельно, и как некоторая комбинация этих возможностей.
2.Архитектура MIMD может использовать все преимущества современной микропроцессорной технологии на основе строгого учета соотношения стоимость/производительность. В действительности практически все современные многопроцессорные системы строятся на тех же микропроцессорах, которые можно найти в персональных компьютерах, рабочих станциях и небольших однопроцессорных серверах.
Одной из отличительных особенностей многопроцессорной вычислительной системы является сеть обмена, с помощью которой процессоры соединяются друг с другом или с памятью. Модель обмена настолько важна для многопроцессорной системы, что многие характеристики производительности и другие оценки выражаются отношением времени обработки к времени обмена, соответствующим решаемым задачам. Существуют две основные модели межпроцессорного обмена: одна основана на передаче сообщений, другая - на использовании общей памяти. В многопроцессорной системе с общей памятью один процессор осуществляет запись в конкретную ячейку, а другой процессор производит считывание из этой ячейки памяти. Чтобы обеспечить согласованность данных и синхронизацию процессов, обмен часто реализуется по принципу взаимно исключающего доступа к общей памяти методом "почтового ящика".
С ростом числа процессоров просто невозможно обойти необходимость реализации модели распределенной памяти с высокоскоростной сетью для связи процессоров. С быстрым ростом производительности процессоров и связанным с этим ужесточением требования увеличения полосы пропускания памяти, масштаб систем (т.е. число процессоров в системе), для которых требуется организация распределенной памяти, уменьшается, также как и уменьшается число процессоров, которые удается поддерживать на одной разделяемой шине и общей памяти.
Распределение памяти между отдельными узлами системы имеет два
главных преимущества. Во-первых, это эффективный с точки зрения стоимости
способ увеличения полосы пропускания памяти, поскольку большинство
обращений могут выполняться параллельно к локальной памяти в каждом узле.
Во-вторых, это уменьшает задержку обращения (время доступа) к локальной
памяти. Эти два преимущества еще больше сокращают количество процессоров,
для которых архитектура с распределенной памятью имеет смысл.
Обычно устройства ввода/вывода, также как и память, распределяются по узлам и в действительности узлы могут состоять из небольшого числа (2-8) процессоров, соединенных между собой другим способом. Хотя такая кластеризация нескольких процессоров с памятью и сетевой интерфейс могут быть достаточно полезными с точки зрения эффективности в стоимостном выражении, это не очень существенно для понимания того, как такая машина работает, поэтому мы пока остановимся на системах с одним процессором на узел. Основная разница в архитектуре, которую следует выделить в машинах с распределенной памятью заключается в том, как осуществляется связь и какова логическая модель памяти.
Литература
[1] ComputerWorld Россия, # 9, 1995.
[2] К.Вильсон, в сб. "Высокоскоростные вычисления". М. Радио и Связь, 1988,
сс.12-48.
[3]. Б.А.Головкин, "Параллельные вычислительные системы". М.. Наука, 1980,
519 с.
[4] Р.Хокни, К.Джессхоуп, "Параллельные ЭВМ . М.. Радио и Связь, 1986, 390
с.
[5] Flynn И.,7., IEEE Trans. Comput., 1972, о.С-21, N9, рр. 948-960.
[6] Russel К.М., Commun. АСМ, 1978, v. 21, # 1, рр. 63-72.
[7] Т.Мотоока, С.Томита, Х.Танака, Т. Сайто, Т.Уэхара, "Компьютеры на
СБИС", m.l. М. Мир, 1988, 388 с.
[8] М.Кузьминский, Процессор РА-8000. Открытые системы, # 5, 1995.
[9] Открытые системы сегодня, # 11, 1995.
[10] ComputerWorld Россия, ## 4, 6, 1995.
[11] ComputerWorld Россия, # 8, 1995.
[12] Открытые системы сегодня, # 9, 1995.
[13] ComputerWorld Россия, # 2, 1995.
[14] ComputerWorld Россия, # 12, 1995.
[15] В. Шнитман, Системы Exemplar SPP1200. Открытые системы, # 6, 1995.
[16] М. Борисов, UNIX-кластеры. Открытые системы, # 2, 1995,
cc.22-28.
[17] В. Шмидт, Системы IBM SP2. Открытые системы, # 6, 1995.
[18] Н. Дубова, Суперкомпьютеры nCube. Открытые системы, # 2, 1995, сс.42-
47.
[19] Д. Французов, Тест оценки производительности суперкомпьютеров.
Открытые системы, # 6, 1995.
[20] Д. Волков, Как оценить рабочую станцию. Открытые системы, # 2, 1994, сc.44-48.
[21] А. Волков, Тесты ТРС. СУБД, # 2, 1995, сс. 70-78.