Ростовский Государственный Университет
Кафедра радиофизики
Реферат на тему:
«Подсистема памяти современных компьютеров»
Студент: Илинич К.А.
Ростов-на-дону
2001 год
Содержание:
1. Иерархическая организация памяти 3
a. Оперативная память 3 b. Дисковая память 3 c. Память на внешних носителях 3 d. Кэш-память 3 e. Организация кэш-памяти 4
I. Размещение блока в кэш-памяти 4
II. Поиск блока, находящегося в кэш-памяти 5
III. Замещение блока кэш-памяти при промахе 5
IV. Что происходит во время записи 6
2. Динамическая память 7
3. Общий принцип доступа к данным 8
4. Традиционная память с асинхронным интерфейсом 9
a. Традиционная память 9 b. Память FPM с быстрым страничным доступом 9 c. Память EDO, расширенный вывод данных 9 d. Память BEDO, пакетная передача данных 9
5. Память с синхронным интерфейсом 10
a. Синхронная динамическая память SDRAM 10 b. Память DDR SDRAM, удвоенная скорость данных 12
6. Организация оперативной памяти 12
a. Банки памяти 12 b. Чередование банков 13 c. Пути увеличение производительности 13
7. Память Rambus DRAM 14
8. Модули памяти 18
9. Виртуальная память и организация защиты памяти 19
a. Концепция виртуальной памяти 19 b. Страничная организация памяти 20 c. Сегментация памяти 21
10. Терминология 22
11. Литература 26
Иерархическая организация памяти
Память компьютера имеет иерархическую структуру, центральным слоем
которой является оперативная память — ОЗУ или RAM (Random Access Memory —
память с произвольным доступом). Оперативная память непосредственно
доступна процессору: в ней хранится исполняемая в данный момент часть
программного кода и данные, к которым процессор может обращаться с помощью
одной из многих команд. Произвольность доступа подразумевает, что процессор
в любой момент может считать или записать любой байт (слово, двойное
слово...) из этой памяти. 32-разрядные процессоры x86 способны адресовать
до 4 Гбайт физической памяти (кроме 386SX, урезанных до 16 Мбайт), а
процессоры P6 (Pentium Pro, Pentium II и старше) в режиме расширения адреса
— до 64 Гбайт. Из этого потенциально доступного пространства именно для
оперативной памяти используется только часть: большинство системных плат
пока ограничивают объем устанавливаемого ОЗУ на уровне 256 Мбайт–1 Гбайт. В
этом же пространстве располагается и постоянная память — ПЗУ, или ROM (Read
Only Memory), которая в обычной работе только читается. В ПЗУ располагается
BIOS (базовая система ввода-вывода) компьютера и некоторые другие элементы.
Следующий уровень в иерархии — дисковая память. В отличие от ОЗУ и ПЗУ, для обращения к любому элементу, хранящемуся в дисковой памяти, процессор должен выполнить некоторую процедуру или подпрограмму, код которой находится в оперативной или постоянной памяти. Дисковая память является блочной — процедура доступа к этой памяти оперирует блоками фиксированной длины (обычно это сектор с размером 512 байт). Процедура доступа способна лишь скопировать целое количество образов блоков из оперативной (или постоянной) памяти на диск или обратно. Дисковая память является основным хранилищем файлов с программами и данными. Кроме того, она используется и для организации виртуальной оперативной памяти: не используемый в данный момент блок информации (страница) из оперативной памяти выгружается на диск, а на его место с диска подкачивается страница, требуемая процессору для работы.
Последняя ступень иерархии — память на внешних носителях, или просто внешняя память. Она, так же, как и дисковая, является хранилищем файлов, и доступ к ней осуществляется поблочно.
Мы перечислили программно-видимую часть “айсберга” памяти — доступную
произвольно или поблочно, прямо или последовательно. Есть еще и “подводная”
часть — кэш-память. Оперативная память по меркам современных процессоров
обладает слишком низким быстродействием, и, обратившись за данными,
процессор вынужден простаивать несколько тактов до готовности данных.
Начиная с процессоров 80386, оперативную память стали кэшировать (эта идея
использовалась и в “древних” больших машинах, где было СОЗУ —
сверхоперативное ЗУ). Идея кэширования ОЗУ заключается в применении
небольшого (по сравнению с ОЗУ) запоминающего устройства — кэш-памяти с
более высоким быстродействием. Небольшого — потому, что по технико-
экономическим причинам большой объем очень быстрой памяти обходится слишком
дорого. В этой памяти хранится копия содержимого части ОЗУ, к которой в
данный момент процессор наиболее интенсивно обращается. Определять, какую
часть содержимого ОЗУ копировать в данный момент времени, должен контроллер
кэша. Он это может делать, исходя из предположения о локальности обращений
к данным и последовательности выборок команд. Кэш-память не дает
дополнительного адресуемого пространства, ее присутствие для программы
незаметно.
Организация кэш-памяти
Концепция кэш-памяти возникла достаточно рано и сегодня кэш-память имеется практически в любом классе компьютеров, а в некоторых компьютерах - во множественном числе.
Типовые значения ключевых параметров для кэш-памяти рабочих станций и серверов - типичный набор параметров, который используется для описания кэш- памяти :
|Размер блока (строки) |4-128 байт |
|Время попадания (hit time) |1-4 такта синхронизации (обычно 1 |
| |такт) |
|Потери при промахе (miss penalty) |8-32 такта синхронизации |
|(Время доступа - access time) |(6-10 тактов синхронизации) |
|(Время пересылки - transfer time) |(2-22 такта синхронизации) |
|Доля промахов (miss rate) |1%-20% |
|Размер кэш-памяти |4 Кбайт - 16 Мбайт |
Рассмотрим организацию кэш-памяти более детально, отвечая на четыре вопроса об иерархии памяти.
Размещение блока в кэш-памяти
Принципы размещения блоков в кэш-памяти определяют три основных типа их организации:
Если каждый блок основной памяти имеет только одно фиксированное место, на котором он может появиться в кэш-памяти, то такая кэш-память называется кэшем с прямым отображением (direct mapped). Это наиболее простая организация кэш-памяти, при которой для отображение адресов блоков основной памяти на адреса кэш-памяти просто используются младшие разряды адреса блока. Таким образом, все блоки основной памяти, имеющие одинаковые младшие разряды в своем адресе, попадают в один блок кэш-памяти, т.е.
(адрес блока кэш-памяти) =
(адрес блока основной памяти) mod (число блоков в кэше)
Если некоторый блок основной памяти может располагаться на любом месте кэш-памяти, то кэш называется полностью ассоциативным (fully associative).
Если некоторый блок основной памяти может располагаться на ограниченном
множестве мест в кэш-памяти, то кэш называется множественно-ассоциативным
(set associative). Обычно множество представляет собой группу из двух или
большего числа блоков в кэше. Если множество состоит из n блоков, то такое
размещение называется множественно-ассоциативным с n каналами (n-way set
associative). Для размещения блока прежде всего необходимо определить
множество. Множество определяется младшими разрядами адреса блока памяти
(индексом):
(адрес множества кэш-памяти) =
(адрес блока основной памяти) mod (число множеств в кэш-памяти)
Далее, блок может размещаться на любом месте данного множества.
Диапазон возможных организаций кэш-памяти очень широк: кэш-память с
прямым отображением есть просто одноканальная множественно-ассоциативная
кэш-память, а полностью ассоциативная кэш-память с m блоками может быть
названа m-канальной множественно-ассоциативной. В современных процессорах
как правило используется либо кэш-память с прямым отображением, либо двух-
(четырех-) канальная множественно-ассоциативная кэш-память.
Поиск блока находящегося в кэш-памяти
У каждого блока в кэш-памяти имеется адресный тег, указывающий, какой блок в основной памяти данный блок кэш-памяти представляет. Эти теги обычно одновременно сравниваются с выработанным процессором адресом блока памяти.
Кроме того, необходим способ определения того, что блок кэш-памяти содержит достоверную или пригодную для использования информацию. Наиболее общим способом решения этой проблемы является добавление к тегу так называемого бита достоверности (valid bit).
Адресация множественно-ассоциативной кэш-памяти осуществляется путем деления адреса, поступающего из процессора, на три части: поле смещения используется для выбора байта внутри блока кэш-памяти, поле индекса определяет номер множества, а поле тега используется для сравнения. Если общий размер кэш-памяти зафиксировать, то увеличение степени ассоциативности приводит к увеличению количества блоков в множестве, при этом уменьшается размер индекса и увеличивается размер тега.
Замещение блока кэш-памяти при промахе
При возникновении промаха, контроллер кэш-памяти должен выбрать подлежащий замещению блок. Польза от использования организации с прямым отображением заключается в том, что аппаратные решения здесь наиболее простые. Выбирать просто нечего: на попадание проверяется только один блок и только этот блок может быть замещен. При полностью ассоциативной или множественно-ассоциативной организации кэш-памяти имеются несколько блоков, из которых надо выбрать кандидата в случае промаха. Как правило для замещения блоков применяются две основных стратегии: случайная и LRU.
В первом случае, чтобы иметь равномерное распределение, блоки-кандидаты выбираются случайно. В некоторых системах, чтобы получить воспроизводимое поведение, которое особенно полезно во время отладки аппаратуры, используют псевдослучайный алгоритм замещения.
Во втором случае, чтобы уменьшить вероятность выбрасывания информации,
которая скоро может потребоваться, все обращения к блокам фиксируются.
Заменяется тот блок, который не использовался дольше всех (LRU - Least-
Recently Used).
Достоинство случайного способа заключается в том, что его проще реализовать в аппаратуре. Когда количество блоков для поддержания трассы увеличивается, алгоритм LRU становится все более дорогим и часто только приближенным.
Различия в долях промахов при использовании алгоритма замещения LRU
и случайного алгоритма (при нескольких размерах кэша и разных ассоциативностях при размере блока 16 байт):
|Ассоциативность: |2-канальная |4-канальная |8-канальная |
|Размер кэш-памяти|LRU, Random |LRU, Random |LRU, Random |
|16 KB |5.18%, 5.69% |4.67%, 5.29% |4.39%, 4.96% |
|64 KB |1.88%, 2.01% |1.54%, 1.66% |1.39%, 1.53% |
|256 KB |1.15%, 1.17% |1.13%, 1.13% |1.12%, 1.12% |
Что происходит во время записи
При обращениях к кэш-памяти на реальных программах преобладают обращения по чтению. Все обращения за командами являются обращениями по чтению и большинство команд не пишут в память. Обычно операции записи составляют менее 10% общего трафика памяти. Желание сделать общий случай более быстрым означает оптимизацию кэш-памяти для выполнения операций чтения, однако при реализации высокопроизводительной обработки данных нельзя пренебрегать и скоростью операций записи.
К счастью, общий случай является и более простым. Блок из кэш-памяти может быть прочитан в то же самое время, когда читается и сравнивается его тег. Таким образом, чтение блока начинается сразу как только становится доступным адрес блока. Если чтение происходит с попаданием, то блок немедленно направляется в процессор. Если же происходит промах, то от заранее считанного блока нет никакой пользы, правда нет и никакого вреда.
Однако при выполнении операции записи ситуация коренным образом меняется. Именно процессор определяет размер записи (обычно от 1 до 8 байтов) и только эта часть блока может быть изменена. В общем случае это подразумевает выполнение над блоком последовательности операций чтение- модификация-запись: чтение оригинала блока, модификацию его части и запись нового значения блока. Более того, модификация блока не может начинаться до тех пор, пока проверяется тег, чтобы убедиться в том, что обращение является попаданием. Поскольку проверка тегов не может выполняться параллельно с другой работой, то операции записи отнимают больше времени, чем операции чтения.
Очень часто организация кэш-памяти в разных машинах отличается именно
стратегией выполнения записи. Когда выполняется запись в кэш-память имеются
две базовые возможности: сквозная запись (write through, store through) - информация
записывается в два места: в блок кэш-памяти и в блок более низкого уровня
памяти. запись с обратным копированием (write back, copy back, store in) -
информация записывается только в блок кэш-памяти. Модифицированный блок кэш-
памяти записывается в основную память только когда он замещается. Для
сокращения частоты копирования блоков при замещении обычно с каждым блоком
кэш-памяти связывается так называемый бит модификации (dirty bit). Этот бит
состояния показывает был ли модифицирован блок, находящийся в кэш-памяти.
Если он не модифицировался, то обратное копирование отменяется, поскольку
более низкий уровень содержит ту же самую информацию, что и кэш-память.
Оба подхода к организации записи имеют свои преимущества и недостатки.
При записи с обратным копированием операции записи выполняются со скоростью
кэш-памяти, и несколько записей в один и тот же блок требуют только одной
записи в память более низкого уровня. Поскольку в этом случае обращения к
основной памяти происходят реже, вообще говоря требуется меньшая полоса
пропускания памяти, что очень привлекательно для мультипроцессорных систем.
При сквозной записи промахи по чтению не влияют на записи в более высокий
уровень, и, кроме того, сквозная запись проще для реализации, чем запись с
обратным копированием. Сквозная запись имеет также преимущество в том, что
основная память имеет наиболее свежую копию данных. Это важно в
мультипроцессорных системах, а также для организации ввода/вывода.
Когда процессор ожидает завершения записи при выполнении сквозной
записи, то говорят, что он приостанавливается для записи (write stall).
Общий прием минимизации остановов по записи связан с использованием буфера
записи (write buffer), который позволяет процессору продолжить выполнение
команд во время обновления содержимого памяти. Следует отметить, что
остановы по записи могут возникать и при наличии буфера записи.
При промахе во время записи имеются две дополнительные возможности: разместить запись в кэш-памяти (write allocate) (называется также
выборкой при записи (fetch on write)). Блок загружается в кэш-память, вслед
за чем выполняются действия аналогичные выполняющимся при выполнении записи
с попаданием. Это похоже на промах при чтении. не размещать запись в кэш-памяти (называется также записью в окружение
(write around)). Блок модифицируется на более низком уровне и не
загружается в кэш-память.
Обычно в кэш-памяти, реализующей запись с обратным копированием, используется размещение записи в кэш-памяти (в надежде, что последующая запись в этот блок будет перехвачена), а в кэш-памяти со сквозной записью размещение записи в кэш-памяти часто не используется (поскольку последующая запись в этот блок все равно пойдет в память).
Вполне понятно, что производительность компьютера непосредственно
зависит от производительности процессора и производительности оперативной
памяти. Теоретическая производительность (пропускная способность) памяти
пропорциональна разрядности и тактовой частоте шины и обратно
пропорциональна суммарной длительности пакетного цикла. Для повышения этой
производительности увеличивают разрядность шины (так, начиная с P5 32-
разрядные процессоры имеют 64-разрядную системную шину), тактовую частоту
(с 66 МГц наконец-то поднялись до 100 с прицелом на 133 МГц). При этом,
естественно, стремятся и к уменьшению числа тактов в пакетном цикле. Кроме
того, шина P6 позволяет процессору выставить до 16 запросов конкурирующих
транзакций, так что у подсистемы памяти есть теоретическая возможность
“многостаночной” работы.
Динамическая память
Теперь посмотрим на оперативную память изнутри. На протяжении уже трех
десятилетий в качестве основной памяти используют массивы ячеек
динамической памяти. Каждая ячейка содержит всего лишь один КМОП-транзистор
(комплементарные полевые траезисторы), благодаря чему достигается высокая
плотность упаковки ячеек при низкой цене. Запоминающим элементом у них
является конденсатор (емкость затвора), и ячейка может помнить свое
состояние недолго — всего десятки миллисекунд. Для длительного хранения
требуется регенерация — регулярное “освежение” (refresh) памяти, за что эта
память и получила название “динамическая” — DRAM (Dynamic RAM). Ячейки
организуются в двумерные матрицы, и для обращения к ячейке требуется
последовательно подать два выбирающих сигнала — RAS# (Row Access Strobe,
строб строки) и CAS# (Column Access Strobe, строб столбца). Временная
диаграмма циклов чтения традиционной динамической памяти приведена на
рисунке (циклы записи для простоты здесь рассматривать не будем).
Микросхемы динамической памяти традиционно имеют мультиплексированную шину
адреса (MA). Во время действия RAS# на ней должен быть адрес строки, во
время действия CAS# — адрес столбца. Информация на выходе шины данных
относительно начала цикла (сигнала RAS#) появится не раньше, чем через
интервал TRAC, который называется временем доступа. Есть также минимальная
задержка данных относительно импульса CAS# (TCAC), и минимально необходимые
интервалы пассивности сигналов RAS# и CAS# (времена предзаряда). Все эти
параметры и определяют предел производительности памяти. Ключевой параметр
микросхем — время доступа — за всю историю удалось улучшить всего на
порядок — с сотен до нескольких десятков наносекунд. За меньший
исторический период только тактовая частота процессоров x86 выросла на 2
порядка, так что разрыв между потребностями процессоров и возможностями
ячеек памяти увеличивается. Для преодоления этого разрыва, во-первых,
увеличивают разрядность данных памяти, а во-вторых, строят вокруг массивов
ячеек памяти разные хитрые оболочки, ускоряющие процесс доступа к данным.
Все, даже “самые модные”, типы памяти — SDRAM, DDR SDRAM и Rambus DRAM
имеют запоминающее ядро, которое обслуживается описанным выше способом.
Временная диаграмма чтения динамической памяти
Общий принцип доступа к данным
Массив данных представляет собой некое подобие координатной сетки, где
есть положения по горизонтали (адрес строки) и по вертикали (адрес
столбца). На пересечении каждого конкретного адреса строки и столбца
находится единичный «строительный элемент» памяти – ячейка, которая
представляет собой ключ (транзистор) и запоминающий элемент (конденсатор).
Например, для чтения или записи одной ячейки памяти необходимо пять тактов.
Сначала на шину выставляется адрес строки. Затем подается сигнал RAS#,
который является своего рода контрольным сигналом, передающим полученный
адрес для записи в специально отведенное место – регистр микросхемы памяти.
После этого передается сигнал столбца, следующим тактом за которым идет
сигнал подтверждения принимаемого адреса, но уже для столбца – CAS#. И,
наконец следует операция чтения-записи в/из ячейки, контролируемая сигналом
разрешения – WE#. Однако, если считываются соседние ячейки, то тогда нет
необходимости передавать каждый раз адрес строки или столбца – процессор
«надеется», что считываемые данные расположены по соседству. Поэтому, на
считывание каждой последующей ячейки понадобится уже 3 такта системной
шины. Отсюда и берут свое начало существование определенных схем
функционирования (тайминги) отдельно взятой разновидности памяти: x-yyy-
yyyy-..., где "x" – количество тактов шины, необходимое для чтение первого
бита, а у – для всех последующих. Так, цикл доступа процессора к памяти
состоит из двух фаз: запроса (Request) и ответа (Response). Фаза запроса
состоит из трех действий: подача адреса, подача запроса (чтения-записи) и
подтверждение (необязательно). В фазу ответа входит выдача запрашиваемых
данных и подтверждение приема. Довольно часто происходит чтение четырех
смежных ячеек, поэтому многие типы памяти специально оптимизированы для
данного режима работы, и в сравнительных характеристиках быстродействия
обычно приводится только количество циклов, необходимое для чтения первых
четырех ячеек. Здесь речь идет о пакетной передаче, которая подразумевает
подачу одного начального адреса и дальнейшую выборку по ячейкам в
установленном порядке. Такого рода передача улучшает скорость доступа к
участкам памяти с заранее определенными последовательными адресами. Обычно
процессор вырабатывает адресные пакеты на четыре передачи данных по шине,
поскольку предполагается, что система автоматически возвратит данные из
указанной ячейки и трех следующих за ней. Преимущество такой схемы очевидно
– на передачу четырех порций данных требуется всего одна фаза запроса.
Например, для памяти типа FPM DRAM применяется самая простая схема 5-333-
3333-... Для памяти типа EDO DRAM после первого считывания блока данных,
увеличивается время доступности данных того ряда, к которому происходит
доступ в настоящий момент, при этом уменьшая время получения пакета данных,
и память уже может работать по схеме 5-222-2222-... Синхронная память типа
SDRAM, в отличие от асинхронной (FPM и EDO), «свободна» от передачи в
процессор сигнала подтверждения, и выдает и принимает данные в строго
определенные моменты времени (только совместно с сигналом синхронизации
системной шины), что исключает несогласованность между отдельными
компонентами, упрощает систему управления и дает возможность перейти на
более «короткую» схему работы: 5-111-1111-... Поэтому в рассматриваемом
пункте меню настройки можно встретить варианты допустимых значений для
циклов обращения к памяти: x333 или x444 – оптимально подходит для FPM
DRAM, x222 или x333 – для EDO DRAM, и x111 или x222 – для SDRAM.
Традиционная память с асинхронным интерфейсом
В традиционной памяти сигналы RAS# и CAS#, обслуживающие запоминающие
ячейки, вводятся непосредственно по соответствующим линиям интерфейса. Вся
последовательность процессов в памяти привязывается именно к этим внешним
сигналам. Данных при чтении будут готовы через время TCAC после сигнала
RAS#, но не раньше, чем через TRAC после сигнала RAS#.
На основе стандартных ячеек строится память с быстрым страничным
доступом — FPM (Fast Page Mode) DRAM. Здесь для доступа к ячейкам,
расположенным в разных колонках одной строки, используется всего один
импульс RAS#, во время которого выполняется серия обращений с помощью
только импульсов CAS#. Нетрудно догадаться, что в пакетных циклах доступа
получается выигрыш во времени (пакеты укладываются в страницы
“естественным” образом). Так, память FPM со временем доступа 60–70 нс при
частоте шины 66 МГц может обеспечить цикл чтения 5-3-3-3.
Следующим шагом стала память EDO (Extended Data Out, расширенный вывод
данных) DRAM. Здесь в микросхемы памяти ввели регистры-защелки, и
считываемые данные присутствуют на выходе даже после подъема CAS#.
Благодаря этому можно сократить время действия CAS# и не дожидаясь, пока
внешняя схема примет данные, приступить к предзаряду линии CAS#. Таким
образом можно ускорить передачу данных внутри пакета и на тех же ячейках
памяти получить цикл 5-2-2-2 (60 нс, 66 МГц). Эффект полученного ускорения
компьютера, полученного довольно простым способом, был эквивалентен
введению вторичного кэша, что и послужило поводом для мифа о том, что “в
EDO встроен кэш”. Страничный цикл для памяти EDO называют и
“гиперстраничным”, так что второе название у этой памяти — HPM (Hyper Page
Mode) DRAM. Регистр-защелка ввел в микросхему памяти элемент конвейера —
импульс CAS# передает данные на эту ступень, а пока внешняя схема считывает
их, линия CAS# готовится к следующему импульсу.
Память BEDO (Burst EDO, пакетная EDO) DRAM ориентирована на пакетную передачу. Здесь полный адрес (со стробами RAS# и CAS#) подается только в начале пакетного цикла; последующие импульсы CAS# адрес не стробируют, а только выводят данные — память уже “знает”, какие следующие адреса потребуются в пакете. Результат — при тех же условиях цикл 5-1-1-1.
Память EDO появилась во времена Pentium и стала применяться также в
системах на 486. Она вытеснила память FPM и даже стала ее дешевле. Память
BEDO широкого распространения не получила, поскольку ей уже “наступала на
пятки” синхронная динамическая память.
Вышеперечисленные типы памяти являются асинхронными по отношению к тактированию системной шины компьютера. Это означает, что все процессы инициируются только импульсами RAS# и CAS#, а завершаются через какой-то определенный (для данных микросхем) интервал. На время этих процессоров шина памяти оказывается занятой, причем, в основном, ожиданием данных.
Память с синхронным интерфейсом — SDRAM и DDR SDRAM
Для вычислительного конвейера, в котором могут параллельно выполняться
несколько процессов и запросов к данным, гораздо удобнее синхронный
интерфейс. В этом случае все события привязываются к фронтам общего сигнала
синхронизации, и система четко “знает”, что, выставив запрос на данные в
таком-то такте, она получит их через определенное число тактов. А между
этими событиями на шину памяти можно выставить и другой запрос, и если он
адресован к свободному банку памяти, начнется скрытая (latency) фаза его
обработки. Таким образом удается повысить производительность подсистемы
памяти и ее шины, причем не за счет безумного увеличения числа проводов
(увеличения разрядности и числа независимых банков, о чем будет сказано
позже).
Микросхемы синхронной динамической памяти SDRAM (Synchronous DRAM) представляет собой конвейеризированные устройства, которые на основе вполне обычных ячеек (время доступа — 50–70 нс) обеспечивают цикл 5-1-1-1, но уже при частоте шины 100 МГц и выше. По составу сигналов интерфейс SDRAM близок к обычной динамической памяти: кроме входов синхронизации, здесь есть мультиплексированная шина адреса, линии RAS#, CAS#, WE (разрешение записи) и CS (выбор микросхемы) и, конечно же, линии данных. Все сигналы стробируются по положительному перепаду синхроимпульсов, комбинация управляющих сигналов в каждом такте кодирует определенную команду. С помощью этих команд организуется та же последовательность внутренних сигналов RAS# и CAS#, которая рассматривалась и для памяти FPM.
Каждая микросхема внутренне может быть организована как набор из 4 банков с собственными независимыми линиями RAS#. Для начала любого цикла обращения к памяти требуется подать команду ACT, которая запускает внутренний формирователь RAS# для требуемой строки выбранного банка. Спустя некоторое количество тактов можно вводить команду чтения RD или записи WR, в которой передается номер столбца первого цикла пакета. По этой команде запускается внутренний формирователь CAS#. Передача данных для циклов записи и чтения различается. Данные для первой передачи пакета записи устанавливаются вместе с командой WR. В следующих тактах подаются данные для остальных передач пакета. Первые данные пакета чтения появляются на шине через определенное количество тактов после команды. Это число, называемое CAS# Latency (CL), определяется временем доступа TCAC и тактовой частотой. В последующих тактах будут выданы остальные данные пакета. После обращения необходимо деактивировать банк — перевести внутренний сигнал RAS# в пассивное состояние, то есть произвести предзаряд (precharge). Это может быть сделано либо явно командой PRE, либо автоматически (как модифицированный вариант команд RD или WR. Внутренние сигналы CAS# формируются автоматически по командам обращения и дополнительных забот не требуют.
Регенерация выполняется по команде REF, за заданный период регенерации
(стандартный 64 мс) должно быть выполнено 4096 или 8192 (в зависимости от
объема микросхемы) команд REF.
На первый взгляд из этого описания не видно никаких особых преимуществ
SDRAM по сравнению с BEDO. Однако синхронный интерфейс в сочетании с
внутренней мультибанковой организацией обеспечивает возможность повышения
производительности памяти при множественных обращениях. Здесь имеется в
виду способность современных процессоров формировать следующие запросы к
памяти, не дожидаясь результатов выполнения предыдущих. В SDRAM после
выбора строки (активации банка) ее можно закрывать не сразу, а после
выполнения серии обращений к ее элементам, причем как по записи, так и по
чтению. Эти обращения будут выполняться быстрее, поскольку для них не
требуется подачи команды активации и выжидания TRCD. Максимальное время
удержания строки открытой ограничивается периодом регенерации. Возможность
работы с открытой строкой была использована уже в FPM DRAM. Однако в SDRAM
можно активировать строки в нескольких банках — каждую своей командой ACT,
эта особенность и стоит за словами “Single-pulsed RAS# interface” в
перечислении ключевых особенностей SDRAM. Активировать строку можно во
время выполнения любой операции с другим банком. Обращение к открытой
строке требуемого банка выполняется по командам RD и WR, у которых в
качестве параметров кроме адреса столбца фигурирует и номер банка. Таким
образом можно так спланировать транзакции, что шина данных в каждом такте
будет нести очередную порцию данных, и такой поток будет продолжаться не
только в пределах одного пакета, но и для серии обращений к разным областям
памяти. Кстати, держать открытыми можно и строки в банках разных микросхем,
объединенных общей шиной памяти.
Временная диаграмма чтения SDRAM
Микросхемы SDRAM оптимизированы для пакетной передачи. У них при инициализации программируется длина пакета и операционный режим. Пакетный режим может включаться как для всех операций (normal), так и только для чтения (Multiple Burst with Single Write). Этот выбор позволяет оптимизировать память для работы либо с WB, либо с WT-кэшем. Обратим внимание, что внутренний счетчик адреса работает по модулю, равному запрограммированной длине пакетного цикла (например, при длине пакета 4 он не позволяет перейти границу обычного четырехэлементного пакетного цикла).
Пакетные циклы могут прерываться (принудительно завершаться)
последующими командами, при этом оставшиеся адреса отбрасываются. На
рисунке приведен пример прерывания команды чтения по адресу A командой
чтения по адресу B (подразумевается, что для адреса B строка уже открыта).
В случае прерываний пакетов, как и при полных пакетах, шина данных при
активированных банках может быть полезно нагруженной в каждом такте, за
исключением случая чтения, следующего за записью. При этом шина будет
простаивать CL тактов. В команде WR имеется возможность блокирования записи
данных любого элемента пакета — для этого достаточно в его такте установить
высокий уровень сигнала маскирования.
Микросхемы SDRAM имеют средства энергосбережения. В режиме саморегенерации Self Refresh микросхемы периодически выполняют циклы регенерации по внутреннему таймеру, в этом режиме они не реагируют на внешние сигналы и внешняя синхронизация может быть остановлена. В режиме пониженного потребления Power Down микросхема не воспринимает команды и регенерация не выполняется, поэтому длительность пребывания в нем ограничена периодом регенерации.
Синхронный интерфейс позволяет довольно эффективно использовать шину и обеспечить на частоте 100 МГц пиковую производительность 100 Мбит/пин (на 1 вывод шины данных). SDRAM используют в составе модулей DIMM с 8-байтной разрядностью, что дает производительность 800 Мбайт/с. Однако эта теоретическая производительность не учитывает накладные расходы на регенерацию и подразумевает, что требуемые страницы уже открыты. Из-за указанных выше ограничений на реальном произвольном потоке запросов производительность, конечно же, будет ниже. Потенциальные возможности почти одновременного обслуживания множества запросов, предоставляемая микросхемами SDRAM, будут реализованы лишь при достаточно “умном” контроллере памяти. От его предусмотрительности эффективность памяти зависит, пожалуй, больше, чем у простых FPM и EDO DRAM.
Память DDR SDRAM (Dual Data Rate — удвоенная скорость данных)
представляет собой дальнейшее развитие SDRAM. Как и следует из названия, у
микросхем DDR SDRAM данные внутри пакета передаются с удвоенной скоростью —
они переключаются по обоим фронтам синхроимпульсов. На частоте 100 МГц DDR
SDRAM имеет пиковую производительность 200 Мбит/пин, что в составе 8-
байтных модулей DIMM дает производительность 1600 Мбайт/с. На высоких
тактовых частотах (100 МГц) двойная синхронизация предъявляет очень высокие
требования к точности выдерживания временных диаграмм. Для повышения
точности синхронизации предпринят ряд мер.
Сигнал синхронизации микросхемы подается в дифференциальной форме, что позволяет снизить влияние смещения уровней на точность синхронизации.
Для синхронизации данных в интерфейс введен новый двунаправленный стробирующий сигнал DQS. Стробы генерируются источником данных: при операциях чтения DQS генерируется микросхемой памяти, при записи — контроллером памяти (чипсетом).
Для синхронизации DQS с системной тактовой частотой (CLK) микросхемы имеют встроенные схемы DLL (Delay Locked Loop) для автоподстройки задержки сигнала DQS относительно CLK. Эта схема работает наподобие фазовой автоподстройки (PLL) и способна выполнять синхронизацию (обеспечивать совпадение фронтов DQS и CLK) лишь в некотором ограниченном диапазоне частот синхронизации.
В отличие от обычных SDRAM, у которых данные для записи передаются одновременно с командой, в DDR SDRAM данные для записи (и маски DQM) подаются с задержкой на один такт (write latency). Значение CAS# Latency может быть и дробным (CL=2, 2.5, 3). Микросхемы SDRAM до “штатного” использования должны быть инициализированы — кроме предзаряда банков у них должны быть запрограммированы параметры конфигурирования. В DDR SDRAM из-за необходимости настройки цепей DLL программирование несколько сложнее.
Организация оперативной памяти
Теперь, имея общее представление о работе разных типов динамической памяти, обсудим варианты построения модулей памяти и “организационные” способы повышения производительности.
Микросхемы DRAM выпускают с разрядностью данных 1, 4, 8/9, 16/18 бит.
Минимальной единицей упаковки, которая воспринимается системной платой
компьютера, является банк памяти. Банк представляет собой объединение
микросхем, обеспечивающее разрядность данных шины памяти. Так, для 386SX
банк имеет разрядность 16 бит, для 386DX-486 — 32 бита, а для P5–P6 — 64
бита (8 байт). В банке все одноименные адресные входы микросхем и линии
RAS# соединяются параллельно. Каждый банк выбирается своим сигналом RAS#.
Линии CAS# или (и) WE должны быть индивидуальными для каждого байта, чтобы
обеспечить возможность индивидуальной записи в любой байт банка. Микросхемы
собираются в модули разрядностью 1 (SIMM-30, SIPP), 4 (SIMM-72) или 8 байт
(DIMM). Модули могут содержать один или два банка микросхем (двусторонние
модули). Однако полный банк памяти для машин с процессорами P5–P6
набирается парой модулей SIMM-72 или одним DIMM. Количество банков на
системной плате ограничивается возможностями чипсета (количеством линий
RAS#) или (и) количеством слотов для памяти. Первое ограничение является
причиной известной проблемы с “двусторонними” модулями — в ряде плат
установка такого модуля в один слот не позволяет использовать еще один
слот. Увеличению числа слотов препятствует ограниченная нагрузочная
способность шины памяти — каждый слот (тем более, с модулем) вносит
паразитную емкость и индуктивность, ограничивающие быстродействие шины. Из-
за влияния этой нагрузки для работы модулей SDRAM на частоте шины 100 МГц
была разработана спецификация PC100, в которой кроме требований к
быстродействию микросхем памяти задаются и правила разводки сигнальных и
питающих проводников и прочие конструктивные нюансы. Теперь появляется и
аналогичная спецификация PC133 — для частоты шины 133 МГц. Однако повышение
тактовой частоты традиционной шины памяти технически сложно из-за большого
числа сигнальных проводников. Популярные ныне модули DIMM SDRAM используют
32 адресных и управляющих линии и 64 (72 или 80 с контрольными) линии
данных, при этом каждый дополнительный слот памяти требует еще несколько
управляющих линий. На высоких частотах приходится учитывать задержки
распространения сигналов в проводниках, и что самое неприятное —
неодинаковость этих задержек, или перекос (skew).
Установка более одного банка памяти дает потенциальную возможность
повышения производительности памяти за счет организации чередования банков
(bank interleaving). Идею чередования проще пояснить на примере двух
банков. Адресация памяти организуется так, чтобы яче