Рефераты

Лекции по предмету Операционные системы

этого периода никто другой не изменит эти данные. Существенным

преимуществом non-preemptive систем является более высокая скорость

переключения с задачи на задачу.

Примером эффективного использования невытесняющей многозадачности является

файл-сервер NetWare, в котором, в значительной степени благодаря этому,

достигнута высокая скорость выполнения файловых операций. Менее удачным

оказалось использование невытесняющей многозадачности в операционной среде

Windows 3.х.

Однако почти во всех современных операционных системах, ориентированных на

высокопроизводительное выполнение приложений (UNIX, Windows NT, OS/2,

VAX/VMS), реализована вытесняющая многозадачность. В последнее время дошла

очередь и до ОС класса настольных систем, например, OS/2 Warp и Windows 95.

Возможно в связи с этим вытесняющую многозадачность часто называют истинной

многозадачностью.

Средства синхронизации и взаимодействия процессов

Проблема синхронизации

Процессам часто нужно взаимодействовать друг с другом, например, один

процесс может передавать данные другому процессу, или несколько процессов

могут обрабатывать данные из общего файла. Во всех этих случаях возникает

проблема синхронизации процессов, которая может решаться приостановкой и

активизацией процессов, организацией очередей, блокированием и

освобождением ресурсов.

[pic]

Рис. 2.3. Пример необходимости синхронизации

Пренебрежение вопросами синхронизации процессов, выполняющихся в режиме

мультипрограммирования, может привести к их неправильной работе или даже к

краху системы. Рассмотрим, например (рисунок 2.3), программу печати файлов

(принт-сервер). Эта программа печатает по очереди все файлы, имена которых

последовательно в порядке поступления записывают в специальный

общедоступный файл "заказов" другие программы. Особая переменная NEXT,

также доступная всем процессам-клиентам, содержит номер первой свободной

для записи имени файла позиции файла "заказов". Процессы-клиенты читают эту

переменную, записывают в соответствующую позицию файла "заказов" имя своего

файла и наращивают значение NEXT на единицу. Предположим, что в некоторый

момент процесс R решил распечатать свой файл, для этого он прочитал

значение переменной NEXT, значение которой для определенности предположим

равным 4. Процесс запомнил это значение, но поместить имя файла не успел,

так как его выполнение было прервано (например, в следствие исчерпания

кванта). Очередной процесс S, желающий распечатать файл, прочитал то же

самое значение переменной NEXT, поместил в четвертую позицию имя своего

файла и нарастил значение переменной на единицу. Когда в очередной раз

управление будет передано процессу R, то он, продолжая свое выполнение, в

полном соответствии со значением текущей свободной позиции, полученным во

время предыдущей итерации, запишет имя файла также в позицию 4, поверх

имени файла процесса S.

Таким образом, процесс S никогда не увидит свой файл распечатанным.

Сложность проблемы синхронизации состоит в нерегулярности возникающих

ситуаций: в предыдущем примере можно представить и другое развитие событий:

были потеряны файлы нескольких процессов или, напротив, не был потерян ни

один файл. В данном случае все определяется взаимными скоростями процессов

и моментами их прерывания. Поэтому отладка взаимодействующих процессов

является сложной задачей. Ситуации подобные той, когда два или более

процессов обрабатывают разделяемые данные, и конечный результат зависит от

соотношения скоростей процессов, называются гонками.

Критическая секция

Важным понятием синхронизации процессов является понятие "критическая

секция" программы. Критическая секция - это часть программы, в которой

осуществляется доступ к разделяемым данным. Чтобы исключить эффект гонок по

отношению к некоторому ресурсу, необходимо обеспечить, чтобы в каждый

момент в критической секции, связанной с этим ресурсом, находился максимум

один процесс. Этот прием называют взаимным исключением.

Простейший способ обеспечить взаимное исключение - позволить процессу,

находящемуся в критической секции, запрещать все прерывания. Однако этот

способ непригоден, так как опасно доверять управление системой

пользовательскому процессу; он может надолго занять процессор, а при крахе

процесса в критической области крах потерпит вся система, потому что

прерывания никогда не будут разрешены.

Другим способом является использование блокирующих переменных. С каждым

разделяемым ресурсом связывается двоичная переменная, которая принимает

значение 1, если ресурс свободен (то есть ни один процесс не находится в

данный момент в критической секции, связанной с данным процессом), и

значение 0, если ресурс занят. На рисунке 2.4 показан фрагмент алгоритма

процесса, использующего для реализации взаимного исключения доступа к

разделяемому ресурсу D блокирующую переменную F(D). Перед входом в

критическую секцию процесс проверяет, свободен ли ресурс D. Если он занят,

то проверка циклически повторяется, если свободен, то значение переменной

F(D) устанавливается в 0, и процесс входит в критическую секцию. После

того, как процесс выполнит все действия с разделяемым ресурсом D, значение

переменной F(D) снова устанавливается равным 1.

[pic]

Рис. 2.4. Реализация критических секций с использованием блокирующих

переменных

Если все процессы написаны с использованием вышеописанных соглашений, то

взаимное исключение гарантируется. Следует заметить, что операция проверки

и установки блокирующей переменной должна быть неделимой. Поясним это.

Пусть в результате проверки переменной процесс определил, что ресурс

свободен, но сразу после этого, не успев установить переменную в 0, был

прерван. За время его приостановки другой процесс занял ресурс, вошел в

свою критическую секцию, но также был прерван, не завершив работы с

разделяемым ресурсом. Когда управление было возвращено первому процессу,

он, считая ресурс свободным, установил признак занятости и начал выполнять

свою критическую секцию. Таким образом был нарушен принцип взаимного

исключения, что потенциально может привести к нежелаемым последствиям. Во

избежание таких ситуаций в системе команд машины желательно иметь единую

команду "проверка-установка", или же реализовывать системными средствами

соответствующие программные примитивы, которые бы запрещали прерывания на

протяжении всей операции проверки и установки.

Реализация критических секций с использованием блокирующих переменных имеет

существенный недостаток: в течение времени, когда один процесс находится в

критической секции, другой процесс, которому требуется тот же ресурс, будет

выполнять рутинные действия по опросу блокирующей переменной, бесполезно

тратя процессорное время. Для устранения таких ситуаций может быть

использован так называемый аппарат событий. С помощью этого средства могут

решаться не только проблемы взаимного исключения, но и более общие задачи

синхронизации процессов. В разных операционных системах аппарат событий

реализуется по своему, но в любом случае используются системные функции

аналогичного назначения, которые условно назовем WAIT(x) и POST(x), где x -

идентификатор некоторого события. На рисунке 2.5 показан фрагмент алгоритма

процесса, использующего эти функции. Если ресурс занят, то процесс не

выполняет циклический опрос, а вызывает системную функцию WAIT(D), здесь D

обозначает событие, заключающееся в освобождении ресурса D. Функция WAIT(D)

переводит активный процесс в состояние ОЖИДАНИЕ и делает отметку в его

дескрипторе о том, что процесс ожидает события D. Процесс, который в это

время использует ресурс D, после выхода из критической секции выполняет

системную функцию POST(D), в результате чего операционная система

просматривает очередь ожидающих процессов и переводит процесс, ожидающий

события D, в состояние ГОТОВНОСТЬ.

Обобщающее средство синхронизации процессов предложил Дейкстра, который

ввел два новых примитива. В абстрактной форме эти примитивы, обозначаемые P

и V, оперируют над целыми неотрицательными переменными, называемыми

семафорами. Пусть S такой семафор. Операции определяются следующим образом:

V(S) : переменная S увеличивается на 1 одним неделимым действием; выборка,

инкремент и запоминание не могут быть прерваны, и к S нет доступа другим

процессам во время выполнения этой операции.

P(S) : уменьшение S на 1, если это возможно. Если S=0, то невозможно

уменьшить S и остаться в области целых неотрицательных значений, в этом

случае процесс, вызывающий P-операцию, ждет, пока это уменьшение станет

возможным. Успешная проверка и уменьшение также является неделимой

операцией.

[pic]

Рис. 2.5. Реализация критической секции с использованием системных

функций WAIT(D) и POST(D)

В частном случае, когда семафор S может принимать только значения 0 и 1, он

превращается в блокирующую переменную. Операция P заключает в себе

потенциальную возможность перехода процесса, который ее выполняет, в

состояние ожидания, в то время как V-операция может при некоторых

обстоятельствах активизировать другой процесс, приостановленный операцией P

(сравните эти операции с системными функциями WAIT и POST).

Рассмотрим использование семафоров на классическом примере взаимодействия

двух процессов, выполняющихся в режиме мультипрограммирования, один из

которых пишет данные в буферный пул, а другой считывает их из буферного

пула. Пусть буферный пул состоит из N буферов, каждый из которых может

содержать одну запись. Процесс "писатель" должен приостанавливаться, когда

все буфера оказываются занятыми, и активизироваться при освобождении хотя

бы одного буфера. Напротив, процесс "читатель" приостанавливается, когда

все буферы пусты, и активизируется при появлении хотя бы одной записи.

Введем два семафора: e - число пустых буферов и f - число заполненных

буферов. Предположим, что запись в буфер и считывание из буфера являются

критическими секциями (как в примере с принт-сервером в начале данного

раздела). Введем также двоичный семафор b, используемый для обеспечения

взаимного исключения. Тогда процессы могут быть описаны следующим образом:

// Глобальные переменные

#define N 256

int e = N, f = 0, b = 1;

void Writer ()

{

while(1)

{

PrepareNextRecord(); /* подготовка новой записи */

P(e); /* Уменьшить число свободных буферов, если они есть */

/* в противном случае - ждать, пока они освободятся */

P(b); /* Вход в критическую секцию */

AddToBuffer(); /* Добавить новую запись в буфер */

V(b); /* Выход из критической секции */

V(f); /* Увеличить число занятых буферов */

}

}

void Reader ()

{

while(1)

{

P(f); /* Уменьшить число занятых буферов, если они есть */

/* в противном случае ждать, пока они появятся */

P(b); /* Вход в критическую секцию */

GetFromBuffer(); /* Взять запись из буфера */

V(b); /* Выход из критической секции */

V(e); /* Увеличить число свободных буферов */

ProcessRecord(); /* Обработать запись */

}

}

Тупики

Приведенный выше пример поможет нам проиллюстрировать еще одну проблему

синхронизации - взаимные блокировки, называемые также дедлоками

(deadlocks), клинчами (clinch) или тупиками. Если переставить местами

операции P(e) и P(b) в программе "писателе", то при некотором стечении

обстоятельств эти два процесса могут взаимно заблокировать друг друга.

Действительно, пусть "писатель" первым войдет в критическую секцию и

обнаружит отсутствие свободных буферов; он начнет ждать, когда "читатель"

возьмет очередную запись из буфера, но "читатель" не сможет этого сделать,

так как для этого необходимо войти в критическую секцию, вход в которую

заблокирован процессом "писателем".

Рассмотрим еще один пример тупика. Пусть двум процессам, выполняющимся в

режиме мультипрограммирования, для выполнения их работы нужно два ресурса,

например, принтер и диск. На рисунке 2.6,а показаны фрагменты

соответствующих программ. И пусть после того, как процесс А занял принтер

(установил блокирующую переменную), он был прерван. Управление получил

процесс В, который сначала занял диск, но при выполнении следующей команды

был заблокирован, так как принтер оказался уже занятым процессом А.

Управление снова получил процесс А, который в соответствии со своей

программой сделал попытку занять диск и был заблокирован: диск уже

распределен процессу В. В таком положении процессы А и В могут находиться

сколь угодно долго.

В зависимости от соотношения скоростей процессов, они могут либо совершенно

независимо использовать разделяемые ресурсы (г), либо образовывать очереди

к разделяемым ресурсам (в), либо взаимно блокировать друг друга (б).

Тупиковые ситуации надо отличать от простых очередей, хотя и те и другие

возникают при совместном использовании ресурсов и внешне выглядят похоже:

процесс приостанавливается и ждет освобождения ресурса. Однако очередь -

это нормальное явление, неотъемлемый признак высокого коэффициента

использования ресурсов при случайном поступлении запросов. Она возникает

тогда, когда ресурс недоступен в данный момент, но через некоторое время он

освобождается, и процесс продолжает свое выполнение. Тупик же, что видно из

его названия, является в некотором роде неразрешимой ситуацией.

[pic]

Рис. 2.6. (a) фрагменты программ А и В, разделяющих принтер и диск;

(б) взаимная блокировка (клинч);(в) очередь к разделяемому диску;

(г) независимое использование ресурсов

В рассмотренных примерах тупик был образован двумя процессами, но взаимно

блокировать друг друга могут и большее число процессов.

Проблема тупиков включает в себя следующие задачи:

. предотвращение тупиков,

. распознавание тупиков,

. восстановление системы после тупиков.

Тупики могут быть предотвращены на стадии написания программ, то есть

программы должны быть написаны таким образом, чтобы тупик не мог возникнуть

ни при каком соотношении взаимных скоростей процессов. Так, если бы в

предыдущем примере процесс А и процесс В запрашивали ресурсы в одинаковой

последовательности, то тупик был бы в принципе невозможен. Второй подход к

предотвращению тупиков называется динамическим и заключается в

использовании определенных правил при назначении ресурсов процессам,

например, ресурсы могут выделяться в определенной последовательности, общей

для всех процессов.

В некоторых случаях, когда тупиковая ситуация образована многими

процессами, использующими много ресурсов, распознавание тупика является

нетривиальной задачей. Существуют формальные, программно-реализованные

методы распознавания тупиков, основанные на ведении таблиц распределения

ресурсов и таблиц запросов к занятым ресурсам. Анализ этих таблиц позволяет

обнаружить взаимные блокировки.

Если же тупиковая ситуация возникла, то не обязательно снимать с выполнения

все заблокированные процессы. Можно снять только часть из них, при этом

освобождаются ресурсы, ожидаемые остальными процессами, можно вернуть

некоторые процессы в область свопинга, можно совершить "откат" некоторых

процессов до так называемой контрольной точки, в которой запоминается вся

информация, необходимая для восстановления выполнения программы с данного

места. Контрольные точки расставляются в программе в местах, после которых

возможно возникновение тупика.

Из всего вышесказанного ясно, что использовать семафоры нужно очень

осторожно, так как одна незначительная ошибка может привести к останову

системы. Для того, чтобы облегчить написание корректных программ, было

предложено высокоуровневое средство синхронизации, называемое монитором.

Монитор - это набор процедур, переменных и структур данных. Процессы могут

вызывать процедуры монитора, но не имеют доступа к внутренним данным

монитора. Мониторы имеют важное свойство, которое делает их полезными для

достижения взаимного исключения: только один процесс может быть активным по

отношению к монитору. Компилятор обрабатывает вызовы процедур монитора

особым образом. Обычно, когда процесс вызывает процедуру монитора, то

первые несколько инструкций этой процедуры проверяют, не активен ли какой-

либо другой процесс по отношению к этому монитору. Если да, то вызывающий

процесс приостанавливается, пока другой процесс не освободит монитор. Таким

образом, исключение входа нескольких процессов в монитор реализуется не

программистом, а компилятором, что делает ошибки менее вероятными.

В распределенных системах, состоящих из нескольких процессоров, каждый из

которых имеет собственную оперативную память, семафоры и мониторы

оказываются непригодными. В таких системах синхронизация может быть

реализована только с помощью обмена сообщениями. Подробнее об этом смотрите

в разделе "Синхронизация в распределенных системах".

Нити

Многозадачность является важнейшим свойством ОС. Для поддержки этого

свойства ОС определяет и оформляет для себя те внутренние единицы работы,

между которыми и будет разделяться процессор и другие ресурсы компьютера.

Эти внутренние единицы работы в разных ОС носят разные названия - задача,

задание, процесс, нить. В некоторых случаях сущности, обозначаемые этими

понятиями, принципиально отличаются друг от друга.

Говоря о процессах, мы отмечали, что операционная система поддерживает их

обособленность: у каждого процесса имеется свое виртуальное адресное

пространство, каждому процессу назначаются свои ресурсы - файлы, окна,

семафоры и т.д. Такая обособленность нужна для того, чтобы защитить один

процесс от другого, поскольку они, совместно используя все ресурсы машины,

конкурируют с друг другом. В общем случае процессы принадлежат разным

пользователям, разделяющим один компьютер, и ОС берет на себя роль арбитра

в спорах процессов за ресурсы.

При мультипрограммировании повышается пропускная способность системы, но

отдельный процесс никогда не может быть выполнен быстрее, чем если бы он

выполнялся в однопрограммном режиме (всякое разделение ресурсов замедляет

работу одного из участников за счет дополнительных затрат времени на

ожидание освобождения ресурса). Однако задача, решаемая в рамках одного

процесса, может обладать внутренним параллелизмом, который в принципе

позволяет ускорить ее решение. Например, в ходе выполнения задачи

происходит обращение к внешнему устройству, и на время этой операции можно

не блокировать полностью выполнение процесса, а продолжить вычисления по

другой "ветви" процесса.

Для этих целей современные ОС предлагают использовать сравнительно новый

механизм многонитевой обработки (multithreading). При этом вводится новое

понятие "нить" (thread), а понятие "процесс" в значительной степени меняет

смысл.

Мультипрограммирование теперь реализуется на уровне нитей, и задача,

оформленная в виде нескольких нитей в рамках одного процесса, может быть

выполнена быстрее за счет псевдопараллельного (или параллельного в

мультипроцессорной системе) выполнения ее отдельных частей. Например, если

электронная таблица была разработана с учетом возможностей многонитевой

обработки, то пользователь может запросить пересчет своего рабочего листа и

одновременно продолжать заполнять таблицу. Особенно эффективно можно

использовать многонитевость для выполнения распределенных приложений,

например, многонитевый сервер может параллельно выполнять запросы сразу

нескольких клиентов.

Нити, относящиеся к одному процессу, не настолько изолированы друг от

друга, как процессы в традиционной многозадачной системе, между ними легко

организовать тесное взаимодействие. Действительно, в отличие от процессов,

которые принадлежат разным, вообще говоря, конкурирующим приложениям, все

нити одного процесса всегда принадлежат одному приложению, поэтому

программист, пишущий это приложение, может заранее продумать работу

множества нитей процесса таким образом, чтобы они могли взаимодействовать,

а не бороться за ресурсы.

В традиционных ОС понятие "нить" тождественно понятию "процесс". В

действительности часто бывает желательно иметь несколько нитей, разделяющих

единое адресное пространство, но выполняющихся квазипараллельно, благодаря

чему нити становятся подобными процессам (за исключением разделяемого

адресного пространства).

Нити иногда называют облегченными процессами или мини-процессами.

Действительно, нити во многих отношениях подобны процессам. Каждая нить

выполняется строго последовательно и имеет свой собственный программный

счетчик и стек. Нити, как и процессы, могут, например, порождать нити-

потомки, могут переходить из состояния в состояние. Подобно традиционным

процессам (то есть процессам, состоящим из одной нити), нити могут

находится в одном из следующих состояний: ВЫПОЛНЕНИЕ, ОЖИДАНИЕ и

ГОТОВНОСТЬ. Пока одна нить заблокирована, другая нить того же процесса

может выполняться. Нити разделяют процессор так, как это делают процессы, в

соответствии с различными вариантами планирования.

Однако различные нити в рамках одного процесса не настолько независимы, как

отдельные процессы. Все такие нити имеют одно и то же адресное

пространство. Это означает, что они разделяют одни и те же глобальные

переменные. Поскольку каждая нить может иметь доступ к каждому виртуальному

адресу, одна нить может использовать стек другой нити. Между нитями нет

полной защиты, потому что, во-первых, это невозможно, а во-вторых, не

нужно. Все нити одного процесса всегда решают общую задачу одного

пользователя, и аппарат нитей используется здесь для более быстрого решения

задачи путем ее распараллеливания. При этом программисту очень важно

получить в свое распоряжения удобные средства организации взаимодействия

частей одной задачи. Кроме разделения адресного пространства, все нити

разделяют также набор открытых файлов, таймеров, сигналов и т.п.

Итак, нити имеют собственные:

. программный счетчик,

. стек,

. регистры,

. нити-потомки,

. состояние.

Нити разделяют:

. адресное пространство,

. глобальные переменные,

. открытые файлы,

. таймеры,

. семафоры,

. статистическую информацию.

Многонитевая обработка повышает эффективность работы системы по сравнению с

многозадачной обработкой. Например, в многозадачной среде Windows можно

одновременно работать с электронной таблицей и текстовым редактором.

Однако, если пользователь запрашивает пересчет своего рабочего листа,

электронная таблица блокируется до тех пор, пока эта операция не

завершится, что может потребовать значительного времени. В многонитевой

среде в случае, если электронная таблица была разработана с учетом

возможностей многонитевой обработки, предоставляемых программисту, этой

проблемы не возникает, и пользователь всегда имеет доступ к электронной

таблице.

Широкое применение находит многонитевая обработка в распределенных

системах. Смотрите об этом в разделе "Процессы и нити в распределенных

системах".

Некоторые прикладные задачи легче программировать, используя параллелизм,

например задачи типа "писатель-читатель", в которых одна нить выполняет

запись в буфер, а другая считывает записи из него. Поскольку они разделяют

общий буфер, не стоит их делать отдельными процессами. Другой пример

использования нитей - это управление сигналами, такими как прерывание с

клавиатуры (del или break). Вместо обработки сигнала прерывания, одна нить

назначается для постоянного ожидания поступления сигналов. Таким образом,

использование нитей может сократить необходимость в прерываниях

пользовательского уровня. В этих примерах не столь важно параллельное

выполнение, сколь важна ясность программы.

Наконец, в мультипроцессорных системах для нитей из одного адресного

пространства имеется возможность выполняться параллельно на разных

процессорах. Это действительно один из главных путей реализации разделения

ресурсов в таких системах. С другой стороны, правильно сконструированные

программы, которые используют нити, должны работать одинаково хорошо как на

однопроцессорной машине в режиме разделения времени между нитями, так и на

настоящем мультипроцессоре.

| |

[pic]

Управление памятью

Память является важнейшим ресурсом, требующим тщательного управления со

стороны мультипрограммной операционной системы. Распределению подлежит вся

оперативная память, не занятая операционной системой. Обычно ОС

располагается в самых младших адресах, однако может занимать и самые

старшие адреса. Функциями ОС по управлению памятью являются: отслеживание

свободной и занятой памяти, выделение памяти процессам и освобождение

памяти при завершении процессов, вытеснение процессов из оперативной памяти

на диск, когда размеры основной памяти не достаточны для размещения в ней

всех процессов, и возвращение их в оперативную память, когда в ней

освобождается место, а также настройка адресов программы на конкретную

область физической памяти.

Типы адресов

Для идентификации переменных и команд используются символьные имена

(метки), виртуальные адреса и физические адреса (рисунок 2.7).

Символьные имена присваивает пользователь при написании программы на

алгоритмическом языке или ассемблере.

Виртуальные адреса вырабатывает транслятор, переводящий программу на

машинный язык. Так как во время трансляции в общем случае не известно, в

какое место оперативной памяти будет загружена программа, то транслятор

присваивает переменным и командам виртуальные (условные) адреса, обычно

считая по умолчанию, что программа будет размещена, начиная с нулевого

адреса. Совокупность виртуальных адресов процесса называется виртуальным

адресным пространством. Каждый процесс имеет собственное виртуальное

адресное пространство. Максимальный размер виртуального адресного

пространства ограничивается разрядностью адреса, присущей данной

архитектуре компьютера, и, как правило, не совпадает с объемом физической

памяти, имеющимся в компьютере.

[pic]

Рис. 2.7. Типы адресов

Физические адреса соответствуют номерам ячеек оперативной памяти, где в

действительности расположены или будут расположены переменные и команды.

Переход от виртуальных адресов к физическим может осуществляться двумя

способами. В первом случае замену виртуальных адресов на физические делает

специальная системная программа - перемещающий загрузчик. Перемещающий

загрузчик на основании имеющихся у него исходных данных о начальном адресе

физической памяти, в которую предстоит загружать программу, и информации,

предоставленной транслятором об адресно-зависимых константах программы,

выполняет загрузку программы, совмещая ее с заменой виртуальных адресов

физическими.

Второй способ заключается в том, что программа загружается в память в

неизмененном виде в виртуальных адресах, при этом операционная система

фиксирует смещение действительного расположения программного кода

относительно виртуального адресного пространства. Во время выполнения

программы при каждом обращении к оперативной памяти выполняется

преобразование виртуального адреса в физический. Второй способ является

более гибким, он допускает перемещение программы во время ее выполнения, в

то время как перемещающий загрузчик жестко привязывает программу к

первоначально выделенному ей участку памяти. Вместе с тем использование

перемещающего загрузчика уменьшает накладные расходы, так как

преобразование каждого виртуального адреса происходит только один раз во

время загрузки, а во втором случае - каждый раз при обращении по данному

адресу.

В некоторых случаях (обычно в специализированных системах), когда заранее

точно известно, в какой области оперативной памяти будет выполняться

программа, транслятор выдает исполняемый код сразу в физических адресах.

Методы распределения памяти без использования дискового пространства

Все методы управления памятью могут быть разделены на два класса: методы,

которые используют перемещение процессов между оперативной памятью и

диском, и методы, которые не делают этого (рисунок 2.8). Начнем с

последнего, более простого класса методов.

[pic]

Рис. 2.8. Классификация методов распределения памяти

Распределение памяти фиксированными разделами

Самым простым способом управления оперативной памятью является разделение

ее на несколько разделов фиксированной величины. Это может быть выполнено

вручную оператором во время старта системы или во время ее генерации.

Очередная задача, поступившая на выполнение, помещается либо в общую

очередь (рисунок 2.9,а), либо в очередь к некоторому разделу (рисунок

2.9,б).

[pic]

Рис. 2.9. Распределение памяти фиксированными разделами:

а - с общей очередью; б - с отдельными очередями

Подсистема управления памятью в этом случае выполняет следующие задачи:

. сравнивая размер программы, поступившей на выполнение, и свободных

разделов, выбирает подходящий раздел,

. осуществляет загрузку программы и настройку адресов.

При очевидном преимуществе - простоте реализации - данный метод имеет

существенный недостаток - жесткость. Так как в каждом разделе может

выполняться только одна программа, то уровень мультипрограммирования

заранее ограничен числом разделов не зависимо от того, какой размер имеют

программы. Даже если программа имеет небольшой объем, она будет занимать

весь раздел, что приводит к неэффективному использованию памяти. С другой

стороны, даже если объем оперативной памяти машины позволяет выполнить

некоторую программу, разбиение памяти на разделы не позволяет сделать

этого.

Распределение памяти разделами переменной величины

В этом случае память машины не делится заранее на разделы. Сначала вся

память свободна. Каждой вновь поступающей задаче выделяется необходимая ей

память. Если достаточный объем памяти отсутствует, то задача не принимается

на выполнение и стоит в очереди. После завершения задачи память

освобождается, и на это место может быть загружена другая задача. Таким

образом, в произвольный момент времени оперативная память представляет

собой случайную последовательность занятых и свободных участков (разделов)

произвольного размера. На рисунке 2.10 показано состояние памяти в

различные моменты времени при использовании динамического распределения.

Так в момент t0 в памяти находится только ОС, а к моменту t1 память

разделена между 5 задачами, причем задача П4, завершаясь, покидает память.

На освободившееся после задачи П4 место загружается задача П6, поступившая

в момент t3.

[pic]

Рис. 2.10. Распределение памяти динамическими разделами

Задачами операционной системы при реализации данного метода управления

памятью является:

. ведение таблиц свободных и занятых областей, в которых указываются

начальные адреса и размеры участков памяти,

. при поступлении новой задачи - анализ запроса, просмотр таблицы

свободных областей и выбор раздела, размер которого достаточен для

размещения поступившей задачи,

. загрузка задачи в выделенный ей раздел и корректировка таблиц

свободных и занятых областей,

. после завершения задачи корректировка таблиц свободных и занятых

областей.

Программный код не перемещается во время выполнения, то есть может быть

проведена единовременная настройка адресов посредством использования

перемещающего загрузчика.

Выбор раздела для вновь поступившей задачи может осуществляться по разным

правилам, таким, например, как "первый попавшийся раздел достаточного

размера", или "раздел, имеющий наименьший достаточный размер", или "раздел,

имеющий наибольший достаточный размер". Все эти правила имеют свои

преимущества и недостатки.

По сравнению с методом распределения памяти фиксированными разделами данный

метод обладает гораздо большей гибкостью, но ему присущ очень серьезный

недостаток - фрагментация памяти. Фрагментация - это наличие большого числа

несмежных участков свободной памяти очень маленького размера (фрагментов).

Настолько маленького, что ни одна из вновь поступающих программ не может

поместиться ни в одном из участков, хотя суммарный объем фрагментов может

составить значительную величину, намного превышающую требуемый объем

памяти.

Перемещаемые разделы

Одним из методов борьбы с фрагментацией является перемещение всех занятых

участков в сторону старших либо в сторону младших адресов, так, чтобы вся

свободная память образовывала единую свободную область (рисунок 2.11). В

дополнение к функциям, которые выполняет ОС при распределении памяти

переменными разделами, в данном случае она должна еще время от времени

копировать содержимое разделов из одного места памяти в другое, корректируя

таблицы свободных и занятых областей. Эта процедура называется "сжатием".

Сжатие может выполняться либо при каждом завершении задачи, либо только

тогда, когда для вновь поступившей задачи нет свободного раздела

достаточного размера. В первом случае требуется меньше вычислительной

работы при корректировке таблиц, а во втором - реже выполняется процедура

сжатия. Так как программы перемещаются по оперативной памяти в ходе своего

выполнения, то преобразование адресов из виртуальной формы в физическую

должно выполняться динамическим способом.

[pic]

Рис. 2.11. Распределение памяти перемещаемыми разделами

Хотя процедура сжатия и приводит к более эффективному использованию памяти,

она может потребовать значительного времени, что часто перевешивает

преимущества данного метода.

Методы распределения памяти с использованием дискового пространства

Понятие виртуальной памяти

Уже достаточно давно пользователи столкнулись с проблемой размещения в

памяти программ, размер которых превышал имеющуюся в наличии свободную

память. Решением было разбиение программы на части, называемые оверлеями. 0-

ой оверлей начинал выполняться первым. Когда он заканчивал свое выполнение,

он вызывал другой оверлей. Все оверлеи хранились на диске и перемещались

между памятью и диском средствами операционной системы. Однако разбиение

программы на части и планирование их загрузки в оперативную память должен

Страницы: 1, 2, 3, 4


© 2010 БИБЛИОТЕКА РЕФЕРАТЫ