Рефераты

Распределенные алгоритмы

откуда граница сложности сообщений равна 4|E|.

var usedp[q] : boolean init false для всех q ? Neighp ;

fatherp : process init udef ;

mrsp : process init udef ;

Для инициатора (выполняется один раз):

begin fatherp := p ; выбор q ? Neighp ;

forall r ? Neighp do send to r ;

usedp[q] := true ; mrsp := q ; send to q ;

end

Для каждого процесса при получении от q0:

begin usedp[q0] := true ;

if q0 = mrsp then (* интерпретировать, как *)

передать сообщение как при получении

end

Алгоритм 6.16 Алгоритм поиска в глубину Сайдона (Часть 1).

Для каждого процесса при получении от q0:

begin if mrsp ? udef and mrsp ? q0

(* это листовое ребро, интерпретируем как сообщение *)

then usedp[q0] := true

else (* действовать, как в предыдущем алгоритме *)

begin if fatherp = udef then

begin fatherp := q0 ;

forall r ? Neighp\ {fatherp}

do send to r ;

end ;

if p - инициатор and ?q ? Neighp : usedp[q]

then decide

else if ?q ? Neighp : (q ? fatherp & ¬usedp[q])

then begin if fatherp ? q0 & ¬usedp[q0]

then q := q0

else выбор q ? Neighp\ {fatherp}

с ¬usedp[q] ;

usedp[q] := true ; mrsp := q ;

send to q

end

else begin usedp[fatherp] := true ;

send to fatherp

end

end

end

Алгоритм 6.17 Алгоритм поиска в глубину Сайдона (Часть 2).

Во многих случаях этот алгоритм будет пересылать меньше сообщений, чем

алгоритм Авербаха. Оценка количества сообщений в алгоритме Сайдона

предполагает наихудший случай, а именно, когда маркер пересылается через

каждое листовое ребро в обоих направлениях. Можно ожидать, что сообщения

помогут избежать многих нежелательных пересылок, тогда через каждый

канал будет передано только два или три сообщения.

Сайдон замечает, что хотя алгоритм может передать маркер в уже посещенную

вершину, он обладает лучшей временной сложностью (и сложностью сообщений),

чем Алгоритм 6.15, который предотвращает такие нежелательные передачи. Это

означает, что на восстановление после ненужных действий может быть

затрачено меньше времени и сообщений, чем на их предотвращение. Сайдон

оставляет открытым вопрос о том, существует ли DFS-алгоритм, который

достигает сложности сообщений классического алгоритма, т.е. 2|E|, и который

затрачивает O(N) единиц времени.

6.4.3 Поиск в глубину со знанием соседей

Если процессам известны идентификаторы их соседей, проход листовых ребер

можно предотвратить, включив в маркер список посещенных процессов. Процесс

p, получая маркер с включенным в него списком L, не передает маркер

процессам из L. Переменная usedp[q] не нужна, т.к. если p ранее передал

маркер q, то q ? L; см. Алгоритм 6.18.

Теорема 6.36 DFS-алгоритм со знанием соседей является алгоритмом обхода и

вычисляет дерево поиска в глубину, используя 2N-2 сообщений за 2N-2 единиц

времени.

У этого алгоритма высокая битовая сложность; если w - количество бит,

необходимых для представления одного идентификатора, список L может занять

до Nw бит; см. Упражнение 6.14.

var fatherp : process init udef ;

Для инициатора (выполняется один раз):

begin fatherp := p ; выбор q ? Neighp ;

send to q

end

Для каждого процесса при получении от q0:

begin if fatherp = udef then fatherp := q0 ;

if (q ? Neighp \ L

then begin выбор q ? Neighp \ L ;

send < tlist, L?{p} > to q

end

else if p - инициатор

then decide

else send < tlist, L?{p} > to fatherp

end

Алгоритм 6.18 Алгоритм поиска в глубину со знанием соседей.

6.5 Остальные вопросы

6.5.1 Обзор волновых алгоритмов

В Таблице 6.19 дан список волновых алгоритмов, рассмотренных в этой главе.

В столбце «Номер» дана нумерация алгоритмов в главе; в столбце «C/D»

отмечено, является ли алгоритм централизованным (C) или децентрализованным

(D); столбец «T» определяет, является ли алгоритм алгоритмом обхода; в

столбце «Сообщения» дана сложность сообщений; в столбце «Время» дана

временная сложность. В этих столбцах N - количество процессов, |E| -

количество каналов, D - диаметр сети (в переходах).

|Алгоритм |Номер|Топология |C/D|T |Сообщения|Время |

|Раздел 6.2: Общие алгоритмы |

|Кольцевой |6.2 |кольцо |C |да |N |N |

|Древовидный |6.3 |дерево |D |нет |N |O(D) |

|Эхо-алгоритм |6.5 |произвольная|C |нет |2|E| |O(N) |

|Алгоритм |6.6 |клика |C |нет |2N-2 |2 |

|опроса | | | | | | |

|Фазовый |6.7 |произвольная|D |нет |2D|E| |2D |

|Фазовый на |6.8 |клика |D |нет |N(N-1) |2 |

|кликах | | | | | | |

|Финна |6.9 |произвольная|D |нет |?4N|E| |O(D) |

|Раздел 6.3: Алгоритмы обхода |

|Последовательн|6.10 |клика |C |да |2N-2 |2N-2 |

|ый опрос | | | | | | |

|Для торов |6.11 |тор |C |да |N |N |

|Для гиперкубов|6.12 |гиперкуб |C |да |N |N |

|Тарри |6.13 |произвольная|C |да |2|E| |2|E| |

|Раздел 6.4: Алгоритмы поиска в глубину |

|Классический |6.14 |произвольная|C |да |2|E| |2|E| |

|Авербаха |6.15 |произвольная|C |нет |4|E| |4N-2 |

|Сайдона |6.16/|произвольная|C |нет |4|E| |2N-2 |

| |6.17 | | | | | |

|Со знанием |6.18 |произвольная|C |да |2N-2 |2N-2 |

|соседей | | | | | | |

Замечание: фазовый алгоритм (6.7) и алгоритм Финна (6.9) подходят для

ориентированных сетей.

Таблица 6.19 Волновые алгоритмы этой главы.

Сложность распространения волн в сетях большинства топологий значительно

зависит от того, централизованный алгоритм или нет. В Таблице 6.20

приведена сложность сообщений централизованных и децентрализованных

волновых алгоритмов для колец, произвольных сетей и деревьев. Таким же

образом можно проанализировать зависимость сложности от других параметров,

таких как знание соседей или чувство направления (Раздел B.3).

|Топология |C/D |Сложность |Ссылка |

|Кольцо |C |N |Алгоритм 6.2 |

| |D |O(N logN) |Алгоритм 7.7 |

|Произвольная|C |2|E| |Алгоритм 6.5 |

| |D |O(N logN + |E|)|Раздел 7.3 |

|Дерево |C |2(N-1) |Алгоритм 6.5 |

| |D |O(N) |Алгоритм 6.3 |

Таблица 6.20 Влияние централизации на сложность сообщений.

6.5.2 Вычисление сумм

В Подразделе 6.1.5 было показано, что за одну волну можно вычислить инфимум

по входам всех процессов. Вычисление инфимума может быть использовано для

вычисления коммутативного, ассоциативного и идемпотентного оператора,

обобщенного на входы, такого как минимум, максимум, и др. (см. Заключение

6.14). Большое количество функций не вычислимо таким образом, среди них -

сумма по всем входам, т.к. оператор суммирования не идемпотентен.

Суммирование входов может быть использовано для подсчета процессов с

определенным свойством (путем присваивания входу 1, если процесс обладает

свойством, и 0 в противном случае), и результаты этого подраздела могут

быть распространены на другие операторы, являющиеся коммутативными и

ассоциативными, такие как произведение целых чисел или объединение

мультимножеств.

Оказывается, не существует общего метода вычисления сумм с использованием

волнового алгоритма, но в некоторых случаях вычисление суммы возможно.

Например, в случае алгоритма обхода, или когда процессы имеют

идентификаторы, или когда алгоритм порождает остовное дерево, которое может

быть использовано для вычисления.

Невозможность существования общего метода. Невозможно дать общий метод

вычисления сумм с использованием произвольного волнового алгоритма,

подобного методу, использованному в Теореме 6.12 для вычисления инфимумов.

Это может быть показано следующим образом. Существует волновой алгоритм для

класса сетей, включающего все неориентированные анонимные (anonymous) сети

диаметра два, а именно, фазовый алгоритм (с параметром D=2). Не существует

алгоритма, который может вычислить сумму по всем входам, и который является

правильным для всех неориентированных анонимных (anonymous) сетей диаметра

два. Этот класс сетей включает две сети, изображенные на Рис.6.21. Если

предположить, что каждый процесс имеет вход 1, ответ будет 6 для левой сети

и 8 - для правой. Воспользовавшись технологией, представленной в Главе 9,

можно показать, что любой алгоритм даст для обеих сетей один и тот же

результат, следовательно, будет работать неправильно. Детальное

доказательство оставлено читателю в Упражнении 9.7.

[pic]

Рис.6.21 Две сети диаметра два и степени три.

Вычисление сумм с помощью алгоритма обхода. Если A - алгоритм обхода, сумма

по всем входам может быть вычислена следующим образом. Процесс p содержит

переменную jp, инициализированную значением входа p. Маркер содержит

дополнительное поле s. Всякий раз, когда p передает маркер, p выполняет

следующее:

s := s + jp ; jp := 0

и затем можно показать, что в любое время для каждого ранее пройденного

процесса p jp = 0 и s равно сумме входов всех пройденных процессов.

Следовательно, когда алгоритм завершается, s равно сумме по всем входам.

Вычисление суммы с использованием остовного дерева. Некоторые волновые

алгоритмы предоставляют для каждого события принятия решения dp в процессе

p остовное дерево с корнем в p, по которому сообщения передаются по

направлению к p. Фактически, каждое вычисление любого волнового алгоритма

содержит такие остовные деревья. Однако, может возникнуть ситуация, когда

процесс q посылает несколько сообщений и не знает, какие из его исходящих

ребер принадлежат к такому дереву. Если процессы знают, какое исходящее

ребро является их родителем в таком дереве, дерево можно использовать для

вычисления сумм. Каждый процесс посылает своему родителю в дереве сумму

всех входов его поддерева.

Этот принцип может быть применен для древовидного алгоритма, эхо-алгоритма

и фазового алгоритма для клик. Древовидный алгоритм легко может быть

изменен так, чтобы включать сумму входов Tpq в сообщение, посылаемое от p к

q. Процесс, который принимает решение, вычисляет окончательный результат,

складывая величины из двух сообщений, которые встречаются на одном ребре.

Фазовый алгоритм изменяется так, чтобы в каждом сообщении от q к p

пересылался вход q. Процесс p складывает все полученные величины и свой

собственный вход, и результат является правильным ответом, когда p

принимает решение. В эхо-алгоритме входы могут суммироваться с

использованием остовного дерева T, построенного явным образом во время

вычисления; см. Упражнение 6.15.

Вычисление суммы с использованием идентификации. Предположим, что каждый

процесс имеет уникальный идентификатор. Сумма по всем входам может быть

вычислена следующим образом. Каждый процесс помечает свой вход

идентификатором, формируя пару (p, jp); заметим, что никакие два процесса

не формируют одинаковые пары. Алгоритм гарантирует, что, когда процесс

принимает решение, он знает каждый отдельный вход; S = {(p, jp): p ? P} -

объединение по всем p множеств Sp = {(p, jp)}, которое может быть вычислено

за одну волну. Требуемый результат вычисляется с помощью локальных операций

на этом множестве.

Это решение требует доступности уникальных идентификаторов для каждого

процесса, что значительно увеличивает битовую сложность. Каждое сообщение

волнового алгоритма включает в себя подмножество S, которое занимает N*w

бит, если для представления идентификатора и входа требуется w бит; см.

Упражнение 6.16.

6.5.3 Альтернативные определения временной сложности

Временную сложность распределенного алгоритма можно определить несколькими

способами. В этой книге при рассмотрении временной сложности всегда имеется

в виду Определение 6.31, но здесь обсуждаются другие возможные определения.

Определение, основанное на более строгих временных предположениях. Время,

потребляемое распределенными вычислениями, можно оценить, используя более

строгие временные предположения в системе.

Определение 6.37 Единичная сложность алгоритма (one-time complexity) - это

максимальное время вычисления алгоритма при следующих предположениях.

O1. Процесс может выполнить любое конечное количество событий за нулевое

время.

O2. Промежуток времени между отправлением и получением сообщения - ровно

одна единица времени.

Сравним это определение с Определением 6.31 и заметим, что предположение O1

совпадает с T1. Т.к. время передачи сообщения, принятое в T2, меньше или

равно времени, принятому в O2, можно подумать, что единичная сложность

всегда больше или равна временной сложности. Далее можно подумать, что

каждое вычисление при предположении T2 выполняется не дольше, чем при O2,

и, следовательно, вычисление с максимальным временем также займет при T2 не

больше времени, чем при O2. Упущение этого аргумента в том, что отклонения

во времени передачи сообщения, допустимые при T2, порождают большой класс

возможных вычислений, включая вычисления с плохим временем. Это

иллюстрируется ниже для эхо-алгоритма.

Фактически, верно обратное: временная сложность алгоритма больше или равна

единичной сложности этого алгоритма. Любое вычисление, допустимое при

предположениях O1 и O2, также допустимо при T1 и T2 и занимает при этом

такое же количество времени. Следовательно, наихудшее поведение алгоритма

при O1 и O2 включено в Определение 6.31 и является нижней границей

временной сложности.

Теорема 6.38 Единичная сложность эхо-алгоритма равна O(D). Временная

сложность эхо-алгоритма равна ?(N), даже в сетях с диаметром 1.

Доказательство. Для анализа единичной сложности сделаем предположения O1 и

O2. Процесс на расстоянии d переходов от инициатора получает первое

сообщение ровно через d единиц времени после начала вычисления и

имеет глубину d в возникающем в результате дереве T. (Это можно доказать

индукцией по d.) Пусть DT - глубина T; тогда DT ( D и процесс глубины d в T

посылает сообщение своему родителю не позднее (2DT + 1) - d единиц

времени после начала вычисления. (Это можно показать обратной индукцией по

d.) Отсюда следует, что инициатор принимает решение не позднее 2DT + 1

единиц времени после начала вычисления.

Для анализа временной сложности сделаем предположения T1 и T2. Процесс на

расстоянии d переходов от инициатора получает первое сообщение не

позднее d единиц времени после начала вычисления. (Это можно доказать

индукцией по d.) Предположим, что остовное дерево построено через F единиц

времени после начала вычисления, тогда F ( D. В этом случае глубина

остовного дерева DT необязательно ограничена диаметром (как будет показано

в вычислении ниже), но т.к. всего N процессов, глубина ограничена N-1.

Процесс глубины d в T посылает сообщение своему родителю не позднее

(F+1)+(DT-d) единиц времени после начала вычисления. (Это можно показать

обратной индукцией по d.) Отсюда следует, что инициатор принимает решение

не позднее (F+1)+DT единиц времени после начала вычисления, т.е. O(N).

Чтобы показать, что ?(N) - нижняя граница временной сложности, построим на

клике из N процессов вычисление, которое затрачивает время N. Зафиксируем в

клике остовное дерево глубины N-1 (на самом деле, линейную цепочку вершин).

Предположим, что все сообщения , посланные вниз по ребрам дерева,

будут получены спустя 1/N единиц времени после их отправления, а сообщения

через листовые ребра будут получены спустя одну единицу времени. Эти

задержки допустимы, согласно предположению T2, и в этом вычислении дерево

полностью формируется в течение одной единицы времени, но имеет глубину N-

1. Допустим теперь, что все сообщения, посылаемые вверх по ребрам дерева

также испытывают задержку в одну единицу времени; в этом случае решение

принимается ровно через N единиц времени с начала вычисления.

Можно спорить о том, какое из двух определений предпочтительнее при

обсуждении сложности распределенного алгоритма. Недостаток единичной

сложности в том, что некоторые вычисления не учитываются, хотя они и

допускаются алгоритмом. Среди игнорируемых вычислений могут быть такие,

которые потребляют очень много времени. Предположения в Определении 6.31 не

исключают ни одного вычисления; определение только устанавливает меру

времени для каждого вычисления. Недостаток временной сложности в том, что

результат определен вычислениями (как в доказательстве Теоремы 6.38), что

хотя и возможно, но считается крайне маловероятным. Действительно, в этом

вычислении одно сообщение «обгоняется» цепочкой из N-1 последовательно

передаваемого сообщения.

В качестве компромисса между двумя определениями можно рассмотреть ?-

временную сложность, которая определяется согласно предположению, что

задержка каждого сообщения - величина между ? и 1 (? - константа ?1). К

сожалению, этот компромисс обладает недостатками обоих определений.

Читатель может попытаться показать, что ?-временная сложность эхо-алгоритма

равна O(min(N,D/?)).

Наиболее точная оценка временной сложности получается, когда можно задать

распределение вероятностей задержек сообщений, откуда может быть вычислено

ожидаемое время вычисления алгоритма. У этого варианта есть два основных

недостатка. Во-первых, анализ алгоритма слишком зависит от системы, т.к. в

каждой распределенной системе распределение задержек сообщений различно. Во-

вторых, в большинстве случаев анализ слишком сложен для выполнения.

Определение, основанное на цепочках сообщений. Затраты времени на

распределенное вычисление могут быть определены с использованием

структурных свойств вычисления, а не идеализированных временных

предположений. Пусть C - вычисление.

Определение 6.39 Цепочка сообщений в C - это последовательность сообщений

m1, m2, ..., mk такая, что для любого i (0 ? i ? k) получение mi каузально

предшествует отправлению mi+1.

Цепочечная сложность распределенного алгоритма (chain-time complexity) -

это длина самой длинной цепочки сообщений во всех вычислениях алгоритма.

Это определение, как и Определение 6.31, рассматривает всевозможные

выполнения алгоритма для определения его временной сложности, но определяет

другую меру сложности для вычислений. Рассмотрим ситуацию (происходящую в

вычислении, определенном в доказательстве теоремы 6.38), когда одно

сообщение «обгоняется» цепочкой из k сообщений. Временная сложность этого

(под)вычисления равна 1, в то время, как цепочечная сложность того же

самого (под)вычисления равна k. В системах, где гарантируется существование

верхней границы задержек сообщений (как предполагается в определении

временной сложности), временная сложность является правильным выбором. В

системах, где большинство сообщений доставляется со «средней» задержкой, но

небольшая часть сообщений может испытывать гораздо большую задержку, лучше

выбрать цепочечную сложность.

Упражнения к Главе 6

Раздел 6.1

Упражнение 6.1 Приведите пример PIF-алгоритма для систем с синхронной

передачей сообщений, который не позволяет вычислять функцию инфимума (см.

Теоремы 6.7 и 6.12). Пример может подходить только для конкретной

топологии.

Упражнение 6.2 В частичном порядке (X, ?) элемент b называется дном, если

для всех c ? X, b ? c.

В доказательстве Теоремы 6.11 используется то, что частичный порядок (X,?)

не содержит дна. Где именно?

Можете ли вы привести алгоритм, который вычисляет функцию инфимума в

частичном порядке с дном и не является волновым алгоритмом?

Упражнение 6.3 Приведите два частичных порядка на натуральных числах, для

которых функция инфимума является (1) наибольшим общим делителем, и (2)

наименьшим общим кратным (the least common ancestor).

Приведите частичные порядки на наборах подмножеств области U, для которых

функция инфимума является (1) пересечением множеств, и (2) объединением

множеств.

Упражнение 6.4 Докажите теорему об инфимуме (Теорему 6.13).

Раздел 6.2

Упражнение 6.5 Покажите, что в каждом вычислении древовидного алгоритма

(Алгоритм 6.3) решение принимают ровно два процесса.

Упражнение 6.6 Используя эхо-алгоритм (Алгоритм 6.5), составьте алгоритм,

который вычисляет префиксную схему маркировки (см. Подраздел 4.4.3) для

произвольной сети с использованием 2|E| сообщений и O(N) единиц времени.

Можете ли вы привести алгоритм, вычисляющий схему маркировки за время O(D)

? (D - диаметр сети.)

Упражнение 6.7 Покажите, что соотношение в Лемме 6.19 выполняется, если

сообщение потерялось в канале pq, но не выполняется, если сообщения могут

дублироваться. Какой шаг доказательства не действует, если сообщения могут

дублироваться?

Упражнение 6.8 Примените построение в Теореме 6.12 к фазовому алгоритму

так, чтобы получить алгоритм, вычисляющий максимум по целочисленным входам

всех процессов.

Каковы сложность сообщений, временная и битовая сложность вашего алгоритма?

Упражнение 6.9 Предположим, вы хотите использовать волновой алгоритм в

сети, где может произойти дублирование сообщений.

Какие изменения должны быть сделаны в эхо-алгоритме?

Какие изменения должны быть сделаны в алгоритме Финна?

Раздел 6.3

Упражнение 6.10 Полный двудольный граф - это граф G = (V,E), где V = V1 ?

V2 при V1 ? V2 = ? и E = V1 Ч V2.

Приведите алгоритм 2x-обхода для полных двудольных сетей.

Упражнение 6.11 Докажите или опровергните: Обход гиперкуба без чувства

направления требует ?(N logN) сообщений.

Раздел 6.4

Упражнение 6.12 Приведите пример вычисления алгоритма Тарри, в котором в

результате получается не DFS-дерево.

Упражнение 6.13 Составьте алгоритм, который вычисляет интервальные схемы

маркировки поиска в глубину (см. Подраздел 4.4.2) для произвольных связных

сетей.

Может ли это быть сделано за O(N) единиц времени? Может ли это быть сделано

с использованием O(N) сообщений?

Упражнение 6.14 Предположим, что алгоритм поиска в глубину со знанием

соседей используется в системе, где каждый процесс знает не только

идентификаторы своих соседей, но и множество идентификаторов всех процессов

(P). Покажите, что в этом случае достаточно сообщений, состоящих из N бит.

Раздел 6.5

Упражнение 6.15 Адаптируйте эхо-алгоритм (Алгоритм 6.5) для вычисления

суммы по входам всех процессов.

Упражнение 6.16 Предположим, что процессы в сетях, изображенных на

Рис.6.21, имеют уникальные идентификаторы, и каждый процесс имеет

целочисленный вход. Смоделируйте на обеих сетях вычисление фазового

алгоритма, вычисляя множество S = {(p, jp): p ? P} и сумму по входам.

Упражнение 6.17 Какова цепочечная сложность фазового алгоритма для клик

(Алгоритм 6.8) ?

7 Алгоритмы выбора

В этой главе будут обсуждаться проблемы выбора, также называемого

нахождением лидера. Задача выбора впервые была изложена ЛеЛанном [LeLann;

LeL77], который предложил и первое решение; см. Подраздел 7.2.1. Задача

начинается в конфигурации, где все процессы находятся в одинаковом

состоянии, и приходит в конфигурацию, где ровно один процесс находится в

состоянии лидера (leader), а все остальные - в состоянии проигравших

(lost).

Выбор среди процессов нужно проводить, если должен быть выполнен

централизованный алгоритм и не существует заранее известного кандидата на

роль инициатора алгоритма. Например, в случае процедуры инициализации

системы, которая должна быть выполнена в начале или после сбоя системы.

Т.к. множество активных процессов может быть неизвестно заранее, невозможно

назначить один процесс раз и навсегда на роль лидера.

Существует большое количество результатов о задаче выбора (как алгоритмы,

так и более общие теоремы). Результаты для включения в эту главу выбирались

по следующим критериям.

Синхронные системы, анонимные процессы, и отказоустойчивые алгоритмы

обсуждаются в других главах. В этой главе всегда предполагается, что

процессы и каналы надежны, система полностью асинхронна, и процессы

различаются уникальными идентификаторами.

Мы сосредоточим внимание на результатах, касающихся сложности сообщений.

Алгоритмы с улучшенной временной сложностью или результаты, предполагающие

компромисс между временной сложностью и сложностью сообщений, не

обсуждаются.

Мы будем уделять внимание порядку величины сложности сообщений, и не будем

рассматривать результаты, вносящие в сложность только постоянный множитель.

Т.к. результаты Кораха и др. (Раздел 7.4) подразумевают существование O(N

logN)-алгоритмов для нескольких классов сетей, алгоритм для клики с этой

сложностью не будет рассматриваться отдельно.

7.1 Введение

Задача выбора требует, чтобы из конфигурации, где все процессы находятся в

одинаковом состоянии, система пришла в конфигурацию, где ровно один процесс

находится в особом состоянии лидер (leader), а все остальные процессы - в

состоянии проигравших (lost). Процесс, находящийся в состоянии лидер в

конце вычисления, называется лидером и говорят, что он выбран алгоритмом.

Определение 7.1 Алгоритм выбора - это алгоритм, удовлетворяющий следующим

требованиям.

Каждый процесс имеет один и тот же локальный алгоритм.

Алгоритм является децентрализованным, т.е. вычисление может быть начато

произвольным непустым подмножеством процессов.

Алгоритм достигает заключительной конфигурации в каждом вычислении, и в

каждой достижимой заключительной конфигурации существует ровно один процесс

в состоянии лидера, а все остальные процессы - в состоянии проигравших.

Иногда последнее требование ослабляется и требуется только, чтобы ровно

один процесс находился в состоянии лидера. В этом случае выбранный процесс

знает, что он победил, но проигравшие (еще) не знают, что они проиграли.

Если дан алгоритм, удовлетворяющий этим ослабленным действиям, то его можно

легко расширить, добавив инициируемую лидером рассылку сообщений всем

процессам, при которой все процессы информируются о результатах выбора. В

некоторых алгоритмах этой главы это дополнительное оповещение опущено.

Во всех алгоритмах этой главы процесс p имеет переменную statep с

возможными значениями leader (лидер) и lost (проигравший). Иногда мы будем

предполагать, что statep имеет значение sleep (спящий), когда p еще не

выполнил ни одного шага алгоритма, и значение cand (кандидат), если p

вступил в вычисление, но еще не знает, победил он или проиграл. Некоторые

алгоритмы используют дополнительные состояния, такие как active, passive и

др., которые будут указаны в самом алгоритме.

7.1.1 Предположения, используемые в этой главе

Рассмотрим предположения, при которых задача выбора изучалась в этой главе.

Система полностью асинхронна. Предполагается, что процессам недоступны

общие часы, и что время передачи сообщения может быть произвольно долгим

или коротким.

Оказывается, что предположение о синхронной передаче сообщений (т.е. когда

отправление и получение сообщения считается единой передачей) незначительно

влияет на результаты, полученные для задачи выбора. Читатель может сам

убедиться, что алгоритмы, данные в этой главе, могут применяться в системах

с синхронной передачей сообщений, и что полученные нижние границы также

применимы в этом случае.

Предположение о существовании глобального времени, также как и

предположение о том, что процессам доступно реальное время и что задержка

сообщений ограничена, имеют важное влияние на решения задачи выбора.

Каждый процесс идентифицируется уникальным именем, своим идентификатором,

который известен процессу изначально. Для простоты предполагается, что

идентификатор процесса p - просто p. Идентификаторы извлекаются из

совершенно упорядоченного множества P, т.е. для идентификаторов определено

отношение ?. Количество бит, представляющих идентификатор, равно w.

Важность уникальных идентификаторов в задаче выбора состоит в том, что они

могут использоваться не только для адресации сообщений, но и для нарушения

симметрии между процессами. При разработке алгоритма выбора можно,

например, потребовать, что процесс с наименьшим (или наоборот, с

наибольшим) идентификатором должен победить. Тогда задача состоит в поиске

наименьшего идентификатора с помощью децентрализованного алгоритма. В этом

случае задачу выбора называют задачей поиска экстремума.

Хотя некоторые из алгоритмов, обсуждаемых в этой главе, изначально были

изложены для нахождения наибольшего процесса, мы излагаем большинство

алгоритмов для выбора наименьшего процесса. Во всех случаях алгоритм для

выбора наибольшего процесса можно получить, изменив порядок сравнения

идентификаторов.

Некоторые результаты этой главы относятся к алгоритмам сравнения. Алгоритмы

сравнения - это алгоритмы, которые используют сравнение как единственную

операцию над идентификаторами. Как мы увидим, все алгоритмы, представленные

в этой главе, являются алгоритмами сравнения. Всякий раз, когда дается

оценка нижней границы, мы явно отмечаем, касается ли она алгоритмов

сравнения.

Было показано (например, Бодлендером [Bodlaender, Bod91b] для случая

кольцевых сетей), что в асинхронных сетях произвольные алгоритмы не

достигают лучшей сложности, чем алгоритмы сравнения. Это не так в случае

синхронных систем, как будет показано в Главе 11; в этих системах

произвольные алгоритмы могут достигать лучшей сложности, чем алгоритмы

сравнения.

Каждое сообщение может содержать O(w) бит. Каждое сообщение может содержать

не более постоянного числа идентификаторов процессов. Это предположение

сделано для того, чтобы позволить справедливое сравнение сложности

сообщений различных алгоритмов.

7.1.2 Выбор и волны

Уже было замечено, что идентификаторы процессов могут использоваться для

нарушения симметрии между процессами. Можно разработать алгоритм выбора

так, чтобы выбирался процесс с наименьшим идентификатором. Согласно

результатам в Подразделе 6.1.5, наименьший идентификатор может быть

вычислен за одну волну. Это означает, что выбор можно провести, выполняя

волну, в которой вычисляется наименьший идентификатор, после чего процесс с

этим идентификатором становится лидером. Т.к. алгоритм выбора должен быть

децентрализованным, этот принцип может быть применен только к

децентрализованным волновым алгоритмам (см. Таблицу 6.19).

Выбор с помощью древовидного алгоритма. Если топология сети - дерево или

доступно остовное дерево сети, выбор можно провести с помощью древовидного

алгоритма (Подраздел 6.2.2). В древовидном алгоритме требуется, чтобы хотя

бы все листья были инициаторами алгоритма. Чтобы получить развитие

алгоритма в случае, когда некоторые процессы также являются инициаторами,

добавляется фаза wake-up. Процессы, которые хотят начать выбор, рассылают

сообщение всем процессам. Логическая переменная ws используется,

чтобы каждый процесс послал сообщения не более одного раза, а

переменная wr используется для подсчета количества сообщений ,

полученных процессом. Когда процесс получит сообщение через каждый

канал, он начинает выполнять Алгоритм 6.3, который расширен (как в Теореме

6.12) таким образом, чтобы вычислять наименьший идентификатор и чтобы

каждый процесс принимал решение. Когда процесс принимает решение, он знает

идентификатор лидера; если этот идентификатор совпадает с идентификатором

процесса, он становится лидером, а если нет - проигравшим; см. Алгоритм

7.1.

var wsp : boolean init false ;

wrp : integer init 0 ;

recp[q] : boolean для всех q ? Neighp init false ;

vp : P init p ;

statep : (sleep, leader, lost) init sleep ;

begin if p - инициатор then

begin wsp := true ;

forall q ? Neighp do send to q

end ;

while wrp < # Neighp do

begin receive ; wrp := wrp + 1 ;

if not wsp then

begin wsp := true ;

forall q ? Neighp do send to q

end

end ;

(* Начало древовидного алгоритма *)

while # {q : ¬recp[q]} > 1 do

begin receive from q ; recp[q] := true ;

vp := min (vp,r)

end ;

send to q0 with ¬recp[q0] ;

receive from q0 ;

vp := min (vp,r) ; (* decide с ответом vp *)

if vp = p then statep := leader else statep := lost ;

forall q ? Neighp, q ? q0 do send to q

end

Алгоритм 7.1 Алгоритм выборов для деревьев.

Теорема 7.2 Алгоритм 7.1 решает задачу выбора на деревьях, используя O(N)

сообщений и O(D) единиц времени.

Доказательство. Когда хотя бы один процесс инициирует выполнение алгоритма,

все процессы посылают сообщения всем своим соседям, и каждый

процесс начинает выполнение древовидного алгоритма после получения

сообщения от каждого соседа. Все процессы завершают древовидный

алгоритм с одним и тем же значением v, а именно, наименьшим идентификатором

процесса. Единственный процесс с этим идентификатором закончит выполнение в

состоянии лидер, а все остальные процессы - в состоянии проигравший.

Через каждый канал пересылается по два сообщения и по два

сообщения , откуда сложность сообщений равна 4N-4. В течение D

единиц времени после того, как первый процесс начал алгоритм, каждый

процесс послал сообщения , следовательно, в течение D+1 единиц

времени каждый процесс начал волну. Легко заметить, что первое решение

принимается не позднее, чем через D единиц времени после начала волны, а

последнее решение принимается не позднее D единиц времени после первого,

откуда полное время равно 3D+1. Более тщательный анализ показывает, что

алгоритм всегда завершается за 2D единиц времени, но доказательство этого

оставлено читателю; см. Упражнение 7.2.

Если порядок сообщений в канале может быть изменен (т.е. канал - не FIFO),

процесс может получить сообщение от соседа прежде чем он получил

сообщение от этого соседа. В этом случае сообщение может

быть временно сохранено или обработано как сообщения , прибывающие

позднее.

Количество сообщений может быть уменьшено с помощью двух модификаций. Во-

первых, можно устроить так, чтобы не-инициатор не посылал сообщение

процессу, от которого он получил первое сообщение . Во-

вторых, сообщение , посылаемое листом, может быть объединено с

сообщением , посылаемым этим листом. С этими изменениями количество

сообщений, требуемое алгоритмом, уменьшается до 3N-4+k, где k - количество

нелистовых стартеров [Tel91b, с.139].

Выбор с помощью фазового алгоритма. Фазовый алгоритм можно использовать для

выбора, позволив ему вычислять наименьший идентификатор за одну волну, как

в Теореме 6.12.

Теорема 7.3 С помощью фазового алгоритма (Алгоритм 6.7) можно провести

выбор в произвольных сетях, используя O(D*|E|) сообщений и O(D) единиц

времени.

Алгоритм Пелега [Peleg; Pel90] основан на фазовом алгоритме; он использует

O(D*|E|) сообщений и O(D) времени, но не требует знания D, т.к. включает в

себя вычисление диаметра.

Выбор с помощью алгоритма Финна. Алгоритм Финна (Алгоритм 6.9) не требует,

чтобы диаметр сети был известен заранее. Длина O(N*|E|) сообщений,

используемых в алгоритме Финна, гораздо больше, чем допускаемая

предположениями в этой главе. Следовательно, каждое сообщение в алгоритме

Финна должно считаться за O(N) сообщений, откуда сложность сообщений

составляет O(N2|E|).

7.2 Кольцевые сети

В этом разделе рассматриваются некоторые алгоритмы выбора для

однонаправленных колец. Задача выбора в контексте кольцевых сетей была

впервые изложена ЛеЛанном [LeLann; LeL77], который также дал решение со

сложностью сообщений O(N2). Это решение было улучшено Чангом (Chang) и

Робертсом (Roberts) [CR79], которые привели алгоритм с наихудшей сложностью

Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18


© 2010 БИБЛИОТЕКА РЕФЕРАТЫ