Научная статья на тему 'ПРИНЦИП МАКСИМУМА ЭНТРОПИИ В ТЕОРИИ ПОИСКА'

ПРИНЦИП МАКСИМУМА ЭНТРОПИИ В ТЕОРИИ ПОИСКА Текст научной статьи по специальности «Математика»

CC BY
69
13
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ТЕОРИЯ ИНФОРМАЦИИ / ТЕОРИЯ ПОИСКА / РАВНОМЕРНО ОПТИМАЛЬНЫЙ ПОИСКОВЫЙ ПЛАН / ФУНКЦИЯ ОБНАРУЖЕНИЯ / ПРИНЦИП МАКСИМУМА ЭНТРОПИИ

Аннотация научной статьи по математике, автор научной работы — Прокаев Александр Николаевич

В исследовании операций задачей теории поиска является разработка плана поиска физического объекта в море или на суше. Оптимальным решением традиционно считается так называемый «равномерно оптимальный поисковый план», обеспечивающий равномерное распределение апостериорной вероятности местонахождения объекта по мере ведения поиска. Вместе с тем достижение оптимальности одновременно по критериям максимума вероятности обнаружения и равенства апостериорной вероятности возможно только для экспоненциальной функции обнаружения. Для функций обнаружения другого вида оптимальные решения по указанным критериям не совпадают. Описана связь теории поиска с теорией информации. Подход к указанной проблеме рассмотрен на основе принципа максимума энтропии. Для ситуации дискретного распределения показано, что в рамках теории информации задача поиска имеет более простое решение, не зависящее от вида функции обнаружения.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Прокаев Александр Николаевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE MAXIMUM ENTROPY PRINCIPLE IN SEARCH THEORY

The paper considers the relationship between search theory and information theory. The traditional problem of search theory is to develop a search plan for a physical object in the sea or on land. The search plan has to develop the distribution of available search resources in such a way that the probability of detection the search object is to be maximum. The optimal solution is traditionally considered as so-called "uniformly optimal search plan", which provides a uniform distribution of the posterior probability of the location of the object as the search is conducted. At the same time, optimality simultaneously according to the criteria of maximum detection probability and equality of a posteriori probability is possible only for the exponential detection function, which is used most often in search theory. For other kinds of detection functions, the optimal solutions according to the specified criteria do not match. In this paper, the approach to this problem is considered on the basis of the maximum entropy principle. For a situation of discrete distribution, it is shown that, within the framework of information theory, the search problem has a simpler solution that does not depend on the kind of the detection function.

Текст научной работы на тему «ПРИНЦИП МАКСИМУМА ЭНТРОПИИ В ТЕОРИИ ПОИСКА»

УДК 519.878 Вестник СПбГУ. Прикладная математика. Информатика... 2023. Т. 19. Вып. 1

MSC 90В40

Принцип максимума энтропии в теории поиска

А. Н. Прокаев

Санкт-Петербургский институт информатики и автоматизации Российской академии наук — Научно-техническое бюро высоких технологий, Российская Федерация, 199178, Санкт-Петербург, 14-я линия В. О., 39

Для цитирования: Прокаев А. Н. Принцип максимума энтропии в теории поиска // Вестник Санкт-Петербургского университета. Прикладная математика. Информатика. Процессы управления. 2023. Т. 19. Вып. 1. С. 27-42. https://doi.org/10.21638/11701/spbul0.2023.103

В исследовании операций задачей теории поиска является разработка плана поиска физического объекта в море или на суше. Оптимальным решением традиционно считается так называемый «равномерно оптимальный поисковый план», обеспечивающий равномерное распределение апостериорной вероятности местонахождения объекта по мере ведения поиска. Вместе с тем достижение оптимальности одновременно по критериям максимума вероятности обнаружения и равенства апостериорной вероятности возможно только для экспоненциальной функции обнаружения. Для функций обнаружения другого вида оптимальные решения по указанным критериям не совпадают. Описана связь теории поиска с теорией информации. Подход к указанной проблеме рассмотрен на основе принципа максимума энтропии. Для ситуации дискретного распределения показано, что в рамках теории информации задача поиска имеет более простое решение, не зависящее от вида функции обнаружения.

Ключевые слова: теория информации, теория поиска, равномерно оптимальный поисковый план, функция обнаружения, принцип максимума энтропии.

1. Введение. Традиционной задачей теории поиска в «классическом» понимании является разработка плана поиска физического объекта в море или на суше. Вместе с тем уже в некоторых ранних трудах задача поиска рассматривалась именно как задача поиска информации. Например, кроме традиционных задач поиска физических объектов в море или на суше Р. Акофф и М. Сасиени [1] относили к этому классу такие задачи как ревизия в смысле поиска ошибок, хранение и поиск данных, разведка месторождений полезных ископаемых, проверка исправности, контроль качества и др. В широком смысле задача поиска заключалась в разработке плана получения необходимой информации, минимизирующего ожидаемую цену ошибки с ограничением на количество расходуемых ресурсов.

Попытки найти взаимосвязь между теорией информации и теорией поиска имели место еще в середине XX в., однако результаты были преимущественно отрицательными. Одно из наиболее ранних мнений о проблеме высказал Д. Мела: «.. .Не похоже, что существует сколько-нибудь близкая связь между теорией поиска и теорией информации», «.. .теорию поиска необходимо соотносить с общей теорией статистических решений, а не с теорией информации» [2, с. 907].

Похожая точка зрения на проблему у Б. Купмана: «С середины тысяча девятьсот сороковых годов, когда теория информации и теория поиска стали предметом общего интереса, делались попытки использовать теорию информации в задачах теории поиска. Результаты можно признать разочаровывающими: ни формулы, ни концепции первой теории не нашли места и не улучшили решений задач второй» [3, с. 134].

© Санкт-Петербургский государственный университет, 2023

В. Баркер [4] показал для экспоненциальной функции обнаружения, что распределение поисковых усилий, дающее максимум вероятности обнаружения, минимизирует информационную составляющую апостериорного распределения.

Дж. Пирс [5] провел анализ работ по данной теме, вышедших в период с 1967 по 1977 г., и указал на противоречивость полученных в них результатов. Проведя собственные разработки, он пришел к заключению, что связь между теорией поиска и теорией информации остается сложной, но оставляющей место для дальнейших исследований.

Э. Джейнс в работе [6], вышедшей в 1981 г., подверг критике ряд положений, изложенных Дж. Пирсом. С самого начала он отметил очевидность близкого родства теории информации не только с теорией поиска, но и с теорией оптимального планирования в любой предметной области. Далее Э. Джейнс привел пример связи максимума энтропии с оптимальной стратегией поиска, указав при этом, что он является скорее обучающим примером, чем отчетом о новом исследовании. В своих выводах Э. Джейнс задается вопросом: «Почему потребовалось около тридцати лет после выхода работы К. Шеннона ([7] — прим. автора) для того, чтобы найти связь между максимумом энтропии и оптимальным поиском, несмотря на то, что многие подозревали о ней и пытались найти?» [6, с. 16]. На этот вопрос он дает следующий ответ: трудность в применении принципа максимума энтропии вне термодинамики заключается не в определении требуемых ограничений, а в правильном задании «пространства гипотез», на котором энтропия определена. В завершение им было отмечено, что проблема остается открытой, поскольку разнообразие вновь возникающих задач безгранично.

Стремление создать единую теорию поиска, объединяющую под термином «поиск» совершенно разноплановые задачи из области исследования операций, теории информации, медицины, компьютерных наук, а также теории управления и теории оптимизации, связано прежде всего с Р. Альсведе [8], а также с участниками созданной по его инициативе группы «Методологии поиска» из Центра междисциплинарных исследований Университета Билефельда в 2010-2012 гг. Представление о работе данной группы можно получить из [9], где изложены результаты 36 исследований по трем основным направлениям: теория информации, комбинаторика и теория поиска, а также приведена обширная библиография по теории поиска в широком понимании Р. Альсведе. Вместе с тем работ о взаимосвязи принципа максимума энтропии с теорией поиска, вышедших после [6], нам найти так и не удалось.

Настоящая статья является очередным шагом в установлении «родства» теории информации с теорией поиска в ее «классической» трактовке исследования операций. В ней рассматривается та же задача, что и в [5, 6], — в одной из наиболее «именитых» работ по теории поиска [10] она названа «основной задачей теории поиска». Цель статьи — показать, что в рамках теории информации указанная задача может иметь универсальное и более простое решение, по крайней мере для случая дискретного распределения.

В п. 2 кратко описаны задача поиска и «традиционный» алгоритм ее решения [11]. В п. 3 на простом примере («задача о двух шкафах») рассмотрено одно из противоречий теории поиска и показана возможность использования функции энтропии в теории поиска. В п. 4 задача поиска сформулирована с точки зрения теории информации.

2. «Основная задача теории поиска». При описании задачи будем использовать традиционную для теории поиска терминологию и математические обозначе-

ния, принятые в [11]. Объект поиска именуется как «цель», участник поиска — «наблюдатель», а параметр, который должен быть распределен, — «поисковые усилия». Предполагается, что известно априорное дискретное распределение, показывающее степень нашей уверенности о местонахождения цели — вероятностное распределение на конечном множестве из п ячеек, называемое областью Задача предполагает, что цель может находиться только в одной из ячеек ] с вероятностью р¿, ] = 1,. ..,п, Рз = 1- Для кажД°й ячейки ] существует функция обнаружения Ъ(гз), представляющая собой условную вероятность обнаружения цели в ячейке ] поисковыми усилиями объемом гз при условии, что цель находится в ячейке ].

Дополнительно может учитываться функция стоимости 3г^, которая показывает «стоимость» приложения усилий объемом гз в ячейке ^ Часто 0з = 1, т. е. «стоимость» ограничивается объемом приложенных усилий, авторы [5, 6] считали так же, и мы последуем их примеру.

План поиска — это функция распределения поисковых усилий I, которая определяет количество поисковых усилий г^ распределенных в ячейку ^ Пусть Е — это множество функций распределения поисковых усилий. Для функции распределения I можно вычислить вероятность обнаружения

п

Р (I) = Е Рз Ъ(гз) (1)

з=1

и требуемое (израсходованное) количество поисковых усилий, или ресурс поисковых усилий С(I) = 5^П=1 гз Пусть М > 0 — это ограничение на ресурс поисковых усилий. Тогда поисковый план I* € Е является оптимальным для ресурса М, если С(I*) < М, и Р(I*) > Р(I) для всех I € Е при условии С(I) < М.

Оптимальное распределение для экспоненциальной функции обнаружения впервые было найдено в [12, 13]. В [14] результаты, полученные в [12, 13], обобщены на любую функцию обнаружения при условии, что она имеет убывающую производную.

Пусть Ъ(гз) — положительная и непрерывная функция от г, Ъ(гз) — производная от Ъ(гз) по причем 0 < Ъ (г3-) < Ъ(0); в [11] такая функция именуется убывающей функцией обнаружения. Свойства убывающей функции характерны для большинства функций обнаружения, например для экспоненциальной, что, видимо, и является основной причиной, по которой решение данной задачи найдено только для функций этого вида.

Функция р (г3-) = Ъ (г3-)рз названа в [9] «функцией отклика». В [14] показано, что оптимальное распределение поисковых усилий достигается в том случае, когда в ячейках, где выполняется поиск, функция отклика принимает равные значения.

В [10] данная оптимизационная задача впервые решена с использованием метода множителей Лагранжа также для убывающей функции обнаружения. Решение предполагает, что для каждого очередного приращения приложенных поисковых усилий отклик А будет равен для всех ячеек, где ведется поиск, и меньше или равен для тех ячеек, где поиска нет. Было доказано, что если I (г^, А) = Ъ (г^) рз — Агз — дискретная функция Лагранжа для ] = 1,..., п, гз ^ 0, и А > 0, то поисковый план I* € Е, который максимизирует функцию Лагранжа для всех ] = 1,...,п, оптимален для ресурса С(I*).

Распределение I* — это план, оптимальный для фиксированного значения ресурса, например времени поиска. Часто наблюдатель не знает точного времени, выделенного на поиск. В этом случае было бы желательно получить распределение во времени и пространстве, обеспечивающее максимум вероятности обнаружения в любое время

по мере ведения поиска. Для этого, распределив план /* во времени соответствующим образом, получим так называемый «равномерно оптимальный поисковый план» [11], реализуемый во времени, как указано далее. На первом этапе поиск начинается в ячейке 1, имеющей наибольшее значение вероятности рх нахождения цели в пей, и продолжается только в этой ячейке усилиями гх1 до тех пор, пока вероятность нахождения цели в ячейке 1 уменьшится и станет равна вероятности р2 нахождения цели в ячейке 2. В таком случае вероятность рх уменьшится на величину 5р\ = Ь(гх)рх и станет равна q1 = рх — 5р\ = (1 — Ь (гх)) рх = р2. На втором этапе поиск охватывает уже ячейки 1 и 2 таким образом, что дополнительные усилия г 12 и г22 в ячейках 1 и 2 удовлетворяют условию Ь (г 12)рх = Ь (г22)р2 для обеспечения равенства значений функции отклика. Таким же образом поиск продолжается до тех пор, пока он не охватит ячейку 3 (третий этап, усилия г13, г23, г33), и так происходит до тех пор, пока цель не будет обнаружена или ресурс С(/*) не будет полностью распределен. Апостериорная вероятность нахождения цели в тех ячейках, где поиск не выполнялся, должна быть меньше или равна значениям в тех ячейках, где поиск проводился и которые, в свою очередь, должны быть равны между собой. Рассмотренный алгоритм получения «равномерно оптимального поискового плана» мы будем называть «традиционным алгоритмом» в силу его широкого использования.

3. Задача о двух шкафах. В [10, 11] описаны варианты решения различных задач поиска с помощью традиционного алгоритма и только для убывающих функций обнаружения. Действительно, именно эти функции используются в большинстве реальных задач поиска физических объектов. Кроме того, только при соблюдении условия 0 < Ь (г^) < Ь(0) выполняется соотношение, являющееся основой оптимального распределения поисковых усилий по критерию максимума вероятности обнаружения:

рФ г) + р^Ь г) > тах рЬ (г^ + г^), р^Ь (г^ + г^)), (2)

где тах рЬ (г^ + г^), р^Ь (г^ + г^)) — наибольшее из значений в скобках. Однако при рассмотрении задачи поиска в более широком смысле как поиска информации различного вида могут иметь место функции обнаружения, для которых условие (2) не выполняется. Решим одну из таких задач на примере ревизии.

Предположим, группе ревизоров необходимо обследовать п шкафов, содержащих примерно одинаковое число книг или папок, объектом поиска является некоторый фрагмент текста в одной из них. Вероятность того, что объект поиска находится в каждом из шкафов, равнар^ ] = 1,.. .,п, ^"=1 pj = 1. Время ревизии ограничено.

Есть несколько способов решения данной задачи. Первый способ — просматривать книги в случайном порядке, пытаясь обнаружить искомый фрагмент. Второй способ — читать каждую книгу последовательно, страницу за страницей. И, наконец, возможен третий способ — контекстный поиск, т. е. поиск с использованием дополнительной информации: это может быть, например, опись документов, содержащихся в шкафу, или информация, полученная в ходе чтения и повышающая степень осведомленности наблюдателя о возможном местонахождении искомого фрагмента.

По традиции будем именовать ревизора наблюдателем, ревизию — поиском, шкаф — ячейкой, а объект поиска — целью. Тогда вероятность обнаружения цели для каждого из способов поиска можно определить следующим образом. Пусть ¿о — это математическое ожидание времени полного обследования одной ячейки, tj — ресурс времени, выделенный на поиск в ^'-й ячейке, Т — общий ресурс времени обследования всех ячеек, tj ^ Т. Здесь предполагается, что ресурс времени измеряется

в человеко-часах, т. е. ресурс 10 ч означает, что на одну и ту же работу выделены два наблюдателя на 5 ч или пять наблюдателей на 2 ч.

Обозначим поисковое усилие, распределенное на поиск в '-й ячейке как гj = гз = С) а вероятность распознавания искомого фрагмента при открытии нужной страницы как к ^ 1.

Тогда для первого способа поиска условная вероятность обнаружения равна

= (3)

где I — число «просмотров» текста за время tj.

Данная зависимость соответствует показательной функции обнаружения. Если значение I мало, то такой поиск называется «дискретным». В контексте ревизии величину I можно интерпретировать как количество случайных выборок документов, отобранных для изучения. Если же значение I велико, то поиск называется «непрерывным», при этом функция обнаружения принимает вид

Ь г И1 — exp(—kгj), (4)

т. е. соответствует экспоненциальной функции. Она используется в теории поиска наиболее часто.

При втором способе поиска условная вероятность обнаружения прямо пропорциональна затратам поискового ресурса:

Ь г)= к^, ^ < 1 (5)

т. е. функция обнаружения Ь (гj) является линейной. При поиске физических объектов такая ситуация возникает в случае, когда любая точка области поиска обследуется без «перекрытий» поисковых полос, т. е. однократно.

Условную вероятность обнаружения при поиске третьим способом можно определить степенной функцией вида

Ъ(г^ = кгг/\ < (6)

где г ^ 1 — некоторый показатель, определяющий скорость нарастания «информированности» наблюдателя по мере поиска. При поиске физических объектов подобная функция обнаружения имеет место в случае, когда по мере ведения поиска площадь области возможного нахождения цели уменьшается нелинейно, например при поиске по спирали, сходящейся от краев области поиска к ее центру.

Если г = 1, то степень информированности наблюдателя о местонахождении цели по мере поиска не возрастает. Можно видеть, что тогда функции обнаружения для второго и третьего способов совпадают, т. е. второй способ является частным случаем третьего. Поэтому далее, если нет дополнительных указаний, говоря о степенной функции обнаружения, будем иметь в виду также и линейную функцию как частный г=1

Поскольку учитывается вероятность к ^ 1 распознавания цели при открытии нужной страницы, возможна ситуация, когда при полном обследовании ячейки (г^ = объект не будет обнаружен. Тогда, если процедура поиска повторяется заново, т. е. если г^ > условную вероятность обнаружения можно выразить приближенной формулой

Ъ(г,) = 1-(1-кГ^, (7)

при этом функция обнаружения становится убывающей, как и при поиске первым способом.

Рис. 1. Функции обнаружения: показательная (1), экспоненциальная (2), «линейно-показательная» (3) и «показательно-степенная» (4)

На рис. 1 представлены графики функций обнаружения для к = 0.8:

• (Ь1(г) — показательная функция (выражение (3)), I = 3 (кривая 1);

• (Ь2(г) — экспоненциальная функция (выражение (4)) (кривая 2);

• (Ь3(г) — линейная функция (выражение (5)) переходит в показательную при г > 1 (выражение (7)) (кривая 3);

• (Ь4(г) — степенная функция (выражение (6)), г = 2 переходит в показательную при г > (выражение (7)) (кривая 4)-

Конкретизируем рассматриваемую задачу. Пусть количество ячеек п = 2, априорная вероятность нахождения цели в них равна соответственно р1 = 0.55, р2 = 0.45. Время, необходимое для полного обследования одной ячейки, = 100 ч, ресурс времени, выделенный на проведение поиска, — 120 ч. При открытии нужной страницы цель гарантированно распознается (к = 1).

Как показано выше, традиционный алгоритм предполагает, что «функция отклика» р (zj) = Ь (zj) р^ должна быть одинакова во всех ячейках, где выполняется поиск. Тогда при поиске первым способом поиск начинается в ячейке 1 и продолжается только в ней в течение = 20 ч, после чего вероятность р\ уменьшится и станет равна р2, (1 — Ь (г1)) р1 = р2. Затем поиск распространяется на ячейку 2, и последующие усилия, прилагаемые к обеим ячейкам, делятся поровну, т. е. по 50 ч на каждую, с целью обеспечить равенство значений «функции отклика».

Но для линейной функции обнаружения производная по Zj от функции обнаружения Ь (zj) = к, а для степенной функции Ь (zj) = кг2Zjr-1. Из этого следует, что выражение (2) для указанных функций принимает вид р^Ь ^)+PjЬ (zj) ^ р^Ь ^ + Zj), где строгое равенство соответствует линейной функции. Тогда с учетом (1) можно заключить, что для данных функций максимум вероятности обнаружения достигается приложением всех поисковых усилий к той ячейке, где величина pj является наибольшей. Когда Ь (zj) достигнет значения к, поисковые усилия необходимо перераспределить в ячейку, где pj имеет следующее значение, и так до полного израсходования поискового ресурса. Предположим, дополнительная информация отсутствует

(г = 1), т. е. поиск ведется вторым способом. Тогда, согласно данному алгоритму, в течение первых 100 ч необходимо обследовать ячейку 1, а оставшиеся 20 ч — ячейку 2. Если через 100 ч поиска цель в ячейке 1 обнаружена не будет, апостериорная вероятность ее нахождения в ячейке 2 станет равной 1, но на обследование ячейки 2 останется уже только 20 ч. И это с учетом того, что исходное соотношение априорных вероятностей составляло 0.55/0.45, т. е. шансы обнаружить цель в любой из ячеек были практически равными. Логика подсказывает, что такое распределение поисковых усилий не может считаться оптимальным, даже если в соответствии с формулой (1) оно дает наибольшую вероятность обнаружения. Поскольку выделенный поисковый ресурс не позволяет обследовать обе ячейки полностью, более предпочтительным представляется такое распределение поисковых усилий, чтобы «ценность» информации, которая в обеих ячейках останется необследованной, была одинаковой. В терминах теории поиска это означает, что значения апостериорной вероятности нахождения цели в необследованной части каждой из ячеек должны быть равны.

Решить такую задачу можно следующим образом. В соответствии с условием для полного обследования обеих ячеек не хватает 2 • 100 — 120 = 80 ч. С учетом априорной вероятности нахождения цели в них можно записать р1Х = р2(1 — х), х = 0.45. Тогда недостающие 80 ч следует распределить между ячейками следующим образом: 0.45 • 80 = 36 ч на ячейку 1 и 80 — 36 = 44 ч на ячейку 2. Таким образом, поисковые усилия должны быть распределены так: 100 — 36 = 64 ч на ячейку 1 100 — 44 = 56

Однако данный план говорит только о распределении поисковых усилий в пространстве, но не во времени. Кроме этого, наблюдатели могут и не знать точного времени, выделенного на поиск. Поэтому возникает потребность в составлении такого плана распределения поисковых усилий, который обеспечивает равенство апостериорной вероятности нахождения цели в необследованной части каждой из ячеек в каждый момент времени поиска. Для этого несколько усложним условия поиска и рассмотрим указанные планы для различных функций обнаружения. В отличие от предыдущего примера — исключительно для наглядности графиков — будем считать, что априорные вероятности нахождения цели в ячейках равны р1 = 0.75, р2 = 0.25, вероятность распознавания цели к = 0.7, поисковый ресурс не ограничен.

На рис. 2, I представлен график вероятности обнаружения цели для экспоненциальной функции обнаружения. План распределения поисковых усилий состоит в том, что па первом этапе поисковые усилия в объеме zo распределяются в ячейку 1. После приложения к ячейке 1 поисковых усилий объемом zo = 1.57 апостериорная

.

будет обнаружена, то оставшиеся поисковые усилия распределяются между ячейками поровну, ¿1 (С) = го + , ¿2 (С) = , Если принять С = 3, то = 2.28, Z2 = 0.71, вероятность обнаружения цели в обеих ячейках Ь (zj) будет определяться выражением (4). Апостериорная вероятность нахождения цели в ячейках может быть определена по формуле

= (8) 1 ¿^ j=1Pj

для данного примера ] = 1, 2,п = 2. Па рис. 2,1, б показано изменение апостериорной вероятности по мере реализации плана поиска.

Рис. 2. Условная вероятность обнаружения и апостериорная вероятность нахождения цели в ячейках 1 и 2 а: 1 — b(zi), 2 — b(z2); б: 1 — 2 — p2. I — функция обнаружения экспоненциальная; II — функция обнаружения показательная, план поиска «экспоненциальный»; III — функция обнаружения показательная, план поиска «равномерно оптимальный»; IV — функция обнаружения линейная, план поиска «равномерно оптимальный»; V — функция обнаружения показательная, план поиска «равномерно оптимальный».

Ресурс поисковых усилий С Ресурс поисковых усилий С

Окончание рис. 2.

Данный поисковый план является равномерно оптимальным, т. е. обладает следующими свойствами: по мере ведения поиска дает максимум вероятности обнаружения цели (1) и равенство апостериорной вероятности нахождения цели в ячейках, где ведется поиск [10, 11]. Простота решения есть следствие известного свойства экспоненциальной функции [10]: если К — малое приращение поисковых усилий, тогда вероятность обнаружения цели усилиями г + К при условии, что она не была обнаружена усилиями г, равна Р = = 1 — Таким образом, вероятность обнаружения цели усилиями К не зависит от количества поисковых усилий, затраченных на поиск. Известно, что экспоненциальная функция — единственная из функций обнаружения, имеющая подобный «недостаток памяти».

Внешне график вероятности обнаружения цели (рис. 2, II, а) будет похож на одноименный график, изображенный на рис. 2, I (отличие только в том, что г0 = 1.31), но изменение апостериорной вероятности по мере реализации этого плана поиска (рис. 2, II, б) будет уже существенно отличаться от представленного на рис. 2, I, б — равенства р\ и р2 не получается.

Равномерно оптимальный поисковый план для показательной функции обнаружения будет уже сложнее, чем для экспоненциальной. Этот план также предполагает, что на первом этапе поисковые усилия в объеме г0 = 1.31 распределяются в ячей-

ку 1 (рис. 2, III, а). Отличие заключается в том, что оставшиеся поисковые усилия распределяются между ячейками уже не поровну. Формулы для вычисления Zj примут следующий вид: zi(C) = z0 + z2 (С) = для С = 3 получим

zi = 2.0 z2 = 1.0. Изменение апостериорной вероятности по мере реализации этого плана поиска показано на рис. 2, III, б.

Графики вероятности обнаружения цели для линейной (выражение (6), r = 1) и степенной (выражение (6), r = 2) функций обнаружения представлены на рис. 2, IV, а и рис. 2, V, а. Поисковые планы для этих функций также предполагают, что на первом этапе поисковые усилия в объеме z0 распределяются в ячейку 1. Далее, если С ^ Со, Со = z0 + -w=, то распределение поисковых усилий zj, обеспечиваю-

щее равенство апостериорной вероятности нахождения цели в ячейках (рис. 2, IV, б и рис. 2, V, б), будет иметь вид Zl(C) = z0 + р2(С — z0), z2(C) = z0 + р1(С — z0), формулы для вычисления Ь ^1) = кг^0г + р2кг(С — zo)r, Ь ^2) = р1кг(С — zo)r. Если С > С0, то оставшиеся поисковые усилия распределяются между ячейками поровну, функция обнаружения становится показательной (выражение (7)), распределение поисковых усилий ^ будет такое: ^(С) = г0 + = + г2(С) = +

Если С = 3, то для степенной функцнп (г = 2) zo = 0.57 Zl = 1.58, Z2 = 1.42.

Для линейной функции (г = 1) вычисления значительно упрощаются, поскольку величина С0 всегда равна количеству ячеек. Если С ^ Сто значения Zj равны между собой для любого распределения р^: (С) = го + ^ + , (С) = 1 + ^^ ■ Например, для С = 3 z0 = 0.67, z1 = z2 = 1.5.

Далее нас будет интересовать следующий вопрос: как влияет условие равенства апостериорной вероятности нахождения цели в ячейках поиска р^ (выражение (8)) на основной показатель эффективности поиска — вероятность обнаружения цели Р (/) (см. (1)).

Рассмотрим этот вопрос наиболее наглядно - на примере линейной функции. Как показано выше, при С = 2 условная вероятность обнаружения цели Ь (zj) в ячейках будет одинаковой и равной к, если же С > 2, то функция обнаружения становится показательной, а поисковые усилия распределяются между ячейками поровну. Поэтому с точки зрения данной задачи нас будет интересовать только участок С ^ 2.

Рассмотрим два плана распределения поисковых усилий /. Первый план /1 реализует критерий максимума вероятности обнаружения цели (1) с использованием традиционного алгоритма. Как показано выше, для достижения максимума вероятности (1) необходимо на первом этапе поисковые усилия в объеме Zl = 1 распределить в ячейку 1, после чего оставшиеся поисковые усилия в объеме Z2 = С — Zl = 1 распределить в ячейку 2. Рисунок 3, I, а иллюстрирует график изменения условных вероятностей обнаружения цели Ь (zj) и вероятности Р(/1) в ходе реализации плана /1 /1

/2

вероятности нахождения цели в ячейках поиска, соответствующие графики приведены на рис. 3, II, а, б.

Сравнение рис. 3,1, а и рис. 3, II, а показывает, что рост вероятности обнаружения Р(/{) для первого плана происходит быстрее. Например, если С = 1, то Р (/1) = 0.525, Р (/2) = 0.438. Однако из рис. 3, I, б и рис. 3, II, б также следует, что для плана /2, начиная с z0 = 0.67, выполняется условие равенства апостериорной вероятности р^ для любых значений С ^ z0, в то время как для плана /1 это равенство имеет место только при С = zo.

Ресурс поисковых усилий С Ресурс поисковых усилий С

Ресурс поисковых усилий С Ресурс поисковых усилий С

Рис. 3. Условная вероятность обнаружения (а) и апостериорная вероятность нахождения цели в ячейках 1 и 2 (Ъ) (функция обнаружения линейная) а: 1 — Ъ(г\), 2 — Ъ(г2), 3 — Р (/); б: 1 — р\, 2 — р2\ I — план по иска Д; II — план по иска /2.

Возникает вопрос: если план поиска не может удовлетворять двум критериям одновременно, какому из них следует отдать предпочтение? Что важнее обеспечить: максимум «вероятности успеха» Р(/) на основе исключительно априорной информации о цели или равноценность «остаточной информации» о ней (здесь равенство апостериорной вероятности ризменяющейся по мере ведения поиска?

С учетом принципиальной невозможности разрешения данного противоречия для большинства функций обнаружения реализация «равноценности остаточной информации» видится более надежной основой для планирования поиска. В данной ситуации распределение поисковых усилий и оценку эффективности поиска нужно выполнять с использованием разных критериев: распределение поисковых усилий производить по критерию равенства апостериорной вероятности р^, а результат этого распределения, т. е. эффективность поиска, оценивать вероятностью обнаружения Р(/) (для экспоненциальной функции решения по этим критериям совпадают).

Однако здесь возникает следующая проблема. Задача оптимизации поисковых усилий, как и большинство задач оптимизации, относится к числу экстремальных. И если функция Р) имеет экстремум, то равенство значений р^, напротив, предполагает его отсутствие вне зависимости от того, осматриваются все п ячеек или только часть из них, имеет место условие ^^ р^ = ^П р ^ =1. Можно показать, что если фиксированный поисковый ресурс М распределяется так, что значения апостериорной

вероятности р* = р 3(г*) во всех ячейках области поиска равны, то функции р 3(г^) имеют минимум в точке г* только для экспоненциальной функции обнаружения.

Преодоление указанной проблемы возможно путем использования в качестве целевой функции некоторой функции Г, которая удовлетворяла бы ряду необходимых требований, или, иначе, обладала рядом необходимых свойств. Для описания данных свойств введем обозначения. Ячейки области . с номерами ] = 1,... ,т обозначим как область X, ячейки с номерами ] = т + 1,... ,п — как область У, рз = х> Т^п+1 Рз = Ух + у = 1. Значения фун кции Г для областей X и У обозначим соответственно как FJ = Г (ф1,.. .,Ри), Гх = Г (ф1,.. .,рт), Гу = Г (рт+1,.. .,Рп)- Тогда целевая функция Г должна обладать следующими свойствами:

1) Г должна быть непрерывной относительно р¿;

2) Г должна принимать наибольшее значение Гтах в том случае, когда все величины pj равны, pj = —;

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

3) FJ = Гх + ГуП

4) увеличение значения Гх должно приводить к росту FJ;

5) при всех возможных вариантах распределения рз в области X функция Г должна принимать наибольшее значение в том случае, когда величины рз в области X равны рх =

6) если вероятности рз в области X равны рх = ^, а в области У равны ру = (п-т)' т0 Функция -Р должна принимать наибольшее значение только при условии рх = руК. Шеннон [7] показал, что функция энтропии Н = ~^П=1 рз рз обладает

такими свойствами:

— непрерывна относительно рз;

— если все рз равны, рз = —, то Н принимает наибольшее значение и является

п

Н

шенной суммой «условных» значений Н: если рз = х, П=т+1 рз = У х + У =

1, то

Н(Р1...Рп) = Н(х, у) + хН(^,...,Щ+ун(^,..., ^У (9)

\ х х / \ У У )

Н

Г

быть использована в качестве целевой функции для оптимизации распределения поисковых усилий. При изложении лемм будем использовать обозначения, введенные

Г

.

.

.

представить следующим образом:

HJ = Нх + Ну,

где

Нх = Н(х)+хН(^,..., Щ, ну = н(у) + ун(^,..., ^У

х х У У

т п т

х = Рэ> у= Рэ>12

3 = 1 з=т+1 3=1

]Г (-1=1, Н(х,у) = Н(х) + Н(у), Н(х) = —х\пх, Н(у) = -у\пу.

Обозначим «взвешенную», или, иначе, условную, энтропию символом И, тогда И^ примет вид

Н3 = Н(х, у) + хНх + у Ну. (10)

Здесь Нх = Н(ръ ...,рт) = Н Ну = Н(рт+1,.. .,рп) = н(^±,..., 1

Тогда рост значения Их в условиях постоянства остальных членов уравнения (10) ведет к увеличению величины И□ Примечание. Функция Нх максимальна в том случае, когда значения р • в области X равны, р - = что является подтверждением того, что функция энтропии Н удовлетворяет требованию 5 к функции Г.

Лемма 2. Если вероятности р^ в области X равны рх = а в области У равны ру = , то энтропия Н,] принимает наибольшее значение, если рх = ру-Доказательство. Если вероятности рх равны, то Нх будет максимально, то же относится соответственно к ру и Ну. Если Нх и Ну достигли максимума, то значения р^ в области X будут равны области У — (п-т) ■ Тогда (9) мож-

но представить так: Н3 = Н(х, у)+хН(±,..., + уН - - -, ^^ ■ В свою

очередь, Н] станет наибольшим при условии р^ = при этом выражение (9) примет вид Н3 = Н + + (,..., V Сравнение

^ ] \п'п/'п \т> > т/ ' и Хп—т' ' п—тI ^

данных выражений показывает, что для достижения максимума И] должны выполняться условия х = тоу = (п — т)^, т. е. величины р^ в X и У должны быть равны ^. □

Таким образом, функция энтропии И обладает свойствами 1-3 функции Г по

И

свойством 4 функции Г. Свойство 5 функции Г непосредственно следует из свойств 3

И И

Г

для оптимизации распределения поисковых усилий.

4. Задача поиска с точки зрения теории информации. Несколько усложним условия задачи и будем считать, что поиск ведется не одновременно во всех п ячейках, а поэтапно, путем обследования т ячеек в ходе одного этапа, 1 ^ т ^ п, при этом предельное число этапов поиска К ^ 1 и лимит поискового ресурса М могут быть не известны.

Рассмотрим далее задачу поиска цели как задачу поиска информации о ней. Что является информацией, на основе которой мы строим стратегию поиска? Единственной информацией является распределение р(1) = {р1,... ,рп}, изменяющееся по мере ведения поиска от этапа к этапу. Если па к-и этапе, к = 1,...,К, поиск не дал результата, то апостериорное распределение рк(^) = {р\,.. .,р'п}к, полученное после к-го этапа, — это априорное распределение рк+1 (■!) = {рь ... ,рп}к+1 для очередного к + 1-го этапа.

Область поиска можно считать системой, каждое из п состояний которой можно охарактеризовать так: «Цель находится в ячейке ] с вероятностью р^. Распределе-р( . )

осведомленности о цели будем именовать ситуацию, когда цель обнаружена или оптимальная стратегия поиска из текущего к-то состояния системы известна. Реальные задачи поиска, как правило, имеют ограничения на суммарный поисковый ресурс М или число этапов поиска К, число одновременно осматриваемых ячеек т и др. Исходя из этого, наиболее информативным алгоритмом, будем считать такой алгоритм поиска, который позволяет перевести систему в состояние наибольшей осведомленности о цели наименьшими поисковыми усилиями с учетом имеющихся ограничений.

К. Шеннон [7] предложил использовать энтропию в качестве меры информации, содержащейся в системе. После выполнения поиска энтропия системы изменится

п

и примет вид Н = — р з 1°ё рВеличину Н будем именовать априорной энтропией,

3=1

Н

ся начальным значением энтропии Но для исходного априорного распределения рз. В свою очередь, максимуму энтропии Нтах = ^ п соответствует ситуация равномерного распределения цели в области поиска, рз = 1/п, что следует из свойств функции Н

обладаем до начала поиска, определяется выражением АН = Нтах — Но. Логично предположить, что наиболее информативным будет такой алгоритм поиска, который позволит получить наибольший объем информации о цели за наименьшее число этапов. Разумно также предположить, что это произойдет в случае, когда на каждом этапе поиска будем получать максимальное количество информации с учетом заданных ограничений на поисковые усилия. Количество информации, получаемой па очередном к-и этапе поиска, можно определить выражением АН и = Н и — Н и-1, где Ни-1 и Ни — значения апостериорной энтропии после соответственно к — 1-го и к-то этапов поиска. Следовательно, значение апостериорной энтропии после к-то этапа поиска будет равно Ни = Ни-1 + АНи. Отсюда, в свою очередь, вытекает, что если АН и будет максимальным, то и значение Н и максимально. Если при этом энтропия примет значение Нтах, а цель не будет обнаружена, то оптимальная стратегия дальнейшего поиска известна и очевидна: в ситуации равномерного распределения р^ = ^ оптимальной стратегией является равномерное распределение поисковых усилий по п.

формативным будет такой алгоритм поиска, при котором апостериорная энтропия Ни после очередного к-то этапа поиска будет максимальной.

5. Заключение. Э. Джейнс утверждал [6, с. 17]: «.. .Теория информации должна иметь точную, аналитически демонстрируемую всеобъемлющую связь не только с теорией поиска, но и с оптимальным планированием в любой области, поскольку любая оптимальная стратегия — это только процедура, использующая априорную информацию для достижения поставленной цели настолько эффективно, насколько это возможно».

Настоящую работу можно считать постановкой задачи для нахождения указанной «аналитически демонстрируемой связи», а именно разработки теоретических основ алгоритма распределения поисковых усилий методом максимума энтропии для различных видов функций обнаружения.

Литература

1. Ackoff R. L.: Sasieni M. W. Fundamentals of operations research. New York, USA: John Wiley & Sons, Inc., 1967. 455 p.

2. Mela D. F. Letter to the editor — information theory and search theory as special cases of decision theory // Operations Research. 1961. Vol. 9(6). P. 907-909.

3. Koopman Б. O. Search and information theory // Part of final report on stochastic processes in certain naval operations. New York, USA: Columbia University, 1967. P. 126-134.

4. Barker W. H. Information theory and the optimal detection search // Operations Research. 1977. Vol. 25. N 2. P. 304-314.

5. Pierce J. G. A new look at the relation between information theory and search theory // The maximum entropy formalism. Cambridge, USA: MIT Press, 1978. P. 339-402.

6. Jaynes E. T. Entropy and search theory. Maximum-entropy and Bayesian methods in inverse problems. Fundamental theories of physics. Dordrecht, Netherlands: Springer, 1985. Vol. 14. P. 1-8.

7. Shannon С. E. A mathematical theory of communication // Bell System Techn. Journal. 1948. Vol. 27. N 4. P. 623-656.

8. Ahlswede R., Wegener I. Suchprobleme (Eng. Search Problems). Stuttgart, Germany: Teubner Verlag, 1979. 273 p.

9. Information theory, combinatorics, and search theory: in memory of Rudolf Ahlswede. Eds H. Aydi-nian, F. Cicalese, C. Deppe. Vol. 7777 of Lecture Notes in Computer Science. Cambrige: Springer, 2013. 773 p. https://doi.org/10.1007/978-3-642-36899-8

10. Stone L. D. Theory of optimal search. New York, USA: Academic Press, 1975. 260 p.

11. Stone L. D., Royset J. O., Washburn A. R. Optimal search for moving targets. Switzerland: Springer, 2016. 312 p. (International Series in Operations Research & Management Science, N 237). https:// doi.org/10.1007/978-3-319-26899-6_ 1

12. Koopman Б. O. Search and screening. Operations evaluation group report. Alexandria, USA: Center for Naval Analyses. 1946. Vol. 56. 176 p.

13. Koopman Б. O. The theory of search. The optimum distribution of searching effort // Operations Research. 1957. Vol. 5. P. 613-626.

14. De Guenin J. Optimum distribution of effort: An extension of the Koopman basic theory // Operations Research. 1961. Vol. 9. P. 1-7.

Статья поступила в редакцию 18 октября 2022 г. Статья принята к печати 19 января 2023 г.

Контактная информация:

Прокаев Александр Николаевич — д-р техн. наук, доц.; prokaev@bk.ru

The maximum entropy principle in search theory

A. N. Prokaev

St. Petersburg Institute for Informatics and Automation of the Russian Academy of Sciences — Hi Tech Research and Development Office, 39, 14-ya liniya V. O., St. Petersburg, 199178, Russian Federation

For citation: Prokaev A. N. The maximum entropy principle in search theory. Vestnik of Saint Petersburg University. Applied Mathematics. Computer Science. Control Processes, 2023, vol. 19, iss. 1, pp. 27-42. https://doi.org/10.21638/11701/spbul0.2023.103 (In Russian)

The paper considers the relationship between search theory and information theory. The traditional problem of search theory is to develop a search plan for a physical object in the sea or on land. The search plan has to develop the distribution of available search resources in such a way that the probability of detection the search object is to be maximum. The optimal solution is traditionally considered as so-called "uniformly optimal search plan", which provides a uniform distribution of the posterior probability of the location of the object as the search is conducted. At the same time, optimality simultaneously according to the criteria of maximum detection probability and equality of a posteriori probability is possible only for the exponential detection function, which is used most often in search theory. For other kinds of detection functions, the optimal solutions according to the specified criteria

do not match. In this paper, the approach to this problem is considered on the basis of the maximum entropy principle. For a situation of discrete distribution, it is shown that, within the framework of information theory, the search problem has a simpler solution that does not depend on the kind of the detection function.

Keywords: information theory, search theory, uniformly optimal search plan, detection function, maximum entropy principle.

References

1. Ackoff R. L., Sasieni M. W. Fundamentals of operations research. New York, John Wiley & Sons Inc. Publ., 1967, 455 p.

2. Mela D. F. Letter to the editor — information theory and search theory as special cases of decision theory. Operations Research, 1961, vol. 9(6), pp. 907-909.

3. Koopman B. O. Search and information theory. Part of final report on stochastic processes in certain naval operations. New York, Columbia University Press, 1967, pp. 126-134.

4. Barker W. H. Information theory and the optimal detection search. Operations Research, 1977, vol. 25, no. 2, pp. 304-314.

5. Pierce J. G. A new look at the relation between information theory and search theory. The maximum entropy formalism. Cambridge, MIT Press, 1978, pp. 339-402.

6. Jaynes E. T. Entropy and search theory. Maximum-entropy and Bayesian methods in inverse problems. Fundamental theories of Physics. Dordrecht, Springer Publ., 1985, vol. 14, pp. 1-18.

7. Shannon C. E. A mathematical theory of communication. Bell System Techn. Jornal, 1948, vol. 27, no. 4, pp. 623-656.

8. Ahlswede R., Wegener I. Suchprobleme [Search problems]. Stuttgart, Germany, Teubner Verlag Publ., 1979, 273 p.

9. Information theory, combinatorics, and search theory: in memory of Rudolf Ahlswede. Vol. 7777 of Lecture Notes in Computer Science. Eds H. Aydinian, F. Cicalese, C. Deppe. Cambrige, Springer Publ., 2013, 773 p. https://doi.org/10.1007/978-3-642-36899-8

10. Stone L. D. Theory of optimal search. New York, USA, Academic Press, 1975, 260 p.

11. Stone L. D., Royset J. O., Washburn A.R. Optimal search for moving targets. Switzerland, Springer Publ., 2016, 312 p. (International Series in Operations Research & Management Science, N 237). https:// doi.org/10.1007/978-3-319-26899-6_l

12. Koopman B. O. Search and screening. Operations evaluation group report. Alexandria, Center for Naval Analyses Publ., 1946, vol. 56, 176 p.

13. Koopman B. O. The theory of search. The optimum distribution of searching effort. Operations Research, 1957, vol. 5, pp. 613-626.

14. De Guenin J. Optimum distribution of effort: An extension of the Koopman basic theory. Operations Research, 1961, vol. 9, pp. 1-7.

Received: October 18, 2022. Accepted: January 19, 2023.

Author's information:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Aleksandr N. Prokaev — Dr. Sci. in Technical Sciences, Associate Professor; prokaev@bk.ru

i Надоели баннеры? Вы всегда можете отключить рекламу.