Научная статья на тему 'Теоретические основы решения задач поиска методом максимума энтропии'

Теоретические основы решения задач поиска методом максимума энтропии Текст научной статьи по специальности «Математика»

CC BY
5
1
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
теория информации / теория поиска / равномерно оптимальный поисковый план / функция обнаружения / принцип максимума энтропии / information theory / search theory / uniformly optimal search plan / detection function / maximum entropy principle

Аннотация научной статьи по математике, автор научной работы — Прокаев Александр Николаевич

Традиционной задачей теории поиска является разработка плана поиска физического объекта в море или на суше. Известные алгоритмы оптимального распределения поисковых ресурсов используют преимущественно экспоненциальную функцию обнаружения. Если рассматривать задачу поиска шире — как задачу поиска информации различного вида, то функция обнаружения может существенно отличаться от экспоненциальной. В этом случае решения, полученные с помощью традиционных алгоритмов, могут быть корректными с точки зрения математики, но неприемлемыми с точки зрения логики. В данной работе указанная проблема решается на основе принципа максимума энтропии. Приведено доказательство теорем, а также следствий из них для функций обнаружения четырех видов, позволяющих создать алгоритмы решения различных задач поиска на основе принципа максимума энтропии.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Theoretical foundation for solving search problems by the method of maximum entropy

The traditional problem of search theory is to develop a search plan for a physical object in the sea or on land. Known algorithms for the optimal distribution of search resources mainly use the exponential detection function. If we consider the search problem more broadly — as a problem of searching for various information, then the detection function can differ significantly from the exponential one. In this case, the solutions obtained using traditional algorithms may be correct from the point of view of mathematics, but unacceptable from the point of view of logic. In this paper, this problem is solved on the basis of the maximum entropy principle. The theorems are proved, as well as their consequences for four types of detection functions, which make it possible to create algorithms for solving various search problems based on the principle of maximum entropy.

Текст научной работы на тему «Теоретические основы решения задач поиска методом максимума энтропии»

УДК 519.878 Вестник СПбГУ. Прикладная математика. Информатика... 2023. Т. 19. Вып. 3

МБС 90В40

Теоретические основы решения задач поиска методом максимума энтропии

А. Н. Прокаев

Санкт-Петербургский институт информатики и автоматизации — Научно-техническое бюро высоких технологий,

Российская Федерация, 199178, Санкт-Петербург, 14-я линия В. О., 39

Для цитирования: Прокаев А. Н. Теоретические основы решения задач поиска методом максимума энтропии // Вестник Санкт-Петербургского университета. Прикладная математика. Информатика. Процессы управления. 2023. Т. 19. Вып. 3. С. 348-368. https://doi.org/10.21638/11701/spbu10.2023.304

Традиционной задачей теории поиска является разработка плана поиска физического объекта в море или на суше. Известные алгоритмы оптимального распределения поисковых ресурсов используют преимущественно экспоненциальную функцию обнаружения. Если рассматривать задачу поиска шире — как задачу поиска информации различного вида, то функция обнаружения может существенно отличаться от экспоненциальной. В этом случае решения, полученные с помощью традиционных алгоритмов, могут быть корректными с точки зрения математики, но неприемлемыми с точки зрения логики. В данной работе указанная проблема решается на основе принципа максимума энтропии. Приведено доказательство теорем, а также следствий из них для функций обнаружения четырех видов, позволяющих создать алгоритмы решения различных задач поиска на основе принципа максимума энтропии.

Ключевые слова: теория информации, теория поиска, равномерно оптимальный поисковый план, функция обнаружения, принцип максимума энтропии.

1. Введение. С момента появления в середине ХХ в. традиционной задачей теории поиска является разработка плана поиска физического объекта в море или на суше. Вместе с тем уже в некоторых ранних трудах задача поиска рассматривалась именно как задача поиска информации [1], и даже имели место попытки создания единой теории поиска, объединяющей под термином «поиск» разноплановые задачи из области исследования операций, теории информации, медицины, компьютерных наук и теории управления (см., например, [2, 3]). Тем не менее работ о взаимосвязи принципа максимума энтропии с теорией поиска, вышедших после статьи [4], найти не удалось.

В работе [5] кратко освещена сравнительно недолгая история «взаимоотношений» теории информации с теорией поиска, дано описание «традиционного» алгоритма решения «основной задачи теории поиска» [6], и на простом примере («задача о двух шкафах») показан один из его существенных недостатков. Далее указанная задача была рассмотрена с точки зрения теории информации и предложен вариант ее решения на основе принципа максимума энтропии. Настоящая работа является логическим продолжением [5]. Преимущественно для сохранения общности изложения поиск представляется здесь в его «классическом» понимании как поиск физического объекта, что ни в коей мере не мешает рассматривать поиск объекта как поиск информации о нем. Приведенные теоремы и следствия предполагают дальнейшее создание на их основе алгоритмов решения различных задач поиска методом максимума эн-

(¡5 Санкт-Петербургский государственный университет, 2023

тропии. Теоремы 1 и 2 впервые были представлены нами в работе [7] в несколько ином виде и без доказательств.

2. Условия задачи поиска и вводные теоретические положения. При

описании задачи будем использовать традиционную для теории поиска терминологию и математические обозначения, принятые в [4-8]. Объект поиска именуется как «цель», участник поиска — «наблюдатель», а параметр, который должен быть распределен, — «поисковые усилия». Известно априорное дискретное распределение, показывающее степень нашей уверенности о местонахождения цели, — вероятностное распределение на конечном множестве из п ячеек, именуемое далее как «область .». Предположим, что цель может находиться только в одной из ячеек ] с вероятностью Уз , ] = 1,..., п, ^"=1 Уз = 1. Для каждой ячейки ] существует функция обнаружения Ъ(гу) как условная вероятность обнаружения цели в ячейке ] поисковыми усилиями объемом гу при условии, что цель находится в ячейке ].

В работе [5] были рассмотрены различные способы поиска, которым соответствуют четыре вида функций обнаружения, для ясности дальнейшего изложения приведем их краткое описание. При поиске первым способом функция обнаружения имеет вид _

кг

ъ г ) = 1 - ^ , (1)

где I — число «просмотров» области поиска за время поиска; к ^ 1 — вероятность правильного распознавания цели при ее обнаружении. Данная зависимость соответствует показательной функции обнаружения. Если значение I мало, то такой поиск называется «дискретным». Если же оно велико, то поиск называется «непрерывным», при этом функция обнаружения принимает вид

Ъ (гу) = 1 — ехр(—кгу), (2)

т. е. является экспоненциальной. Данная функция обнаружения используется в теории поиска наиболее часто. При поиске вторым способом условная вероятность обнаружения прямо пропорциональна затратам поискового ресурса:

Ъ (гз ) = кгз, гз < 1 (3)

т. е. функция обнаружения Ъ (гу) линейная. Условную вероятность обнаружения при поиске третьим способом можно определить степенной функцией

Ъ г) = кггзг, гз < — , (4)

г

в которой г ^ 1 — некоторый показатель, определяющий скорость нарастания «информированности» наблюдателя по мере поиска. При г = 1 линейная функция есть частный случай степенной. Поскольку учитывается вероятность к ^ 1 распознавания цели, возможна ситуация, когда при полном обследовании ячейки [ху = -т/Т^) объект не будет обнаружен. Тогда, если процедура поиска повторяется заново, т. е.

если гу > , условную вероятность обнаружения можно выразить приближенной формулой

ъ г ) = 1 — (1—кг^, (5)

при этом функция обнаружения становится показательной, как и при поиске первым способом.

Решением задачи поиска является план поиска — функция распределения поисковых усилий I, которая определяет количество поисковых усилий х^, распределенных в ячейку ]. Пусть Г — это множество функций распределения поисковых усилий. Для функции распределения I можно вычислить вероятность обнаружения

п

р (I) = £ Рз ьх) (6)

3 = 1

и требуемое (израсходованное) количество поисковых усилий, или ресурс поисковых усилий С(I) = П=1 X]. Пусть М > 0 — это ограничение на ресурс поисковых усилий. Тогда поисковый план I* € Г — оптимальный для ресурса М, если С(I*) ^ М и Р (I *) > Р (I) (см. формулу (6)) для всех I € Г при условии С (I) < М .В [5] предполагается, что поиск ведется не одновременно во всех п ячейках, а поэтапно, путем обследования т ячеек в ходе одного этапа, 1 ^ т ^ п, при этом как предельное число этапов поиска К ^ 1, так и лимит поискового ресурса М могут быть не известны.

Введем обозначения. Совокупность из т ячеек обозначим как область а оставшиеся ячейки области . — как область и. Будем считать, что запись ] € . эквивалентна записи ] = 1,..., п, а ] € в эквивалентно ] = 1,..., в,... ,т, т ^ п. Если поисковые усилия распределены в ячейку ], то пишем ] € в, а если они в нее не распределены — то ] € и. Таким же образом запись ] = в или ] = и предполагает любую ячейку соответственно области в или и. Тот же смысл вкладываем в запись «ячейки в» или «ячейки и», поэтому запись р3 равнозначна записи Рз=в или Рзев. Также считаем, что ^и ри означает то же, что и рз, а ^вр31пр3 — то же, что

Е^=1 Рз 1пРз или Езев Рз 1пРз .

Известно, что основание логарифма в функции энтропии может быть любым, и для удобства изложения будем использовать натуральный логарифм. Энтропию области . обозначим Н,} = — ^П=1 Рз 1п Рз и представим в виде Н,} = Нв + Ни, здесь Нв = в Рз 1п Рз — часть энтропии, приходящаяся на область поиска, Ни = — ^2и Ри 1пРи — часть энтропии, приходящаяся на область, где поиск не выполняется. По аналогии для апостериорной энтропии можно записать НJ = Нв + Ни, здесь

Нв = — Еврз1пps, Ни = — Еири1при.

3. Теоремы и следствия. С учетом сказанного приведем ряд теорем и следствий из них. Цель — получение результатов, позволяющих решить поставленную выше задачу поиска вне зависимости от вида функции обнаружения и ограничений на число этапов поиска К, ресурс поисковых усилий М, вероятность распознавания к и др.

Теорема 1. Если в результате поиска априорная вероятность Рзев нахождения цели в ячейках области в уменьшится до значения ч3 = 7,

1 = ехр( —хНи ), (7) V Еи Ри)

то апостериорная энтропия НJ достигнет максимума НJ тах.

Доказательство. При поиске в ячейке в априорная вероятность р3 уменьшится на величину 6р8 = Ь(х3)р3 и станет равна д8 = р3 — Зр8 = р3 (1 — Ь (х3)). С учетом поиска одновременно в т ячейках области в запишем ^в = Ев РЯ — Ев $Рз = ЕвРз(1—Ь (хз)), где£в 5рв = £вРзЬ (хз). Выразим ра через др8\

^ = Рз — 5рв = Рз (1 — Ь (хз)) = Чз (8)

3 1 — Ев 6Рз 1 — Ев РзЬ (хз ) 1 — Ев 6Рз'

Тогда s ñps может быть выражена как

S

5ps

Es Ps - Es ps

1 -E S ps

С учетом приложенных в Б поисковых усилий апостериорная вероятность ри нахождения цели в других ячейках области . также изменится и станет равной ри = 1-Е" ' после чего с учетом (9) может быть преобразована следующим образом:

1 -Е й ра

Pu

1 -Е S Ps '

(10)

ПосколькУ ЕS Ps +ЕU Pu = ЕS ps + Е U pu = 1 полУчим pu = Pu^UPu • Аналогич-

1-E s p

но выражение (8) можно привести к виду Ps = qs

S Ps _

S Ps

= qs

U pu

Eu pu J2u Pu

Энтропия HJ имеет максимум в случае, когда целевой функционал

У

J^Pj lnPj = -Hj

(11)

имеет минимум. Если поиск в ячейке в не дал результата, то апостериорная вероятность нахождения цели в ней становится равной ра, а величина изменения вероятности равной

APs

Ps - Ps-

(12)

С учетом (10) представим условие j Pj = 1 так:

(Pi - Api) +

+ ... + (ps - Aps) + ... + (pm - Apm) + pm+1

1 - E S ps

1 - S P s

+ ... + Pn

1 -E S ps

1 - S P s

или после преобразования в виде

(pi - Api) +

+...+м 1 + I = 1.

1 - S P s

+ ... + (pm - Apm) + Pm+1 (1 + ^^P ) + ... + Pn ( Тогда функционал (11) запишем следующим образом:

y(Api, ..., Apm) = (pi - Api) ln (pi - Api) + ... + (pm - Apm) ln (pm - Apm) +

+ Pm+i 1 +

Es APs

+ ... + pnl 1 +

1 - E S Ps

Es AP.

ln

1 - ES Ps

Pm+i 1 +

ln

Pn[ 1 +

Es APs

1 - E S Ps

Es APs

1 - E S Ps

+

(13)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Таким образом, величина Дра является управляющим параметром, изменение которого определяет значение целевого функционала (11). В общем случае для нахождения условного минимума целевого функционала (11) потребовалось бы составление функции Лагранжа. Однако в рассматриваемом случае каких-либо ограничений по переменным Дра на функционал (11) не накладывается, поэтому функция Лагранжа будет совпадать с самим функционалом. Для нахождения безусловного минимума

u

1

целевого функционала (11) найдем частные производные от у по Дра и приравняем их к нулю.

Частные производные от у по Дра будут иметь вид

ду д Дра

= - 1п(ра - Дра) - 1 +

Рт+1

1 -Е Я ра

1п

+ ... +

рп

1 - ЕЯ ра

1п

рп 1 +

рт+1^1+

Ея Дра 1 -Е Я ра

Ея Дра 1 - Е Я ра

+

рт+1

1 -Е Я PsJ

+

+

рп

1 -Е Я PsJ

(14)

Приравняв все т производных (14) к нулю, получим систему из т аналогичных уравнений (приведено одно уравнение для в):

1п(ра - Дра) + 1 = Л,

(15)

где

Л=

рт+1

Л - Е Я ра

1п

рт+1 1 +

+... +

рп

Л - ЕЯ ра

1п

рп 1 +

Ея Дра

1 -Е Я ра

Ея Дра

+

1 -Е Я ра

+

рт+1

1 - ЕЯ ра _

рп

+

1 -Е Я ра.

Анализ данной системы уравнений позволяет записать:

р1 - Др1 = ... = ра - Дра ••• = рт - Дрт,

или с учетом (12)

р1 = ... = Ра = . . . = рт. (16)

Поскольку значения ра во всех ячейках области Б равны, рассмотрим далее одно из т уравнений системы (15):

1п ра+1 = +... +

Представим это так:

рт+1 1 - Е Я ра рп

Л - ЕЯ ра

1п 1п

рт+1 +

рп 1 +

Ея Дра

1 - Е Я ра

Ея Дра

+

1 -Е Я ра

+

рт+1 1 - Е Я РаJ

рп

+

1 -Е Я ра.

рт+1

+... +

1 - ЕЯ ра

рп

1п

1п р'а + 1 =

рт+1 1 +

1 - Е Я ра

1п

рп 1 +

Ея Дра

1 -Е Я ра

Ея Дра

1 -Е Я ра

Пт1^ +... +

V1 -Е Я ра

Поскольку ^я ра + Е и ри = 1, запишем, что

рп

1 - е я ра) '

+ +

1 - X)ра = ри,

(17)

я и

тогда с учетом (17) уравнение примет вид

1п Рз = £ (

и \2^и ри

1п

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Ри [ 1 +

Ев АРз

Ни Ри

(18)

поскольку здесь 1 ^^--+ ... +

1 3 Рв

Введем обозначение:

Рп _ Рш+1 + ---+Рп _ 1

и ри

и Р и

тогда (18) будет таким:

1пРз = £ I Риа 1п

и

Ри\ 1 + ^^Рз

Раскроем правую часть (20) и получим выражение

(19)

(20)

£ Риа 1п

Ри

= Рт+1а1прт+1 + Рт+1а1п + Г Ар8^ + ... + Рпа1прп + Рпа 1п + Г ДРз^ , которое, в свою очередь, можно преобразовать следующим образом:

Риа 1п

Ри

1^Ар8

а1п + ГГ Ар8^ [Рт+1 + ... + Рп] + а [рт+11прт+1 + ... + Рп 1прп]. (21)

Но, согласно (17) и (18), рт+1 +... + рп = а, отсюда в соответствии с (21) выражение (20) примет вид

1пРз = 1п I 1 + £ Аря^ + а (Ри 1пРи)

ви

откуда получим, что

р3

(1 + Ев АРза)

ехр

а£ (Ри 1пРи)

ехр

Еи (Ри 1пРи)

и Р и

Преобразуем правую часть выражения (23):

(22)

(23)

ехр

Еи (Ри 1пРи )

Еи Ри

ехр

1п

Ри

и Р и

ПРи ^иРи

Введем обозначение:

_ги_

Ри11 иРи ,

(24) 353

1

а

а

а

тогда (23) примет вид а = 7, или с учетом (12) и (19) рв 5 р3 = 7. Далее

1—тр

принимая во внимание (16), можно записать, что рв = Т С учетом (17) решим

данное уравнение относительно рв:

= 1 ^ 7 +-= ^-^Г-• (25)

1 — Е Я Рв + т1 Ри + т1

Учитывая, что в соответствии с (16) ^5рв = трв, и принимая во внимание (17), подставим р в из (25) в (9) и получим выражение 5рв = 5^5 5рв + т7. Далее, подставив его в (25), находим, что рв = 6р . Сравнив данную формулу с (8), можно заклю-

чить, что 7 есть вероятность дв нахождения цели в ячейке в по окончании неудачного поиска, дв = рв — 5рв = рв (1 — Ь (гв)) = 7. Взяв логарифм от 7 (см. (24)), имеем, что

1 У^.ГТ Ри 1п ри Н„ /гт\

1п7 = ^-— = ^^^^—, откуда, в свою очередь, можно представить 7 в виде (7).

и ри ¿^и ри

Следствие 1. Теорема 1 не предполагает функциональной зависимости Н = Н(Ь). Из этого следует, что в рамках данной задачи функция энтропии Н безразлична к виду функции обнаружения Ь(г).

Следствие 2. Из (16) следует, что если апостериорная энтропия достигает максимума НJ тах, то значения апостериорной вероятности р^^з равны. Следствие 3. Выражение (7) можно представить таким образом:

Отсюда следует, что если поиск не производится, то 7 принимает некоторое «фиктивное» значение

7о = ехр(-HJ), (27)

смысл которого будет показан ниже.

Следствие 4. Для достижения максимума энтропии условная вероятность Ь (гв) обнаружения цели в ячейке в должна быть равна

Ь (гв) =1 - (28)

рв

Напомним, что после приложения поисковых усилий объемом гв к ячейке в вероятность рв уменьшается на 5рв = Ь(гв)рв и становится равной дв = рв — 6рв = рв (1 — Ь (гв)), где 5рв = рвЬ (гв), откуда с учетом дв = 7 получим (28).

Следствие 5. Если поиск осуществляется одновременно во всей области J, то максимум энтропии достигается при распределении поисковых усилий в т ^ п — 1 ячеек.

Действительно, исходя из (24), при т = п величина 7 не существует, так как в этом случае ри = 0, и задача не имеет решения. Для достижения максимума энтропии в области J достаточно распределить поисковые усилия гв не более чем в п — 1 ячеек.

Следствие 6. Для экспоненциальной функции обнаружения вида (2) объем поисковых усилий, который необходимо приложить в ячейке в для достижения максимума энтропии, определяется выражением

гв = 1 (1прв — 1п 7) • (29)

Сравнив формулы (28) и (2), можно записать ехр(—кхз) = . Прологарифмировав данное уравнение, получим выражение (29).

Следствие 7. Для показательной функции обнаружения вида (1) объем поисковых усилий, который необходимо приложить в ячейке в для достижения максимума энтропии, определяется так:

I

X.ч = - 1 - —

1

(30)

Сравнив выражения (28) и (1), получим сначала — ^^ = рр, далее 1 — ^ = рр^ , откуда вытекает (30).

Следствие 8. Для степенной функции обнаружения вида (4) объем поисковых усилий, который необходимо приложить в ячейке в для достижения максимума энтропии, определяется выражением

¿) о—г

(31)

Поскольку при г =1 уравнения (3) и (4) совпадают, данное следствие справедливо и для линейной функции обнаружения. Сравнив (28) и (4), получим, что

хзг = (ш) (1 — р^), откуда непосредственно следует (31).

Следствие 9. Для функции обнаружения вида (5) объем поисковых усилий, который необходимо приложить в ячейке в для достижения максимума энтропии, определяется следующим образом:

1 1п 7 — 1п рз

ГГ 1п (1 — к) .

(32)

= Рг. Прологарифмировав его,

РБ

Сравнив (28) и (5), запишем уравнение (1 — к)г

получим хзгг 1п (1 — к) = 1п7 — 1прз, откуда следует (32).

Теорема 2. Если в результате поиска в области в апостериорная энтропия НJ достигает максимума НJ тах, то

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Н

J тах

= "1п Рз.

(33)

Доказательство. Воспользуемся результатами, полученными при доказательстве теоремы 1. Будем считать, что энтропия НJ достигает максимума в точке, где частные производные У^Рв (14) от целевого функционала (13) по Арз равны нулю. Если = 0, то с учетом выражения (18) целевой функционал (13) может быть представлен так:

Ут\]

+...

тР зРп

1 — в Р

+ Рт+1 1 + Рп 1 +

тР зРт+1 1п 1 — Е в Рз

в А Рз

Рт+1 1+

Ев АРз

1п

1 — в Р

вАР

1п

Рт+1 1 +

1 — в Р з вАР

+

1 — в Р з

1 — в Р з

+ Р п 1 +

Ев АРз

1 — Е в Рз

1п

+

Рп 1 +

Ев АРз 1 — Ев Рз

Р

з

хз =

хз =

з

з

Pm+1 ,

1-^-1П

1 - E S Ps

Pm+1 1 +

Es APs

1 — E S Ps

Pn , + • • • + ^-^- ln

1 - S P s

Pn[ 1 +

Es APs '

1 — E S Ps,

С учетом (19) он может быть приведен к виду

ymin рт+1а

ln Pm+1 + Pm+1«1n + £ Aps ^ + + • • • + PnO. ln Pn + PnO. ln + £ Aps^ =

= a(Pm+1lnPm+1 + • • • + Pn lnPn)+a ln + £ APs«^ (Pm+1 + • • • + Pn) •

Поскольку Pm+1 + • • • + Pn = 1 —^2s Ps = a, то ymin может быть представлен как

Ути

ln 1 + £ APs« +а (Pu lnP„) • v s j и

Сравнив это выражение с (22), можно записать ymin = lnp's, откуда с учетом (11) получим, что H J max = — ln Ps . □

Следствие 10. Если поиск производится одновременно во всей области J, то в соответствии с теоремой 2 Hj max = — ln n = ln n, что является известным соотношением.

Следствие 11. Максимум апостериорной энтропии (33) можно дать в виде

H J max = VH U • (34)

и P u

Доказательство. Поскольку H j = H s + H и, то, используя выражения (16) и (33), можно записать — lnPs = —mp'slnPs — Y2иPu lnPu, откуда следует, что — ln Ps (1 — mP s) = — £ и Pu ln Pu. Так как mPs + J2 и Pu = 1, то 1 — mPs = J2 и Pu, произведя подстановку, имеем — lnp's p'u = — £ и P u ln P u = Hи, откуда с учетом (33) приходим к (34). □

Теорема 3. Если в какой-либо из ячеек области S величина априорной вероятности Ps не превышает значения y (см. (24)), то поиск в данной ячейке не приводит к увеличению апостериорной энтропии HJ.

Доказательство. По смыслу теоремы требуется найти такое значение Ps, при котором вне зависимости от объема прилагаемых к ячейке s поисковых усилий величина H(J) выше, чем Hj. Анализ целевого функционала (13) показывает, что если Aps равно нулю, то Hj = Hj вне зависимости от значения Ps. Для анализа величины Aps воспользуемся выражением (25):

APs = Ps — P s

Ps-PsI2s Ps+PsmY--Y

s 1 s 1-Х!S Ps +mY

Условия, при которых Aps = 0, представим как систему

Ps — PsJ2S Ps + Ps'mY — y = 0, 1 — e s Ps + mY =

Уравнение (первая формула системы) имеет два решения. Первое предполагает, что ра = т и ^ ^ ра = 1, второе — что Ра = 7 и ^ з ра = ш'у. Рассмотрим первое решение. Если ра = т, то для всех значений т ^ 1 получим ^3 ра = 1, т. е. т = п. В соответствии со следствием 5 стратегия максимума энтропии предполагает условие т < п. По этой же причине данное решение не удовлетворяет неравенству (вторая формула системы). Можно видеть, что первое решение соответствует ситуации, когда энтропия уже достигла максимума.

Для второго решения условие ^з ра = т7 означает выполнение условия (16), так как в противном случае для какого-либо из значений ра условие ра = 7 не будет выполняться. Таким образом, подходящим решением является только ра = 7, т. е. если ра ^ 7, то Н] ^ HJ. □

Следствие 12. Если поиск может выполняться одновременно только в одной ячейке, т. е. если т = 1, то минимальное значение р^, при котором поиск приводит к увеличению энтропии HJ, равно 70, определяемое формулой (27).

Доказательство. Пусть ячейка с номером ] рассматривается на предмет поиска в ней, т. е. pj = ра. Тогда, согласно теореме 3, указанное минимальное значениеpj имеет место в случае, когда pj = ра = 7. Воспользуемся обозначением (24) и запишем

р^ = Пи ри ЕиРи ■ Прологарифмировав его, получим, что 1пр3 = р р^) .

Данное выражение можно представить как 1пра = рр^-р^!. в свою очередь, его можно привести к виду 1п ра — 1п р3^2з ра = Е и ри 1п ри. Далее, поскольку исследуется только одна ячейка, то 3ра = ра. Тогда 1прв = рв 1пра, поэтому можно записать 1пра = ра 1пра +^ири 1при = —HJ. Таким образом, если ра ^ ехр(—HJ), то ра ^ 7 и, согласно теореме 3, поиск не приводит к возрастанию энтропии Н^. Но по условию принято, что ра = Рj, а в соответствии с (27) ехр(—Н^) = 70, т. е. при Рj ^ 7о поиск не приводит к увеличению энтропии Н^. □

Примечание. В этом и заключается смысл «фиктивного» значения 70 = ехр (—HJ), о котором говорилось в следствии 3: 70 соответствует минимальному значению pj, при котором поиск в ячейке ] ведет к росту энтропии.

Следствие 13. Если поиск осуществляется одновременно во всей области а наименьшее из значений pj равно рп, то рп = 7. Это непосредственно вытекает из выражения (24). Если же в области . имеет место соотношение рп-г = рп-г+1 = ■ ■ ■ = рп, то т = п — г и имеет место равенство рп-г = рп-г+\ = ■ ■ ■ = рп = 7, что также можно проверить подстановкой в (24).

Теорема 4. Пусть в каждую из ячеек области Б может быть распределено одинаковое количество поисковых усилий га, равное г, при этом условная вероятность обнаружения цели составляет Ь(г). Тогда энтропия получит наибольшее приращение АН = Н— Нпри поиске в той ячейке, где вероятность ра максимальна.

Доказательство. В[5] показано, что априорную энтропию HJ можно записать следующим образом:

HJ = Н (рз,ри)+ рз+ риН(рри) , (35)

\рз/ \ри)

где рз, ри — суммарная вероятность нахождения цели соответственно в области Б и области и; Н ^^^, Н ^— условная энтропия указанных областей.

Аналогично, апостериорную энтропию НJ можно представить в виде

'Рз\ , - т'т (Р

НJ = Н (Рв,ри)+ ТвН[Р^ + риН[Ти . (36)

\Рв) \Ри)

Рассмотрим составные части (35) и (36). Поскольку по условию теоремы область в содержит только одну ячейку, то в = 1, а ее условная энтропия равна нулю, Н (рз) = — (Р^) 1п (= 0. То же можно записать и об условной апостериорной

энтропии Н (Р^.

Покажем далее, что Н = Н (Рр) . Поскольку Н = — £и ^ 1п ^,

Н (Р-^) = — ^и 1 -Р !п 1 -Р , будет достаточно показать, что 1 РиР = 1 . С учетом (8) рз примет вид

Р з = Р^^, (37)

1 — РзЬ(х)

а 1 — рз можно представить так:

1 — Рз = 1 1 — ). (38)

1 — РзЬ(х)

Тогда, учитывая, что ри = —ЬС) , запишем = (1 -Р:^) + (1 -Р.ь'(г^ I—:

откуда следует, что Н (Ри) = Н (^Ц) •

Введем величину приращения энтропии АН = НJ — Н]. С учетом выражений (35), (36) и равенства Н (Р;;^) = Н (Р^) получим, что

АН = Н (Рв, Ри) — Н (рв, ри) + (Рз — Рз)Н (^ . (39)

Ри

Поскольку Н = 0, то из (35) вытекает, что Н (Ри) = 1 1Р (HJ — Н (рв, ри)). Тогда с учетом (37) запишем, что

р = РзЬ(х) (1 — Рз) 1 — РзЬ(х) '

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Рз — Рз = ^-ТТТ~' (40)

откуда вытекает, что (рз — Рз) Н (р^) = ^Рь^} (HJ — Н (рв, Ри)). Тогда с учетом (38) и (40) выражение (39) может быть представлено следующим образом:

АН = Н (Рв, Ри) — Н (рв, ри) + 1 РзЬ(Х? , Н — Н (рв, ри)), (41)

1 —РзЬ(х)

где HJ — постоянная величина для заданного распределения рз;

Н (рв, Ри) = — (Рз 1п Рз + (1 — _Рз)1п(1 — Рз)) ,

Н (Рв, Р и) = — (^ (1 — Ь((Х))) 1п Рз (1 — Ь((Х))) + Г 1 — Рз л ) 1п ( 1 — Рз

1 — РзЬ(х) 1 — РзЬ(х) \1 — РзЬ(х)) \1 — РзЬ(х)

Исследуем далее величину АН (см. (41)). Частная производная от АН по р, имеет вид

дАН, „ АН, „ АН, „ АН, , ,

" д1А—" + д2 а—- + дз А—-, (42)

ГЛ гл I 2 гл I 3 ГЛ 7

др, др, др- др-

здесь

д1 АН, = _ (1 - Ъ(.)) 1п р8 (1 - Ъ(.)) р,Ъ(г) (1 - Ъ(г)) 1п

2

др, 1 - р,Ъ(г) 1 - р,Ъ(г) (1 _ р,Ъ(г))

1 - Ъ(г) р,Ъ(г) (1 - Ъ(г))\ 1п (_ р, (1 - Ъ(г))

— I--—

1 - р,Ъ(г) (1 - р,Ъ(г)) ! V 1 - р,Ъ(г)

д2^т1 = 1пра - 1п(1 -р,), др,

д АН, = р,Ъ2(г)(Нз + р, 1пр,+ (1 -р,) 1п (1 -р,)) + 3 др, (1 - р,Ъ(г))2

р,Ъ(г)(1пр, - 1п (1 - р,))

+

1 - р,Ъ(. )

Приравняем (42) к нулю и решим полученное уравнение относительно рУравнение

(¿У

имеет одно решение: р, = ехр (-Нз + ^щу - 1п (1 - Ъ(.))^. Обозначим его как 71, и с учетом (27) представим так:

1 -I

71 = 70 (1 - Ъ(г)) Н-) 1 . (43)

Анализ выражения (42) показывает, что в точке р, = 71 функция (41) имеет минимум, при этом АН < 0. Для нахождения значения р,, при котором поиск сопровождается ростом энтропии, приравняем функцию АН (см. (41)) к нулю и решим полученное уравнение относительно рЭто уравнение также имеет одно решение: р, = ехр(-Нз + Ъ(г)1п(1 + Ъ(г))). Обозначим данное решение как 72, с учетом (27) его можно записать таким образом:

72 = 70 (1 + Ъ(г))Ь(г) . (44)

Анализ выражений (41)-(44) показывает, что при р, > 72 функция АН монотонно возрастает. Таким образом, поиск в ячейке в поисковыми усилиями объемом г ведет к росту энтропии при условии р, >72, при этом наибольший прирост энтропии АН достигается при поиске в той ячейке, где вероятность р, максимальна. □

В теореме 4 предполагается, что г, имеет фиксированное значение г. Следующая теорема исходит из предположения, что в результате поиска энтропия достигает максимума, т. е. г, является величиной переменной.

Теорема 5. Пусть при поиске в некоторой ячейке в апостериорная энтропия Нз достигает максимума. Тогда наибольший прирост энтропии АН = Нз - Нз имеет место при поиске в той ячейке, где вероятность р, максимальна.

Доказательство. Поскольку по условию теоремы Нз есть величина постоянная, то АН максимальна в случае максимума Нз. Согласно теореме 1, если в результате поиска в ячейке в энтропия достигает максимума, то апостериорная

вероятность р 8 определяется выражением (25). В свою очередь, из теоремы 2 следует, что максимум Н^ равен "1п р'8. Тогда функция АН максимальна в случае, когда максимально "1пр'8. Учитывая, что по условию теоремы ^5р8 = р8, Н8 = -р81пр8, воспользуемся формулами (25), (26) и представим Н^ = "1пр8 таким образом: Н^ = -^Р^), где 7, = ехр (- н+р-1п ^

1-Р18-^ у 1-р-

Возьмем частную производную от АН по р8

д АН АН АН8 (45)

д^ —--+ д^——, (45)

др, др, др. здесь

АН8 1п р8 + 1 Н3 + р8 1п р8 д^—— = —--+

др8 1 - р8 (1 - рву

7 ( 1пр8 + 1 И±±рг_1прг \ 1

АН 78 (1-рI - 1

д -- 8 = \ 1-Р - (1-Р -

др8 1 - р8 + 78 '

Приравняем данную производную к нулю и решим уравнение относительно р8. Получим два решения: р8 = 1 и р8 = 70, где 70 определяется формулой (27). Очевидно, что подходящим является только второе решение. Далее анализ выражения (45) показывает, что в точке р8 = 70 функция АН минимальна, а при р8 > 70 она монотонно возрастает. Таким образом, наибольший прирост энтропии АН имеет место при поиске в той ячейке, где вероятность р8 максимальна. □

На рис. 1, I и II представлены графики, построенные для некоторого априорного распределения р^ в условиях соответственно теорем 4 и 5. На рис. 1, а изображены графики распределения р^ (кривая 1), функций р8 (кривая 2) и д8 (кривая 3, в условиях теоремы 5 график д8 становится графиком 78), а также приращения энтропии АН (кривая 5) в ячейках 1,... ,п при поиске в них с эффективностью Ь8 (кривая 4, в условиях теоремы 4 является прямой). В свою очередь, на рис. 1, б приведены графики функции АН (кривая 1), а также изменения ее составляющих:

АН1 = Н (р5, ри) - Н (рз, ри) (кривая 2) и АН = (р - р8)Н (р^ (кривая 3), АН = АН1 + АН2 (выражение (39)).

Дадим комментарии к графикам. На рис. 1, I, а можно видеть, что приращение энтропии происходит только при поиске в ячейках в! - $2, априорная вероятность ру в которых превышает 72 (рис. 1, I, б). В свою очередь, ситуация, изображенная на рис. 1, II может показаться странной. Действительно, согласно следствию 12, при р8 ^ 70 поиск не приводит к росту энтропии, в то время как рис. 1, II вроде как свидетельствует об обратном. Напомним, что величина 78 (кривая 3) по своей сути есть вероятность д8 нахождения цели в ячейке в по окончании поиска в ней, д8 = р8 (1 - Ь (г8)), но только в ситуации, когда энтропия имеет максимум. Тогда из выражений (8), (37) следует, что если г > 0, то р8 > 78. Данное условие выполняется только для ячеек в1 - в2, где кривая 3 расположена ниже кривой 2. В остальных ячейках условие р^ > 70 не выполняется. Если воспользуемся формулой (28), то убедимся, что в таких ячейках величина Ь (г8) принимает отрицательное значение, а это невозможно. На рис. 1, II, а данная величина (кривая 4) изображена только на участке в1 - в2. Таким образом, ситуация вне участка в1 - в2 (рис. 1, II, а) и слева от точки ру = 70 (рис. 1, II, б) невозможна и изображена исключительно для лучшего понимания теорем 4 и 5.

Рис. 1. Распределение вероятности и приращение энтропии в условиях теоремы 4 (I) и теоремы 5 (II) а: по вертикальной оси — вероятности pj, р8, д8, Ь8, приращение энтропии АН, по горизонтальной

оси — номер ячейки j ; 1 — pj, 2 — ps, 3

4 — bs, 5 — AH ; б : 1 — AH, 2 — AHi, 3 — АЯ2.

В теоремах 4 и 5 характер распределения вероятностей pj не оговаривается. Следующая теорема, напротив, накладывает ограничение на распределение pj и, как и теорема 5, исходит из предположения, что в результате поиска энтропия достигает максимума, т. е. zs является величиной переменной.

Теорема 6. Пусть априорная вероятность нахождения цели в области J может быть распределена различными способами, при этом суммарная вероятность ps нахождения цели в области S может принимать любые значения, а соотношение вероятностей pu нахождения цели в ячейках области U всегда остается неизменным:

pu = pou(1 - ps), (46)

где p0u — значения вероятности нахождения цели в ячейках области U при ps = 0, p0u = 1. Тогда, если в результате поиска в области S апостериорная энтропия H J достигает максимума H J max, то она, а также значения апостериорных вероятностей pj есть константы, не зависящие от ps :

Н J тах = - 1п р8,

1

рз =

р и =

т + ехр(Нз0)'

р0и ехр(Нз0) т + ехр(Нз0)'

(48)

где Нз0 = HJ при рз = 0.

Доказательство. На рис. 2 приведен пример распределения вероятностей, соответствующего условиям теоремы, в котором п = 4, р\ = р8, р02 = 0.5, р03 = 0.3, р04 = 0.2.

Рис. 2. Распределение априорной вероятности в условиях теоремы 6

1 — рб ; 2 — Р2; 3 — рз; 4 — Р4.

Если в области 5 апостериорная энтропия НJ достигла максимума, то это значит, что в результате поиска априорная вероятность р8 в каждой ячейке области 5 уменьшилась до значения 7, определяемого выражением (24). Тогда апостериорная вероятность р8 будет определяться уравнением (25), откуда следует, что

1 , Еи ри

— = т +--и-.

р8 7

Введем обозначение:

в (рз ) =

Еи ри (рв) 7 (рв) '

(49)

(50)

где ри (рв), 7 (рв) — величины соответственно ри и 7 в условиях теоремы ри (рв) = р0и (1 - рв). Рассмотрим, как при этом будет изменяться в (рв). Сумму и ри (рв) можно представить в виде и ри (рв) = (1 - рв) и р0и. Далее можно записать, что

7 (рв) = 7в0 Пи (1 - рв)Еи РОи , здесь 7в0 есть константа, определяемая формулой (24) для значений р0и • Поскольку по условию теоремы и р0и = 1, данное выражение преобразуется к виду

7 (рв)= 7в0 П (1 - рв)РОи . (51)

Далее произведем подстановку y (ps) из (51) в (50) и прологарифмируем полученное выражение:

ln в (ps ) = ln (1 - ps ) + ln Pou - ln Y s 0 - ^ Pou ln (1 - PS ).

и и

Тогда с учетом условия Y^ и P0u = 1 получим, что ln в (ps ) = - ln y s 0 • Откуда следует, что в (Ps) = в, где в = , т. е. в (Ps) не зависит от ps• Тогда выражение (49) примет вид Р- = m + в, и отсюда вытекает, что

Ps =

m +—— '

Yso

(52)

т. е. значения р 8 в условиях теоремы 6 являются константами. Из этого также следует, что поскольку в соответствии с теоремой 2 Н тах = — 1п р 8, то в условиях данной теоремы величина НJ тах также является константой. Так как по условию теоремы в результате поиска в области £ энтропия достигла максимума, то рб = шр8, с учетом (46) получим, что

Ри (рБ) = Ри = Р0и (1 — шр8 ) , (53)

т. е. значения ри также не зависят от рб и являются константами. Таким образом, апостериорное распределение р^ неизменно для любых значений рб.

Величина ^Бо определяется выражением (24) для условия рб = 0, когда HJ = Ни = нбо, где нбо — априорная энтропия при условии рб =0. Поскольку и ри = 1, то из (24) вытекает, что 1п ^б о = —Н б о, а ^б о = ехр(—нб о). Подставив ^бо в (52), имеем выражение (47). В свою очередь, подставив (47) в (53), получим (48). □

Следствие 14. В условиях теоремы 6 наибольшее приращение апостериорной энтропии НJ достигается в случае, когда р8 максимальна.

Доказательство. На рис. 3, а представлена зависимость между величинами р8 (прямая 1), р 8 (прямая 2) и (прямая 3) для некоторого распределения р^ согласно условиям теоремы 6, т. е. все величины являются функциями от р8. В свою

Рис. 3. Изменение вероятности и энтропии в условиях теоремы 6 а: 1 — р8, 2 — р8, 3 — ; б: по вертикальной оси — энтропия HJ, НJ, приращение энтропии АН; по горизонтальной оси — вероятность р8, 1 — HJ, 2 — Н J, 3 — АН.

1

очередь, графики энтропии для данного распределения приведены на рис. 3, б: П. (кривая 1), П] (прямая 2) и приращение энтропии ДП = П. — П. (кривая 3).

Согласно теореме 6, апостериорная энтропия П. есть константа. Ситуация на участке 0 ^ рв < 70, как это имело место в теореме 5, является невозможной, поскольку рв и не могут быть больше р3, графики на этом участке изображены исключительно для наглядности. Значение 70 можно определить из условия = рв (см. рис. 3, а), используя выражение (47). Для распределения, приведенного на рис. 3, получим 70 = рв = 0.263.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

При рв > 70 функция П] монотонно убывает по мере увеличения рв, а ДП, в свою очередь, монотонно возрастает. Таким образом, наибольшее приращение апостериорной энтропии П] достигается в случае, когда рв максимальна. □

Во всех приведенных выше теоремах речь шла о достижении глобального максимума энтропии без учета ограничения поискового ресурса С = £5 хв ^ М. При наличии такого ограничения данная задача будет иметь другое решение. Согласно лемме 1 из работы [5], локальный максимум энтропии П. тах достигается равенством вероятности рв нахождения цели в тех ячейках области ., где выполняется поиск. Приведенные ниже теоремы 7-10 говорят о том, как распределить поисковые усилия ха объемом М таким образом, чтобы достичь равенства апостериорной вероятности рв для различных функций обнаружения.

Из (8) следует: если рв = ¿'¿^ьЙ), р^ = Р1+Е1-Р(ь(+;))), где 5 + г < т то равенство рв = предполагает, что

рв (1 — Ь (хе)) = р8+ (1 — Ь (х8+*)). (54)

Это равенство использовалось при доказательстве теорем 7-10 как исходное условие.

Теорема 7. Для экспоненциальной функции обнаружения вида (2) количество поисковых усилий, которое необходимо приложить в ячейке в для достижения равенства апостериорной вероятности рв в ячейках области Б, определяется выражением

хв=т +т ^—1 £1п . (55)

Доказательство. Пусть ячейка в — это ячейка с номером 1. Согласно (54), для функции обнаружения вида (2) можно записать р1 ехр(—кх1) = р2 ехр(—кх2),

к1п р2 к

_ 1п , , ...__1 "Л -Г»-.

к 1п р3 к

откуда следует 1пр1 — 1пр2 — кх1 = —кх2, и далее х2 = х1 + к 1пр2 — ^ 1пр1.

Аналогично для р 1 = р3 хз = х1 + к 1п рз —11п р1, а для р 1 = рт х„

х1 + к 1прт — к 1прт. Поскольку С = £^ хв = М, просуммируем полученные выражения и приходим к уравнению М = тх1 + к 1п р2 + к 1п рз + ... + к 1п рт — т-11п р1. Добавив к его правой части + к 1п р1 — к 1п р1, имеем

1 1 1 1 т

М = тх1 + - 1п р1 + - 1п р2 + - 1п рз + ... + - 1п рт — — 1п р1,

¡у» ¡у» ¡у» ¡у» ¡у»

к к к к к откуда следует, что х1 = т (м + т 1пр1 — к Нт=11пр^) ■ Учитывая условие, что ячейка в — это ячейка с номером 1, получим выражение (55). □

Теорема 8. Для показательной функции обнаружения вида (1) количество поисковых усилий, которое необходимо приложить в ячейке в для достижения равенства апостериорной вероятности рв в ячейках области Б, определяется следующим образом:

1 / , nm\ n

zs = i1; (M - x) + p

здесь x; =Y.m=i (p])", i = 1,---,s,...,m.

Доказательство. Пусть ячейка s — это ячейка с номером 1. Согласно (54), для функции обнаружения вида (1) можно записать p1 ( 1 — k^) = p2 (1 — kp) '

откуда следует

pi

^-hll) . Прологарифмировав данное уравнение, получим, что

п 1п (п — к^) = п 1п (п — кг\) + 1пр\ — 1п

Тогда 1п (п — кг2) = 1п (п — кг\) + 1пр\п — 1пр2п. Проведя потенцирование данного уравнения, находим п — кх2 = (п — к^)^р^) , откуда вытекает Х2 = п — Ъ (п —

кг\) ^• Аналогичные преобразования можно выполнить для величин ..., гт.

Далее, учитывая, что С = ^б г8 = М, просуммируем выражения, полученные для х\,..., хт, и приходим к уравнению

M = z1 +

(m — 1) 1

j=2

— k(n — kzi^ (p1

pj

которое затем преобразуем:

j=2

Pj

M = zi |1 + E (j | + k — k |1+E (pi

j=2

pj

(57)

Введем обозначение:

xi = 1 +

j=2

pT = E(p1

pj

j=i

pi

pj

Тогда уравнение (57) примет вид M = z1x1 + — nx1, откуда z1 = (M — nm) +

п. Учитывая условие, что ячейка в — это ячейка с номером 1, получим, что г8

-к М — Т) + П, где -8 = Е7=1{£

Теорема 9. Для линейной функции обнаружения вида (3) количество поисковых усилий, которое необходимо приложить в ячейке в для достижения равенства апостериорной вероятности р8 в ячейках области £, определяется выражением

1 Л, m\ 1

z; = x; (M — k) + k'

(58)

в котором х8 =22j=ly , 3 = 1,...,в,...,т.

Доказательство. Пусть ячейка в — это ячейка с номером 1. Согласно (54), для функции обнаружения вида (3) можно записать р\(1 — кг\) = р2(1 — к^), откуда следует уравнение = . Оно аналогично уравнению, полученному при доказательстве теоремы 8 для показательной функции при условии п = 1. Исходя из этого, подставив в (56) значение п = 1, получим выражение (58). □

n

k

Теорема 10. Для функции обнаружения вида (5) количество поисковых усилий, которое необходимо приложить в ячейке в для достижения равенства апостериорной вероятности ра в ячейках области Б, определяется следующим образом:

1 ( т

х8 = — I М — тх 1п р8 + х N 1п рз т \

\ з=1

здесь х = ^ 1п1(1-й), 3 = 1,...,в,...,т.

Доказательство. Пусть ячейка в — это ячейка с номером 1. Обозначим также Гг = а. Согласно (54), для функции обнаружения вида (5) можно записать р1(1 — к)агг = р2(1 — к)аХ2, откуда следует ^ = (1 — к)аг2-аг1. Прологарифмировав

данное уравнение, получим 1пр1 — 1пр2 = ах2 1п (1 — к)—ах11п(1 — к), откуда вытекает, что 1 1

х2 = —ТГл-м 1п Р1--ГТл-м 1п Р2 + х1 •

а 1п(1 — к) а 1п(1 — к)

Введем обозначение:

а 1п (1 — к) ГГ 1п (1 — к)'

Учитывая его, запишем уравнение, полученное выше для х2, для остальных ха — на примере хз: хз = х 1пр1—х 1прз+х1. Далее с учетом условия С = £5 х3 = М просуммируем выражения для Х1,..., хт и приходим к уравнению

т

М = тх1 + (т — 1)х 1пр1 — х 1прз.

3 = 2

Добавим к правой части +х 1п р1 — х 1п р1. Затем преобразуем его к виду М = тх1 + тх 1пр1 — т=11пРз, откуда находим, что

1 ( т

х1 = — I М — тх 1п р1 + х у 1п рз т

V з=1

Учитывая условие, что ячейка в — это ячейка с номером 1, получим, что

1

т

х8 = — | М — тх 1п рв + х 1п р3

3 = 1

где х = ^ 1п1(1-й) . □

4. Заключение. Дж. Пирс, завершая работу [8], в числе направлений последующих исследований и нерешенных проблем указал, что неэкспоненциальные функции обнаружения в задачах поиска представляют меньшую практическую значимость, но значительный теоретический интерес и сложный математический вызов. Как следует из представленного выше, вызов был принят.

Что видится упущенным в данной работе. Во-первых, задачу нахождения максимума энтропии можно сразу решить с учетом ограничения на поисковый ресурс. Теоремы 1, 2 дают решение без учета такого ограничения, но позволяют определить глобальный максимум энтропии вне зависимости от вида функции обнаружения. Ввод ограничения на поисковый ресурс позволит найти локальный максимум энтропии,

1

1

но для функции обнаружения конкретного вида. Также можно отметить, что в теоремах 7-10 рассматривается распределение поисковых усилий для всех исследуемых функций обнаружения, за исключением степенной функции вида (4).

Завершая статью, отметим следующее. Э. Джейнс утверждал [4, с. 17], что теория информации должна иметь точную, аналитически демонстрируемую всеобъемлющую связь не только с теорией поиска, но и с оптимальным планированием в любой области, поскольку любая оптимальная стратегия — это только процедура, использующая априорную информацию для достижения поставленной цели настолько эффективно, насколько это возможно.

Цель последующей работы — установление этой «аналитически демонстрируемой связи». Направлением дальнейших исследований является разработка алгоритмов решения практических задач поиска на основе полученных теоретических результатов.

Литература

1. Акоф Р., Сасиени М. Основы исследования операций / пер. с англ.; под ред. И. А. Ушакова. М.: Мир, 1971. 533 с.

2. Альсведе Р., Вегенер И. Задачи поиска / пер. с нем. В. А. Душского; ред. М. Б. Малютов. М.: Мир, 1982. 367 с.

3. Information theory, combinatorics, and search theory: In memory of Rudolf Ahlswede / eds by H. Aydinian, F. Cicalese, C. Deppe. Vol. 7777 of Lecture Notes in Computer Science. Cambrige: Springer, 2013. 773 p. https://doi.org/10.1007/978-3-642-36899-8

4. Jaynes E. T. Entropy and search theory // Maximum-entropy and Bayesian methods in inverse problems. Fundamental theories of physics. Dordrecht, Netherlands: Springer, 1985. Vol. 14. P. 1—18.

5. Прокаев А. Н. Принцип максимума энтропии в теории поиска // Вестник Санкт-Петербургского университета. Прикладная математика. Информатика. Процессы управления. 2023. Т. 19. Вып. 1. С. 27-42. https://doi.org/10.21638/11701/spbu10.2023.103

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

6. Stone L. D., Royset J. O., Washburn A. R. Optimal search for moving targets. Switzerland: Springer, 2016. 312 p. (International Series in Operations Research & Management Science N 237). https:// doi.org/10.1007/978-3-319-26899-6_1

7. Prokaev A. N. Search efforts optimal distribution based on the posteriori entropy analysis. Research. Online publication. February 20, 2016. https://doi.org/10.13140/RG.2.1.1446.1209/1. URL: https: //www.researchgate.net/publication/295254267_Search_Efforts_Optimal_Distribution_Based_ on_the_Posteriori_Entropy_Analysis?channel=doilinkId=56c89bbd08ae5488f0d6f43fshowFulltext=true (дата обращения: 19 апреля 2023 г.).

8. Pierce J. G. A new look at the relation between information theory and search theory // The maximum entropy formalism. Cambridge: MIT Press, 1978. P. 339-402.

Статья поступила в редакцию 29 апреля 2023 г. ^атья принята к печати 8 июня 2023 г.

Контактная информация:

Прокаев Александр Николаевич — д-р техн. наук, доц.; prokaev@bk.ru

Theoretical foundation for solving search problems by the method of maximum entropy

A. N. Prokaev

St. Petersburg federal Research Center of the Russian Academy of Sciences — Hi Tech Research and Development Office Ltd,

39, 14th line of Vasilyevsky Island, St. Petersburg, 199178, Russian Federation

For citation: Prokaev A. N. Theoretical foundation for solving search problems by the method of maximum entropy. Vestnik of Saint Petersburg University. Applied Mathematics. Computer Science. Control Processes, 2023, vol. 19, iss. 3, pp. 348-368. https://doi.org/10.21638/11701/spbu10.2023.304 (In Russian)

The traditional problem of search theory is to develop a search plan for a physical object in the sea or on land. Known algorithms for the optimal distribution of search resources mainly use the exponential detection function. If we consider the search problem more broadly — as a problem of searching for various information, then the detection function can differ significantly from the exponential one. In this case, the solutions obtained using traditional algorithms may be correct from the point of view of mathematics, but unacceptable from the point of view of logic. In this paper, this problem is solved on the basis of the maximum entropy principle. The theorems are proved, as well as their consequences for four types of detection functions, which make it possible to create algorithms for solving various search problems based on the principle of maximum entropy.

Keywords: information theory, search theory, uniformly optimal search plan, detection function, maximum entropy principle.

References

1. Ackoff R. L., Sasieni M. W. Fundamentals of operations research. New York, John Wiley & Sons, Inc. Publ., 1967, 455 p. (Rus. ed.: Ackoff R. L., Sasieni M. W. Osnovi issledovaniya operatsiy. Moscow, Mir Publ., 1971, 533 p.)

2. Ahlswede R., Wegener I. Suchprobleme (eng. Search Problems). Stuttgart, Teubner Verlag Publ., 1979, 273 p. (Rus. ed.: Ahlswede R., Wegener I. Zadachi poiska. Moscow, Mir Publ., 1982, 367 p.)

3. Information theory, combinatorics, and search theory: In memory of Rudolf Ahlswede. Eds by H. Aydinian, F. Cicalese, C. Deppe. Vol. 7777 of Lecture Notes in Computer Science. Cambrige, Springer Publ., 2013, 773 p. https:// doi.org/10.1007/978-3-642-36899-8

4. Jaynes E. T. Entropy and search theory. Maximum-entropy and Bayesian methods in inverse problems. Fundamental theories of physics. Dordrecht, Netherlands, Springer Publ., 1985, vol. 14, pp. 1—18.

5. Prokaev A. N. Printsip maksimuma entropii v teorii poiska [The maximum entropy principle in search theory]. Vestnik of Saint Petersburg University. Applied Mathematics. Computer Science. Control Processes, 2023, vol. 19, iss. 1, pp. 27-42. https://doi.org/10.21638/11701/spbu10.2023.103 (In Russian)

6. Stone L. D., Royset J. O., Washburn A. R. Optimal search for moving targets. Switzerland, Springer Publ., 2016, 312 p. (International Series in Operations Research & Management Science no. 237). https:// doi.org/10.1007/978-3-319-26899-6_1

7. Prokaev A. N. Search efforts optimal distribution based on the posteriori entropy analysis. Research: Online publication, February 20, 2016. https://doi.org/10.13140/RG.2.1.1446.1209/1. Available at: https: //www.researchgate.net/publication/295254267_Search_Efforts_Optimal_Distribution _Based_ on_the_Posteriori_Entropy_Analysis?channel=doilinkId=56c89bbd08ae5488f0d6f43fshowFulltext=true (accessed: April 19, 2023).

8. Pierce J. G. A new look at the relation between information theory and search theory. The Maximum Entropy Formalism. Cambridge, MIT Press, 1978, pp. 339-402.

Received: April 29, 2023.

Accepted: June 8, 2023.

Author's information:

Aleksandr N. Prokaev — Dr. Sci. in Technics, Associate Professor; prokaev@bk.ru

i Надоели баннеры? Вы всегда можете отключить рекламу.