Научная статья на тему 'КОМПАРАТИВНОЕ РАСПОЗНАВАНИЕ ОБЪЕКТОВ НА ОСНОВЕ є-КЛАСТЕРИЗАЦИИ МНОЖЕСТВ ЭТАЛОНОВ'

КОМПАРАТИВНОЕ РАСПОЗНАВАНИЕ ОБЪЕКТОВ НА ОСНОВЕ є-КЛАСТЕРИЗАЦИИ МНОЖЕСТВ ЭТАЛОНОВ Текст научной статьи по специальности «Математика»

CC BY
156
31
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по математике, автор научной работы — Машталир Владимир Петрович

Рассматриваются вопросы распознавания на основе сравнения регистрируемых данных с эталонной информацией. Внимание акцентируется на подходах, уменьшающих комбинаторную сложность задачи компаративного распознавания. Сокращение числа переборов достигается за счет прелиминарной кластеризации множеств эталонов, оптимизирующей быстродействие для различных соотношений точностных характеристик.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Comparative object recognition on the base of template sets e-clusterization

Methods of comparative recognition are proposed. Results presented ensure less combinatorial complexity than traditional approaches. Metric properties of algorithms are discussed.

Текст научной работы на тему «КОМПАРАТИВНОЕ РАСПОЗНАВАНИЕ ОБЪЕКТОВ НА ОСНОВЕ є-КЛАСТЕРИЗАЦИИ МНОЖЕСТВ ЭТАЛОНОВ»

УДК 681.327

КОМПАРАТИВНОЕ РАСПОЗНАВАНИЕ ОБЪЕКТОВ НА ОСНОВЕ є-КЛАСТЕРИЗАЦИИ МНОЖЕСТВ ЭТАЛОНОВ

МАШТАЛИР В.П.

Рассматриваются вопросы распознавания на основе сравнения регистрируемых данных с эталонной информацией. Внимание акцентируется на подходах, уменьшающих комбинаторную сложность задачи компаративного распознавания. Сокращение числа переборов достигается за счет прелиминарной кластеризации множеств эталонов, оптимизирующей быстродействие для различных соотношений точностных характеристик.

В концептуальном плане привлекательность стратификации признаковых пространств связана не только с заметным повышением быстродействия анализа иерархических группировок, но и с потенциально высокими возможностями учета адъювантной информации. Эта информация уточняет пространственные, временные и прочие виды отношений первоначально используемых сведений в виде специфических характеристических множеств или функций принадлежности.

В общем виде все методы иерархической кластеризации представляются процедурами двух типов [ 1 -

3]: объединения (слияния, группировки) и разбиения (дробления, декомпозиции). Начиная с группировок единичной мощности, в первом случае продвижение снизу-вверх продуцирует последовательность постепенно объединяемых кластеров. Процедуры второго типа начинают с одного кластера, совпадающего со всем множеством признаков, и образуют последовательность пошагового расщепления кластеров сверху-вниз.

Хорошо исследованными и апробированными являются методы иерархической кластеризации, которые обычно определяеются аббревиатурой SAHN (Sequential, Agglomerative, Hierarchical, Nonoverlapping) [3] — последовательные, агломеративные, иерархические, непересекающиеся. Суть алгоритмов данного типа сводится к построению разбиения некоторого множества признаков (образов) в виде последовательностей вложенных подмножеств исходного множества на основе анализа матрицы расстояний. Алгоритмы типа SAHN (их свойства определяются видами используемых ультраметрик) направлены, в первую очередь, на синтез описаний, отражающих “организацию” обрабатываемых данных. Применение полученных описаний структур признаков для информационного поиска есть не что иное, как процедура деривации по минимуму стратового различия. При этом количество операций сравнения не оптимизируется — всегда возможны случаи полного перебора эталонов, т.е. использование SAHN-алгоритмов для повышения быстродействия компаративного распознавания — паллиатив (комбинаторная сложность может лишь сокращать задачи, но это не гарантируется).

Альтернативный подход, хотя это и не является общепринятым, удобно называть є -кластеризацией, а полученные группировки — є -кластерами, поскольку в качестве предпосылок синтеза алгоритмов выступает группировка эталонов на основе заданного уровня различия. Методы є -кластеризации направлены, в первую очередь, на минимизацию числа операций сравнения и при заданной точности распоз -навания и фиксированном множестве эталонов гарантируют его непревышение в случаях предъявления любого представителя заданного класса сигналов. На практике число операций может оказаться существенно меньше гарантированного в силу того, что получаемые кластеры имеют различную мощность. Однако наличие оценки максимально возможного числа операций компаративного распознавания является принципиальным фактором создания программно-аппаратных систем с ограничением на время принятия решений. Объясняется это тем, что при проектировании систем конкретизируется объем необходимых ресурсов, а высвобожденное время может использоваться, в частности, для повышения толерантности (в широком смысле) путем анализа элементов, потенциально относящихся к нескольким кластерам.

Группировка объектов или признаков в компаративном распознавании, имманентном корреляционно-экстремальным системам, имеет ряд принципиальных отличий от традиционных подходов к кластеризации. Во-первых, ценой компромисса между надежностью и быстродействием определяются рациональные объемы анализируемой на этапе распознавания эталонной информации. Во-вторых, гипотеза “компактности”, когда агломерации составляют “похожие” и только “похожие” в смысле тематической интерпретации объекты, концептуально не играет существенной роли, а цель процедуры распознавания меняется: отнесение регистрируемых данных к кластеру и его идентификация часто теряют ортодоксальный смысл, так как требуется находить лишь некоторые характеристики (например, координаты) “ближайшего” в заданной метрике объекта. В-третьих, специфика регистрации текущего сигнала и, прежде всего, показатели ее точности, как правило, априорно задают погрешность є, влияющую на кластеризацию опорных данных. Именно величина этой погрешности, а также требуемые параметры точности создают предпосылки для оптимизации быстродействия.

Ясно, что вопрос о существовании кластеров вообще и є -кластеров в частности связан с относительным расположением эталонов в рамках выбранной меры их различия. Назовем метрическое пространство признаков ©0 с Шp равномерной конфигурацией, если оно изометрично пересечению

A(ei, e2,... ,ep) П Vp решетчатой структуры

Л(ei,e2,...,ep) ={aiei +а,2Є2 +... +а,рЄр : aj є% i =1,p} ({ei, Є2,... ,ep} — некоторый базис) и ортогонального

компакта Vp = [ацЬД х[a2,b2] х... x[ap,bp]. На рис.1

приведен пример конфигурации эталонов на плоскости, для которой є -кластеров мощности, больше чем 1, не существует.

РИ, 1999, № 1

63

Рис. 1. Равномерная конфигурация эталонов

Будем говорить, что метрическое пространство 08 с ^p — 8 -псевдоравномерная конфигурация,

если она может быть получена трансляцией каждой точки конфигурации на величину, не превышающую 8- max ||єі|| , где ||о|| обозначает норму. Другими словами, 8 — относительная погрешность псевдоравномерных конфигураций. Тогда поиск многозначных отображений вида

Е : 0^0 / 08 ,

факторизующих множество признаков на 8 -псевдоравномерные конфигурации, есть общая постановка задачи кластеризации. Конкретизируем теперь задачу є -кластеризации применительно к распознаванию на основе сравнения с эталонами.

Пусть л(0) — множество всех непустых подмножеств априорно заданных эталонных признаков

0 = {ЭД™!, 0і е^р . На множестве эталонов введем в рассмотрение точечно-множественное отображение Ss ; @ ^ л(©), индуцирующее его разбиение на

непересекающиеся подмножества {Еє(0)}еє©, элементы которых отличаются в выбранной метрике р не более, чем на є;

У0є0^0єЕє(0); (1)

0= U Е8(Є). (2)

0 є© ’ W

V0', 0"e0:0V0ff^

Еє(0') П Es(0ff) = 0,

Es(0') = Es(eff), p(0', 0")<s. (3)

Многозначное отображение , удовлетворяющее условиям (1) — (3), вообще говоря, формализует все процедуры є -кластеризации, среди которых должны выбираться оптимальные, в частности, по вычислительной сложности. Суть компаративного распознавания, таким образом, это поиск эталона, соответствующего регистрируемым данным q, т.е.

min ,р( q, 0) .

Єє{нє(Є)}

При использовании методов є -кластеризации в задаче распознавания могут возникать ошибки двух типов; межкластерные (ошибки выбора кластеров на некоторой страте) и внутрикластерные (ошибки выбора представителя кластера). Эти два вида ошибок связаны между собой таким образом, что ошибка первого типа автоматически влечет за собой ошибку

второго типа. Ясно, что существует отличная от нуля вероятность того, что из-за пошагового огрубления, являющегося следствием иерархического представления информации, будет выбрано неверное направление компаративного распознавания. Вместе с тем иерархический подход гарантирует, по крайней мере, неувеличение стартовой межкластерной ошибки при одновременном уменьшении на каждом уровне иерархии внутрикластерных ошибок. Таким образом, решающее значение имеет выбор величины є при заданных конфигурациях эталонов.

Для повышения надежности распознавания целесообразно использовать достаточно малые значения є, что в целом увеличивает число операций сравнения, тогда как сокращение их количества требует оптимизации кластеров, безусловно определяемого некоторым ростом є. При е ^ о задача сводится к

полному перебору, но и при є —> d( 0) (d — диаметр множества 0) число операций сравнения также

стремится к card 0. Конфликт между двумя критериями; комбинаторной сложностью компаративного распознавания и его надежностью должен устраняться для каждой конфигурации эталонов на этапе кластеризации. В любом случае для некоторого фиксированного стартового состояния необходимо обеспечивать глобальную оптимизацию компаративного распознавания.

Пусть є задает точность кластеризации, а 8 — требуемую точность компаративного распознавания. Выделим два случая;

1) 8>г — в качестве результата распознавания можно использовать любой представитель є -кластера, ближайшего к вектору q, т.е. минимальное число операций сравнения определяется количеством кластеров (задача грубой є -кластеризации); иначе, необходимо обеспечить [4-6]

min card {е|(0)}0є@ .

“а

2) 8<є — результатом распознавания будет элемент более точного дробления кластеров, т.е. при однократном дроблении кластеров (тонкая є -кластеризация) надо добиться [7,8]

min

card {Еа(0)}0є@

+ max card

Єє©

а при многократном (задача иерархической є -кластеризации) [9,10];

min

—а

k -1

[ ^ (max card {еД0)} J=1 J

Єє:

•s

j1

(0)

)+

+ max card EkД 0) ],

где k — количество уровней иерархии, а композиционное произведение, определяющее требуемое точечно-множественное отображение, задается соотношениями

77s

k -1

п§!( ~н(е>), sj

J=1 0

(0) = 0.

64

РИ, 1999, № 1

В общем виде иерархия Qs = {QЕ j. ^

- это

іє{ 1,2,..., к}

подмножества Qs с л(9) , удовлетворяющие условиям (1) - (3) (иначе, Qs С {НЕ(Є)}0Є0), для которых

справедлива импликация

Vi, je {1,2,..., к}, і Ф j, VQ■,QE

:Qe

: ОE П Oe Ф

0:

Ю-

[Qj cQі.

(4)

Здесь q E = U Qj Ji — множества, индексирующие . jeJi ij

кластеры на і - й страте. Тем самым компаративное распознавание сводится к поиску

arg min p(q,arg min p(q,arg min p(...

6eQk Qk cQk-i Qk-icQk -2

... p(q, arg min p(q, QE))...))) (5)

• (5)

Заметим, что последовательная процедура (5) применима при иерархической є -кластеризации. При тонкой кластеризации используется частный случай: поиск кластера и перебор принадлежащих ему эталонов:

arg min p(q, arg min p(q, QE- )),

9eQ8 Q8cQE

а при грубой ищется лишь ближайший кластер:

arg min p(q, Qf.).

QecQe J

Из вида процедур (5) непосредственно следует, что основа компаративного распознавания — определение расстояния от регистрируемых данных до є -кластеров. Это расстояние можно искать различными путями: до аппроксимаций кластеров в форме гиперсфер или гиперэллипсоидов, до их геометрических центров или центров тяжести, до любого представителя є -кластера или комбинаций различных характеристик результатов группировки эталонов. Ясно, что детерминантами рационального выбора способа поиска кластера, содержащего требуемый эталон, являются конфигурация признаков и их прикладная интерпретация. Анализ этих детерминант (“компактности” є -кластеров, их “удаленности” друг от друга, структурного сходства, “равномерности” мощностей в первом случае и необходимости, достаточности, важности, достоверности признаков, трактовки вида “близости” — во втором) создает предпосылки для построения алгоритмов компаративного распознавания.

Обозначим через Bp единичный шар в Ш p , тогда расстояние от точки q до кластера QЕ имеет вид

р(q, Q■)= min {х> 0: QЕ П q ©XBp *0 }, (6)

где “ 0 ” — сумма Минковского. Быстродействующая реализация (6) может приводить к возникновению ошибок первого рода, т.е. к неправильному выбору є -кластера при очередном шаге деривации (5). Конкретизация параметров аппроксимаций, до которых

определяется расстояние, должна учитывать “качество” кластеризации, оценка которого представляет весьма сложную задачу [3,13].

Для оценки удаленности полученных группировок друг от друга введем расстояние между двумя є -кластерами одного уровня иерархии:

pfe^n) = “in {Х>0:QEm ^ ©^

QEn cOEm ®^BP}

и среднее расстояние между кластерами на одной страте:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

M-1

m=1

M

I Pfe

n =m +1

где M = card {oe} , M'= MM -1)/2 .

Важное значение имеет и показатель рассеивания межкластерных расстояний:

M-1 M

°p(^)=(i |/(m'-1.

m=1n =m +1

Ясно, что чем больше значения р(оEm, QEn), р(рЕ)

и меньше стр (QЕ), тем менее вероятен неправильный выбор кластера.

На некоторых уровнях (в частности, если расстояния определяются до границ кластеров и являются практически одинаковыми) следует учитывать диаметры d(о■■) є -кластеров (d < є ):

d( О j = min {x> 0: Q jj c00XBp, VBeoj.

Межуровневые расстояния

p(oE = d( QE) - p max p d( Ое^) Q(i+1)jcQi

предоставляют возможность оценивать допустимые погрешности при вычислении расстояний до регистрируемых данных.

Совершенно аналогично вводится и ряд других характеристик при определении расстояния до центров тяжести кластеров, их отдельных представителей и т.д.

По сравнению с гиперсферами в качестве более адекватного (но более сложного в вычислительном аспекте) представления є -кластеров можно использовать описанные вокруг них гиперэллипсоиды, которые строятся на базе метода главных осей [11]. Применительно к компаративному распознаванию суть его заключается в следующем.

Пусть точка \0 = {^, §0, - ,\p} — центр тяжести

є -кластера, а С — произвольная ось, проходящая через него. Для поиска первой главной оси необходимо найти максимум среднеквадратичного отклонения в некотором направлении; для поиска второй — повторить процедуру в гиперплоскости, проходящей через точку Е,0 ={§0, §0,.", 5 p} и перпендикулярной к найденной оси, и т.д. Среднеквадратическое отклонение произвольной точки

| = {^1, § 2,..., % p} вдоль выбранной оси определяется формулой

РИ, 1999, № 1

65

di£=j£Ui i°f cosФ ,

V i=1

где ф — угол между вектором ^-^0 и ОСЬЮ С • Другими словами, ищется максимум по всем точкам s -кластера и осям С • На рис. 2 приведена геометри-

ческая интерпретация построения в Ш3 •

Зафиксируем є -кластер ={ 00і p и введем обозначения: для вектора признаков — 0 і = {0 і, 00p|, а для его центра тяжести —

0 ° ={ 0°, 02°,..., 0 р| • Тогда, принимая во внимание, что

J _ k =1

m / .ч

Е (0k)

0 o =

л j =

m / J J v2

E (ek -ej) _

_______, J = 1,P

k =1

m

m

e (0k - 0°f(0 k - 0°)2

_ k=1 -її

и у j1 - m , J’1=1,p,

получаем симметрическую p x p матрицу H(hji) , где hji = уjijуіцjm • В силу ее симметричности характеристический полином det (E- Ш) имеет p действительных корней: Ад >^2 ^ •••• ^Хp ^ ° • Главные оси

задаются направлениями собственных векторов a j = {а1, а2,...., а p }:

Н а j = X ja j ,

а собственные числа определяют полуоси искомого гиперэллипсоида.

Рассмотрим теперь процедуру отыскания расстояния от произвольной точки q = {q1, q2,qp} до є -

кластера qs • Выполнив изометрическое преобразо-J

вание перехода к базису из собственных векторов q ' = aq , где

1 1 1

oq а2 . . «p

2 2 2

«1 а2 . . «p

Vа! а2 - ~p . ap J

получим, что описание кластера є -кластера qs

j

имеет вид

•+...

Х2 х2

х2

1 2 p

Поскольку вектор нормали n = (пцn2,...,np) в

точке A = { x°, x2,} пересечения с гиперэллипсоидом равен

2

nk

3xk

х1 + Xl + Xjl _ 1

I2 I2 I2

кщ л2 ap У

2xk __

2 , k = 1, p ,

приходим к системе p уравнений

X

xp - qp

(7)

Таким образом, искомое расстояние от регистрируемого вектора признаков q = {qn q2,qp} до є -

х

х

х

1

кластера , представленного гиперэллипсоидом, определяется выражением

p(q, ^j) = mini Кq> A0, p(q, A2)},

где A1, A2 — решения системы (7)^

Конкретизируем теперь виды метрик, которые целесообразно использовать для различных типов данных компаративного распознавания.

Не детализируя генезиса признаковых пространств, можно утверждать, что применительно к компаративному распознаванию достаточно учитывать три доминирующие характеристики (или их комбинации): собственно значения признаков, их наличие у сравниваемых объектов и, наконец, различные виды упорядочивания, отражающие пространственно-временную, причинно-следственную или иную взаимо-

66

РИ, 1999, № 1

связь. Именно поэтому следует выделить три подхода к определению различия между признаками. Получаемые метрики можно условно называть количественными, качественными и структурными.

Пусть множество © = {9;}”=1> 0і p задает n

эталонов в виде p -мерных признаков. Меру (индекс, коэффициент) различия при использовании количественных значений признаков чаще всего следует задавать метрикой Минковского:

( Р (1/s)

Р (0q, 9 r) = I0 qj “0 rj I j ,

где 0 qj и ©rj — измеряемые величины q -го и r -го наборов признаков, а значение s конкретизирует используемую метрику (при s = 2 она становится евклидовой, при s = 1 — известной в теории распознавания как “метрика городских кварталов” или Манхэттенская [1,3]).

Реже, но со значимым правом на самостоятельное существование в задачах классификации, можно использовать Чебышевское расстояние

Р (0 q, 0 r) = max |0qj -0 rj I j

и метрику в смысле Камберра:

Р (0q,0r) =

j=1

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

qj

rj

qj

rj

Для проверки наличия, как правило, качественных или квантизируемых признаков синтезируются меры различия, базируемые на тривиальной метрике или бинарных расстояниях типа метрики Хэмминга (в том числе и при использовании аппарата теории нечетких множеств) [12]. Так, если для наборов

признаков 0q ввести обобщенный характеристичес-

04 — множество случаев, когда вектор 9r не имеет признаков, свойственных 0q :

04 =£ |qj ДЧrj) j=1

Нетрудно заметить, что при генерировании функций различия убывание по параметру 01, возрастание по 02 и симметрия по 0з и 04, а также выполнение аксиомы тождества, свойства рефлексивности и неравенства треугольника обеспечивают синтез метрик, позволяющих проводить анализ совпадения признаков. Заметим, что поскольку для двух идентичных характеристических векторов

02 = p -01, 0з = 04 = 0 , а для двух противополож-

ных 01 = 02 = 0, 04 = p - 0з , примерами меры различия признаков могут служить функции [2]:

Р (0q, 0 r) = 1

0102 — 03^4 0102 + 03^4

Р(0q,0r)=1

01

V(01 + 03)(01 +04) '

В случаях задания наборов признаков в виде кортежей или списков, т.е. при необходимости распознавания свойств последовательностей с учетом сведений о логических аспектах изучаемых объектов, явлений или процессов структурно-лингвистическими методами часто используется расстояние по Кендалу [2]:

2

8 0 -1 - pitt 5 4 а'. ,

где заданный алфавит является упорядоченным (реже частично упорядоченным) множеством с отношением порядка “ х ”, задающим коэффициенты сравнения:

кий вектор p :

£ . ={ 1 ЄСЛИ 0qj ^Aj; j [ 0, в противном случае,

где j = 1 Р , A j — порог, фиксирующий включение в

рассмотрение j -го признака, можно легко определить детерминанты сравнения:

01 — принадлежность двум наборам признаков

0q и 0r одних и тех же компонентов:

01 =Е I qj I rj;

j=1

Aqst =\

+ 1 при 9 qt X 0 -1 при

qs

qs

)qt;

. 0 при 0qs + 0qt И 0 qt + (

qs

где s < t.

Необходимо подчеркнуть, что метрика Кендала ориентируется лишь на “однотипность” упорядочивания признаков. Более тонкие меры различия списков, учитывающие их структуру, можно получать с использованием трансформаций одного списка в другой [13,14]. Простейшим и в то же время достаточным набором операций преобразований являются:

ф (9 0rs) — подстановка символа 0qs вместо 0 rs;

02 — число случаев, когда векторы 0q и 0r не обладают одинаковыми характеристиками:

02 =Е (1 -Iqj)(1 -Irj); j=1

03 — множество ситуаций, в которых набор 0q не имеет признаков, присущих 0r:

03 =£ Д-§qj) \rj • j=1

V (б0,0qs) — создание вместо пустого символа

00 нового символа 9qs ;

v(0qs> 00) — уничтожение символа 0qs .

Имея “цену” каждой операции c[о] , расстояние между двумя списками можно определить как наименьшую из возможных цен перехода от исходного списка к конечному. В качестве базовых соотношений для вычисления различия списков выступает

шаговое преобразование 9qs к 9rt [12]:

РИ, 1999, № 1

67

p(6qs-1, 0rt -0 + C

?(0qs,0rs) ;

p(6qs, 0rt) = min <

p(0qs, 0rt-l)

+ C

P(6qs-1, Ort) 1 + C

ф(о0,0qs) ; V(0qs, 0^ .

Необходимо отметить, что в общем случае учет цены такого “локального” перехода достаточно сложен вследствие потенциальной поливариантности цепочек преобразований различной стоимости, обес -печивающих свойство эквифинальности. Тем самым, для вычисления расстояния, соответствующего полной цене трансформаций, следует применять процедуры типа динамического программирования, удовлетворяющие требованию: каждое решение, принимаемое на некотором шаге преобразований, должно обеспечивать суммарную оптимальность на всех последующих этапах.

В заключение следует подчеркнуть, что эффективность компаративного распознавания достигается за счет таких свойств є -кластеризации, как:

— минимизация количества операций сравнения на стадии распознавания при заданном значении “сходства/различия” є и фиксированных множествах эталонов путем оптимального формирования є -кластеров;

— обеспечение устойчивости прелиминарной обработки опорных данных, т.е. независимости кластеризации от стартовых условий и выбора эталонов;

— синтез на основе точечно-множественных отображений теоретико-экспериментального инструментария, позволяющего анализировать информационные свойства признаковых пространств в аспекте необходимости, достаточности и полноты характеристик эталонных множеств.

Литература: 1. Дуда Р, Харт П. Распознавание образов и анализ сцен. М.: Мир. 1976. 512 с. 2. Фор А. Восприятие и распознавание образов. М.: Машиностроение, 1989. 272 с. 3. Dubes R.C. Cluster analysis and related issues // Handbook of Pattern Recognition and Computer Vision / Chen C.H., Pau L.F. and Wang P.S.P. (eds.). Singapore -New Jersey - London - Hong Kong: World Scientific Publishing Co. Pte. Ltd, 1995. P. 3-32. 4. Майстренко А. А.,

Машталир В.П., Путятин Е.П., Ходарев В. Т. Предварительная обработка эталонной информации при классификации изображений // Тез. докл. Всесоюзн. конф. “Математические методы распознавания образов (ММРО-IV)”, 4.3. “Распознавание, анализ и понимание изображений: методология, теория, методы и средства”. Рига: МИПКРРиС при СМ ЛатвССР. 1989. С. 64-66. 5.Машталир В.П., Ходарев В.Т. Многозначные отображения в корреляционных системах технического зрения // АСУ и приборы автоматики. 1990. Вып. 96. С. 107111. 6. Mashtalir V.P., Maystrenko A.A. Preprocessing method for correlation identification // Proc. of 9th IFAC/IFOR Symp. “Identification and system parameter estimation”. Vol. 1. Oxford: Pergamon Press plc. 1991. P. 266-270. 7. Машталир В.П., Ходарев В.Т. Метод классификации эталонов в корреляционно-экстремальных системах технического зрения // АСУ и приборы автоматики. 1993. Вып. 99. С. 9-16. 8. Mashtalir V.P. Template sets preprocessing for correlation procedures // Proc. The third all-ukranian intern. conf. “ Signal/Image Processing and Pattern Recognition”. Kyjiv: uA on IP and SP. 1996. P. 63-65. 9. Киношенко Е.И., Машталир В.П., Хромушин В.А. Методы синтеза экспертных систем диагностики заболеваний внутренних органов на основе точечно-множественных отображений / / Вестн. новых мед. технологий. 1996. Т.III, №4. С. 101-107. 10. Mashtalir V.P, Putyatin E.P. Hierarchical decomposition of reference features for correlation classification // Праці УНДІРТ. 1997. №2. С. 36-42. 11. Браверман Э.М., Мучник И.Б. Структурные методы обработки экспериментальных данных. М.: Наука, 1983. 464 с. 12. Rezaee M.R., Lelieveldt B.P.F., Reiber J.H. C. A new cluster validity index for the fuzzy c-mean // Pattern Recognition Letters. 1998. Vol.19, № 3,4. P. 237-246. 13. Bunke H. Structural and Syntactic Pattern Recognition / / Handbook of Pattern Recognition and Computer Vision / Chen C.H., Pau L.F. and Wang P.S.P. (eds.). Singapore -New Jersey- London - Hong Kong: World Scientific Publishing Co. Pte. Ltd. 1995. P. 163-209. 14. Masek WJ, Paterson M.S. A faster algorithm for computing string-edit distances // Journal Computing System Science. 1980. Vol. 20, № 1. P. 18-31.

Поступила в редколлегию 12.04.99 Рецензент: д-р техн. наук Путятин Е.П.

Машталир Владимир Петрович, канд. техн. наук, старший научный сотрудник, ведущий научный сотрудник кафедры применения ЭВМ ХТУРЭ. Научные интересы: обработка изображений и распознавание образов. Адрес: Украина, 310141, Харьков, пр. Ленина, 14, тел. 4094-19, e-mail: masht@skynet.kharkov.com.

УДК 519.3

ОСОБЕННОСТИ ПРЕДСТАВЛЕНИЯ ГЕОМЕТРИЧЕСКОЙ ИНФОРМАЦИИ О ф -ОБЪЕКТЕ ПРОСТРАНСТВА R2

РОМАНОВА Т.Е., МАГДАЛИНА И.В.

Рассматривается способ представления исходной информации о ф - объекте, обладающем произвольной пространственной формой в пространстве R2 на основе алгебро-топологических свойств компонент линейной связности границы ф - объекта.

При создании интеллектуальных систем решения оптимизационных задач геометрического проектирования [ 1] возникает необходимость построить единую вычислительную основу представления информации

о математических моделях объектов реального мира. В этом случае формальная модель описания информации должна быть однозначной, конструктивной, полной, не избыточно-информативной, компактной и удобной для вычислительных процессов.

В рассматриваемом классе задач в качестве математических моделей материальных объектов выбираются ф - объекты [2] — непустые канонически замкнутые (канонически открытые) [3] точечные множества арифметического евклидова пространства R2, гомотопический тип [4] внутренности и замыкания которого совпадают.

На рис.1, а приведено двусвязное канонически открытое множество T=int*T=intclT, гомотопический тип внутренности и замыкания которого — топологическая окружность; на рис. 1 ,б изображено четырехсвязное канонически замкнутое множество T=cl* T=clintT, внутренность и замыкание которого гомотопически эквивалентны “букету” трех тополо-

68

РИ, 1999, № 1

i Надоели баннеры? Вы всегда можете отключить рекламу.