Форма и семантический смыл морфологических критериев

Материал из Техническое зрение
Версия от 09:05, 27 сентября 2020; JIoku (обсуждение | вклад)

(разн.) ← Предыдущая | Текущая версия (разн.) | Следующая → (разн.)
Перейти к: навигация, поиск

Содержание

Мультипликативная форма

Выше была введена $\textit{мультипликативная форма}$ записи критериев, задаваемых $\textit{нормированными}$ на интервале $[0,1]$ в общем случае $\textit{нечеткими функциями принадлежности}$ объектов или пар объектов некоторым множествам. Однако такая форма описания, будучи достаточно общей, не является единственно возможной. Более того, различные возможные формы записи традиционно связаны с различной семантической интерпретацией.

$\textit{Вероятностные}$ модели, очевидно, являются частным случаем $\textit{нечетких}$ моделей. Вероятностная мера должна дополнительно удовлетворять условию нормировки (полной вероятности)

$$ \sum _{x\in X} \mu (x) = 1, $$

где $X$ - некоторая полная группа элементов (событий). Допустим, что элементы когнитивной модели описываются вероятностными мерами. Тогда их можно соответственно обозначить: $\textrm{Ф}(A,L)=P(A,L)$ - вероятность совместного наблюдения $A$ и $L$; $K(A,L)=P(A/L)$ - условная вероятность наблюдения $A$ при условии $L$; $M(L)=P(L)$ - априорная вероятность формирования прообраза $L$. То есть в этом случае когнитивная модель

$$ \textrm{Ф}(A,L)=K(A,L)\cdot M(L) $$

представляет собой $\textit{формулу полной вероятности}$ события "$A$ и $L$ наблюдаются одновременно"

$$ P(A,L)=P(A/L)\cdot P(L), $$

а задача максимально достоверной реконструкции или морфологической фильтрации может быть интерпретирована как задача поиска прообраза $L$ по $\textit{методу максимума апостериорной вероятности}$

$$ \psi (A)=L: P(A,L)\to \max(L\in \Omega ). $$

Логические модели

Рассмотрим теперь $\textit{четкие}$ или $\textit{логические модели}$, в которых меры принадлежности принимают значения на множестве $\{0,1\}\subseteq [0,1]$. $\textit{Четкая модель прообраза}$ предполагает, что идеальный прообраз определенно принадлежит некоторому $\textit{модельному множеству изображений} \textbf{M}$:

$$ M(L)\to \{0,1\}: \{M(L)=1\Leftrightarrow L\in \textbf{M},\: M(L)=0\Leftrightarrow L\notin \textbf{M}\}. $$

При этом даже если критерий $K(A,L)$ остается нечетким, но удовлетворяет $\textit{условию максимума сходства при эквивалентности}$

$$\forall A\ne B: K(A,A)>K(A,B),$$

оператор морфологической фильтрации всегда может рассматриваться как $\textit{оператор морфологической проекции на модель}$

$$\psi (A,M): K(A,L)\cdot M(L)\to \max(L\in \Omega ) \Leftrightarrow K(A,L)\to \max(L\in \textbf{M}).$$

Таким образом, если дано $n$ непересекающихся модельных множеств, можно говорить о том, что оператор морфологической фильтрации $\psi $ разбивает $\Omega $ на $n$ $\textit{классов эквивалентности}$. Этот факт часто используется в алгебраических теориях распознавания образов.

Наконец, в случае$\textit{ логических критериев }$логическими предикатами описываются и критерий соответствия $K(A,L)$, и модель прообраза $M(L)$. Для таких критериев эффективными оказываются процедуры логического вывода, реализованные в языках типа ПРОЛОГ и других системах логического программирования.

Аддитивная форма

Помимо мультипликативной, в литературе часто рассматривается также $\textit{аддитивная форма}$ записи критериев вида

$$ J(A,L)+Q(L)\to \min(L\in \Omega ), $$

где $J(A,L)$ - $\textit{критерий соответствия}$, а $Q(L)$ - $\textit{критерий качества}$ прообраза, связь которых с рассмотренными выше мультипликативными критериями очевидна. Положив

\begin{gather*} J(A,L) = - \textrm{log} (K(A,L)),\cr Q(L) = - \textrm{log} (M(L)), \end{gather*}

убедимся, что эти критерии оказываются практически эквивалентными. При этом стандартная область значений $[0,1]$ отображается на интервал $(+\infty ,0]$, что позволяет рассматривать такие критерии как $\textit{штрафные}$: абсолютно достоверным элементам в них соответствует нулевой штраф, а абсолютно недостоверным - максимальный (бесконечный). Естественно, максимально достоверному прообразу $L$ соответствует $\textit{минимум штрафа}$.

Ясен и семантический смысл таких аддитивных критериев в рамках рассматриваемой когнитивной модели. Если элементы мультипликативного критерия рассматривать как вероятности, то величина "минус логарифм вероятности" с точки зрения шенноновской теории информации имеет смысл "информации" (на самом деле формулы здесь получаются несколько более сложные, но сути рассуждений это не меняет). Значит, аддитивные критерии можно назвать $\textit{информационными критериями морфологического анализа}$, и заключаются они в требовании подбора такого прообраза $L$, который обеспечивал бы минимум информации (и, соответственно, $\textit{максимум энтропии}$), содержащейся в сообщении о наблюдении образа $A$ или признаков $E(A)$.

Критерий со структурирующим параметром

В аддитивной форме в критерий оптимизации часто включают также дополнительный параметр $\alpha $: $$ \textrm{Ф}(A,L)=J(A,L)+\alpha \cdot Q(L) \to \min (L \in \Omega ). $$ Во многих случаях его удобно использовать в качестве $\textit{настроечного }$или $\textit{структурирующего параметра}$, поскольку он в явном виде определяет компромисс между противоречивыми требованиями соответствия и качества реконструкции данных. В таком виде этот критерий также имеет смысл критерия регуляризации некорректной задачи (Тихонов).

В мультипликативной форме соответствующий критерий имеет вид

$$ K(A,L) \cdot M(L)^{\alpha }\to \max(L \in \Omega ). $$


Полезные ссылки

  1. ☝ К началу
  2. ☜ Критерии, используемые в морфологическом анализе изображений
Личные инструменты
Пространства имён

Варианты
Действия
Навигация
Инструменты