2.5.3.
где Х - вектор данных;
Ui - вектор математического ожидания;
- ковариационная матрица для класса i;
- определитель ковариационной матрицы ;
- траксионированный вектор (Х-Ui).
Предполагая, что n-мерная гистограмма частотного определения для каждого класса допускает аппроксимацию многомерной нормальной функцией плотности, мы получаем возможность описать классы ЛГМ с помощью их векторов математических ожиданий и ковариационных матриц. Однако при использовании этого предположения нужно уделить внимание двум вопросам.
Во-первых, при обучении образов должны быть адекватные обучающие выборки, позволяющие оценить математические ожидания и ковариационные матрицы каждого класса ЛГМ.
Во-вторых, имеются случаи, когда это предположение отвергается с полной очевидностью.
Пусть мы имеем m классов горючих материалов. Пусть Р(Х/Wi) - функция плотности вероятностей, зависящая от вектора Х, при условии, что Х принадлежит горючим материалам класса i. Пусть Р(Wi) - априорная вероятность класса i, то есть вероятность наблюдения образа из класса i, независимо от любой другой информации.
Решающее правило по максимуму правдоподобия. Примем решение , если и только для всех j=1,2 .m 2.5.4.
Набор произведений , образует набор дискриминантные функций, а теперь определим эти функции. Для начала определим множество функций для m классов ; j=1,2 .m, где - потери вызванные классификацией образов из класса j в классе i. Основная наша задача - минимизация средних потерь для всего набора предстоящих классификаций или байесовская оптимальная стратегия. Для данного типа горючих материалов Х средние потери при отнесении Х к классу i вычисляем по формуле:
2.5.5.
где - условная вероятность того, что Х принадлежит классу j.
Соотношение между совместными и условными вероятностями
2.5.6.
Подставив выражение 2.5.6. в 2.5.5., имеем
2.5.7.
Это выражение приводит к набору дискриминантные функций, если применить три правила:
1. Минимизация набора функций эквивалентна максимизации тех же функций с обратным знаком;
2.Подходящий набор функций потерь
2.5.8.
то есть стоимость равна 0, при правильной классификации и равна 1, при ошибке;
3. Если { } - набор дискриминантные функций, то применение любой монотонной функции к этому набору дает эквивалентный набор дискриминантных функций { }, то есть использование любого из этих наборов приводит к одинаковым результатам классификации.
Байесовская оптимальная стратегия требует принятия классификационных решений, минимизирующих 2. .7.Если применим правило 1, то эквивалентной стратегией будет минимизация взятого с обратным знаком уравнения 2.5.7.
Пусть 2.5.9. и пусть стратегия классификаций заключается в том, что Х относится к классу i, для которого
максимальна. Используя правила 2 и 3 упростим 2.5.9. Прежде всего, подставляя “нуль единичную” функцию потерь в 2.5.8., получим
2.5.10
При любом заданном Х величина Р(Х)=const, что дает эквивалентный набор дискриминантных функций
2.5.11
Простой закон вероятности дает
2.5.12
что можно представить как
, или
подставляя полученный результат в 2.5.11, получим , поскольку Р(Х)=const при фиксированном Х преобразует это выражение к требуемому набору дискриминантных функций
2.5.13
Если функции распределения вероятностей, связанные с классами горючих материалов, представляют собой многомерные нормальные функции плотности, то дискриминантные функции выражаются так:
2.5.14
Система распознавания образов классифицирует каждый класс горючих материалов, представленных ей, в один из классов, для распознавания которых она была создана, то есть в один из классов, для которого была определена дискриминантная функция, Но при дискриминантнном зондировании имеется некоторое число точек, принадлежащих классификацируемой области, которые не относятся ни к одному из этих классов. Хотя эти точки не могут быть классификацированы из-за отсутствия дискриминантной функции, классификатор можно заставить обнаружить их, если спектрально они заметно отличаются от точек действительных классов. Это выполняется с помощью так называемого метода установления порога, в котором значение вероятности Р(Х/Wi) сравнивается с порогами, заданным нами. Если значение вероятности меньше порогового значения, то точка данных относится к классу отказов.
рис.2.5.2. Установление порога.
Одной из причин использования статистических методов в применении распознавания образов при дистанционных исследованиях является возможное перекрывание классов ЛГМ, подлежащих квалификации. Основная цель этих методов - минимизировать вероятность ошибки. которая может служить критерием для создания эффективного классификатора.
Вероятность ошибки мы определяем так. Пусть мы имеем одно доступное дистанционное измерение. Наша задача разделить два класса ЛГМ, имеющих функции плотностей вероятностей . Умножая значения кривых
Влияние искусственно вносимой соли NaF на накопление фтора в почве и разнотравье луга )
Развитие любого промышленного производства совсем не
дающего загрязняющих выбросов в окружающую среду не осуществимо не только в
России, но и не в одной стране мира. Поэтому в ближайшем будущем и отдаленной
перспективе проблема загрязнения ...
Загрязнение вод и нарушение режима стока
Вода - самое распространенное
неорганическое соединение на нашей планете. Вода - основа всех жизненных
процессов, единственный источник кислорода в главном движущем процессе на Земле
- фотосинтезе. Вода присутствует во всей биосфер ...