Классификация при наличии двух обучающих выборок
Перед тем как приступить непосредственно к процедуре классификации, нужно определить границу, разделяющую в частном случае две рассматриваемые группы. Такой величиной может быть значение функции, равноудаленное от
Величина С называется константой дискриминации. На рис.1 видно, что объекты, расположенные над прямой f(x)= Рассмотрим пример использования дискриминантного анализа для проведения многомерной классификации объектов. При этом в качестве обучающих будем использовать сначала две выборки, принадлежащие двум классам, а затем обобщим алгоритм классификации на случай k классов.
Пример 1. Имеются данные по двум группам промышленных предприятий машиностроительного комплекса:
Необходимо провести классификацию четырех новых предприятий, имеющих следующие значения исходных переменных: l-е предприятие: 2-е предприятие: 3-е предприятие: 4-е предприятие:
Для удобства запишем значения исходных переменных для каждой группы предприятий в виде матриц
Рассчитаем среднее значение каждой переменной в отдельных группах для определения положения центров этих групп: I гр. II гр. Дискриминантная функция f(x)в данном случае имеет вид:
f (х) = Коэффициенты
A=
где Для определения совместной ковариационной матрицы
Тогда совместная ковариационная матрица
где
Обратная матрица
Отcюда находим вектор коэффициентов дискриминантной функции по формуле:
т.е. Подставим полученные значения коэффициентов в формулу (18) и рассчитаем значения дискриминантной функции для каждого объекта:
Тогда константа дискриминации С будет равна: С = После получения константы дискриминации можно проверить правильность распределения объектов в уже существующих двух классах, а также провести классификацию новых объектов. Рассмотрим, например, объекты с номерами 1, 2, З, 4. Для того чтобы отнести эти объекты к одному из двух множеств, рассчитаем для них значения дискриминантных функций (по трем переменным):
Таким образом, объекты 1, 2 и 4 относятся ко второму классу, а объект 3 относится к первому классу, так как
4. Классификация при наличии k обучающих выборок При необходимости можно проводить разбиение множества объектов на k классов (при k > 2). В этом случае нужно рассчитать k дискриминантных функций, так как классы будут отделяться друг от друга индивидуальными разделяющими поверхностями. На рис. 3 показан случай с тремя множествами и тремя дискриминантными переменными:
Рис.3 Три класса объектов и разделяющие их прямые
Пример 2. Рассмотрим случай, когда существует три класса (множества) объектов. Для этого к двум классам из предыдущего примера добавим еще один. В этом случае будем иметь уже три матрицы исходных данных:
Если в процессе дискриминации используются все четыре переменные (
Определим теперь, к какому классу можно отнести каждое из четырех наблюдений, приведенных в табл.2:
Таблица 2- Исходные данные
Подставим соответствующие значения переменных
Следовательно, наблюдение 1 в табл.2 относится к первому классу. Аналогичные расчеты показывают, что и остальные три наблюдения следует отнести тоже к первому классу. Чтобы показать влияние числа дискриминантных переменных на результаты классификации, изменим условие последнего примера. Будем использовать для расчета дискриминантных функций только три переменные:
Подставив в эти выражения значения исходных переменных для классифицируемых объектов, нетрудно убедиться, что все они попадают в третий класс, так как
Таким образом, мы видим, что изменение числа переменныx сильно влияет на результат дискриминантного анализа. Чтобы судить о целесообразности включения (удаления) дискриминантной переменной, обычно используют специальные статистические критерии, позволяющие оценить значимость ухудшения или улучшения разбиения после включения (удаления) каждой из отобранных переменных.
Воспользуйтесь поиском по сайту: ![]() ©2015 - 2025 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...
|