МегаПредмет

ПОЗНАВАТЕЛЬНОЕ

Сила воли ведет к действию, а позитивные действия формируют позитивное отношение


Как определить диапазон голоса - ваш вокал


Игровые автоматы с быстрым выводом


Как цель узнает о ваших желаниях прежде, чем вы начнете действовать. Как компании прогнозируют привычки и манипулируют ими


Целительная привычка


Как самому избавиться от обидчивости


Противоречивые взгляды на качества, присущие мужчинам


Тренинг уверенности в себе


Вкуснейший "Салат из свеклы с чесноком"


Натюрморт и его изобразительные возможности


Применение, как принимать мумие? Мумие для волос, лица, при переломах, при кровотечении и т.д.


Как научиться брать на себя ответственность


Зачем нужны границы в отношениях с детьми?


Световозвращающие элементы на детской одежде


Как победить свой возраст? Восемь уникальных способов, которые помогут достичь долголетия


Как слышать голос Бога


Классификация ожирения по ИМТ (ВОЗ)


Глава 3. Завет мужчины с женщиной


Оси и плоскости тела человека


Оси и плоскости тела человека - Тело человека состоит из определенных топографических частей и участков, в которых расположены органы, мышцы, сосуды, нервы и т.д.


Отёска стен и прирубка косяков Отёска стен и прирубка косяков - Когда на доме не достаёт окон и дверей, красивое высокое крыльцо ещё только в воображении, приходится подниматься с улицы в дом по трапу.


Дифференциальные уравнения второго порядка (модель рынка с прогнозируемыми ценами) Дифференциальные уравнения второго порядка (модель рынка с прогнозируемыми ценами) - В простых моделях рынка спрос и предложение обычно полагают зависящими только от текущей цены на товар.

Классификация при наличии двух обучающих выборок





Перед тем как приступить непосредственно к процедуре классификации, нужно определить границу, разделяющую в частном случае две рассматриваемые группы. Такой величиной может быть значение функции, равноудаленное от и , т.е.

 

(16)

 

Величина С называется константой дискриминации.

На рис.1 видно, что объекты, расположенные над прямой f(x)= + +…+ =C , находятся ближе к центру множества и, следовательно, могут быть отнесены к первой группе, а объекты, расположенные ниже этой прямой, ближе к центру второго множества, т.е. относятся ко второй группе. Если граница между группами выбрана так, как сказано выше, то суммарная вероятность ошибочной классификации минимальная.

Рассмотрим пример использования дискриминантного анализа для проведения многомерной классификации объектов. При этом в качестве обучающих будем использовать сначала две выборки, принадлежащие двум классам, а затем обобщим алгоритм классификации на случай k классов.

 

Пример 1. Имеются данные по двум группам промышленных предприятий машиностроительного комплекса:

-фондоотдача основных производственных фондов, руб.;

-затраты на рубль произведенной продукции, коп.;

-затраты на сырье и материалов на один рубль продукции, коп.


  Номер Х1 Х2 ХЗ
  предприятия
  0,50 94,0 8,50
l-я группа 0,67 75,4 8,79
  0,68 85,2 9,10
  0,55 98,8 8,47
  1,52 81,5 4,95
2-я группа 1,20 93,8 6,95
  1,46 86,5 4,70

 

Необходимо провести классификацию четырех новых предприятий, имеющих следующие значения исходных переменных:

l-е предприятие: = 1,07, =93,5, =5,30,

2-е предприятие: = 0,99, =84,0, =4,85,

3-е предприятие: = 0,70, =76,8, =3,50,

4-е предприятие: = 1,24, =88,0, =4,95.

Для удобства запишем значения исходных переменных для каждой группы предприятий в виде матриц и :

 

(17)

 

Рассчитаем среднее значение каждой переменной в отдельных группах для определения положения центров этих групп:

I гр. =0,60, =88,4, =8,72

II гр. =1,39, =87,3, =5,53.

Дискриминантная функция f(x)в данном случае имеет вид:

 

f(х) = + + (18)

Коэффициенты , и вычисляются по формуле:

 

A= ( - ), (19)

 

где и - векторы средних в первой и второй группах; А - вектор коэффициентов; - матрица, обратная совместной ковариационной матрице.

Для определения совместной ковариационной матрицы нужно рассчитать матрицы и . Каждый элемент этих матриц представляет собой разность между соответствующим значением исходной переменной и средним значением этой переменной в данной группе (k - номер группы):

Тогда совместная ковариационная матрица будет равна:

 

, (20)

 

где , - число объектов l-й и 2-й группы;

 

(21)

Обратная матрица будет равна:


.(22)

 

Отcюда находим вектор коэффициентов дискриминантной функции по формуле:

 

(23)

 

т.е. =-185,03, =1,84, =4,92.

Подставим полученные значения коэффициентов в формулу (18) и рассчитаем значения дискриминантной функции для каждого объекта:

 

(24)

 

Тогда константа дискриминации С будет равна:

С = (94,4238-70,0138) = 12,205.

После получения константы дискриминации можно проверить правильность распределения объектов в уже существующих двух классах, а также провести классификацию новых объектов.

Рассмотрим, например, объекты с номерами 1, 2, З, 4. Для того чтобы отнести эти объекты к одному из двух множеств, рассчитаем для них значения дискриминантных функций (по трем переменным):



= -185,03 х 1,07 + 1,84 х 93,5 + 4,92 х 5,30 = 0,1339,

= -185,03 х 0,99 + 1,84 х 84,0 + 4,92 х 4,85 = -4,7577,

= -185,03 х 0,70 + 1,84 х 76,8 + 4,92 х 3,50 = 29,0110,

= -185,03 х 1,24 + 1,84 х 88,0 + 4,92 х 4,95 = -43,1632.

Таким образом, объекты 1, 2 и 4 относятся ко второму классу, а объект 3 относится к первому классу, так как < с, < с, > с, < с.

 

4. Классификация при наличии k обучающих выборок

При необходимости можно проводить разбиение множества объектов на k классов (при k> 2). В этом случае нужно рассчитать k дискриминантных функций, так как классы будут отделяться друг от друга индивидуальными разделяющими поверхностями. На рис. 3 показан случай с тремя множествами и тремя дискриминантными переменными:

 

Рис.3 Три класса объектов и разделяющие их прямые

– первая, – вторая, - третья дискриминантные функции.


Пример 2.Рассмотрим случай, когда существует три класса (множества) объектов. Для этого к двум классам из предыдущего примера добавим еще один. В этом случае будем иметь уже три матрицы исходных данных:

 

(25)

 

Если в процессе дискриминации используются все четыре переменные ( , , , ) то для каждого класса дискриминантные функции имеют вид:

 

(26)

 

Определим теперь, к какому классу можно отнести каждое из четырех наблюдений, приведенных в табл.2:

 

Таблица 2- Исходные данные

Номер наблюдения
1,07 93,5 5,30
0,99 84,0 4,85
0,70 76,8 3,50
1,24 88,0 4,95

Подставим соответствующие значения переменных , , , в выражение (26) и вычислим затем разности:

- =-20792,082+31856,41=11064,328 0,

- =-20792,082+40016,428=19224,346 0.

Следовательно, наблюдение 1 в табл.2 относится к первому классу. Аналогичные расчеты показывают, что и остальные три наблюдения следует отнести тоже к первому классу.

Чтобы показать влияние числа дискриминантных переменных на результаты классификации, изменим условие последнего примера. Будем использовать для расчета дискриминантных функций только три переменные: , , . В этом случае выражения для дискриминантныx функций будут иметь вид:

 

(27)

 

Подставив в эти выражения значения исходных переменных для классифицируемых объектов, нетрудно убедиться, что все они попадают в третий класс, так как

- =-26,87 0,

- =-37,68 ,

- =-10,809 .

Таким образом, мы видим, что изменение числа переменныx сильно влияет на результат дискриминантного анализа. Чтобы судить о целесообразности включения (удаления) дискриминантной переменной, обычно используют специальные статистические критерии, позволяющие оценить значимость ухудшения или улучшения разбиения после включения (удаления) каждой из отобранных переменных.






©2015 www.megapredmet.ru Все права принадлежат авторам размещенных материалов.