ТВОРЧЕСТВО

ПОЗНАНИЕ

 


В основе АВО (или алгоритмов голосования) лежит принцип ча(
тичной прецедентности: близость объекта к классу тем больше, че
больше частей в его описании <похожи> на соответствующие части
описаниях объектов, чья принадлежность классу известна. Наприме
в одном из вариантов АВО (Зеличенко А. И" 1982) функция близок
объекта S к классу К определяется как:
STR.101
r(S,K)=P,B(a,{S), a,(S), (3.5.3)
t=i /-i
B(a,(S) a,)) если1а)-а,)1<е,,
" <\> o-в противном случае,
где - t-тый объект, принадлежность которого к классу К уже
известна;
а,(5) - J-ТЫЙ элемент (параметр) в-описании объекта;
Р, - его вес;
е, - J-ТЫЙ порог.
После того как вычислены r(S\K\),...,r(S\, Ki) на основании
некоторого решающего правила (зависящего от вектора параметров
В), принимается решение о принадлежности объекта к одному или не-
скольким классам К\, ... , Ki. В задачах психодиагностики S .- это
испытуемый.
Таким образом, каждый вариант АВО определяется набором зна-
чений параметров. В нашем случае - это векторы p==(pi,...,pm),
е = (61,..., Ёт). Если информация об объекте S представлена в виде
1(S)= (fli,..., dm), то элемент вектора опорных множеств Wi(S)=d!,
а ; - /-тый порог.
В качестве примера решающего правила можно привести следую-
щее (линейное пороговое решающее правило):
объект S принадлежит классу Kt, если
lr(S,)>Ci, (3.5.4)
i=i
объект S не принадлежит классу Kt, если
l
ЕГЯ.Х, (3.5.5)
в остальных случаях -отказ от распознавания принадлежности объек-
та S классу Kt.
В работе алгоритмов распознавания вообще и АВО в частности
можно выделить два этапа: обучение и собственно распознавание. На
этапе обучения, как уже говорилось, происходит настройка алгоритма,
т. е. выбор таких его параметров, которые обеспечивают оптимальное
в некотором смысле распознавание объектов, обучающей выборки
(объектов, принадлежность которых классам Ki,..., Ki известна). На
этапе собственно распознавания происходит отнесение к классам
Я>,..., K.i тех объектов, принадлежность которых к классам априорно
неизвестна.
Точность распознавания на этапе обучения измеряется полнотой
и адекватностью распознавания эталонных объектов. Наряду с поня-
тием <точность> (абсолютная отделимость) иногда удобно использовать
понятие относительной отделимости объектов обучающей выборки, при-
надлежащих различным классам. В случае, когда распознавание ве-
дется для двух классов (например, в профориентации - для диффе-
ренциального прогноза успешности оптанта в одной из двух профес-
сиональных областей), относительную отделимость можно определить
как
STR.102
x - Хпип
100 - Xmin
(3.5.6)
где - точность при обучении (выраженная в процентах), a min-
минимальная возможная точность обучения (совпадает с долей объек-
тов в наибольшем классе от общего объема обучающей выборки). На
этапе собственно распознавания точность характеризует главным обра-
зом репрезентативность обучающей выборки (выборки валидизации).
Чем выше репрезентативность, тем больше совпадают показатели точ-
ности на этапах обучения и собственно распознавания.
Использование АВО кроме решения задачи распознавания позво-
ляет получить еще следующую информацию.
1. Информационные веса отдельных элементов (параметров) опи-
сания объектов. Эти веса измеряются через изменение точности рас-
познавания при исключении соответствующих параметров из описания
эталонных объектов:
е(а,)=(Х-Х (а/)) а, (3.5.7)
где 1 - точность распознавания при Р/=1; х(о/) - точность распоз-
навания при Р,==0, а а- нормирующий множитель. Информационные
веса интерпретируются как мера прогностической важности пара-
метров.
2. Оптимальные значения порогов g, т. е. значение е, обеспечива-
ющие наивысшую точность распознавания. Эти значения порогов в
нашем случае можно интерпретировать как чувствительность методики.
c.j - своего рода дифференциальный порог на шкале тестового пока-
зателя а), определяющий переход индивида из одной диагностической
категории в другую. Пусть на этапе разработки теста (тестовой бата-
реи) была обследована группа из К человек, про которых известно, что
Ki из них относится к одному классу, а Кч-к другому, K=K\+Ki.
Выбрав случайным образом из этой группы М(М<К) многомерных
описаний, проводим на них процедуру обучения алгоритма. Точность
обучения характеризует валидность теста. После этого применяем про
цедуру собственно распознавания (по выработанному решающему пра-
вилу) для остальных Я-М описаний. В результате этой процедуры мь
определяем принадлежность респондентов (испытуемых) к нашим клас
сам. Сравнивая эти результаты с априорными (эталонными) данным)
о принадлежности ис-пытуемых классам, мы определяем точность са
мого распознавания. Если эта точность близка к точности обучения, т
наша пилотажная выборка объемом М может быть признана репре
зентативной для обучения. Далее можно переходить к задаче опр(
деления информационных весов.
Для эффективного использования алгоритмов распознавания
отношению к многомерным тестовым системам (при K>S), как пр
вило, требуется использование ЭВМ. Большинство алгоритмов при
ципиально сконструированы в расчете на вычислительные возможн
сти ЭВМ с ее <терпеливой готовностью> повторять одни и те же UHKJ
вычислений (итерации) сотни и тысячи раз.
При решении задач небольших размерностей (по количеству пар
метров) иногда психолог может быстрее найти решающее правю
используя собственные способности зрительной системы (очень мо
ные) к визуально-геометрической группировке объектов. В прострг
STR.103
стве параметров диагностические классы выглядят как <сгущения>,
некие <облака> из точек, изображающих испытуемых. В этом случае
при наличии априорной информации о принадлежности индивидов
классам удобно изображать точки из различных классов разными цве-
тами (хуже - разными фигурками: квадратиками, -кружками, тре-
угольниками). В этом случае <решающее правило> легко <увидеть>
как некую воображаемую линию (прямую или кривую), разделяю-
щую точки разного цвета (см. рис. 17). Точность диагностики в дан-
ном случае можно оценить по числу точек, попавших при данном
решающем правиле в <чужую> половину пространства параметров.
Точность правила, изображенного на рис. 17, равна:
А____В
10 2
3 12
10 X 12-2х3
13х14х12х15
0,63
Здесь в четырехклеточной таблице сопряженности по строкам за-
дано попадание объекта в один из априорных классов А (треуголь-
ники на рис. 17) или В (кружочки на рис. 17), а по столбцам - по-
падение объектов в один из апостери-
орных классов, образованных приме-
нением решающего правила, - .4
(слева от критериальной линии) или
В (справа от критериальной линии).
Как указано выше, для статистичес-
и.л
о\ \ А о д
\оо
"--
ч о л во- -S- ~~~~о"-0 U Ї\ д 0\< д
О\
Рис.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144