Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Математические методы моделирования в геологии

..pdf
Скачиваний:
6
Добавлен:
12.11.2023
Размер:
8.18 Mб
Скачать

3.9. Линейные дискриминантные функции

Дискриминантный анализ является мощным статистическим средством разделения (дискриминации) многомерных нормально распределенных совокупностей на группы таким образом, чтобы была достигнута максимальная однородность внутри групп и ми­ нимальная между ними.

Задачи дискриминации отличаются от близких к ним задач классификации тем, что число групп (в простейшем случае две) за­ дается заранее и зависит от априорных сведений о соотношениях между пробами, в то время как классификация внутренне замкнута, а число кластеров (групп) не может быть заранее определено.

Линейная дискриминантная функция преобразует множество измерений, входящих в выборку, в единственное дискриминантное число (дискриминантную метку). Последним определяется граница разделения совокупностей.

Для нахождения линейной дискриминантной функции строится уравнение регрессии, в котором в качестве зависимых переменных выступают разности между_многомерными средними двух анализи­ руемых групп Н j =Uj - V j . С этой целью решается матричное уравнение вида [С] [а] = [Я], где [С] - ковариационная матрица объединенной выборки размерности т х от; [о] - вектор-столбец коэффициентов дискриминантной функции; [Я] - вектор-столбец разностей между средними значениями признаков групп). Уравне­ ние решается с помощью операции обращения и умножения матриц [а] = [Ср'[Я], после чего по вычисленным коэффициентам щ, а2, ...

ор,..., о*, строится дискриминантная функция

к

DXи Хг...,Хр,...,Х к = Y . aPX P-

р=\

Дискриминантный индекс Do, определяющий принадлежность испытуемого объекта к той или иной группе, рассчитывается по формуле:

Он соответствует середине «обобщенного расстояния» между центрами обеих групп в многомерном пространстве изучаемых при­

знаков.

Процедура построения линейной дискриминантной функции сводится к следующему. Обозначим через щ результат измерения признака с номером / в пробе с номером j, взятой из первой сово­ купности. В результате мы получим матрицу U порядка к х п ре­ зультатов наблюдений над этой совокупностью:

«11

«12

«13

и \ щ

«21

« 2 2

« 2 3

« 2 „ ,

«*1 « * 2 « * 3 « fa ,

Обозначим через Vy результат измерения признаков с номером / в пробе с номером j, взятой из второй совокупности, и получим

матрицу [У] порядка к х п2.

 

 

V,1

V|2

Vl»2

V21

v22

v

>V*2 V*»2

Используя эти данные, вычисляем элементы выборочной кова­ риационной матрицы [5], которую можно представить в матричной записи:

В =

(S „ -S v),

И, + «2 - 2

где Suи Sv- матрицы сумм центрированных квадратов и смешанных произведений, вычисленные по элементам матриц [U] и [V]. Далее находим обращенную матрицу (Су), вычисляем коэффициенты а,, а2, ..., аи строим дискриминантную функцию

D ( x ) = ^ O j X j .

у=1

После расчета порогового значения (дискриминантного индек­ са) D0 оцениваются значения центров обеих исходных групп D-и

Dv, путем подстановки начала значений й/ , а затем оу в уравнение

дискриминантной функции. «Обобщенное расстояние» между дву­ мя многомерными средними D2 называют расстоянием (или крите­ рием) Махалонобиса. Оно вычисляется путем вычитания D- из D -, что эквивалентно подстановке вектора разности между средними значениями двух групп Uj и Vj в дискриминантную функцию

Проверка значимости разделения объектов имеет смысл только при соблюдении ряда условий: случайности наблюдений признаков в каждой группе; равной вероятности того, что неизвестное наблю­ дение принадлежит к любой из групп; нормальном распределении признаков и одинаковом порядке ковариационных матриц различ­ ных групп.

Чем больше D2, тем более уверенное разделение можно провес­ ти между объектами. Уровень ошибочной классификации опреде­ ляется как вероятность попадания наблюдения, принадлежащего первому объекту, в область, определяющую второй объект, и на­ оборот. Численное выражение ошибок классификации определяется из соотношения Р = 1 - <t>(D2), где 0(D2) - функция нормального распределения.

Величину D2 можно использовать в дискриминантном анализе при последовательном наборе признаков и минимизации их числа в классификации. Для этой цели нужно расположить признаки по величине их влияния на D(x). Первым ставится признак, для ко­ торого величина D2 наибольшая из всех остальных, взятых в от­ дельности. Вторым ставится признак, который по величине больше всех других, исключая первый, и т. д. Признаки, характеризующие­ ся отрицательными значениями обобщенного расстояния, отбрасы­ ваются.

Дискриминантный анализ позволяет не только надежно решать классификационные задачи, но и определять информативность ис­

пользуемых для классификации признаков и выбирать из первона­ чального набора признаков оптимальную комбинацию, то есть под­ бирать рациональный комплекс поисковых или разведочных иссле­ дований.

Отнесение наблюдаемого объекта г к одной из заданных сово­ купностей /?,, по значениям дискриминантной функции подразуме­ вает, что классифицируемый объект г принадлежит к одной из обу­ чающих совокупностей Л,. На практике же могут встретиться си­ туации, когда г принадлежит классу, не вошедшему в число этих совокупностей. Тогда применение дискриминантного анализа мо­ жет привести к неправильным представлениям и выводам.

Методы линейного дискриминантного анализа широко исполь­ зуются при решении самых разнообразных геологических задач: для разделения фаций осадочных и магматических пород, перспек­ тивных отложений или территорий и неперспективных, огнеупор­ ных и неогнеупорных глин и других геологических объектов.

В качестве примера разделения рассмотрим классификацию ким-берлитовых пород одного из месторождений Сибири по петрохимическим данным.

На месторождении выделены три типа кимберлитов: афировые туфы северо-восточной части месторождения, кластопорфировые брекчии центральной части месторождения и афировые туфы югозапада. Если брекчии резко отличаются от туфов, то туфы двух уча­ стков очень близки между собой по внешнему облику и петрогра­ фическим особенностям. В результате статистической обработки для каждой пары кимберлитовых пород были получены линейные дискриминантные функции. Так, при сравнении афировых туфов двух участков была получена линейная дискриминантная функция следующего вида: 45,157MnO - l,236FeO + 1,642СаО - 33,489N20 + +21,809К2О + 43,213Р20 5 - 1,4868сульф - 1,040С02 - 61,386 = D(x).

Если D(x) > 0, то кимберлитовая порода относится к афировым кимберлитам северо-востока, при D(x) < 0 - к афировым туфам югозапада.

Из 16 компонент, определенных в каждой пробе, только десять оказались информативными. Ошибка классификации не превышает 0,1%. Для оценки ошибки классификации был проведен экзамен на других массивах данных.

3.10.Метод главных компонент

Сувеличением размерности признакового пространства воз­ растают трудности изучения геологических объектов и возникает проблема замены многочисленных наблюдаемых признаков мень­ шим их числом без существенной потери полезной информации. Одним из наиболее распространенных методов решения этой зада­ чи является метод главных компонент.

Основой метода главных компонент является линейное преоб­ разование т исходных переменных (признаков) в т новых пере­ менных, где каждая новая переменная представляет собой линейное сочетание исходных. В процессе преобразования векторы наблю­ даемых переменных заменяются новыми векторами (главными компонентами), которые вносят резко различные вклады в суммар­ ную дисперсию многомерных признаков. Сокращение пространства признаков достигается путем отбора нескольких наиболее инфор­ мативных компонент, обеспечивающих основную долю суммарной дисперсии, что приводит к заметному уменьшению их общего чис­ ла за счет наименее информативных компонент, отражающих ма­ лые доли суммарной дисперсии.

Главные компоненты - это собственные векторы ковариацион­ ных матриц исходных признаков. Число собственных векторов ко­ вариационной матрицы определяется числом изучаемых признаков, то есть равно числу ее столбцов (или строк). Каждый собственный вектор (главная компонента) характеризуется собственным значе­ нием и координатами.

Собственные значения ковариационной матрицы (Я.у) - это

длины ее собственных векторов, то есть их дисперсии. Суммы соб­ ственных значений ковариационной матрицы равны ее следу, то есть сумме ее диагональных элементов.

Координаты собственного вектора ковариационной матрицы (ооу ) - это числовые коэффициенты, характеризующие его положе­ ние в ш-мерном признаковом пространстве. Число точечных коор­ динат каждого собственного вектора (соу)ш, ,оэ2,...,со„, определяется размерностью пространства, а их численные значения - это коэф­ фициенты линейных уравнений данного собственного вектора.

Собственные значения ковариационной матрицы находятся как характеристические корни полиномиальных уравнений путем их решения. Однако осуществить это для больших значений т очень сложно. Поэтому в вычислительной практике их определяют мето­ дами матричных преобразований (путем последовательных при­ ближений к собственным значениям), которые могут быть реализо­ ваны только с помощью ЭВМ. Методы отыскания координат собст­ венных векторов симметричных матриц также сложны и требуют применения ЭВМ.

Поскольку ковариационные матрицы исходных признаков симметричны, их собственные векторы всегда ортогональны, а со­ ставляющие их переменные взаимонезависимы, то есть не коррели­ руют друг с другом.

В методе главных компонент координаты собственных векто­ ров рассматриваются как нагрузки соответствующих переменных на тот или иной фактор. Они используются для расчета матриц нового множества совокупностей путем проектирования векторов исход­ ных данных (признаков х\, хг, .... хт) на оси собственных векторов (Yl,Y2v>Ym) :

т

Ys =

>1

где соу(- - нагрузки у'-й компоненты в /-й переменной признака. Ис­

ходная матрица наблюдаемых признаков размерности п х т пере­ считывается в матрицу новых переменных (той же размерности), учитывающих собственные значения каждой из компонент. Если статистические (корреляционные) связи между наблюдаемыми при­ знаками многомерного пространства проявляются достаточно от­ четливо, то разложение исходной матрицы наблюдений на т новых компонент приводит к заметному возрастанию контрастности рас­ пределения дисперсий по новым компонентам по сравнению с ис­ ходными векторами. Как правило, дисперсия одной из главных компонент достигает половины и более от суммарной дисперсии признаков, а в совокупности с дисперсиями еще одной-двух после­ дующих компонент их общий вклад в суммарную дисперсию пре­ вышает 90 %.

Таким образом, без существенной потери информации об из­ менчивости наблюдаемых признаков можно заметно сократить раз­ мерность пространства этих признаков (р< т ), ограничившись данными по двум-трем наиболее информативным главным компо­ нентам. Это позволяет считать, что вместо исходной матрицы раз­ мерностью п х т для целей геологического анализа может исполь­ зоваться матрица главных компонент размерностью п х р , где р , как правило, не превышает 2-3. Поскольку новые переменные в этой матрице представлены некоррелированными величинами, метод главных компонент может рассматриваться как мощное средство определения истинного числа линейно независимых векторов, со­ держащихся в исходной матрице.

Реализация метода главных компонент сводится к проведению следующих вычислительных процедур.

1. По исходной матрице наблюдений [X] размерностью п х формируется ее ковариационная матрица [С] размерностью тхт.

С этой целью матрица [X] умножается слева на ее транспонирован­ ный аналог [АГ|Г-

2. Для ковариационной матрицы [С] вычисляются ее собствен­ ные значения и собственные векторы. В результате получается мат­ ричное уравнение [С] = [W]T [Л] [W], где [И^-матрица нагрузок, то есть координат собственных векторов со^ ковариационной матрицы

[С] размерностью т х п\ [Л]-диагональная матрица размерностью т х т главная диагональ которой представлена собственными зна­ чениями ковариационной матрицы (Х; ). В этой матрице столбцы

значений Xj упорядочены (ранжированы) по убыванию собствен­

ных значений векторов.

3.По суммарной величине вкладов первых главных компонент,

сучетом целей и задач исследования, решается вопрос о минимиза­ ции пространства признаков и составляется матрица главных ком­ понент [F] размерностью п х р , где р < т (в большинстве случаев принимается равным 2 , реже 3).

Рассмотрим пример использования метода главных компонент

при интерпретации геохимических данных. На одном из месторож­ дений редкометалльных пегматитов было установлено, что первич­

ные ореолы рассеяния многих элементов отличаются сложным строением и нечеткими границами.

Результаты изучения корреляционных связей дают возмож­ ность предполагать значительное влияние фактора удаленности от рудного тела на содержание всех указанных химических элементов в пробах вмещающих пород. Компонентный анализ позволил вы­ явить пять главных компонент, из которых существенной является только первая. Ее дисперсия составляет 67 % от суммарной диспер­ сии. Первая главная компонента отрицательно связана с удаленно­ стью. Эта компонента отражает общий характер размещения эле­ ментов-индикаторов редкометалльного оруденения в первичных ореолах рассеяния и может быть с успехом использована для их вы­ деления.

Метод главных компонент используется в качестве основы факторного анализа многомерных совокупностей. В практике ис­ пользуются два метода факторного анализа: /?- и <3«метод. Сущ­ ность Л-метода, основанного на использовании не ковариационной, а корреляционной матрицы, близка к задаче метода главных компо­ нент, но в отличие от него факторный анализ считается статистиче­ ским методом. Обычное допущение состоит в том, что связи между т переменными ставятся в зависимость от корреляционных связей каждой из переменных с р взаимно некоррелированными фактора­ ми при р < т. Поэтому дисперсия для т переменных вычисляется как сумма дисперсии р , так называемых «общих факторов» и неза­ висимой от них суммарной добавки от т случайных переменных - «фактора специфичности».

Вычисление нормализованных собственных значений и собст­ венных векторов корреляционной матрицы имеет свои специфиче­ ские особенности. Процедура стандартизации позволяет считать собственные векторы корреляционной матрицы факторами, а их нагрузки, полученные умножением каждой компоненты нормализо­ ванного собственного вектора на квадратный корень из соответст­ вующего собственного значения, факторными нагрузками. Суммы квадратов факторных нагрузок по одному фактору равны их собст­ венным значениям. Суммы квадратов факторных нагрузок по каж­ дой переменной (признаки) называются «общностями», которые обеспечивают одинаковые суммы вкладов переменных в факторы.

Поскольку значения общностей зависят от числа сохраненных фак­ торов /?, этот вопрос приобретает в факторном анализе принципи­ альное значение (хотя и не имеет строгого однозначного решения).

Для более содержательной интерпретации результаты фактор­ ного анализа подвергаются процедуре «вращения» вокруг центра координат для выявления наиболее контрастных сочетаний фактор­ ных нагрузок.

Использование метода главных компонент для целей фактор­ ного анализа рассмотрим на примере Нерюндинского железорудно­ го месторождения - крупнейшего месторождения Ангаро-Катского района Иркутской области. В его геологическом строении прини­ мают туфогенные отложения корвучанской свиты, песчано-аргил­ литовые породы буркуглинской свиты и аргиллиты катской свиты. На месторождении широко развиты интрузии траппов. В структуре месторождения главную роль играет крупный разлом широтного простирания, пересекающий вулканические трубки, картируемые по наличию витро- и литокластических туфов, прослеживающихся до глубины 800 м. Рудные тела месторождения, представленные метасоматическими залежами брекчиевидно-вкрапленных руд и магнетитовыми жилами, залегают в породах, существенно изме­ ненных пневмогидротермальными растворами и преобразованных в скарны и скарноподобные или скарнированные породы.

Значительная часть руд месторождения подвергнута окисле­ нию, что осложняет изучение качества руд. Качество руд месторо­ ждения в значительной степени определяется многочисленными природными факторами: конкретной геолого-структурной позицией месторождения, интенсивностью развития дорудных и пострудных метасоматических процессов, геохимической обстановкой и др.). Чтобы установить, какие факторы сыграли решающую роль в фор­ мировании железорудного месторождения, мы обратились к методу главных компонент, позволяющему разложить ковариационную или корреляционную матрицу и сопоставить эти составляющие с реальной обстановкой и существующими генетическими пред­ ставлениями.

Исходным материалом для решения поставленной задачи яви­ лись результаты химических анализов групповых проб, проведен­ ных на 12 элементах и оксидах.

По общепринятой схеме факторного анализа были получены парные корреляционные коэффициенты, главные компоненты, фак­ торные нагрузки, дисперсии и значения главных компонент во всех точках наблюдений.

Первая компонента, учитывающая 42 % от суммарного воздей­ ствия на изученные признаки всей совокупности, определяет общий характер оруденения. Положительные значимые факторные нагруз­ ки, являющиеся коэффициентами корреляции между параметрами и главной компонентой, характеризуют привнос железа и марганца. В то же время отрицательные значения факторных нагрузок свиде­ тельствуют о выносе ряда оксидов.

Вторая и третья компоненты раскрывают роль кальциево­ магниевого и калиевого метасоматоза, предшествующего рудообразованию.

Построенная на разрезе тренд-поверхность первой главной компоненты отражает особенности размещения железного орудене­ ния.

g -метод факторного анализа предназначен для исследования соотношений не между переменными, а между наблюдениями. Его цели сводятся к размещению последовательностей наблюдений

вразумном порядке, то есть к установлению связей между ними. Таким образом, цель g -метода факторного анализа, по существу, совпадает с целью кластер-анализа, однако для его выполнения тре­ буется значительно больше машинного времени.

Сущность R- и g -методов факторного анализа изложена в ра­ боте Дж. Дэвиса, а с методикой их проведения можно ознакомиться

вработах У. Крамбейна и Ф. Грейбилла, Д. А. Родионова.

3.11. Область применения многомерных

статистических моделей в геологии

Возможности применения многомерных статистических моде­ лей для изучения взаимозависимостей комплексов самых различ­ ных геологических признаков практически не ограничены для лю­ бой отрасли геологии. В палеонтологии они используются для ста­ тистического описания морфологических признаков ископаемых форм организмов и сопоставления их групп с литолого-фаци-

Соседние файлы в папке книги