8.4 Метод головних компонент
З числа методів, що дозволяють узагальнювати значення елементарних ознак, метод головних компонент виділяється простою логічною конструкцією; на його прикладі стають зрозумілими загальна ідея і цільові настанови численних методів факторного аналізу. Для виявлення найбільш значущих факторів і їх структури найбільш виправданим є метод головних компонент. Сутність методу полягає в заміні корельованих компонентів некорельованими факторами. Іншою важливою характеристикою методу є можливість виокремлення найбільш інформативних головних компонент і виключення інших з аналізу, що спрощує інтерпретацію результатів. Переваги методу також у тому, що він є математично обґрунтованим методом факторного аналізу. За твердженням ряду дослідників, метод головних компонент не є методом факторного аналізу, оскільки не розщеплює дисперсію індикаторів на загальну й унікальну.
Метод головних компонент дає можливість за \(m\) вхідними ознаками виділити \(m\) головних компонент, або узагальнених ознак. Простір головних компонентів є ортогональним. Математична модель головних компонент базується на логічному допущенні, що значення безлічі взаємозалежних ознак породжують деякий загальний результат.
Метод головних компонент використовується для вивчення взаємозв’язків між досліджуваними показниками. За його допомогою можна виявляти приховані показники (фактори), які відповідають за наявність лінійних статистичних зв’язків (кореляцій) між ними. Крім того, визначення більш впливових, за умов проведення досліджень, факторів серед первинно обраних показників, а також виявлення статистичного зв’язку визначають обґрунтованість висновків щодо ефективності тих чи інших впливів на досліджувану систему.
Алгоритм застосування та реалізації методу головних компонент стосовно дослідження груп кредитних ризиків відображено на рис. 8.5.

Рис. 8.5: Загальна алгоритмічна схема реалізації методів факторного аналізу
Оцінювання за цим методом починається з побудови матриці вихідних даних \(X\) і завершується отриманням матриць факторного відображення та значень факторів \(A\) і \(F\). З урахуванням прийнятих позначень: \(n\) — кількість спостережень, \(m\) — кількість аналітичних ознак \(X\), \(r\) — кількість значущих узагальнених ознак (латентних факторів).
Розглянемо обчислювальні процедури методу головних компонент. Розв’язання задачі методом головних компонент зводиться до поетапного перетворення матриці вихідних даних \(X\):
\[ X \rightarrow Z \rightarrow R(S) \rightarrow \left\{\begin{array}{c}\Lambda\\ U→V \end{array}\right\} \rightarrow A \rightarrow F, \tag{8.18} \]
де \(X\) — матриця вихідних даних розмірністю \(n \times m\);
\(m\) — кількість елементарних ознак;
\(Z\) — матриця стандартизованих значень ознак, елементи матриці обчислюють за формулою: \(z_{ij} = \frac{x_{ij}-\bar{x}_j}{σ_j}\);
\(R\) — матриця парних кореляцій \(R = \frac{1}{n}\cdot Z’Z\);
\(n\) — кількість об’єктів спостереження;
\(A\) — матриця факторного відображення, її елементи \(a_{rj}\) — вагові коефіцієнти;
\(Λ\) — діагональна матриця власних (характеристичних) чисел.
Якщо попередня стандартизація даних не проводилася, то на даному кроці отримують матрицю \(S = \frac{1}{n} \cdot X’X\), елементи матриці \(X\) для розрахунку \(S\) будуть центрованими величинами: \(x_{ij}’ = x_{ij} \bar{x}_j\).
\(Λ\) — діагональна матриця власних (характеристичних) чисел, розраховується таким чином:
\[ Λ = \left(\begin{array}{c} λ_1 & 0 & 0 & … & 0 \\ 0 & λ_2 & 0 & … & 0 \\ 0 & 0 & λ_3 & … & 0 \\ 0 & 0 & 0 & … & λ_m \end{array}\right). \]
Значення \(λ_j\) знаходять вирішенням характеристичного рівняння:
\[ |R-λE|=0, \tag{8.19} \]
де \(λ_j\) — характеристики варіації, точніше, показники дисперсії кожної головної компоненти.
Сумарне значення \(\sum λ_j\) дорівнює сумі дисперсій елементарних ознак \(X_j\), за умови стандартизації вихідних даних, коли \(D(z_{ij})=1\), \(\sum λ_j\) дорівнює кількості елементарних ознак \(m\).
Розв’язання характеристичного рівняння відносне, коли число ознак \(m\) досить велике та матриця \(R\) великої розмірності, то виникають труднощі щодо розрахунку визначника \(|R|\). Найбільш ефективним є метод, що базується на рекурентних співвідношеннях Фадєєва. Якщо \(A\) — деяка симетрична матриця розмірністю \(m \times m\), то її визначник знаходять за слідом матриць, похідних з \(A\):
\[ \begin{array}{ll}A_1=A && P_1=t_r A_1 && B_1 = A_1 - P_1 E \\ A_2=AB_1 && P_2=\frac{1}{2}2t_r A_2 && B_2 = A_2 - P_2 E \\ ... && ... && ... \\ A_{m-1} = AB_{m-2} && P_{m-1} = \frac{1}{m-1}t_r A_{1-1} && B_{m-1} = A_{m-1} - P_{m-1} E \\ A_m=AB_{m-1} && P_m = \frac{1}{m} t_r A_m && B_m = A_m - P_m E. \end{array} \]
На заключному етапі розрахунків \(P_m\) і є визначник матриці \(A(P_m=|A|)\). Для перевірки обчислень може використовуватися умова: \(B_m=0\).
Після обчислень рекурентних співвідношень записується характеристичний багаточлен:
\[ P_m (\lambda) = \lambda^m - P_1 \lambda^{m-1} - P_2 \lambda^{m-2} - ... - P_m. \tag{8.20} \]
Значення \(\lambda\) знаходять після того, як характеристичний багаточлен дорівнюють нулю, отримують характеристичне рівняння та розв’язують його щодо характеристичних коренів \(\lambda_j\). Спочатку \(A\) має розмірність \(m \times m\) — за кількістю елементарних ознак \(X_j\); потім в аналізі залишається \(r\) найбільш значущих компонент, \(r≤m\). Обчислюють матрицю \(A\) за відомими даними матриці власних чисел \(\Lambda\) і нормованими власними векторами \(V\) за формулою \(A=VΛ^{1/2}\).
\(F\) — матриця значень головних компонент розмірністю \(r×n\) розраховується таким чином:
\[ F = A^{-1}Z’ \> або \> F=Λ^{-1} A’Z’, \> або \> F=Λ^{-1/2} V’Z’, \tag{8.21} \]
де \(V\) — матриця нормованих власних (характеристичних) векторів.
Матриця \(F\) у загальному виді записується так:
\[ \begin{matrix} \begin{array}{c|cc} Головні \> компоненти & Об’єкти \\ & n_1 & n_2 & ... & n_n \\ \hline F_1 & f_{11} & f_{12} & ... & f_{1n} \\ F_2 & f_{21} & f_{22} & ... & f_{2n} \\ ... & ... & ... & .. & ... \\ F_r & f_{r1} & f_{r2} & ... & f_{rn} \\ \end{array} \end{matrix} \]
Кількість векторів \(V_j\) спочатку дорівнює \(m\), тобто \(j=\overline{1,m}\). Отримують \(V_j\) перетворенням ненормованих власних векторів \(U\):
\[ V_j = \frac{U_j}{|U_j|}, \tag{8.22} \]
де \(|U_j|\) — норма вектора \(U\), тобто \(|U_j|=(u_{1j}^2 + u_{2j}^2 + ⋯ + u_{mj}^2)^{1/2}\).
У свою чергу, власні вектори \(U_j\) знаходять з матричного рівняння: \((R-\lambda E)U=0\). Реально це означає розв’язання \(m\) систем лінійних рівнянь для кожного \(\lambda_j\) за \(j=\overline{1, m}\). У загальному випадку система рівнянь має вигляд:
\[ (1-λ_j) u_{1j} + r_{12} u_{2j} + r_{13} u_{3j} + ⋯+ r_{1m} u_{mj}=0 \\ r_{21} u_{1j} + (1-λ_j) u_{2j} + r_{23} u_{3j} + ⋯ + r_{2m} u_{mj} = 0 \\ r_{31} u_{1j} + r_{32} u_{2j} + (1-λ_j) u_{3j} + ⋯ + r_{3m} u_{mj}=0 \\ … \\ r_{m1} u_{1j} + r_{m2} a_{2j} + r_{m3} u_{3j} + ⋯ + (1-λ_j) u_{mj}=0. \]
Приведена система поєднує однорідні лінійні рівняння; оскільки кількість її рівнянь дорівнює кількості невідомих \(u_{mj}\), вона має нескінченну множину рішень. Конкретні значення власних векторів можна знайти задаючи принаймні величину компонента кожного вектора і, щоб не ускладнювати розрахунків, вона дорівнює одиниці.