Link Search Menu Expand Document

고유값과 고유벡터

Chapter 2 : Eigenvalues and Eigenvectors



고유값과 고유벡터 정의

고유 벡터(Eigenvector)

어떤 행렬 A에의해 선형 변환이 적용된 결과가 자기 자신의 상수배가 되는 어떠한 0이 아닌 벡터

고유값(Eigenvalue)

고유 벡터의 길이가 변하는 배수를 선형 변환의 그 고유 벡터에 대응하는 고윳값이라고 한다.

특성 방정식(Characteristic equation)

$p_A(\lambda)$는 A의 고유한 특성을 나타내는 방정식으로 n개의 차원을 갖는 선형 독립 벡터 n개가 아래 수식을 만족하는 경우 특성 방정식(Characteristic equation)이라고 불림.

$p_A(\lambda) = det(A-\lambda I) \ \( A \in \R^{n\times n}, \lambda \in \R)$

공선점(Colinearity)

$A(cx) = cAx = c\lambda x = \lambda (cx), \ \ (c \not= 0)$

두 벡터가 같은 또는 반대의 점을 가르킨다면 이를 Colinearity 즉, 공선점이라고 한다.

위 식에서 알수 있듯 공선성이 성립하는 조건 하에 고유 벡터의 모든 상수배는 A의 고유 벡터가 된다.

고유값의 곱과 합

고유 값의 흥미로운 규칙 중 하나는 A의 Trace 즉, A의 대각 원소(Diagonal elements) 합이 고유 값의 합과 같다는 점이다.

$Tr(A) = a_{11} + a_{22} + \dots + a_{nn} = \lambda_1 + \lambda_2 + \dots + \lambda_m$또

또 하나의 규칙은 임의의 행렬 A의 행렬식이 고유값의 곱과 같다는 점이다. $det(A) = \lambda_1 \lambda_2 \dots \lambda_m$

고유 값과 고유 벡터 계산

현재까지 배웠던 이론은 기반으로 임의의 행렬 A의 고유값과 고유 벡터를 구하는 과정을 알아보자.

A=\left[\begin{array}{ll} 4 & 1 \ 2 & 3
\end{array}\right]

$A=\left[\begin{array}{ll} 4 & 2 \ 1 & 3
\end{array}\right]$일때 가장 먼저 특성 방정식을 구한다.

1) 특성 방정식(Characteristic equation) 및 분해 (Factorizing)

$p_A(\lambda ) = det(A - \lambda I) = 0 = \begin{vmatrix} 4 - \lambda & 2 \ 1 & 3 - \lambda \end{vmatrix} = (4-\lambda )(3 - \lambda ) - 2 \times-1 \= (\lambda -5)(\lambda - 2) \ \therefore \lambda_1 = 2 \ \ and \ \ \lambda_2 = 5$

2) 고유 벡터 또는 고유 공간(eigenspace)

1) if $\lambda$ == 5

$\begin{bmatrix} 4 - 5& 2 \ 1 & 3 - 5\end{bmatrix} \begin{bmatrix} x \ y \end{bmatrix}$ = $\begin{bmatrix} -1 & 2 \ 1 & -2\end{bmatrix} \begin{bmatrix} x \ y \end{bmatrix} = 0$가

가우스 제거법(Gauss Elimination)에 따라 고유 공간은 다음과 같이 나타난다.

$E_5 = span[\begin{bmatrix} 2 \ 1\end{bmatrix}]$

2) if $\lambda$ == 2

위와 동일한 방법으로 $\lambda$에 2를 대입해 가우스 제거법으로 구한 식은 아래와 같다.

$E_2 = span[\begin{bmatrix} 1 \ -1\end{bmatrix}]$

고유 값과 고유 벡터의 물리적 의미

$A=\left[\begin{array}{ll} 4 & 1 \ 2 & 3
\end{array}\right]$ 일때

  • 고유 벡터가 아닌 벡터를 선형 변환 할 때

고유 벡터가 $x=\left[\begin{array}{l} 1 \ 0
\end{array}\right]$를 만족할 때 아래 그래프로 변환이 되며 고유 벡터의 크기 뿐만 아니라 방향까지 바뀌었다.

                                    그림 1.3

                                그림 1.3
  • 고유 벡터를 선형 변환 할 때

    먼저 고유값을 구하면 다음과 같다

    $Tr(A) = 7 = \lambda_1 + \lambda_2$

    $det(A) = 10 = \lambda_1 \lambda_2$

    위 식을 통해 $\lambda_1, \lambda_2$는 각각 2와 5인 것을 알 수 있다.

    $\lambda_2 = 5$를 이용해보면 고유 벡터(공간)는 $E_5 = span[\begin{bmatrix} 1 \ 1\end{bmatrix}]$이며 같은 방식으로 $E_2 = span[\begin{bmatrix} 1 \ -2\end{bmatrix}]$를 구할수 있으며 아래 그림처럼 임의의 행렬 A로 선형 변환 시켰을 때 고유벡터가 상수배(고유값)만큼 변환되는 걸 알수 있다.

    Untitled


'행렬 분해' 카테고리의 다른 글
  1. 행렬식과 대각합
  2. 고유값과 고유벡터
  3. 숄레스키 분해
  4. 고유값 분해와 대각화