본문 바로가기
반응형

linear algebra3

대각화(1) ## 자기 회귀 모델(AR) 자기회귀모델(AR)은 시계열 분석에 많이 쓰이는 모델이다. 이러한 식은 보통 다음과 같은 식처럼 이뤄진다. 예를 들어 실제 숫자를 대입해서 해보자 $$ \xi (t) = -0.5 \xi (t-1) + 0.34 \xi (t-2) + 0.08 \xi (t-3) + 2u(t)$$ $$ init. \ \xi (0) = 0.78 , \ \xi(-1) = 0.8, \ \xi (-2) = 1.5 $$ 이 때 t는 이산적인 시간 즉, 하루전 이틀전 의 시간으로 나타낸다. 이번 포스팅에서는 이런 AR 형태를 가진 모델이 안정성을 갖는지 아니면 \( \infty \) 로 발산하는 지를 알아본다. 여기서 안정성을 갖는다는 예시는 다음의 식과 같다. $$ \xi (t) = 0.5 \xi (t-1).. 2022. 1. 4.
역행렬이 존재할 때와 존재하지 않을 때 앞선 포스팅에서 행렬식 determinant를 계산할 때 det A = 0 이면 역행렬이 존재 하지 않는다고 하였다. 이를 determinant의 관점이 아닌 Ker 과 Rank 의 관점에서 한 번 보자 ## Square Matrix에서 역행렬이 존재하기 위한 조건 Square matrix A에서 ker A가 원점 0뿐이면 즉, 0차원이면 차원 정리에 따라 rank A = n 이라는 말과 같다. 이렇게 되면 단사인 경우가 된다. 단사가 되면 역행렬은 존재하는 상태가 된다. 이에 반해 전사일 경우가 되면 역행렬이 없는 경우가된다. 이렇게 설명하니 뭔 말인가 싶지만 그러면 각각 같은 말을 나열하면서 정리해보겠다. A가 n차 square matrix일 때 (square matrix만이 역행렬 존재) 역행렬이 .. 2022. 1. 2.
Vector, Matrix 기본(1) ## Vector 벡터는 기본적으로 종벡터 형식으로 표현한다. ex) \( (1,2)^T \) 이러한 벡터로 이뤄진 것을 벡터공간(Vector space) 라고 한다. 벡터 공간을 나타내면 다음 사진과 같다. 벡터는 방향성 해석을 중요시 한다. 따라서 위 그림에서 보면 A-> B 로 가는건 \( \vec{a} \) 로 나타낸다. 그래서 이런 방향성을 생각해서 vector space에서 \( \vec{a} + \vec{b} \) 를 계산하면 A -> C 로 가는 선이 된다. ## 기저(biasis) 기저 (biasis)는 어떤 벡터공간 V의 벡터들이 선형독립이면서 벡터공간 V 전체를 생성할 수 있다면 이 벡터들의 집합을 말한다. 즉, 선형 결합으로 이뤄지고 유일한 해를 가질 때 biasis라고 한다. 선형.. 2021. 12. 24.
반응형