Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- residuals
- 크롤링
- 최소제곱법
- Omitted Variable Bias
- Instrumental Variable
- causal inference
- 예제
- 회귀불연속설계
- confounder
- 교란변수
- LU분해
- 네이버 뉴스
- 사영
- 통계
- Python
- 잔차의 성질
- 교란 변수
- simple linear regression
- 선형대수
- 머신러닝
- OVB
- least square estimation
- 인과추론
- 누락편의
- HTML
- rct
- 단순선형회귀
- backdoor adjustment
- Sharp RD
- 인과 추론
Archives
- Today
- Total
목록수직 (1)
Always awake,

저번 포스팅에서 2차원 공간에서 두 벡터를 orthogonal하게 만드는 방법에 대해 알아보았습니다. (orthogonal : 두 벡터가 수직(직교)) 2022.03.02 - [통계] - Orthogonal 벡터 만들기 요약하면 아래와 같습니다 기존에 벡터 $v_1$이 있을 때 linearly independent한 벡터 $v_2$를 추가하여 $v_1$과 orthogonal한 벡터를 어떻게 만들까? $v_2$을 $v_1$에 사영한 벡터 $v_2^\prime$에서 $v_2$로 향하는 벡터가 바로 $v_1$과 orthogonal한 벡터이다! $v_2- v_2^\prime = v_2 - \frac{v_1 \cdot v_2}{v_1 \cdot v_1} v_1$ 이번에는 3차원 공간, 더 나아가서 4차원 이상인 ..
선형 대수
2022. 3. 7. 00:55