일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 회귀불연속설계
- Omitted Variable Bias
- 인과추론
- 통계
- confounder
- Sharp RD
- rct
- 누락편의
- HTML
- Python
- backdoor adjustment
- causal inference
- 사영
- 예제
- 선형대수
- OVB
- 잔차의 성질
- 인과 추론
- 최소제곱법
- LU분해
- 교란 변수
- 머신러닝
- residuals
- 교란변수
- 크롤링
- Instrumental Variable
- 네이버 뉴스
- least square estimation
- simple linear regression
- 단순선형회귀
- Today
- Total
목록분류 전체보기 (47)
Always awake,

개요 우리는 실험이 필요하다 이전 인과분석 방법론 포스트에서 우리는 교란 요인을 제거하고 원인 변수의 효과를 확인하기 위해서는 RCT(Radomized Control Trials)가 필요하다고 하였습니다. 관찰된 데이터(observational data)에서는 교란 요인의 영향이 존재할 가능성이 높고, 교란 요인에 의해 처치가 결정되는 자기 선택 편향(selection bias)이 발생합니다. 때문에 원인 변수(처치)를 기준으로 두 집단을 나누어도 처치 이외의 특성이 평균적으로 동일하지 않게 되고 결국 두 집단을 비교한 결과가 인과 효과가 아니라는 것입니다.(참고 : 교란 변수) 물론 교란 요인을 통제하여 인과 효과를 측정할 수 있습니다. 하지만, 교란 요인이 무엇인지 알기 힘들 뿐더러 모든 교란 요인을..
현상 요약 Tree모델에서 train데이터로 학습하고, train 데이터로 예측하였을 때 예측값이 하나만 나오는 경우가 발생하여 원인을 확인하고자 한다 원인 생각 곰곰히 생각해본 결과 node가 분할되지 않았기 때문이라는 결론을 내렸다 즉, root node에서 분할되지 않았기 때문에(root node만 존재) 어떤 input feature가 들어와도 root node의 평균 값만 내뱉는 것이다 ※ 위의 현상이 발생한 ensemble 모델의 경우, 각 tree의 root node 평균값에 tree들의 가중치를 취하여 더한 값이 예측 값으로 나올 것이다 그러면 어떠한 경우에 분할이 발생하지 않을까? 각 모델 특성별로 root node에서 분할되지 않는 경우를 생각해 보았다 원인 1 data point(sa..

저번 포스팅에서 2차원 공간에서 두 벡터를 orthogonal하게 만드는 방법에 대해 알아보았습니다. (orthogonal : 두 벡터가 수직(직교)) 2022.03.02 - [통계] - Orthogonal 벡터 만들기 요약하면 아래와 같습니다 기존에 벡터 $v_1$이 있을 때 linearly independent한 벡터 $v_2$를 추가하여 $v_1$과 orthogonal한 벡터를 어떻게 만들까? $v_2$을 $v_1$에 사영한 벡터 $v_2^\prime$에서 $v_2$로 향하는 벡터가 바로 $v_1$과 orthogonal한 벡터이다! $v_2- v_2^\prime = v_2 - \frac{v_1 \cdot v_2}{v_1 \cdot v_1} v_1$ 이번에는 3차원 공간, 더 나아가서 4차원 이상인 ..

orthogonal 개념 두 벡터가 "orthogonal하다"라는 것은 수직이라는 의미입니다. 두 벡터의 내적은 아래와 같으므로, orthogonal 한 두 벡터의 내적 값은 0 ($cos(\theta) = 0$)이 됩니다. $$ u \cdot v = |u| |v| cos(\theta) $$ orthogonal한 벡터 만들기 하나의 벡터 $u$가 주어져 있고, 여기에 orthogonal하지 않은 벡터 $v$를 추가한다고 합시다 그리고 추가한 벡터 $v$로 기존에 있던 $u$와 orthogonal한 벡터를 만들고 싶다면 어떻게 하면 좋을까요? 이 두 개의 벡터 $u$, $v$를 이용하여 $u$에 orthogonal한 새로운 벡터를 만들 수 있습니다! 아래와 같이 2차원 평면에 $u = [3,1]$가 있고,..

본 포스팅의 모든 출처는 edwith의 고려대학교 주재걸 교수님의 "인공지능을 위한 선형대수" 강좌입니다 좋은 강의를 제공해주신 교수님께 감사드립니다 :) [LECTURE] Least Squares Problem 소개 : edwith 학습목표 이번 강의에서는 Least Squares Problem에 대한 소개와 함께 앞으로 Least Squares를 배우는데 필요한 개념들을 배워보도록 하겠습니다. 벡터와 관련된... - 커넥트재단 www.edwith.org 앞서 작성한 포스트를 읽고 오시면 이해하는데 더 도움이 됩니다 :) 2022.02.18 - [통계] - 선형독립과 선형종속 2022.02.14 - [통계] - 회귀분석과 해의 존재성 앞선 포스팅에서 아래의 문제를 다뤘습니다. $$ Ax = b $$ m..

본 포스팅의 모든 출처는 edwith의 고려대학교 주재걸 교수님의 "인공지능을 위한 선형대수" 강좌입니다 좋은 강의를 제공해주신 교수님께 감사드립니다 :) [LECTURE] 선형독립과 선형종속 : edwith 학습목표 이번 강의에서는 선형대수에서 중요한 개념 중 하나인 선형독립과 선형종속에 대해서 배우겠습니다. 그리고 이들이 선형 시스템 내에서 가지는 특성에 대해서도 알아보겠습니다. ... www.edwith.org 선형 독립, 선형 종속 Practical Definition n차원 공간에서 p개의 벡터 $v_1, v_2, ..., v_p$가 주어져 있을 때, 어떤 벡터 하나를 나머지 벡터들의 선형 결합으로 표현할 수 있다면 해당 vector들은 "선형 종속"이라고 합니다. 반대로 어떠한 벡터도 다른 벡..