728x90
Sprint Wrap-up (4-5시)
n121
모수, 모평균 머신러닝에서는 거의 볼 일 없을 것. 주로 표본으로 뽑은 데이터로 하는 거니까..
내일 선형대수에서 넘파에서 하는 거랑 판다스에서 하는거랑 값이 다를건데
넘파이에서 ddof=1로 설정을 해줘야 해.
- 샘플링 방법 알아야 하나요?
- 네 알아야해요.
- 나중에 모델에 넣을 데이터 생성할 때 필요..
가설검정
을 통해 내가 하는 말이 얼마나 신빙성이 있는지를 증며해야 하기 때문
- 가설검정이 ab테스트야!!
- 표준 오차 SE = 표준편차 / 루트(n)
t-test
- 귀무가설은 쉽게 생각하면 우리가 이겨야하는 애.
- 대안가설이 우리가 주장하고 싶은 가설
그래서 귀무가설 너무 쎄게 설정하면 안돼ㅋㅋㅋㅠㅠㅠ
- type 1,2에러 알아야해!
베이지안 하나로 섹션 정한 이유
머신러닝에서 베이지안은 MLE할때 그때 베이지안의 개념이 들어가
최적화할때 베이지안이 들어가. 팀장님이 베이지안 파이면 실무에서도 할 수도 있고ㅋㅋ(최적화만 하는 파트로 가면 그리 멀리 있진 않아)
그때 가서 정말 필요하면 다시 공부하면 돼.
단 여기서 나온 공식 조건부 공식과 베이지안 공식만 알아두면 돼.
728x90
'코드스테이츠 Ai Boostcamp' 카테고리의 다른 글
[선형대수]Dimension Reduction(차원축소) (0) | 2021.06.12 |
---|---|
[선형대수] rank, span, projection (0) | 2021.06.12 |
[통계학] Bayesian(베이즈 정리) (0) | 2021.06.12 |
[통계학] chi-square-test(범주형 가설 검정) (0) | 2021.06.12 |
[통계학] Confidence Interval(신뢰구간, 중심극한 정리) (0) | 2021.06.12 |
댓글