본문 바로가기
코드스테이츠 Ai Boostcamp

[n12x] Sprint Challenge

by mintee
728x90

Sprint Wrap-up (4-5시)

 

n121

모수, 모평균 머신러닝에서는 거의 볼 일 없을 것. 주로 표본으로 뽑은 데이터로 하는 거니까..

내일 선형대수에서 넘파에서 하는 거랑 판다스에서 하는거랑 값이 다를건데

넘파이에서 ddof=1로 설정을 해줘야 해.

 

  • 샘플링 방법 알아야 하나요?
  • 네 알아야해요.
  • 나중에 모델에 넣을 데이터 생성할 때 필요..

 

가설검정

을 통해 내가 하는 말이 얼마나 신빙성이 있는지를 증며해야 하기 때문

  • 가설검정이 ab테스트야!!
  • 표준 오차 SE = 표준편차 / 루트(n)

 

 

t-test

  • 귀무가설은 쉽게 생각하면 우리가 이겨야하는 애.
  • 대안가설이 우리가 주장하고 싶은 가설

그래서 귀무가설 너무 쎄게 설정하면 안돼ㅋㅋㅋㅠㅠㅠ

 

  • type 1,2에러  알아야해!

 

베이지안 하나로 섹션 정한 이유

머신러닝에서 베이지안은 MLE할때 그때 베이지안의 개념이 들어가

최적화할때 베이지안이 들어가. 팀장님이 베이지안 파이면 실무에서도 할 수도 있고ㅋㅋ(최적화만 하는 파트로 가면 그리 멀리 있진 않아)

그때 가서 정말 필요하면 다시 공부하면 돼.

단 여기서 나온 공식 조건부 공식과 베이지안 공식만 알아두면 돼.

 

728x90

댓글