본문 바로가기
728x90

딥러닝/밑바닥부터 시작하는 딥러닝3

[밑바닥부터 시작하는 딥러닝] 7장- 합성곱 신경망(CNN) 합성곱 신경망(CNN) 합성곱 신경망인 CNN은 이전의 앞에서 배운 신경망에 합성곱(Convolution) layer와 풀링(pooling) layer가 더 추가된 것이다. CNN = 신경망 + Conv layer+ Pooling layer CNN을 사용하는 이유는 무엇일까? 앞서 배웠던 신경망은 인접하는 모든 뉴런과 결합되어 있는 신경망을 이를 '완전연결(Affine)계층'이라고 한다. 그러나 이 완전연결계층의 문제점은 '데이터의 형상을 무시'한다는 것이다. 예를들어 형상이 (1, 28, 28)인 이미지가 있다고 할 때, 이를 한줄로 세운 1줄로 세운 784개의 데이터로 인풋값으로 집어넣었다. 그러나 이는 이미지에서 중요한 정보가 들어있는 특성을 무시할 수도 있다. 그러나 합성곱 계층은 형상을 유지할 ..
Batch, Epoch Regu, Epoch, Batch ( 9/21 ) Regularizationd은 L2,L1이랑 Drop out 등 Batch size : 전체 데이터 셋을 쪼갠 단위. (보통 mini-batch라고 표현) --> Batch size의 적당한 크기? iteration : epoch를 나누어서 실행하는 횟수 Epoch : 에폭은 머신러닝에서 쓰이는 하나의 단위로, 1에폭은 학습에서 전체 데이터셋에 대해 학습을 한번 완료하였을 때를 말한다. 예를 들어 mnist데이터에서 훈련용 데이터 10000개를 100개의 미니배치로 학습할 경우, 경사하강법을 100회 반복하면 모든 훈련데이터를 '소진'한게 된다. 이 경우 100회가 1에폭이 된다. (한 번의 epoch는 인공 신경망에서 전체 데이터 셋에 대해 forwar..
[밑바닥 부터 시작하는 딥러닝] 2장~5장- 주요 용어 정리 * 퍼셉트론 : 인공뉴런, 신경망(딥러닝)의 기원이 되는 알고리즘 * 활성화함수 : 입력신호의 '총 합'을 출력신호(1,0)으로 변환하는 함수 (예측한 다중회귀 식을 출력값(y)인 0과 1로 변환해 주기 위한 함수) - 시그모이드, 계단, 렬루 함수 등이 있음. * 노드 : 뉴런을 의미. (신경망 그림에서의 원을 의미) * [출력층 설계하기] - 신경망은 분류와 회귀 모두에 이용할 수 있으나, 출력층에서 사용하는 활성화함수는 둘 중 어떤 문제냐에 따라서 달라진다. * 기계학습 문제에는 분류와 회귀가 있다. 분류는 말그대로 데이터가 어떤 클래스에 속하는지를 예측하는 문제강아지냐 고양이냐), 회귀는 입력데이터에서 (연속적인) 수치를 예측하는 문제(사진속 인물의 키(163.7?)를 예측)이다. 말그대로 회귀분..
728x90