반응형
8-3 합성곱 신경망의 구조
- 렐루 함수 (ReLU)
0보다 큰 값은 그대로 통과, 0보다 작은 값은 0으로
- 렐루 함수 구현
def relu(x):
return np.maximum(x, 0)
x= np.array([-1, 2, -3, 4, -5])
relu(x)
##출력: array([0, 2, 0, 4, 0])
r_out = tf.nn.relu(x)
r_out.numpy()
##출력: array([0, 2, 0, 4, 0])
- 렐루 함수의 도함수
입력이 0보다 크면 1
입력이 0보다 작으면 0
- 합성곱 신경망에서 일어나는 일들과 구조
합성곱 신경망에 주입될 입력 데이터에는 채널이 있음
이미지의 픽셀에 가진 색상의 표현하기 위한 정보인 채널(channel)이라는 차원 존재
빨간색(Red), 파란색(Blue), 초록색(Green)의 조합으로 표현되며 RGB로 부름
- 합성곱층에서 일어나는 일
이미지의 모든 채널에 합성곱이 한 번에 적용되어야 하므로, 커널의 마지막 차원은 입력 채널의 개수와 동일해야 함
합성곱이 완료되면 다음 층에서 사용하게 될 특성 맵이 만들어짐
이미지에서 여러개의 특징을 감지하기 위해서는 복수개의 커널 사용
- 풀링층에서 일어나는 일
합성곱층을 통해 만들어진 특성 맵에 활성화 함수로 렐루 함수를 적용하고 풀링 적용
- 특성 맵을 편쳐 완전 연결 신경망에 주입
일반적으로 합성곱층과 풀링층을 통과시켜 얻은 특성 맵은 일렬로 펼쳐 완전 연결층에 입력으로 주입
※ 해당 내용은 <Do it! 딥러닝 입문>의 내용을 토대로 학습하며 정리한 내용입니다.
반응형
'딥러닝 학습' 카테고리의 다른 글
8장 이미지 분류 - 합성곱 신경망 (5) (0) | 2023.03.20 |
---|---|
8장 이미지 분류 - 합성곱 신경망 (4) (0) | 2023.03.19 |
8장 이미지 분류 - 합성곱 신경망 (2) (0) | 2023.03.17 |
8장 이미지 분류 - 합성곱 신경망 (1) (0) | 2023.03.16 |
7장 여러개를 분류 - 다중 분류 (3) (0) | 2023.03.15 |