본문 바로가기

딥러닝 학습

8장 이미지 분류 - 합성곱 신경망 (3)

반응형

8-3 합성곱 신경망의 구조

- 렐루 함수 (ReLU)

0보다 큰 값은 그대로 통과, 0보다 작은 값은 0으로

- 렐루 함수 구현

def relu(x):
  return np.maximum(x, 0)
  
x= np.array([-1, 2, -3, 4, -5])
relu(x)


##출력: array([0, 2, 0, 4, 0])
r_out = tf.nn.relu(x)
r_out.numpy()


##출력: array([0, 2, 0, 4, 0])

- 렐루 함수의 도함수

입력이 0보다 크면 1

입력이 0보다 작으면 0

 

 

- 합성곱 신경망에서 일어나는 일들과 구조

합성곱 신경망에 주입될 입력 데이터에는 채널이 있음

이미지의 픽셀에 가진 색상의 표현하기 위한 정보인 채널(channel)이라는 차원 존재

빨간색(Red), 파란색(Blue), 초록색(Green)의 조합으로 표현되며 RGB로 부름

- 합성곱층에서 일어나는 일

이미지의 모든 채널에 합성곱이 한 번에 적용되어야 하므로, 커널의 마지막 차원은 입력 채널의 개수와 동일해야 함

합성곱이 완료되면 다음 층에서 사용하게 될 특성 맵이 만들어짐

이미지에서 여러개의 특징을 감지하기 위해서는 복수개의 커널 사용

- 풀링층에서 일어나는 일

합성곱층을 통해 만들어진 특성 맵에 활성화 함수로 렐루 함수를 적용하고 풀링 적용

- 특성 맵을 편쳐 완전 연결 신경망에 주입

일반적으로 합성곱층과 풀링층을 통과시켜 얻은 특성 맵은 일렬로 펼쳐 완전 연결층에 입력으로 주입

 

 

 

 

 

※ 해당 내용은 <Do it! 딥러닝 입문>의 내용을 토대로 학습하며 정리한 내용입니다.

반응형