RNN
·
ML,DL
RNN은 CNN과 다르게 NLP문제에 많이 사용된다! 알제? 따라서 시계열 데이터를 다루기에 최적화된 인공신경망이다.RNN basic기본적인 ANN구조에서 이전 시간(t-1)의 은닉층의 출력값을 다음시간(t)에 은닉층의 입력값으로 다시 집어넣는 경로가 추가된 형태! “recurrent”라는 단어에서 알 수 있듯, 현재 시간 t의 결과가 다음 시간 t+1에 영향을 미치고, 이는 다시 다음시간 t+2에 영향을 미치는 과정이 반복장점: 이전상태에 대한 정보를 일종의 메모리 형태로 저장할 수 있음LSTM과 vanishing gradient problemRNN은 시계열 데이터를 다루기에 적합하지만, vanishing gradient problem이 발생예를 들어보면 시간1에서 입력받은 데이터는 시간2,3..이렇게..
CNN(2)
·
ML,DL
ResNetDegradation Problem레이어가 깊어질수록 성능이 떨어지는 현상이 발생 왜지? 아 optimization이 제대로 안 되니까 문제네!그러면 optimization할 양을 줄이기 위한 방법이 뭐 없을까? → 자기 자신을 한 번더 가져와서 optimization의 양을 줄여보자.(그걸 residual block이라고 부름)그래서 residual block을 추가했을때, 기존 plain한 구조에서는 오히려 depth가 깊어질수록 성능이 떨어지는 문제가 발생했는데, resnet구조로 바꾼 뒤에는 이를 해결하였다!image classification 뿐만아니라 object detection에도 유용함EfficientNetCNN의 성능을 높일 수 있는 요소:depth?width?resoluti..
CNN
·
ML,DL
컴퓨터 비전의 어려움컴퓨터에서는 이미지를 인식할 때 픽셀을 이용해서 인식을 하기 때문에,Semantic Gap 이 존재한다. Semantic Gap에 대해 소개해보자면,이진수로 되어있는 data에서 encoding, resolutionm color, texture 의 low-level features를 거쳐, keyword, category, concept, ontology 그리고 human perception에 이르기까지 semantic gap이 존재한다는 것이다.또한 이미지 인식의 challenges들을 추가로 살펴보자면밝기 변화(illumination), 변형(Deformation), 가림(Occlusion), 배경장애(Backgraoud Clutter), 같은 class여도 다르게보이는(Intra..
코코자
'ML,DL' 카테고리의 글 목록