가변적 깊이를 이용한 합성곱 신경망의 속도 향상 기법
edCNN: Improving Performance of Convolutional Neural Networks with Elastic Depth
- 주제(키워드) 동적 전력 관리 기법 , 가변 깊이 신경망 구조 , 심층 합성곱 신경망 , Dynamic Power Management , Elastic Depth Neural Networks , Deep Convolutional Neural Networks
- 발행기관 서강대학교 일반대학원
- 지도교수 이혁준
- 발행년도 2018
- 학위수여년월 2018. 8
- 학위명 석사
- 학과 및 전공 일반대학원 컴퓨터공학과
- 실제URI http://www.dcollection.net/handler/sogang/000000063307
- UCI I804:11029-000000063307
- 본문언어 한국어
- 저작권 서강대학교 논문은 저작권보호를 받습니다.
초록/요약
다양한 애플리케이션에 인공 신경망 기법을 적용하게 되면서 임베디드 환경에서도 해당 알고리즘을 사용하는 사례가 증가하고 있다. 일반적으로 정확도가 높은 신경망일수록 결과 도출까지 긴 시간이 필요하다. 그러나 임베디드 환경은 시간과 에너지에 제약 사항이 존재하며, 기존의 신경망은 제약 사항에 동적으로 대처하지 못한다. 이 문제점을 해결하기 위해 본 논문은 예측을 통한 가변적 깊이 구조를 제안한다. 제안한 기법은 모델의 중간에서 발생하는 예측 지점의 결과를 신뢰할 때, 전체 모델의 수행이 종료되는 시점을 예측 시점으로 앞당기는 방식으로 추론에 필요한 수행 시간을 가변적으로 조절한다. 제안 기법의 성능 향상을 검증하기 위해 기존에 존재하는 모델을 기반으로 CIFAR 데이터를 사용하여 정확도와 수행 시간을 측정하였다. Mobile networks에 가변적 깊이 구조를 사용할 경우, CIFAR-10 데이터에서 기존의 정확도를 유지하면서 소요되는 추론 시간이 최대 69.21%까지 감소했다. 이 기법은 기존에 존재하는 신경망에 추가적으로 예측 구조만을 부착하여 학습시키거나 새로운 모델을 생성할 때도 적용할 수 있으며, 동적인 요구사항에 대해 수행 시간 중에 선택적으로 반응할 수 있는 장점이 있다.
more초록/요약
As the artificial neural networks technology is applied to various applications, it is increasingly needed in the embedded device environment. Generally, the more accurate the neural network, the longer it takes to derive the result. However, embedded environments have resource and energy constraints. Running Conventional neural networks is expensive in embedded environments. To solve this problem, we propose an early classification prediction technique. The proposed method reduces the inference execution time by stopping the execution of the model when the prediction of the tapping point is trusted. In order to verify the performance improvement of the proposed method, we measured the accuracy and execution time using CIFAR data based on existing models. When using an elastic depth structure for Mobile networks, the execution time is reduced by up to 69.21\% while maintaining the original network's accuracy. This technique can be applied to existing neural networks by attaching only early prediction architectures or to create a new model. Also, the proposed technique can selectively respond to dynamic requirements during execution time.
more