본문 바로가기
반응형

분류 전체보기359

Advanced Architectures of CNN 이 글은 https://www.youtube.com/watch?v=8mI9zRdx2Es&list=PLSAJwo7mw8jn8iaXwT4MqLbZnS-LJwnBd&index=22 기반으로 작성하였다. CNN 정리는 2021.08.15 - [딥러닝 기초] - Basic of Convolution Neural Network Basic of Convolution Neural Network 본 글은 https://www.youtube.com/watch?v=PIft4URoQcw&list=PLSAJwo7mw8jn8iaXwT4MqLbZnS-LJwnBd&index=19 이 동영상을 바탕으로 작성되었습니다. ## Problems of MLP MLP는 파라미터가 너무 많다는 것이다. 왜냐.. bigdata-analyst.ti.. 2021. 8. 21.
[STMC] Spatial-Temporal Multi-Cue Network for Continuous Sign Language Recognition [수화번역] 을 위한 논문 https://arxiv.org/abs/2002.03187 Spatial-Temporal Multi-Cue Network for Continuous Sign Language Recognition Despite the recent success of deep learning in continuous sign language recognition (CSLR), deep models typically focus on the most discriminative features, ignoring other potentially non-trivial and informative contents. Such characteristic heavily constr arxiv.org ## Abst.. 2021. 8. 19.
저자가 직접 리뷰하는 YOLOv5 + Optical Flow 보행자 위험 예측 내 논문 내가 리뷰!! 논문 링크 : https://www.dbpia.co.kr/Journal/articleDetail?nodeId=NODE10583405 딥러닝과 Optical Flow를 활용한 보행자 사고 방지 모델 논문, 학술저널 검색 플랫폼 서비스 www.dbpia.co.kr 만약 DBpia 아이디가 없고 돈 내야한다면 https://github.com/winston1214/My_paper/blob/master/Pedestrian%20Accident%20Prevention%20Model%20Using%20Deep%20Learning%20and%20Optical%20Flow.pdf GitHub - winston1214/My_paper: My paper My paper. Contribute to wi.. 2021. 8. 15.
Basic of Convolution Neural Network 본 글은 https://www.youtube.com/watch?v=PIft4URoQcw&list=PLSAJwo7mw8jn8iaXwT4MqLbZnS-LJwnBd&index=19 이 동영상을 바탕으로 작성되었습니다. ## Problems of MLP MLP는 파라미터가 너무 많다는 것이다. 왜냐하면 모든 뉴런이 완전 연결 형태로 되어있기 때문이다. 따라서 모든 노드와 연결되어있기 때문에 깊이가 깊어질수록 파라미터의 개수가 늘어나고 overfitting 가능성이 늘어나고 훈련시간이 너무 늘어난다. ## MLP/ Fully Connected MLP는 3차원의 이미지를 1차원으로 변환하여 계산한다. 따라서 그 값을 weight 값과 행렬곱을 하고 클래스를 예측하는 것이다. ## Convolution Layer C.. 2021. 8. 15.
Advanced Optimizer than SGD 본 글은 https://www.youtube.com/watch?v=a5R4gL1ObP8&list=PLSAJwo7mw8jn8iaXwT4MqLbZnS-LJwnBd&index=16 위 동영상을 바탕으로 하였습니다. ## Batch Stochastic Gradient Descent Gradient Descent 를 식으로 쓰면 다음과 같다, θ=θηJ(θ) 여기서 θ는 모델에 설정된 파라미터를 말하고 η는 learning rate, J(θ) 는 loss function을 의미한다. 이는 파라미터 θ 에서 loss 에 있는 파라미터 θ 에 대한.. 2021. 8. 14.
Better Sign Language Translation with STMC-Transformer 논문 링크 : https://arxiv.org/pdf/2004.00588v2.pdf 수화 번역(SLT)을 위한 알고리즘. 측정 지표 BELU(현재 SOTA) ## Abstract 수화 번역은 수화 인식 시스템을 사용하여 비디오에서 수화를 추출한다. 그리고 번역 시스템은 수화로부터 자연어를 생성한다. 본 논문은 수화 번역을 위한 시스템을 제안하고 이를 STMC-Transformer라고 정의한다. 본 논문은 이전 논문인 Sign2Gloss2Text 의 번역보다 더 뛰어나다고 한다. ## Introduction 본 논문의 contribution은 다음과 같다. 1. video -> text로 번역하는 STMC-Transformer는 번역 성능이 이전 모델보다 좋다 2. SLT(Sign-Language-Tran.. 2021. 8. 11.
반응형