반응형 분류 전체보기359 Generative Adversarial Nets(GAN) 원 논문 arxiv.org/pdf/1406.2661.pdf 참고 자료 www.youtube.com/watch?v=AVvlDmhHgC4 나동빈님의 유튜브를 참고하여 진행하였는데 정말 갓동빈님이시다...설명을 이렇게 쉽게 해주시는 분은 거의 처음본다..역시 갓동빈님이시다.. 위 논문은 무려 NIPS2014 에 개제된 대단한 논문이다. 사실 Image Generation 이라고 하면 GAN 알고리즘을 떠올릴 만큼 Image Generation의 대명사인 알고리즘이다. ## Abstract 기존의 생성 모델은 Markov chain이나 unrolled approximate inference network를 사용하였지만 GAN 알고리즘은 전혀 이런 과정이 필요하지 않고 오직 Neural Network만으로 구성한.. 2021. 4. 4. Auto Encoding Variational Bayes(VAE) -1 원 논문 arxiv.org/abs/1312.6114 Auto-Encoding Variational Bayes How can we perform efficient inference and learning in directed probabilistic models, in the presence of continuous latent variables with intractable posterior distributions, and large datasets? We introduce a stochastic variational inference and learning arxiv.org 참고 자료 www.youtube.com/watch?v=KYA-GEhObIs garden-k.medium.com/testing-b.. 2021. 3. 29. jetson nano opencv webcam jetson nano 에선 opencv로 웹캠을 열 때 기존의 방법과 다른 방법이 필요하다 기존에는 cv2.VideoCapture(0)을 통해서 웹캠의 이미지를 불러왔지만 나노는 그렇게 할 경우 초록색 창으로 imshow가 된다. 이를 해결하기 위해선 다음과 같은 명령어를 수행한다. $ sudo apt-get install v4l-utils $ v4l2-ctl --list-formats-ext ## sample test $ gst-launch-1.0 nvarguscamerasrc sensor_id=0 ! nvoverlaysink 패키지를 우선적으로 설치한 후 videocapture부분을 수정한다. cv2.VideoCapture('nvarguscamerasrc ! video/x-raw(memory:NVMM.. 2021. 3. 23. Deep Residual Learning for Image Recognition(ResNet) ResNet 원 논문 arxiv.org/pdf/1512.03385.pdf 참고 자료 leechamin.tistory.com/184 local minimalize에 빠질 때 마다 0.1씩 곱해줌(0.1->0.01->0.001...) ## Experiments Dataset은 ImageNet를 사용하였다. 1. Plain Network vs Residual Network Plain network을 보면 층이 깊어지면(34층) 에러율이 층이 깊지 않은(18층)보다 더 높아진다. 반면에 ResNet은 층이 깊어지면(34층) 에러율이 더 낮아지고 좋은 퍼포먼스를 보인다. 따라서 ResNet의 아이디어 shortcut connection의 효과로 층이 깊어질수록 더 좋은 성능을 낸다는 것을 증명하였다. 2. Ide.. 2021. 3. 13. Chapter4 - Training Neural Network(1) ## 신경망 학습이란? - 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 획득하는 것 - 손실함수의 결과값을 가장 작게 만드는 가중치 매개변수를 찾는 것이 학습의 목표이다. 신경망은 이미지를 있는 그대로 학습하여 이미지에 포함된 중요한 특징까지 기계가 스스로 학습 하는 것이다. 머신러닝과 다른 점은 사람이 특징점을 알고리즘을 통해 직접 찾아야하는 것이지만 신경망은 특징점조차도 자동으로 찾게 하는 것이다. 따라서 딥러닝을 end-to-end machine learning 이라고 부른다. 이는 입력에서 출력을 사람의 개입없이 얻는다는 뜻이다. ## Train set과 Test set을 분리하는 이유 - 범용 능력을 제대로 평가하기 위해 나누는 것이다. - 범용능력이란 아직 보지 못한 데이터로도 문제를.. 2021. 2. 2. Chapter 4 - 모델 훈련(1) ## 1. 선형회귀 선형회귀는 입력 특성의 가중치 합과 편향(theta0)라는 상수를 더해 예측을 만드는 것이다. 다음과 같이 벡터 형식으로도 나타낼 수 있다. 행렬곱을 이뤄내기 위해 theta에 전치를 한다. 이러한 선형 모델의 비용함수는 어떤 것이 있는지 살펴보자. 앞서 회귀에서 MSE의 지표를 다뤘다. 이 MSE함수를 다시 언급한다. 이러한 평균오차제곱(MSE)를 최소화 하는 것이 모델 훈련의 목표이다. - 정규방정식 : 비용 함수(여기서는 MSE)를 최소화하는 theta 값을 찾아주는 방법을 정규방정식이라고 한다. 이 정규 방정식을 테스트하기 위해서 y = 4+3x + noise라는 식을 생성한다. X = 2*np.random.rand(100,1) y = 4+3*X+np.random.randn(1.. 2021. 1. 31. 이전 1 ··· 15 16 17 18 19 20 21 ··· 60 다음 반응형