반응형

분류 전체보기 509

Improving: Hyper-parameter tuning, Regularization and Optimization] Batch Normalization

This note is based on Coursera course by Andrew ng. (It is just study note for me. It could be copied or awkward sometimes for sentence anything, because i am not native. But, i want to learn Deep Learning on English. So, everything will be bettter and better :)) INTRO Batch normalization makes hyperparameter search problem much easier and makes neural network much more robust. The choice of hyp..

[Improving: Hyper-parameter tuning, Regularization and Optimization] Hyperparameters tuning

This note is based on Coursera course by Andrew ng. (It is just study note for me. It could be copied or awkward sometimes for sentence anything, because i am not native. But, i want to learn Deep Learning on English. So, everything will be bettter and better :)) INTRO How do we find a good setting for these hyperparameters? MAIN Tuning process One of the painful things about training deep net i..

[GitLab] 연동하기 - 세 번째: 여러 명령어

[ 이 게시글은 https://m.blog.naver.com/PostView.nhn?blogId=tkddlf4209&logNo=220737393340&proxyReferer=https%3A%2F%2Fwww.google.com%2F 를 대부분 참고했음을 알려들입니다. 유익한 정보가 많습니다. ] Branch Branch? 프로젝트를 만들다보면 여러 버전으로 나눌 때가 있습니다. A버전에서는 지도를 만들고 B버전에서는 주문 기능을 만들고 싶을 때가 있습니다. 이때 Brach를 사용하면 버전별로 프로젝트를 가지 뻗듯이 나눌 수 있습니다. branch를 사용해 봅시다. 아래 명령어를 입력합니다. git branch : branch 목록을 보여줍니다. git branch v1.0 : v1.0 이라는 branch를..

카테고리 없음 2020.04.19

[Improving: Hyper-parameter tuning, Regularization and Optimization] Programming - Optimization(Gradient Descent, Mini-batch, Momentum, Adam)

This note is based on Coursera course by Andrew ng. (It is just study note for me. It could be copied or awkward sometimes for sentence anything, because i am not native. But, i want to learn Deep Learning on English. So, everything will be bettter and better :)) Gradient descent A simple optimization method in machine learning is gradient descent(GD). 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 1..

[나 혼자 지구 한 바퀴]31.10.2017 할로윈을 보내러 트빌리시, 조지아로 돌아가다.

버스 정류장은 MAPS.ME 와 Google map에 central bus station이라고 치면 나오거나 또는 Kilikia bus stop이라고 치시고 약간 뒤에 큰 버스 정류장이 있습니다. 고리스에 갈 때 탔던 버스 정류장과 같은 정류장입니다. 트빌리시 까지 가격은 6500드람입니다. 호스텔에서 건내준 표에 하나하나 다 적혀있습니다. 그리고 몇 번 버스를 타고 가야하는지도 오른쪽 이미지 사진에 적어주었습니다. 도착하면 왼쪽으로 가시면 됩니다. 가자마자 기사분이 "트빌리시? 트빌리시?" 하셔서 "Oh Yes Yes~"하면서 탔습니다. 국경을 넘기전에 점심을 먹으려고 들린 마트 같은 장소입니다. 가운데 큰 화덕에서 전통 밀가루 빵을 만들고 있습니다. 넓직하고 얇은 피입니다. 저는 그때 돈이 300드람..

[나 혼자 지구 한 바퀴]30.10.2017 다시 예레반으로 돌아가자

버스 정류장은 이렇게 생겼습니다. 호스텔에 물어보면 위치를 알려줄 겁니다. 어제 저는 호스텔 직원이 없어서 길에 있는 사람들에게 길을 물어봤는데, 택시기사들이 와서 택시 타라고 해서 안 타고 버스 타러 갈껀데 버스 위치 아냐고 물어보니까 다른 곳을 알려줬습니다. 젠장... 여튼 이렇게 생겼습니다. 마을이 조금해서 금방 위치만 알면 걸어서 쉽게 찾을 수 있습니다. 이런 미니밴입니다. 코카서스 3국의 대부분 버스는 미니밴이기 때문에... 그래도 급이 있다는 사실. 제가 탔을 때 느낌으로는 약 최상급은 아니지만 상급 정도 였습니다. 예레반에 도착해서는 'B1호스텔'으로 다시 돌아갔습니다. 스탭들도 최고, 무료 명상 강의도 주인이 해주고, 세탁도 무료, 가격도 정말 6~7천원 정도로 착해서 쵝오였습니다!!! 내..

[나 혼자 지구 한 바퀴]29.10.2017 타테브(Tetev)를 다녀오다.

타테브를 가기 위해서는 고리스에 먼저 들려야 합니다. 그리고 고리스(Goris)에서 타테브까지 택시를 타고 이동해야 합니다. 도로에 있던 택스들에게 가격을 물으니 타테브까지 8000드람을 달라고 하더군요. 아무리 깍아도 7000이었습니다. 그런데 호스텔에서 택스를 잡아준다고 하니 5000드람을 불렀습니다. 그리고 케이블카까지는 2500드람을 제시했습니다. 저와 인도네시아에서 온 친구는 케이블카까지 가기로 했습니다. 1/2해서 1250드람을 냈습니다. 차를 타고 추울바알~~ 케이블카에 도착을 했습니다. 세계 기네스에 올라와 있는 케이블카 입니다. 논스톱으로 가장 멀리간다는 케이블카입니다. 아직 스탑을 하는 케이블카를 타본 적이 없어서 그렇게 대단한가 잘 모르겠습니다. 사진 앞으로 케이블카가 가로 질러서 타..

[Improving: Hyper-parameter tuning, Regularization and Optimization] The Problem of local optima

This note is based on Coursera course by Andrew ng. (It is just study note for me. It could be copied or awkward sometimes for sentence anything, because i am not native. But, i want to learn Deep Learning on English. So, everything will be bettter and better :)) INTRO People used to worry a lot about the optimization algorithm getting stuck in bad local optima. But as this theory of deep learni..

[Improving: Hyper-parameter tuning, Regularization and Optimization] Learning rate decay

This note is based on Coursera course by Andrew ng. (It is just study note for me. It could be copied or awkward sometimes for sentence anything, because i am not native. But, i want to learn Deep Learning on English. So, everything will be bettter and better :)) INTRO One of the things that might help spead up learning algorithm is slowly reduce learning rate over time. Let's start with an exam..

[Improving: Hyper-parameter tuning, Regularization and Optimization] Optimization - Adam

This note is based on Coursera course by Andrew ng. (It is just study note for me. It could be copied or awkward sometimes for sentence anything, because i am not native. But, i want to learn Deep Learning on English. So, everything will be bettter and better :)) INTRO Adam stands for Adaptive Moment Estimation. The Adam optimization algorithm is basically taking Momentum and RMSprop and putting..

반응형