반응형

분류 전체보기 509

[Neural Network and Deep Learning] Derivatives of activation functions

This note is based on Coursera course by Andrew ng. (It is just study note for me. It could be copied or awkward sometimes for sentence anything, because i am not native. But, i want to learn Deep Learning on English. So, everything will be bettter and better :)) When we implement back propagation for our neural network, we need to compute the derivative of the activation functions. So, let's ta..

[Neural Network and Deep Learning] Activation functions

This note is based on Coursera course by Andrew ng. (It is just study note for me. It could be copied or awkward sometimes for sentence anything, because i am not native. But, i want to learn Deep Learning on English. So, everything will be bettter and better :)) When we build our neural network, one of the choices you get to make is what activation function to use in the hidden layers, as well ..

[Neural Network and Deep Learning] Neural Network Representation

This note is based on Coursera course by Andrew ng. (It is just study note for me. It could be copied or awkward sometimes for sentence anything, because i am not native. But, i want to learn Deep Learning on English. So, everything will be bettter and better :)) Let's see what this image below means. You saw the overview of single hidden layer NN. Now, let's go through the details of extactly h..

고도를 기다리며 by 사뮈엘 베케트

제 마음대로 리뷰를 시작하겠습니다. '고도를 기다리며'도 이전의 '수레바퀴 아래서'와 함께 같은 시기에 읽고 있던 책입니다. 그리고 읽기를 중단하고 다시 읽기 시작했습니다. 물론, 다른 책을 더 읽고 싶어서 이 책을 처음부터 읽지는 않았습니다. 따라서 어설프고 중간이 많이 빠진 리뷰가 되리라고 생각합니다. 그럼에도 불구하고 기록을 하는 이유는 '고도를 기다리며' 책을 기억하고 싶어서 입니다. 줄거리 시작... 제 1 막 시골의 어느 벌판, 나무 한 그루만 서있다. 에스트라공과 블라디미르는 고도라는 사람을 하염없이 기다린다. 이들은 계속해서 대화를 주고 받는다. 그러다 포조라는 사람이 하인 럭키와 함께 나타난다. 그는 자신의 이야기를 들어주길 바라는 태도를 취하면서 여러 이야기를 한다. 하인 럭키는 주인이..

[GitLab] 연동하기 - 두 번째: git 저장소 생성과 원격 저장소에 push

[ 이 게시글은 https://m.blog.naver.com/PostView.nhn?blogId=tkddlf4209&logNo=220737393340&proxyReferer=https%3A%2F%2Fwww.google.com%2F 를 대부분 참고했음을 알려들입니다. 유익한 정보가 많습니다. ] Gitlab에 프로젝트 올리기 Git저장소로 쓸 폴더 또는 Git에 올릴 폴더를 하나 골라서 'Git Bash Here'을 클릭합니다. git과 연결하기 위해서 아래 명령어를 입력합니다. git init : local pc에 git 저장소를 만들어주는 명령어. .git이라는 저장소 숨김 폴더 생성 git config --global user.name : gitlab 원격 저장소에 필요한 유저 이름을 전역 변수로 설..

IT/Others 2020.03.11

[GitLab] 연동하기 - 첫 번째 : 프로젝트 생성과 SSH key 생성

[ 이 게시글은 https://m.blog.naver.com/PostView.nhn?blogId=tkddlf4209&logNo=220737393340&proxyReferer=https%3A%2F%2Fwww.google.com%2F 를 대부분 참고했음을 알려들입니다. 유익한 정보가 많습니다. ] 프로젝트 생성 Gitlab은 가입했다고 가정하겠습니다. 그러면 프로젝트를 만들어 보겠습니다. 찾기 쉬운 어딘가에 새로운 프로젝트를 만드는 버튼이 있습니다. 찾고 눌러줍니다. project name을 입력하고 description은 선택적으로 작성하시고 visibility level을 설정합니다. 저는 비공개로 할 계획이기 때문에 private으로 했습니다. (github와 다른 점은 private이 무료라는 것 입..

IT/Others 2020.03.11

[Neural Network and Deep Learning] Vectorization

This note is based on Coursera course by Andrew ng. (It is just study note for me. It could be copied or awkward sometimes for sentence anything, because i am not native. But, i want to learn Deep Learning on English. So, everything will be bettter and better :)) In the deep learning era, we usually find training on relatively large data sets, because that is when deep learning algorithms tend t..

[Neural Network and Deep Learning] Logistic Regression Gradient Descent

This note is based on Coursera course by Andrew ng. (It is just study note for me. It could be copied or awkward sometimes for sentence anything, because i am not native. But, i want to learn Deep Learning on English. So, everything will be bettter and better :)) To get us familiar with these ideas, it will make a bit more sense when we walk about full-fledged neural networks. To that, let's div..

[Neural Network and Deep Learning] Derivatives with a Computation graph

This note is based on Coursera course by Andrew ng. (It is just study note for me. It could be copied or awkward sometimes for sentence anything, because i am not native. But, i want to learn Deep Learning on English. So, everything will be bettter and better :)) The computations of a neural network are organized in terms of a forward propagation step, in which we compute the output of the neura..

[Neural Network and Deep Learning] Logistic Regression Cost Function and Gradient Descent

This note is based on Coursera course by Andrew ng. (It is just study note for me. It could be copied or awkward sometimes for sentence anything, because i am not native. But, i want to learn Deep Learning on English. So, everything will be bettter and better :)) To train the parameters W and b of the logistic regression model, I need to define a cost function. Let's take a look at the cost func..

반응형