sigmoid 2

[Deep Learning] Sigmoid and Softmax 이론

Activation Function에서 활용한 sigmoid와 Softmax가 어떤 역할을 하는 지 배워보자. sigmoid와 softmax는 어떤 차이가 있는지, 각각 어떻게 활용되는지 확인해보자. sigmoid는 왜 탄생되었을까라는 생각도 해볼 수 있다. Sigmoid Function sigmoid를 알기 전에 Logit을 알아야하고, Logit을 알기 전에 odds 를 알아야한다. 그 이유는 sigmoid는 odds에서 변형되어, 탄생됐기 때문이다. Odds ratio odds ratio는, 한 사건이 일어날 확률 대비 한 사건이 일어나지 않을 확률의 비율?이라고 생각하면 된다. 예를 들어, 동전을 던질 때, 뒷면이 나올 확률 대비 앞면이 나올 확률은 1이다. 두 확률이 동일하기 때문이다. odds..

[Deep Learning] Artificial Neurons 이론

우리는 어렸을 때 두뇌 게임으로, "1=4, 2=6, 3=8, 4=10, 5=?"와 같은 문제를 풀어본적이 있을 것이다. Deep Learning도 위와 비슷한 과정을 거쳐서 규칙을 찾아 모델을 만들고 새로운 데이터가 들어오면 모델에 넣어 성과를 내는 것이라고 생각하면된다. 그 중 가장 널리 사용되고 있는 Artificial Neurons, 즉 인공뉴런에 대해서 알아보자. Artificial Neurons에서 가장 중요한 수학 개념은 선형대수학의 차원개념과 행렬의 곱 연산이다. Artificial Neuron Artificial Neuron이란, 신경해부학적 사실을 토대로 하여 만든 인공신경망 기본구성요소로, 단순한 연산기능을 가지고 있는 수많은 인공뉴런이 서로 연결되어 정보를 저장하고 처리한다는 개념이..