강의 소개
이번 강의에서는 신경망(Neural Networks)의 정의, Deep Neural Networks에 대해 배웁니다.
- 신경망(Neural Networks)
간단한 Linear neural networks 를 예시로 Data, Model, Loss, Optimization algorithm 을 정의해보는 시간을 가집니다.
- Deep Neural Networks
Deep Neural Netowkrs란 무엇이며 Multi-layer perceptron와 같이 더 깊은 네트워크는 어떻게 구성하는지에 대해 배웁니다.
Further Questions
- Regression Task, Classification Task, Probabilistic Task의 Loss 함수(or 클래스)는 Pytorch에서 어떻게 구현이 되어있을까요?
- 참고 페이지: pytorch official docs
comment
9 페이지의 행렬 곱에서 bias b의 행의 사이즈가 input x와 동일하게 그려져 있는데, bias b의 행 크기는 weight WT의 행과 같아야 하는거 아닌가요? 그래야 WT * X의 결과 행렬에 b 행렬이 더해질텐데요.
만약 슬라이드의 그림이 맞다면 설명 좀 해주세요.
머신 러닝을 알고 있다는 가정하에 보는 강의라고 생각 드네요. 전 강의 내용은 괜찮다고 생각.
andrew ng 강의 다 보고 여기서 다시 복습 하려는데, 생략하고 그냥 넘어가는 내용들이 너무 많네요. 예습 안하면 못알아듣는 분들 많을거 같아요. 학습 효과 없음.
기초강의에 적합한 강의자분은 아니신 듯 합니다. 기초도 모르는 수강자의 관점이 아니라 본인이 아는 지식을 그냥 말하는 그 이상 이하도 아니라고 생각합니다. 퀴즈는 강의내용에도 없는 게 나오니 황당..ㅋ
비공개 글입니다.
Wright* brothers
틀렸다면 말해주세요. 용어가 어려워서 적습니다
역전파 (backpropagation)
affine transformation
nonlinear transformation
Gradient ascent 극대화
gradient descent 극소화
grandient
함수 f의 편미분으로 이루어진 벡터
함수 f의 값이 가장 크게 변화하는 방향을 나타냄
크기는 변화의 정도(기울기)를 나타냄
Gradient ascent 극대화
gradient descent 극소화
optimum에 도달했는지를 알려준다 (grad f = 0)
optimizer 최적화
Bias and Variance
(편향과 분산)
activation function
hidden layer
신경망에서 입력 레이어(특성)와 출력 레이어(예측) 사이에 위치하는 합성 레이어
minimize 최소로 하다
confidence
극단치(outlier)
통계적 자료분석의 결과를 왜곡시키거나, 자료 분석의 적절성을 위협하는 변수값 또는 사례를 말한다
target data
Dimension
차원
accuracy
정확, 정밀
Cross Entropy
정보 이론에서 교차 엔트로피란, 두 확률 분포 p 와 q를 구분하기 위해 필요한 평균 비트 수를 의미한다.
23분부턴 ?