학습목표경사하강법(Gradient descent)에 대해 더 자세히 알아본다.핵심키워드가설 함수(Hypothesis Function)평균 제곱 오차(Mean Squared Error)경사하강법(Gradient descent)
comment
비공개 글입니다.
강의 자료에 오타가 있네요. Gradient descent에서 grad W라고 표기된 항이 grad Cost가 맞는 것 같습니다. 확인해주세요.
아 이전영상 이해 안되서 막 찾아보고 이해했었는데 이번영상에서 설명해주시네요......
뒷부분 강의를 듣지 않아서 뒤에 나오는지는 모르겠으나, learning rate라는 값의 정확한 의미와 설정 기준을 좀 더 자세히 알고싶네요
Full code에서 gradient 식이 앞쪽에서 사용한 2 * torch.mean((W * x_train - y_train) * x_train) 에서 torch.sum((W * x_train - y_train) * x_train)으로 바뀐 이유가 있을까요?
이번 학습과 이전 학습의 순서가 바뀐 느낌입니다.
기존 학습에서 "이미 익숙한것"이라고 표현한 코드들을 이번 학습에선 설명해주네요.