IT

패스트캠퍼스 환급챌린지 35일차 : 딥러닝·인공지능 Signature 초격차 패지 강의 후기

tstory7 2025. 4. 8. 23:07

본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.

 

강의 수강 시작

 

강의 수강 목록

강의 수강 완료

학습 인증샷

 

강의 수강 완료

 

 

오늘은 선형 회귀와 경사하강법에 대한 강의를 들었다. 선형 회귀는 입력과 출력 간의 선형적인 관계를 파악하는 방법이다. 주어진 입력값에 대해 그에 상응하는 출력값을 예측할 수 있도록 모델을 학습시키는 것이다. 예를 들어 키와 몸무게의 관계를 생각해보면, 키가 커질수록 대체로 몸무게도 증가하는 경향이 있다. 이러한 관계를 선형 함수로 표현해서, 처음 보는 키에 대해서도 그에 어울리는 몸무게를 예측할 수 있는 모델을 만드는 것이다.

이 머신은 입력값에 대해 어떤 선형식을 기반으로 출력을 낸다. 그 선형식은 보통 y = ax + b의 형태로 표현되는데, 여기서 a와 b는 우리가 찾아야 할 값이다. 이는 주어진 데이터들을 바탕으로 해서, 출력값과 머신이 예측한 값 사이의 차이를 최소화하도록 a와 b를 찾아내는 것이다. 이때 출력값과 예측값 사이의 차이가 loss이다.

loss를 구할 때 단순히 출력값과 예측값의 차이를 더하거나 평균내는 것이 아니라, 그 차이를 제곱해서 사용하는 경우가 많다. 이유는 차이의 부호가 서로 다르면 그냥 더할 경우 상쇄되어버려서 전체적인 오차가 작게 나타나는 문제가 생기기 때문이다. 제곱을 하게 되면 항상 양수로 바뀌므로 이런 상쇄 현상을 방지할 수 있다. 다만, 꼭 제곱만이 정답인 것은 아니다. 절댓값을 사용하는 방법도 있다. 절댓값 역시 부호의 영향을 없애주기 때문에 오차의 크기를 반영하는 데 적절할 수 있다. 어떤 상황에서는 절댓값이 제곱보다 더 나은 선택일 수도 있다. 따라서 무작정 제곱을 당연한 선택으로 받아들이기보다는, 왜 절댓값이 아닌지를 고민해보고, 두 방식의 차이를 이해하는 것이 중요하다고 했다. 이때까지 그냥 당연히 제곱이라고 배웠기에 이는 좀 충격적이었다. 이때까지 너무 좁게만 생각했던 것 같다.

경사하강법은 이러한 loss를 최소화하는 a와 b를 찾기 위한 방법 중 하나다. 간단히 말하면, 현재의 a와 b에서 조금씩 값을 바꾸어가며 loss가 줄어드는 방향을 찾아가는 과정이다. 이 과정은 반복적으로 이루어지며, 각 단계에서 계산되는 기울기를 바탕으로 a와 b를 업데이트해 나간다.

확실히 강의 내용이 아무래도 어려운 내용이다 보니까 이해하기가 쉽지 않은 것 같다. 이번에는 깊게 파고들기보다는 전체적인 내용을 먼저 수강하고, 나중에 다시 돌아와서 복습하며 천천히 이해해보기로 마음먹었다. 처음부터 너무 어려운 개념에 매달리기보다는, 전체 흐름을 먼저 익히고, 이후에 부족한 부분을 보완하는 방향이 더 효과적일 것 같기 때문이다.
아직 완벽히 이해된 건 아니지만 중요한 개념들이 무엇인지는 감을 잡을 수 있을 것 같다.

 


https://bit.ly/4hTSJNB