본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.
학습 수강 시작
학습 인증샷
강의 수강 목록
강의 수강 완료
오늘은 인공신경망에 대해 한층 더 깊이 있는 내용을 배웠다. 본격적으로 벡터와 행렬을 이용해서 신경망을 수학적으로 표현하는 방법, 그리고 왜 비선형 활성화 함수가 중요한지에 대한 이야기였다. 어제보다 확실히 난이도가 올라갔다.
강의에서 특히 인상 깊었던 건, 인공신경망을 수학적으로 뜯어보면 결국 하나의 패턴이 반복된다는 점이었다. 입력이 들어오면 어떤 가중치와 곱하고, 거기에 편향을 더하고, 그 결과를 활성화 함수에 통과시키는 식이다. 이 과정을 한 층이 수행하고, 그 결과를 다시 다음 층에 넘기는 방식이다. 이게 반복되면서 신경망이 깊어지는 것이다. 복잡해 보이지만, 결국은 ‘행렬 곱하고 벡터 더하고, 함수 하나 씌우기’의 반복이라는 점이 인상 깊었다. 간단한 연산의 반복이 어떻게 그런 강력한 모델을 만드는지 조금은 감이 왔다.
하지만 중요한 전제가 하나 있다. 바로 이 반복되는 구조 안에 비선형성이 반드시 포함되어야 한다는 것. 활성화 함수가 그냥 입력을 그대로 내보내는 선형 함수라면, 아무리 층을 많이 쌓아도 결과적으로는 단 하나의 층을 쓴 것과 차이가 없어진다. 겉보기엔 복잡해 보여도, 본질적으로는 단순한 계산을 복잡하게 늘어놓은 것뿐인 셈이다. 이런 경우에는 신경망이 갖는 깊이의 힘을 전혀 살릴 수 없다.
그래서 비선형 활성화 함수가 꼭 필요하다. 층 사이에 비선형 함수를 넣어줘야만 신경망이 단순히 직선으로는 나눌 수 없는 복잡한 문제들을 해결할 수 있다. 예를 들어 이미지나 음성처럼 구조가 복잡하고 경계가 모호한 데이터를 다룰 때는, 이런 비선형성이 없으면 패턴을 제대로 학습할 수 없다. 결국 우리가 신경망을 깊게 쌓는 이유는 더 많은 패턴을, 더 정밀하게, 더 유연하게 표현하기 위해서다. 그 핵심 열쇠가 바로 활성화 함수인 셈이다.
오늘 강의는 개념적으로도, 수학적으로도 난이도가 있었지만, 인공신경망이 왜 그렇게 설계되어 있는지를 조금은 체감할 수 있었다. 겉만 보면 복잡한 구조지만, 그 안에서는 반복적인 계산과 중요한 핵심 원리들이 정교하게 작동하고 있다는 걸 느꼈다. 이걸 완전히 내 것으로 만들려면 손으로 계속 써보고, 작은 신경망부터 직접 만들어보는 과정이 꼭 필요할 것 같다.
'IT' 카테고리의 다른 글
패스트캠퍼스 환급챌린지 42일차 : 딥러닝·인공지능 Signature 초격차 패지 강의 후기 (0) | 2025.04.15 |
---|---|
패스트캠퍼스 환급챌린지 41일차 : 딥러닝·인공지능 Signature 초격차 패지 강의 후기 (0) | 2025.04.14 |
패스트캠퍼스 환급챌린지 39일차 : 딥러닝·인공지능 Signature 초격차 패지 강의 후기 (0) | 2025.04.12 |
패스트캠퍼스 환급챌린지 38일차 : 딥러닝·인공지능 Signature 초격차 패지 강의 후기 (0) | 2025.04.11 |
패스트캠퍼스 환급챌린지 37일차 : 딥러닝·인공지능 Signature 초격차 패지 강의 후기 (0) | 2025.04.10 |