IT

패스트캠퍼스 환급챌린지 46일차 : 딥러닝·인공지능 Signature 초격차 패지 강의 후기

tstory7 2025. 4. 19. 23:23

본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.

 

학습 수강 시작

 

학습 인증샷

수강 목

 

학습 수강 완료

 

 

오늘은 이미지 분류 및 객체 인식 등에 사용되는 다양한 딥러닝 모델들의 발전 과정을 살펴보았다. LeNet-5부터 시작해 EfficientNet까지, 해마다 성능을 개선하고 효율성을 높이기 위해 새로운 구조가 도입되어 왔다는 점이 흥미로웠다. 단순히 연산량이나 정확도만 높이는 것이 아니라, 각각의 모델이 문제를 해결하는 독특한 방식과 아이디어를 가지고 있다는 점이 인상 깊었다.

 

초기 모델인 LeNet-5는 비교적 단순한 구조이지만, 컨볼루션 신경망이 실제 문제에 성공적으로 적용된 첫 사례로 의미가 크다. 이후 AlexNet에서는 ReLU 활성화 함수의 도입과 GPU를 활용한 학습 방식으로 이미지 분류 정확도가 크게 향상되었고, VGGNet은 작은 필터를 반복적으로 쌓아 깊이를 늘리는 구조로 간결하면서도 강력한 성능을 보여주었다. InceptionNet은 다양한 크기의 필터를 병렬로 사용해 하나의 계층에서도 여러 스케일의 정보를 추출할 수 있도록 했다.

 

ResNet은 깊은 네트워크를 효율적으로 학습할 수 있게 해주는 residual connection이라는 개념을 도입해 큰 영향을 끼쳤고, 이후 ResNeXt는 병렬 경로를 늘려 성능을 높였다. MobileNet과 ShuffleNet은 모바일 환경에서도 사용할 수 있도록 연산량을 줄이는 데 집중한 모델들이고, DenseNet은 모든 계층을 이전 계층과 연결하여 정보의 흐름을 최대화한 구조가 특징이었다. SE-Net은 채널 간 중요도를 반영해 특성 맵을 보정하고, EfficientNet은 계산 자원을 균형 있게 조절하는 방식으로 효율성을 크게 끌어올렸다.

이렇게 많은 모델들을 한눈에 비교해보면서, 단순히 성능 좋은 모델을 외우는 것이 아니라 그 안에 어떤 고민과 설계 의도가 있었는지를 이해하는 것이 훨씬 중요하다는 걸 느꼈다. 앞으로 실제 모델을 선택하거나 실습할 때도 이런 구조적 차이를 고려하며 접근해야겠다는 생각이 들었다.

 

https://bit.ly/4hTSJNB