📌 Ian Goodfellow의 Deep Learning 교재 기반 + 각자가 알아서 참고문헌들 추가
이론 학습 + 발표(슬라이드) + 밑바닥 구현(Python/PyTorch)
| Cover | Title | Authors | Link |
|---|---|---|---|
![]() |
Deep Learning | Ian Goodfellow, Yoshua Bengio, Aaron Courville | 📖 Website |
우리는 Input과 Output을 명확히 구분하여 깊이 있는 학습을 지향. 할때 제대로 하기.
- Input: 강의/교재로 개념과 수식 이해
- Output: 슬라이드 발표 + 코드 구현 + 기록(영상/노트)
Lecture / Reading
↓
Slide Preparation
↓
Seminar Presentation
↓
Discussion & Feedback
↓
Code from Scratch
↓
GitHub Archive (+ optional YouTube)
| 요일 | 활동 내용 | 비고 |
|---|---|---|
| 월 ~ 수 | Individual Study - 강의 수강 및 교재 읽기 - 개념 정리 초안(Draft) 작성 |
개별 학습 |
| 목 ~ 금 | Group Study - 심화 조사 및 자료 정리 - 슬라이드 & 코드 완성 |
팀 학습 |
| 토 | Main Seminar - 발표 + Q&A + 피드백 |
메인 세미나 |
기간: 2026년 1월 12일 ~ 4월 19일 (예정)
| Week | Date | Topic | Chapter |
|---|---|---|---|
| 1 | 01.12 ~ 01.18 | Foundations of Deep Learning | 1 |
| 2 | 01.19 ~ 01.25 | Neuron Modeling & Deep Feedforward Networks | 2, 3 |
| 3 | 01.26 ~ 02.01 | Optimization | 4 |
| 4 | 02.16 ~ 02.20 | Regularization | 5 |
| 5 | 02.23 ~ 02.27 | Convolutional Neural Nets (Part 1) | 6 |
| 6 | 02.16 ~ 02.22 | Convolutional Neural Nets (Part 2) | 7 |
| 7 | 02.23 ~ 03.01 | The Art of Neural Net Training | 8 |
| 8 | 03.02 ~ 03.08 | CNN Architectures | 9 |
| 9 | 03.09 ~ 03.15 | Recurrent Neural Nets (RNN) | 10 |
| 10 | 03.16 ~ 03.22 | Gated Recurrent Neural Nets (LSTM/GRU) | 11 |
| 11 | 03.23 ~ 03.29 | Attention and Transformer | 12 |
| 12 | 03.30 ~ 04.05 | Introduction to Generative Models | 13 |
| 13 | 04.06 ~ 04.12 | Variational Autoencoder (VAE) | 14 |
| 14 | 04.13 ~ 04.19 | Generative Adversarial Network (GAN) | 15 |
| Name | Role | GitHub |
|---|---|---|
| Member1 | Presenter | @김상현 |
| Member2 | Presenter | @정민교 |
├── 01_Foundations/ # 주차별 폴더
│ ├── Kim/ # 멤버별 폴더
│ │ ├── slides.pdf # 발표 자료
│ │ ├── code.ipynb # 구현 코드
│ │ └── notes.md # (선택) 정리 노트
│ └── Park/
├── 02_Feedforward/
├── 03_Optimization/
├── 04_Regularization/
├── 05_CNN_1/
├── 06_CNN_2/
├── 07_Training_Techniques/
├── 08_CNN_Architectures/
├── 09_RNN/
├── 10_LSTM_GRU/
├── 11_Transformer/
├── 12_Generative_Models/
├── 13_VAE/
├── 14_GAN/
├── resources/ # (선택) 참고자료/링크/논문
└── README.md각자 구현한 부분들 정리
- Linear / Logistic Regression (example)
읽은 논문 정리
| Date | Paper | Topic | Presenter | Notes |
|---|---|---|---|---|
| 2026-02-01 | Attention Is All You Need | Transformer | Member1 | link |
| 2026-03-10 | GAN | Generative Models | Member2 | link |
- 슬라이드/코드/노트는 최소 세미나 전날까지 업로드
- PR 또는 커밋 메시지에
week-xx태그 권장- 예:
week-03: add optimization notes
- 예:
- 코드는 재현 가능하게 (seed / requirements / data note)
- 매주 발표를 진행할때 그 주차에 해당하는 주제가 아닌 각자가 추가로 공부한 부분도 공유
