Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- Kaggle
- 네이버AItech
- PytorchLightning
- datascience
- leetcode
- FastAPI
- docker
- github
- vscode
- NaverAItech
- 완전탐색
- autoencoder
- GIT
- pep8
- pytorch
- GitHub Action
- FDS
- GCP
- DeepLearning
- Kubernetes
- NLP
- rnn
- 프로그래머스
- wandb
- Matplotlib
- 알고리즘
- 코딩테스트
- python
- 백준
- torchserve
Archives
- Today
- Total
목록BatchNorm (1)
Sangmun
BN 적용해서 학습 이후 실제 사용시에 주의할 점은
https://mole-starseeker.tistory.com/45 배치 정규화(Batch Normalization)의 설명과 탐구 # 배치 정규화(Batch Normalization)의 기능과 그 효과는? 우선 공변량 시프트(covariate shift) 현상이라는 것을 한 번 살펴보자. 아래 그림을 보자. 층 1에 훈련셋이 입력되면 층 2는 층 1의 가중치에 따라 mole-starseeker.tistory.com https://towardsdatascience.com/batch-norm-explained-visually-how-it-works-and-why-neural-networks-need-it-b18919692739 Batch Norm Explained Visually — How it work..
네이버 AI 부스트캠프 4기
2022. 12. 15. 08:42