| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | |
| 7 | 8 | 9 | 10 | 11 | 12 | 13 |
| 14 | 15 | 16 | 17 | 18 | 19 | 20 |
| 21 | 22 | 23 | 24 | 25 | 26 | 27 |
| 28 | 29 | 30 | 31 |
- AI 윤리
- gaze estimation
- nlp
- ResNet
- Transfer Learning
- Binary classification
- Support Vector Machine
- Ann
- RNN
- 경사하강법
- NER
- 자기조직화지도
- cross domain
- Logistic Regression
- VGGNet
- Gradient Descent
- tensorflow
- Clustering
- textmining
- Attention
- stemming
- TFX
- MLOps
- NMF
- SOMs
- 군집화
- Python
- LSTM
- Generative model
- BERT
- Today
- Total
목록autoencoder (2)
juooo1117
AutoEncoder? 입력이 들어왔을 때, 해당 입력 데이터를 최대한 compression(압축)시킨 후, compressed data를 다시 본래의 입력 형태로 복원 시키는 신경망으로 비지도 학습 방법이다. 이때, 데이터를 압축하는 부분을 Encoder(recognition network)라고 하고, 복원하는 부분을 Decoder(generative network)라고 부른다. 압축 과정에서 추출한 의미 있는 데이터 Z를 보통 latent vector라고 부르고, 이 외에도도 ‘latent variable’, ‘latent vector’, ‘code’, ‘feature’로 부른다. 인코딩 - 디코딩 과정을 거치면서, reconstruction error 가 원래의 입력 데이터와 복원 결과물의 차이를 ..
What are autoencoders? "Autoencoding" is a data compression algorithm where the compression and decompression functions are 1) data-specific 2) lossy 3) learned automatically from examples rather than engineered by a human. Additionally, in almost all contexts where the term "autoencoder" is used, the compression and decompression functions are implemented with neural networks. - Autoencoders ar..