일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- Transfer Learning
- textmining
- Gradient Descent
- SOMs
- VGGNet
- tensorflow
- 자기조직화지도
- cross domain
- gaze estimation
- 군집화
- BERT
- stemming
- LSTM
- 경사하강법
- MLOps
- Ann
- Clustering
- nlp
- RNN
- Python
- Attention
- Generative model
- ResNet
- Support Vector Machine
- Logistic Regression
- TFX
- AI 윤리
- NER
- Binary classification
- NMF
- Today
- Total
목록bias (2)
juooo1117

Part 2. Bias and Variance Generalization in ML 기계학습 알고리즘의 능력을 말한다. An ML model's ability to perform well on new unseen data rather than just the data that it was trained on. → 학습과정에서 보지 못한 새로운 data에 대해서 잘 하는 것이 더 중요하다. Learning algorithm maximizes accuracy on training examples. Strongly related to the concept of overfitting. (*overfitting = poor generalization) *New unseen data에 대한 일반화 능력을 좀 더 높..
Modeling - pytorch를 이용한 Linear model define import torch import tqdm as notebook_tqdm X_train = torch.tensor([[1], [2], [3]], dtype=torch.float32) y_train = torch.tensor([[20], [40], [60]], dtype=torch.float32) Tensor의 size 확인: torch.Size([3, 1]) torch.Size([3, 1]) # [3, 1] : [데이터개수, 개별데이터의 shape] -> 3개의 데이터, 각 데이터는 1개의 값을 가진 1차원배열 # [5, 10, 20] -> 5개의 데이터, 각 데이터의 size는 (10x20) print(X_train.sha..