- Image Rectification : CS에서 사용되는 용어로, 이미지의 왜곡을 보정하는 것
- ML
- Supervised Learning
- Laveled data
- Direct Feedback
- Predict outcome/futre
- Classification, Regression
- Unsupervised Learning
- No lables
- No feedback
- Find Hidden Structure in data
- Clustering, Dimensionallity Reduction
- Reinforcement Learning
- Decision process
- Reward system
- Learn series of actions
- Supervised Learning
- Data Preparation
- Training Data : 모델을 훈련하는 데 사용
- Validation Set : 각 모델에 대한 성능을 검증하는 데 사용
- Test Set : 최종 모델의 실제 성능을 분석하는 데 사용
- Training Data set과 Test Set이 같아선 안된다.
- 모델의 성능을 높이기 위한 훈련 기법들 : Model Selection, Cross-Validation, Performance Metrics, Hyperparameter Optimization
- Linear Regression
- x가 들어왔을 때 y가 어떻게 될까? 와 같은 것을 예측하는 모델

-
- 회귀 직선과 샘플( 그림에서는 점 )간 차이( 그림에선 직선에서 수직으로 내렸을 때 점과의 거리 )를 Offset 또는 Residual 이라고 한다.
- 하나의 특성( Explanatroy Variable x )과 연속적인 목표 변수( Response Variable y )사이의 관계 모델링
- Model Evaluation
- 일부 편차가 매우 큰 데이터는 Outlier로 간주하여 무시하는 처리를 한다.
- 정량적인 평가 기준을 통해 모델 평가가 필요한데,
- MSE( Mean-Squared-Error ) : 예측값과 정답값 차이의 제곱의 합의 평균
- Classification : 각 데이터가 어떤 클래스에 속하는지 판별하는 것이 목적
- 클래스 레이블은 순서가 없고 Discrete Variable이다.
- Classification은 Category를 예측, Regression은 Continuous Value를 예측
- 클래스가 두 개일 경우 Binary Classification
- Logistic Regression
- 선형 이진 분류 문제를 위한 로지스틱 회귀
- 이름은 회귀이지만 분류 모델
- Odds Ration 오즈비 :
- Positive Probability ( P ) / Negative Probability ( 1 - P )
- Logit Function : Odds Ratio에다 자연로그 ln을 취한 값
- Logit Function 은 0과1 사이의 입력 값을 실수 범위 출력 값으로 변환
- 왜냐하면 Odds Ratio가 P 확률로 구성된 값이므로, 입력값은 1과 0사이인 것이다.
- Logit Function 은 0과1 사이의 입력 값을 실수 범위 출력 값으로 변환


- Clustering

'**Autonomous driving tech. > *Machine-Learning' 카테고리의 다른 글
[Machine Learning] L2, L1 Norm (0) | 2025.04.15 |
---|---|
[Machine Learning] norm, normalization (0) | 2025.04.11 |
[Machine Learning] Scaling, Z-score, 전처리 과정 (0) | 2025.04.11 |
[Deep-Learning] 05 Identity, Diagonal, Transpose Matrix, Logistic Regression (0) | 2025.03.13 |
[Deep-Learning] 04 Tensor (0) | 2025.03.11 |