[머신러닝] 머신러닝으로 문제 표현하기 / 머신러닝 용어 정리
글 작성자: 택시 운전사
반응형
머신러닝 용어 정리
학습목표
- 기본적인 머신러닝 용어 알아보기
- 다양한 머신러닝 용도 알아보기
- 지도 머신러닝 / Supervise Machine Learning
입력을 결합하여 모델을 만들고, 이전에 보지 못한 데이터에 대해서도 적절히 예측하는 방법
- 라벨 / Label
예측하는 실제 항목 (y)
기본 선형 회귀의 y 변수
예) 스팸메일 여부, 밀의 향후 가격, 사진에 표시되는 동물의 종류, 오디오 클립의 의미 등
- 특성 / Feature
데이터를 설명하는 입력 변수 (xi)
기본 선형 회귀의 { x1, x2, ... xn } 변수
예) 이메일에 포함된 단어, 보내는 사람의 주소 이메일이 전송된 시간, '이상한 속임수 하나'라는 구문이 포함된 이메일
- 예 / Example
데이터 (x)의 특정 인스턴스
라벨이 있는 예와 라벨이 없는 예로 구분
라벨이 있는 예
- { 특성, 라벨 }(x,y)이 포함됨
- 모델을 학습시키는 데 사용 됨
라벨이 없는 예
- { 특성, ? }(x,?)이 포함됨
- 새 데이터를 예측하는 데 사용 됨
- 모델 / Model
특성과 라벨의 관계를 정의
학습
모델을 만들거나 배우는 것, 라벨이 있는 예를 모델에 보여주고, 모엘이 특성과 라벨의 관계를 점차 학습하도록 하는 것
추론
학습된 모델을 라벨이 없는 예에 적용하는 것을 의미, 학습된 모델을 사용하여 유용한 예측(y')를 해냄
회귀와 분류(Regression and Classification)
- 회귀 모델(Regression Model)
연속적인 값을 예측
- 캘리포니아의 주택 가격은 얼마인가요?
- 사용자가 이 광고를 클릭할 확률은 얼마인가요?
- 분류 모델(Classification Model)
불연속적인 값을 예측
- 주어진 이메일 메시지가 스팸인가요, 스팸이 아닌가요?
- 이 이미지가 강아지, 고양이 또는 햄스터의 이미지인가요?
반응형
'Machine Learning' 카테고리의 다른 글
[머신러닝] 학습 및 테스트 세트 (0) | 2018.12.24 |
---|---|
[머신러닝] 일반화(Normalization) / 과적합(Overfitting)의 위험 (0) | 2018.12.24 |
[머신러닝] 손실 줄이기 / 반복 방식, 경사하강법(Gradient descent), 학습률 (0) | 2018.12.24 |
[머신러닝] 머신러닝으로 전환하기 / 선형 회귀(Linear Regression), 학습 및 손실 (0) | 2018.12.24 |
[머신러닝] 머신러닝 소개 (0) | 2018.12.24 |
댓글
이 글 공유하기
다른 글
-
[머신러닝] 일반화(Normalization) / 과적합(Overfitting)의 위험
[머신러닝] 일반화(Normalization) / 과적합(Overfitting)의 위험
2018.12.24 -
[머신러닝] 손실 줄이기 / 반복 방식, 경사하강법(Gradient descent), 학습률
[머신러닝] 손실 줄이기 / 반복 방식, 경사하강법(Gradient descent), 학습률
2018.12.24 -
[머신러닝] 머신러닝으로 전환하기 / 선형 회귀(Linear Regression), 학습 및 손실
[머신러닝] 머신러닝으로 전환하기 / 선형 회귀(Linear Regression), 학습 및 손실
2018.12.24 -
[머신러닝] 머신러닝 소개
[머신러닝] 머신러닝 소개
2018.12.24