SlideShare ist ein Scribd-Unternehmen logo
1 von 39
패턴인식과 기계학습
-패턴인식기 개발-
2018-0815 도정찬
복습
복습
복습
복습
복습
1. 2차원 데이터의 분류
1. 2차원 데이터의 분류
데이터의 생성
모집단의 확률분포
정의
랜덤 데이터 추출
두 클래스 𝐶1, 𝐶2에 대하여 가우시안 분포
를 따르는 확률분포 정의
1. 2차원 데이터의 분류
데이터의 생성
p(x 𝐶1 ~ 𝐺(𝜇1,∑1), p(x 𝐶2 ~ 𝐺(𝜇2,∑2)
𝜇1 =
3
5
, ∑1 =
1 1
1 2
, 𝜇2 =
5
3
, ∑2 =
1 1
1 2
클래스 𝐶1, 𝐶2에 대한 분포 식
matlab 코드
가우시안 분포를 따르는 두 클래스로 이루어진
데이터 집합
1. 2차원 데이터의 분류
데이터의 학습(분석)
학습 및 시험
데이터 준비
데이터 분포 특성
분석
결정경계 찾기
1. 2차원 데이터의 분류
데이터의 학습(분석)
학습 및 시험
데이터 준비
데이터 분포 특성
분석
결정경계 찾기
1. 2차원 데이터의 분류
데이터의 학습(분석)
학습 및 시험
데이터 준비
데이터 분포 특성
분석
결정경계 찾기
학습
1. 2차원 데이터의 분류
데이터의 학습(분석)
학습 및 시험
데이터 준비
데이터 분포 특성
분석
결정경계 찾기간단한 통계 계산
복잡한 결정경계
학습 방법
학습
1. 2차원 데이터의 분류
데이터의 학습(분석)
학습
평균, 공분산 계산
1. 2차원 데이터의 분류
데이터의 학습(분석)
𝑚1=
2.7566
4.7419
, 𝑆1 =
1.3883 1.8897
1.8897 3.5530
𝑚2=
4.7313
2.8251
, 𝑆2 =
0.8770 0.6369
0.6369 0.9920
데이터 행렬의 평균과 공분산 행렬
matlab 코드학습데이터로 추정된 평균(𝑚1, 𝑚2)와 실평균(𝜇1, 𝜇2)
1. 2차원 데이터의 분류
데이터의 분류 : 결정경계의 설정
𝑚1=
2.7566
4.7419
, 𝑆1 =
1.3883 1.8897
1.8897 3.5530
𝑚2=
4.7313
2.8251
, 𝑆2 =
0.8770 0.6369
0.6369 0.9920
데이터 행렬의 평균과 공분산 행렬
평균을 이용하여 간단한 결정경계를 찾을 수 있다
1. 2차원 데이터의 분류
데이터의 분류 : 결정경계의 설정
학습데이터로 추정된 평균(𝑚1, 𝑚2)와 실평균(𝜇1, 𝜇2)
1. 2차원 데이터의 분류
데이터의 분류 : 결정경계의 설정
𝒙 𝒏𝒆𝒘
1. 2차원 데이터의 분류
데이터의 분류 : 결정경계의 설정
두 점 𝒙 𝟏, 𝒙 𝟐 간의 거리
=>d(𝒙 𝟏, 𝒙 𝟐)
d(𝒎 𝟏, 𝒙 𝒏𝒆𝒘)
d(𝒎 𝟐, 𝒙 𝒏𝒆𝒘)
1. 2차원 데이터의 분류
데이터의 분류 : 결정경계의 설정
두 점 𝒙 𝟏, 𝒙 𝟐 간의 거리
=>d(𝒙 𝟏, 𝒙 𝟐)
d(𝒎 𝟏, 𝒙 𝒏𝒆𝒘)
d(𝒎 𝟐, 𝒙 𝒏𝒆𝒘)
d(𝒎 𝟏, 𝒙 𝒏𝒆𝒘) < d(𝒎 𝟐, 𝒙 𝒏𝒆𝒘)
𝒙 𝒏𝒆𝒘는 𝒎 𝟏에 더 가깝다
𝒙 𝒏𝒆𝒘는 𝑪 𝟏으로 분류
1. 2차원 데이터의 분류
데이터의 분류 : 결정경계의 설정
두 점 𝒙 𝟏, 𝒙 𝟐 간의 거리
=>d(𝒙 𝟏, 𝒙 𝟐)
d(𝒎 𝟏, 𝒙 𝒏𝒆𝒘)
d(𝒎 𝟐, 𝒙 𝒏𝒆𝒘)
결정경계 함수 g(x)=0
g(x) = d(𝒙 , 𝒎 𝟐)-d(𝒙 , 𝒎 𝟏) = 0
y(x) =
𝟏 𝒊𝒇 𝒈 𝒙 > 𝟎
−𝟏 𝒊𝒇 𝒈 𝒙 < 𝟎
1. 2차원 데이터의 분류
데이터의 분류 : 결정경계의 설정
결정경계 함수 g(x)=0
g(x) = d(𝒙 , 𝒎 𝟐)-d(𝒙 , 𝒎 𝟏) = 0
y(x) =
𝟏 𝒊𝒇 𝒈 𝒙 > 𝟎
−𝟏 𝒊𝒇 𝒈 𝒙 < 𝟎
유클리디안 거리의 제곱
g(x) = d(𝒙 , 𝒎 𝟐)-d(𝒙 , 𝒎 𝟏)
= 𝒙 − 𝒎 𝟏
𝑻
𝒙 − 𝒎 𝟏 - 𝒙 − 𝒎 𝟐
𝑻
𝒙 − 𝒎 𝟐
= -2 𝒎 𝟏− 𝒎 𝟐
𝑻 𝒙 + 𝒎 𝟏
𝑻 𝒎 𝟏 - 𝒎 𝟐
𝑻
1. 2차원 데이터의 분류
데이터의 분류 : 결정경계의 설정
g(x)=0
1. 2차원 데이터의 분류
데이터의 분류 : 결정경계의 설정
g(x)=0 판별함수 y(x) =
𝟏 𝒊𝒇 𝒈 𝒙 > 𝟎
−𝟏 𝒊𝒇 𝒈 𝒙 < 𝟎
결정경계 g(𝒙 𝒏𝒆𝒘)> 0
y(𝒙 𝒏𝒆𝒘) = 1
𝒙 𝒏𝒆𝒘는 𝑪 𝟏에 해당한다
1. 2차원 데이터의 분류
성능 평가
학습 및 시험
데이터 준비
데이터 학습
(분포 특성 분석)
데이터 분류
(결정경계 찾기)
성능 평가
1. 2차원 데이터의 분류
성능 평가
학습 및 시험
데이터 준비
데이터 학습
(분포 특성 분석)
데이터 분류
(결정경계 찾기)
성능 평가
분류 오차로
성능 개선
1. 2차원 데이터의 분류
성능 평가 1. 데이터 1000개 데이터 생성
1. 2차원 데이터의 분류
성능 평가 2. 데이터 학습
1. 2차원 데이터의 분류
성능 평가 3. 성능 평가
=> 오차율 = 4.1%
2. 숫자 데이터의 분류
2. 숫자 데이터의 분류
데이터 수집과 전처리
2. 숫자 데이터의 분류
데이터 수집과 전처리
2. 숫자 데이터의 분류
데이터 수집과 전처리
전
처
리
크기 정규화, 이진화
2. 숫자 데이터의 분류
데이터 수집과 전처리
전처리된 데이터 수집
전처리된 데이터
2. 숫자 데이터의 분류
데이터 수집과 전처리
2차원 영상 데이터가
벡터 형태로
직렬화
2. 숫자 데이터의 분류
데이터 수집과 전처리
2차원 데이터가
벡터형태로 변환
. . .
2. 숫자 데이터의 분류
데이터 학습과 결정 경계
학습 된 평균영상 데이터
2. 숫자 데이터의 분류
분류 및 성능평가
 학습 오차 : 2%
테스트 오차 : 15%
감사합니다

Weitere ähnliche Inhalte

Ähnlich wie 패턴인식과 기계학습-패턴인식기개발

해커에게 전해들은 머신러닝 #2
해커에게 전해들은 머신러닝 #2해커에게 전해들은 머신러닝 #2
해커에게 전해들은 머신러닝 #2Haesun Park
 
2.linear regression and logistic regression
2.linear regression and logistic regression2.linear regression and logistic regression
2.linear regression and logistic regressionHaesun Park
 
Dsh data sensitive hashing for high dimensional k-nn search
Dsh  data sensitive hashing for high dimensional k-nn searchDsh  data sensitive hashing for high dimensional k-nn search
Dsh data sensitive hashing for high dimensional k-nn searchWooSung Choi
 
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic용진 조
 
Lecture 4: Neural Networks I
Lecture 4: Neural Networks ILecture 4: Neural Networks I
Lecture 4: Neural Networks ISang Jun Lee
 
지도 학습, 함수 근사와 최적화 문제: 데이터는 우악하니 데이터 사이언스라도 우아하게
지도 학습, 함수 근사와 최적화 문제: 데이터는 우악하니 데이터 사이언스라도 우아하게지도 학습, 함수 근사와 최적화 문제: 데이터는 우악하니 데이터 사이언스라도 우아하게
지도 학습, 함수 근사와 최적화 문제: 데이터는 우악하니 데이터 사이언스라도 우아하게Young-Geun Choi
 
Neural network (perceptron)
Neural network (perceptron)Neural network (perceptron)
Neural network (perceptron)Jeonghun Yoon
 
Eigendecomposition and pca
Eigendecomposition and pcaEigendecomposition and pca
Eigendecomposition and pcaJinhwan Suk
 
[Tf2017] day3 jwkang_pub
[Tf2017] day3 jwkang_pub[Tf2017] day3 jwkang_pub
[Tf2017] day3 jwkang_pubJaewook. Kang
 

Ähnlich wie 패턴인식과 기계학습-패턴인식기개발 (13)

Rdatamining
Rdatamining Rdatamining
Rdatamining
 
해커에게 전해들은 머신러닝 #2
해커에게 전해들은 머신러닝 #2해커에게 전해들은 머신러닝 #2
해커에게 전해들은 머신러닝 #2
 
2.linear regression and logistic regression
2.linear regression and logistic regression2.linear regression and logistic regression
2.linear regression and logistic regression
 
Dsh data sensitive hashing for high dimensional k-nn search
Dsh  data sensitive hashing for high dimensional k-nn searchDsh  data sensitive hashing for high dimensional k-nn search
Dsh data sensitive hashing for high dimensional k-nn search
 
Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)Variational AutoEncoder(VAE)
Variational AutoEncoder(VAE)
 
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
캐빈머피 머신러닝 Kevin Murphy Machine Learning Statistic
 
Generative adversarial network
Generative adversarial networkGenerative adversarial network
Generative adversarial network
 
Lecture 4: Neural Networks I
Lecture 4: Neural Networks ILecture 4: Neural Networks I
Lecture 4: Neural Networks I
 
지도 학습, 함수 근사와 최적화 문제: 데이터는 우악하니 데이터 사이언스라도 우아하게
지도 학습, 함수 근사와 최적화 문제: 데이터는 우악하니 데이터 사이언스라도 우아하게지도 학습, 함수 근사와 최적화 문제: 데이터는 우악하니 데이터 사이언스라도 우아하게
지도 학습, 함수 근사와 최적화 문제: 데이터는 우악하니 데이터 사이언스라도 우아하게
 
Neural network (perceptron)
Neural network (perceptron)Neural network (perceptron)
Neural network (perceptron)
 
Eigendecomposition and pca
Eigendecomposition and pcaEigendecomposition and pca
Eigendecomposition and pca
 
[Tf2017] day3 jwkang_pub
[Tf2017] day3 jwkang_pub[Tf2017] day3 jwkang_pub
[Tf2017] day3 jwkang_pub
 
07. PCA
07. PCA07. PCA
07. PCA
 

Mehr von jdo

[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 2. 데이터 전처리
[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 2. 데이터 전처리[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 2. 데이터 전처리
[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 2. 데이터 전처리jdo
 
[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 1. 활성화 함수
[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 1. 활성화 함수[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 1. 활성화 함수
[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 1. 활성화 함수jdo
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Others
 [컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Others [컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Others
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Othersjdo
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 4 - ResNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 4 - ResNet[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 4 - ResNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 4 - ResNetjdo
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNetjdo
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG-16
 [컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG-16 [컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG-16
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG-16jdo
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 1 - 알렉스넷
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 1 - 알렉스넷[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 1 - 알렉스넷
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 1 - 알렉스넷jdo
 
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2jdo
 
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1jdo
 
[컴퓨터비전과 인공지능] 6. 역전파 2
[컴퓨터비전과 인공지능] 6. 역전파 2[컴퓨터비전과 인공지능] 6. 역전파 2
[컴퓨터비전과 인공지능] 6. 역전파 2jdo
 
[컴퓨터비전과 인공지능] 6. 역전파 1
[컴퓨터비전과 인공지능] 6. 역전파 1[컴퓨터비전과 인공지능] 6. 역전파 1
[컴퓨터비전과 인공지능] 6. 역전파 1jdo
 
[컴퓨터비전과 인공지능] 5. 신경망 2 - 신경망 근사화와 컨벡스 함수
[컴퓨터비전과 인공지능] 5. 신경망 2 - 신경망 근사화와 컨벡스 함수[컴퓨터비전과 인공지능] 5. 신경망 2 - 신경망 근사화와 컨벡스 함수
[컴퓨터비전과 인공지능] 5. 신경망 2 - 신경망 근사화와 컨벡스 함수jdo
 
[리트코드 문제 풀기] 연결 리스트
[리트코드 문제 풀기] 연결 리스트[리트코드 문제 풀기] 연결 리스트
[리트코드 문제 풀기] 연결 리스트jdo
 
[컴퓨터비전과 인공지능] 5. 신경망
[컴퓨터비전과 인공지능] 5. 신경망[컴퓨터비전과 인공지능] 5. 신경망
[컴퓨터비전과 인공지능] 5. 신경망jdo
 
[리트코드 문제 풀기] 배열
[리트코드 문제 풀기] 배열[리트코드 문제 풀기] 배열
[리트코드 문제 풀기] 배열jdo
 
[컴퓨터비전과 인공지능] 4. 최적화
[컴퓨터비전과 인공지능] 4. 최적화[컴퓨터비전과 인공지능] 4. 최적화
[컴퓨터비전과 인공지능] 4. 최적화jdo
 
[컴퓨터비전과 인공지능] 3. 선형 분류기 : 손실 함수와 규제
[컴퓨터비전과 인공지능] 3. 선형 분류기 : 손실 함수와 규제[컴퓨터비전과 인공지능] 3. 선형 분류기 : 손실 함수와 규제
[컴퓨터비전과 인공지능] 3. 선형 분류기 : 손실 함수와 규제jdo
 
[컴퓨터비전과 인공지능] 3. 선형 분류 : 선형 분류기 일부
[컴퓨터비전과 인공지능] 3. 선형 분류 : 선형 분류기 일부[컴퓨터비전과 인공지능] 3. 선형 분류 : 선형 분류기 일부
[컴퓨터비전과 인공지능] 3. 선형 분류 : 선형 분류기 일부jdo
 
Titanic kaggle competition
Titanic kaggle competitionTitanic kaggle competition
Titanic kaggle competitionjdo
 
1 2. 직선과 평면에서의 벡터 방정식
1 2. 직선과 평면에서의 벡터 방정식1 2. 직선과 평면에서의 벡터 방정식
1 2. 직선과 평면에서의 벡터 방정식jdo
 

Mehr von jdo (20)

[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 2. 데이터 전처리
[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 2. 데이터 전처리[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 2. 데이터 전처리
[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 2. 데이터 전처리
 
[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 1. 활성화 함수
[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 1. 활성화 함수[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 1. 활성화 함수
[컴퓨터비전과 인공지능] 10. 신경망 학습하기 파트 1 - 1. 활성화 함수
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Others
 [컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Others [컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Others
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 5 - Others
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 4 - ResNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 4 - ResNet[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 4 - ResNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 4 - ResNet
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 3 - GoogLeNet
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG-16
 [컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG-16 [컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG-16
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG-16
 
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 1 - 알렉스넷
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 1 - 알렉스넷[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 1 - 알렉스넷
[컴퓨터비전과 인공지능] 8. 합성곱 신경망 아키텍처 1 - 알렉스넷
 
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 2
 
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1
[컴퓨터비전과 인공지능] 7. 합성곱 신경망 1
 
[컴퓨터비전과 인공지능] 6. 역전파 2
[컴퓨터비전과 인공지능] 6. 역전파 2[컴퓨터비전과 인공지능] 6. 역전파 2
[컴퓨터비전과 인공지능] 6. 역전파 2
 
[컴퓨터비전과 인공지능] 6. 역전파 1
[컴퓨터비전과 인공지능] 6. 역전파 1[컴퓨터비전과 인공지능] 6. 역전파 1
[컴퓨터비전과 인공지능] 6. 역전파 1
 
[컴퓨터비전과 인공지능] 5. 신경망 2 - 신경망 근사화와 컨벡스 함수
[컴퓨터비전과 인공지능] 5. 신경망 2 - 신경망 근사화와 컨벡스 함수[컴퓨터비전과 인공지능] 5. 신경망 2 - 신경망 근사화와 컨벡스 함수
[컴퓨터비전과 인공지능] 5. 신경망 2 - 신경망 근사화와 컨벡스 함수
 
[리트코드 문제 풀기] 연결 리스트
[리트코드 문제 풀기] 연결 리스트[리트코드 문제 풀기] 연결 리스트
[리트코드 문제 풀기] 연결 리스트
 
[컴퓨터비전과 인공지능] 5. 신경망
[컴퓨터비전과 인공지능] 5. 신경망[컴퓨터비전과 인공지능] 5. 신경망
[컴퓨터비전과 인공지능] 5. 신경망
 
[리트코드 문제 풀기] 배열
[리트코드 문제 풀기] 배열[리트코드 문제 풀기] 배열
[리트코드 문제 풀기] 배열
 
[컴퓨터비전과 인공지능] 4. 최적화
[컴퓨터비전과 인공지능] 4. 최적화[컴퓨터비전과 인공지능] 4. 최적화
[컴퓨터비전과 인공지능] 4. 최적화
 
[컴퓨터비전과 인공지능] 3. 선형 분류기 : 손실 함수와 규제
[컴퓨터비전과 인공지능] 3. 선형 분류기 : 손실 함수와 규제[컴퓨터비전과 인공지능] 3. 선형 분류기 : 손실 함수와 규제
[컴퓨터비전과 인공지능] 3. 선형 분류기 : 손실 함수와 규제
 
[컴퓨터비전과 인공지능] 3. 선형 분류 : 선형 분류기 일부
[컴퓨터비전과 인공지능] 3. 선형 분류 : 선형 분류기 일부[컴퓨터비전과 인공지능] 3. 선형 분류 : 선형 분류기 일부
[컴퓨터비전과 인공지능] 3. 선형 분류 : 선형 분류기 일부
 
Titanic kaggle competition
Titanic kaggle competitionTitanic kaggle competition
Titanic kaggle competition
 
1 2. 직선과 평면에서의 벡터 방정식
1 2. 직선과 평면에서의 벡터 방정식1 2. 직선과 평면에서의 벡터 방정식
1 2. 직선과 평면에서의 벡터 방정식
 

패턴인식과 기계학습-패턴인식기개발

  • 8. 1. 2차원 데이터의 분류 데이터의 생성 모집단의 확률분포 정의 랜덤 데이터 추출 두 클래스 𝐶1, 𝐶2에 대하여 가우시안 분포 를 따르는 확률분포 정의
  • 9. 1. 2차원 데이터의 분류 데이터의 생성 p(x 𝐶1 ~ 𝐺(𝜇1,∑1), p(x 𝐶2 ~ 𝐺(𝜇2,∑2) 𝜇1 = 3 5 , ∑1 = 1 1 1 2 , 𝜇2 = 5 3 , ∑2 = 1 1 1 2 클래스 𝐶1, 𝐶2에 대한 분포 식 matlab 코드 가우시안 분포를 따르는 두 클래스로 이루어진 데이터 집합
  • 10. 1. 2차원 데이터의 분류 데이터의 학습(분석) 학습 및 시험 데이터 준비 데이터 분포 특성 분석 결정경계 찾기
  • 11. 1. 2차원 데이터의 분류 데이터의 학습(분석) 학습 및 시험 데이터 준비 데이터 분포 특성 분석 결정경계 찾기
  • 12. 1. 2차원 데이터의 분류 데이터의 학습(분석) 학습 및 시험 데이터 준비 데이터 분포 특성 분석 결정경계 찾기 학습
  • 13. 1. 2차원 데이터의 분류 데이터의 학습(분석) 학습 및 시험 데이터 준비 데이터 분포 특성 분석 결정경계 찾기간단한 통계 계산 복잡한 결정경계 학습 방법 학습
  • 14. 1. 2차원 데이터의 분류 데이터의 학습(분석) 학습 평균, 공분산 계산
  • 15. 1. 2차원 데이터의 분류 데이터의 학습(분석) 𝑚1= 2.7566 4.7419 , 𝑆1 = 1.3883 1.8897 1.8897 3.5530 𝑚2= 4.7313 2.8251 , 𝑆2 = 0.8770 0.6369 0.6369 0.9920 데이터 행렬의 평균과 공분산 행렬 matlab 코드학습데이터로 추정된 평균(𝑚1, 𝑚2)와 실평균(𝜇1, 𝜇2)
  • 16. 1. 2차원 데이터의 분류 데이터의 분류 : 결정경계의 설정 𝑚1= 2.7566 4.7419 , 𝑆1 = 1.3883 1.8897 1.8897 3.5530 𝑚2= 4.7313 2.8251 , 𝑆2 = 0.8770 0.6369 0.6369 0.9920 데이터 행렬의 평균과 공분산 행렬 평균을 이용하여 간단한 결정경계를 찾을 수 있다
  • 17. 1. 2차원 데이터의 분류 데이터의 분류 : 결정경계의 설정 학습데이터로 추정된 평균(𝑚1, 𝑚2)와 실평균(𝜇1, 𝜇2)
  • 18. 1. 2차원 데이터의 분류 데이터의 분류 : 결정경계의 설정 𝒙 𝒏𝒆𝒘
  • 19. 1. 2차원 데이터의 분류 데이터의 분류 : 결정경계의 설정 두 점 𝒙 𝟏, 𝒙 𝟐 간의 거리 =>d(𝒙 𝟏, 𝒙 𝟐) d(𝒎 𝟏, 𝒙 𝒏𝒆𝒘) d(𝒎 𝟐, 𝒙 𝒏𝒆𝒘)
  • 20. 1. 2차원 데이터의 분류 데이터의 분류 : 결정경계의 설정 두 점 𝒙 𝟏, 𝒙 𝟐 간의 거리 =>d(𝒙 𝟏, 𝒙 𝟐) d(𝒎 𝟏, 𝒙 𝒏𝒆𝒘) d(𝒎 𝟐, 𝒙 𝒏𝒆𝒘) d(𝒎 𝟏, 𝒙 𝒏𝒆𝒘) < d(𝒎 𝟐, 𝒙 𝒏𝒆𝒘) 𝒙 𝒏𝒆𝒘는 𝒎 𝟏에 더 가깝다 𝒙 𝒏𝒆𝒘는 𝑪 𝟏으로 분류
  • 21. 1. 2차원 데이터의 분류 데이터의 분류 : 결정경계의 설정 두 점 𝒙 𝟏, 𝒙 𝟐 간의 거리 =>d(𝒙 𝟏, 𝒙 𝟐) d(𝒎 𝟏, 𝒙 𝒏𝒆𝒘) d(𝒎 𝟐, 𝒙 𝒏𝒆𝒘) 결정경계 함수 g(x)=0 g(x) = d(𝒙 , 𝒎 𝟐)-d(𝒙 , 𝒎 𝟏) = 0 y(x) = 𝟏 𝒊𝒇 𝒈 𝒙 > 𝟎 −𝟏 𝒊𝒇 𝒈 𝒙 < 𝟎
  • 22. 1. 2차원 데이터의 분류 데이터의 분류 : 결정경계의 설정 결정경계 함수 g(x)=0 g(x) = d(𝒙 , 𝒎 𝟐)-d(𝒙 , 𝒎 𝟏) = 0 y(x) = 𝟏 𝒊𝒇 𝒈 𝒙 > 𝟎 −𝟏 𝒊𝒇 𝒈 𝒙 < 𝟎 유클리디안 거리의 제곱 g(x) = d(𝒙 , 𝒎 𝟐)-d(𝒙 , 𝒎 𝟏) = 𝒙 − 𝒎 𝟏 𝑻 𝒙 − 𝒎 𝟏 - 𝒙 − 𝒎 𝟐 𝑻 𝒙 − 𝒎 𝟐 = -2 𝒎 𝟏− 𝒎 𝟐 𝑻 𝒙 + 𝒎 𝟏 𝑻 𝒎 𝟏 - 𝒎 𝟐 𝑻
  • 23. 1. 2차원 데이터의 분류 데이터의 분류 : 결정경계의 설정 g(x)=0
  • 24. 1. 2차원 데이터의 분류 데이터의 분류 : 결정경계의 설정 g(x)=0 판별함수 y(x) = 𝟏 𝒊𝒇 𝒈 𝒙 > 𝟎 −𝟏 𝒊𝒇 𝒈 𝒙 < 𝟎 결정경계 g(𝒙 𝒏𝒆𝒘)> 0 y(𝒙 𝒏𝒆𝒘) = 1 𝒙 𝒏𝒆𝒘는 𝑪 𝟏에 해당한다
  • 25. 1. 2차원 데이터의 분류 성능 평가 학습 및 시험 데이터 준비 데이터 학습 (분포 특성 분석) 데이터 분류 (결정경계 찾기) 성능 평가
  • 26. 1. 2차원 데이터의 분류 성능 평가 학습 및 시험 데이터 준비 데이터 학습 (분포 특성 분석) 데이터 분류 (결정경계 찾기) 성능 평가 분류 오차로 성능 개선
  • 27. 1. 2차원 데이터의 분류 성능 평가 1. 데이터 1000개 데이터 생성
  • 28. 1. 2차원 데이터의 분류 성능 평가 2. 데이터 학습
  • 29. 1. 2차원 데이터의 분류 성능 평가 3. 성능 평가 => 오차율 = 4.1%
  • 31. 2. 숫자 데이터의 분류 데이터 수집과 전처리
  • 32. 2. 숫자 데이터의 분류 데이터 수집과 전처리
  • 33. 2. 숫자 데이터의 분류 데이터 수집과 전처리 전 처 리 크기 정규화, 이진화
  • 34. 2. 숫자 데이터의 분류 데이터 수집과 전처리 전처리된 데이터 수집 전처리된 데이터
  • 35. 2. 숫자 데이터의 분류 데이터 수집과 전처리 2차원 영상 데이터가 벡터 형태로 직렬화
  • 36. 2. 숫자 데이터의 분류 데이터 수집과 전처리 2차원 데이터가 벡터형태로 변환 . . .
  • 37. 2. 숫자 데이터의 분류 데이터 학습과 결정 경계 학습 된 평균영상 데이터
  • 38. 2. 숫자 데이터의 분류 분류 및 성능평가  학습 오차 : 2% 테스트 오차 : 15%