본문 바로가기

방송통신대 컴퓨터과학과

인공지능 9강 (컴퓨터 시각과 패턴인식)

728x90
학습개요
  1. 컴퓨터 시각 시스템에서 전처리 과정을 거쳐 관심 영역을 분리하고 나면 이를 적절한 표현방법에 따라 표현하여 상위 단계의 처리를 진행한다. 패턴 인식의 관점에서 이는 인식 대상의 특징을 구하는 것이다. 이렇게 구한 특징은 식별 단계에서 활용한다. 패턴 식별을 위한 방법 중 이번 강의에서는 패턴 군집의 통계적 특성을 활용하는 식별 방법에 대하여 학습한다.
 학습목표
  1. 특징의 개념에 대하여 설명할 수 있다.
  2. 거리측정자에 대하여 설명할 수 있다.
  3. 베이즈 분류기의 개념을 설명할 수 있다.
  4. 최대가능도 추정의 개념을 설명할 수 있다.
  5. k - 근접이웃 분류기를 구현할 수 있다.
 주요용어
  1. 거리측정자 : 특징공간상에 존재하는 두 좌표 사이의 거리를 계산하는 척도
  2. 4주성분 분석(principal component analysis, PCA) : 고차원의 데이터 공간을 주성분 축(데이터를 투영한 결과의 분산이 가장 큰 축)들로 구성된 공간으로 선형 직교변환을 함으로써 상관관계를 최소화하는 공간으로 변환한다. 그 중 큰 분산을 갖는 축으로 구성된 저차원의 데이터 공간으로 표현함으로써 특징 차원을 축소할 수 있다.
  3. 생성 모델(generative model) : 어떤 클래스 C에 대해 특징벡터 x가 발생할 조건확률 p(x|C)를 학습하는 모델
  4. 판별 모델(discriminative model) : 어떤 특징벡터 x가 주어졌을 때 그것이 클래스 C에 속할 조건확률 p(C | x)를 추정하는 모델
  5. 베이즈 분류기 : 특징벡터가 관찰되었을 때 그것이 특정 클래스에 속할 조건확률을 베이즈 이론에 따라 계산하여 식별하는 분류기
  6. 최대가능도 추정(maximum likelihood estimation) : 학습 표본 데이터집합이 관찰될 가능성이 최대인 매개변수를 찾아 모집단의 매개변수를 추정하는 방법
  7. k - 근접이웃 : 어떠한 벡터가 특정 클래스에 속할 확률을 그 표본과 가장 가까운 k 개의 표본 벡터 중 해당 클래스의 표본 수의 비율로 정하여 그 값이 가장 큰 클래스에 속하는 것으로 판단하는 방법
정리하기
  1. 패턴의 식별에 사용되는 정보를 특징이라고 하며, 기호열 형태나 벡터 형식 등으로 표현된다.
  2. 주성분 분석은 선형 변환을 통하여 특징요소 간 상관관계를 최소화하는 공간으로 변환한다.
  3. 특징공간 상에서 좌표들 사이의 거리를 구하기 위한 거리측정자를 정의하여 사용한다. 문제 영역에 따라 유클리드 거리, 해밍거리, 도시블록 거리, 마할라노비스 거리 등의 거리측정자를 선택하여 사용할 수 있다.
  4. 베이즈 분류기는 미지의 특징벡터가 주어졌을 때 그 벡터가 각각의 클래스에 속할 조건확률이 가장 큰 클래스로 분류한다.
  5. 학습표본으로부터 확률밀도를 결정하는 방법에는 모집단의 확률 모델의 매개변수를 표본집합으로부터 추정하는 매개변수 방식과 거리 척도와 학습 표본 집합을 이용하여 각각의 클래스에 속할 확률을 계산하는 비 매개변수 방식이 있다.
  6. 최대가능도 추정(MLE)은 확률 모델의 매개변수를 추정하는 방식으로, 학습 표본 데이터 집합이 관찰될 가능성이 최대인 매개변수를 찾는다.
  7. k - 근접이웃 방식은 미지의 패턴의 특징벡터와 가장 가까운 k 개의 학습 표본을 찾아, 그 중 가장 많은 표본이 포함된 클래스로 인식한다.
  8. 서포트 벡터 머신(SVM), 회귀분석, 신경회로망 등을 이용하여 학습된 판별식을 이용하여 패턴을 분류할 수 있다.