딥러닝이 주로 다루는 문제들

 | #Artifical Intelligence#Deep Learning

  1. Association Rule Mining
    Association Rule이란 어떤 사건이 얼마나 자주 함께 발생하는지, 서로 얼마나 연관되어 있는지를 표시한다.

  2. Supervised Learning(지도 학습)
    학습할 데이터셋이 참고할 정답지가 있다.
    • Classification(분류)
      분류의 문제를 해결한다. 기존에 존재하는 데이터의 카테고리 관계를 파악하고, 새롭게 관측된 데이터의 카테고리를 스스로 판별하는 과정이다. 이에는 단일 분류, 다중 분류가 있다. 다중 분류는 Unsuvervised Learning의 Clustering과 비슷하지만, 가장 큰 차이점은 Category의 도메인이 정의되어있는가 그렇지 않는가이다. 지도 학습의 Classification은 이미 정해진 카테고리(레이블) 안에서 하기습하여 새로운 데이터를 분류하지만, 비지도학습의 Clustering은 정해지지 않은 카테고리(레이블)를 원하는 만큼 생상하여 분류한다.
    • Regression(회귀)
      연속된 값을 예측하는 문제를 말한다. 주로 어떤 패턴이나 트렌드, 경향을 예측할 때 사용한다. 보통 예측하고 싶은 종속변수가 숫자일 때 보통 회귀라는 머신러닝의 방법을 사용한다. 데이터들을 좌표상에 나열하고 이를 잘 표현하는 선을 그린다. 다른 말로는 여러 자료들 가느이 관계성을 수학적으로 추정하고 분석하는 방법이다.
  3. Unsupervised Learning(비지도 학습)
    학습할 데이터셋이 참고할 정답지가 없다.
    • Clustering(군집화)
      클러스터 분석이란 주어진 데이터들의 특성을 고려해 데이터 집단(클러스터)를 정의하고 데이터 집단의 대표할 수 있는 대표즘을 찾는 것. 분석 기법으로는 Partitioning, k-means 등이 있다. 만약에 개체들을 거리 공간 안에 나타낼 수 있다면, 개체와 개체 사이에 거리(metric)을 정의할 수 있는데, 이러한 경우에 클러스터링의 목표는 같은 클러스터 내의 두 맴버들 사이의 거리를 최소화하고, 서로 다른 두 클러스터 사이의 멤버 간 거리를 최대화하는 것으로 나타낼 수 있다.
    • Feature Extraction
      기존의 feature extraction 방법들은 어떠한 데이터에 대한 사람의 이해를 기반으로 정보를 추출하는 것이다. 이러한 방법은 기존 머신 러닝에서 사용되었는데, 뉴럴 네트워크를 통하여 Feature Extraction을 진행한다면 bias가 없어질 것이다.
    • Dimensionality Reduction(차원 축소)
      높은 차원에서 데이터를 표현하는 과정에서 희소성 문제가 많이 나타남. 그러므로 같은 정보를 표현할 때에는 더 낮은 차원을 사용하는 것이 중요하다. 대표적인 차원 축소 방법으로는 PCA(Principal Component Analysis: 주성분 분석)이 있다. 이 방식은 선형적인 방식으로 차원을 축소하는데, 딥러닝은 비선형적인 방식으로 차원 축소를 수행하고, 그 과정에서 해당 문제를 가장 잘 해결하기 위한 매니폴드를 자연스럽게 찾아낸다. 이는 아직 증명된 가설은 아니지만, 실제로 이 가설에 기반한 많은 연구들이 성과를 내고 있다고 한다.
  4. Reinforcement Learning(강화 학습)
    강화학습의 핵심은 일단 해 보는 것이다. 지도학습이 배움을 통해서 실력을 키우는 것이라면, 강화학습은 일단 해보면서 실력을 키워나가는 것이라고 볼 수 있다. 이러한 방식의 독특한 점은 상점(Reward)과 정책(Policy)의 개념이 존재한다는 것인데, 이 두 특징은 강화학습의 핵심 개념이다. 강화학습의 핵심은 더 많은 보상을 받을 수 있는 정책을 만드는 것이다.

레퍼런스:
Classification Regression Clustering Dimensionality Reduction RL