이케아 가구를 만드는 방법에는 몇 가지가 있습니다. 각 방법들은 이상적으로 완성된 소파나 의자로 이어질 것입니다. 그러나 세부 사항에 따라 다른 방법보다 하나의 방법이 더 적합합니다.
사용 설명서와 모든 부품을 가지고 있으신가요? 설명서 지시를 따르는 게 좋습니다. 지시 사항을 놓치지 마시고, 목재 받침목과 널빤지를 이해하는 것은 우리 몫입니다.
딥러닝에도 마찬가지입니다. 이용 가능한 데이터의 종류와 연구 과제에 기초하여 연구자는 특정 학습 모델을 사용하여 알고리즘을 학습하도록 선택할 수 있습니다.
Supervised Learning Model(감독 학습 모델)에서 알고리즘은 라벨 데이터 세트에서 학습 데이터에 대한 정확성을 평가하는 데 사용할 수있는 정답키를 제공합니다. 대조적으로 Unsupervised Learning Model(감독되지 않은 모델)은 알고리즘이 자체적으로 피쳐와 패턴을 추출하여 이해하려고 시도하는 레이블이없는 데이터를 제공합니다.
Semi-suprevised Learning(세미 감독 학습)은 중간에 걸쳐 있습니다. 더 많은 양의 레이블이 지정되지 않은 데이터를 보강하는 소량의 레이블 데이터를 사용합니다. 강화 학습은 인공 지능 에이전트가 특정 상황에서 최상의 조치를 수행 할 때 피드백을 제공하는 보상 시스템으로 알고리즘을 교육합니다.
각 종류의 학습에 도움이되는 데이터 집합과 문제를 살펴 보겠습니다.
Supervised Learning(감독 학습)이란?
감독하에 업무를 배우는 경우, 정답이 맞는지 여부를 판단하는 사람이 있습니다. 마찬가지로 감독 학습에서는 알고리즘을 학습하는 동안 레이블이 지정된 전체 데이터 집합을 갖는 것을 의미합니다.
완전히 레이블링 됨은 교육 데이터 세트의 각 예제에 알고리즘이 제시해야하는 대답으로 태그가 지정되었음을 의미합니다. 따라서 꽃 이미지의 라벨 데이터 세트는 장미, 데이지 및 수선화의 사진을 모델에 알려줍니다. 새 이미지가 표시되면 모델에서이를 학습 예제와 비교하여 올바른 레이블을 예측합니다.
감독 학습이 유용 할 때 분류 문제와 회귀 문제라는 두 가지 주요 영역이 있습니다.
분류 문제는 이산 값을 예측하여 입력 데이터를 특정 클래스 또는 그룹의 구성원으로 식별하도록 알고리즘에 요청합니다. 동물 이미지의 교육 데이터 세트에서 각 사진을 고양이, 코알라 또는 거북이로 사전 레이블합니다. 이 알고리즘은 다른 코알라와 거북이의 새로운 이미지를 정확하게 정확하게 분류 할 수 있는지에 따라 평가됩니다.
반면에, 회귀 문제는 연속적인 데이터를 살펴 봅니다. 하나의 유스 케이스 인 선형 회귀 (linear regression)는 대수학 과목과 밀접한 것으로 보여집니다. 특정 x 값이 주어지면 y 변수의 예상 값은 얼마인지를 예측하는 것입니다.
보다 현실적인 기계 학습 예제는 평방 피트 수, 위치 및 대중 교통에 근접하여 샌프란시스코의 아파트 가격을 예측하는 알고리즘과 같이 다양한 변수가 포함 된 사례가 있습니다.
감독 학습은 알고리즘을 학습 할 수 있는 사용 가능한 참조 점이나 정답이 있는 문제에 가장 적합합니다. 그러나 이러한 것들을 항상 이용 가능한 것은 아닙니다.
Unsupervised Learning(비 감독 학습)이란?
깨끗하고 완벽하게 분류 된 데이터 세트는 쉽게 얻을 수 없습니다. 때로는 연구자가 알고리즘 질문에 답을 모르는 경우가 있습니다. 이러한 것들이 감독되지 않는 학습이 필요한 경우입니다.
감독되지 않은 학습에서, 딥러닝 모델은 무엇을 해야 하는 지에 대한 명시적인 지시 없이 데이터 세트로 전달됩니다. 교육 데이터 세트는 특정 결과 또는 정답이 없는 사례 모음입니다. 그런 다음 신경망은 유용한 특징을 추출하고 구조를 분석하여 데이터의 구조를 자동으로 찾으려고 시도합니다.
Clustering(클러스터링) : 전문 조류 학자가 아니더라도 조류 사진 모음을 보고 종별로 구분할 수 있습니다. 깃털 색상, 크기 또는 부리 모양과 같은 단서를 활용합니다. 이러한 것이 감독되지 않은 학습, 클러스터링, 작동에 대한 가장 일반적인 응용 프로그램입니다. 즉, 심층 학습 모델은 서로 비슷하고 그룹화된 트레이닝 데이터를 찾습니다.
Anomaly Detection(이상 탐지) : 은행은 고객의 구매 행동에서 비정상적인 패턴을 찾아 사기 거래를 탐지합니다. 예를 들어, 동일한 신용 카드가 같은 날에 캘리포니아와 덴마크에서 사용된다면 의심할 수 잇습니다. 마찬가지로 감독되지 않은 학습을 사용하여 데이터 집합의 특이치를 표시 할 수 있습니다.
Association(연관) : 기저귀, 사과 소스, 컵으로 온라인 장바구니를 채워봅니다. 사이트 주문 옆 광고에 턱받침과 아기 모니터를 추가해주는 것이 좋습니다. 데이터 샘플의 특정 기능이 다른 기능과 상호 연관되는 예입니다. 데이터 포인트의 몇 가지 핵심 속성을 살펴보면, 감독되지 않은 학습 모델은 일반적으로 관련되어있는 다른 속성을 예측할 수 있습니다.
Autoencodes(자동 인코딩 장치) : 자동 인코딩 장치는 입력 데이터를 가져 와서 코드로 압축 한 다음 요약된 코드에서 입력 데이터를 다시 만들려고 합니다. 깔끔한 깊은 학습 트릭이지만, 단순한 오토코더가 유용한 실제 사례는 거의 없습니다. 그러나 복잡성 계층을 추가하면 가능성이 있습니다. 훈련 중, 이미지의 시끄럽고 깨끗한 버전을 사용하면 이미지, 비디오 또는 의료 스캔과 같은 시각적 데이터에서 노이즈를 제거하여 화질을 향상시킬 수 있습니다.
데이터에 "Ground Truth" 요소가 없기 때문에 자율 학습을 통해 교육된 알고리즘의 정확성을 측정하는 것은 어렵습니다. 그러나 라벨을 붙인 데이터를 얻기 힘들거나 돈이 많이 드는 연구 분야가 있습니다. 이 경우, 딥러닝 모델을 자유롭게 사용하면 자신의 패턴을 찾을 수있어 고품질 결과를 얻을 수 있습니다.
Semi-Supervised Learning(세미 감독 학습)이란?
세미 감독 학습은 대개 부분적으로는 표식 데이터와 레이블이 없는 데이터가 모두 포함 된 교육 데이터 집합입니다. 이 방법은 데이터에서 관련 기능을 추출하기가 어려울 때 특히 유용하며, 라벨링 예제는 전문가에게 시간이 많이 소요되는 작업입니다.
반 감독 학습은 특히 소량의 라벨 데이터로 인해 정확성이 크게 향상되는 의료 이미지에 유용합니다.
이런 종류의 학습을 위한 일반적인 상황은 CT 스캔이나 MRI와 같은 의학 이미지입니다. 숙련된 방사선 전문의는 종양이나 질병에 대한 검사의 일부를 분류하여 표시 할 수 있습니다. 모든 스캔에 수동으로 레이블을 지정하는 것은 시간이 많이 걸리고 비용이 많이 드는 일입니다. 그러나 딥러닝 네트워크는 여전히 라벨이 지정되지 않은 데이터의 이점을 활용할 수 있으며 Unsupervised 모델과 비교하여 정확성을 향상시킬 수 있습니다.
상당히 작은 세트의 레이블이 붙은 데이터로 시작하는 대중적인 트레이닝 방법은 General adversarial networks, GAN을 사용합니다.
두 가지 딥러닝 네트워크를 상상해보십시오. 경쟁 네트워크는 서로를 능가하려고합니다. 이러한 것을 GAN이라 합니다. Generator라고하는 네트워크 중 하나는 트레인 데이터를 모방한 새로운 데이터 요소를 만들려고 합니다. 다른 네트워크인 판별자(discriminator)는 새로 생성 된 데이터를 가져 와서 트레인 데이터 또는 가짜인지 여부를 평가합니다. 네트워크는 Positive 피드백 루프에서 개선됩니다. 판별자가 원본에서 가짜를 분리할 때 더 잘 생성하므로 Generator는 설득력있는 가짜를 만드는 능력을 향상시킵니다.
이것은 GAN이 작동하는 방식입니다. "D"라고 표시된 구분 기호는 생성기 "G"와 교육 데이터 세트의 이미지로 표시됩니다. 판별자 (discriminator)는 어느 이미지가 진짜인지, 어떤 이미지가 생성기로부터 왔는지를 결정하는 임무가 있습니다.
강화학습(Reinforcement Learning)이란?
비디오 게임은 강화 단서로 가득 차 있습니다. 레벨을 완료하고 배지를 획득합니다. 나쁜 녀석을 일정 수 물리 치고 보너스를 얻습니다. 또, 함정에 들어가거나 게임을 마무리합니다.
이 단서는 플레이어가 영웅의 성능을 향상시키는 방법을 배우도록 도와줍니다. 이 피드백이 없다면, 다음 단계로 나아 가기를 희망하면서, 게임 환경을 무작위로 사용할 것입니다.
강화 학습은 동일한 원리로 작동합니다. 실제로 비디오 게임은 이러한 종류의 연구를 위한 공통 테스트 환경입니다.
이러한 종류의 기계 학습에서 AI 에이전트는 특정 목표를 달성하거나 특정 작업의 성능을 향상시키는 최적의 방법을 찾으려고 시도합니다. 에이전트가 목표를 향해가는 행동을 취하면 보상을 받게됩니다.
전반적인 목표 : 가장 큰 최종 보상을 얻기 위해 취할 수 있는 최선의 단계를 예측합니다.
선택을 하기 위해 에이전트는 과거 피드백의 학습과 더 큰 보수를 제시 할 수있는 새로운 전술의 탐색에 의존합니다. 이것은 장기적인 전략을 포함합니다. 체스 게임에서 가장 좋은 즉각적인 이동이 장기적으로 승리하는 데 도움이되지 않는 것처럼 에이전트는 누적 보상을 최대화하려고 시도합니다.
반복적인 과정을 진행합니다. 피드백이 많을수록 에이전트의 전략이 더 잘 동작합니다. 이 기법은 자율 차량 조종이나 창고 재고 관리와 같은 일련의 결정을 내리는 로봇을 훈련하는 데 특히 유용합니다.
학교의 학생들처럼 모든 알고리즘이 다르게 학습합니다. 따라서 접근 방법의 다양성을 통해, 신경 네트워크가 루프를 배우는 데 도움이 되는 최선의 방법을 고르는 것이 중요합니다.
'SW > 인공지능' 카테고리의 다른 글
인공지능 : 핵심기술 (6) : 딥러닝(심층 학습) (0) | 2019.04.17 |
---|---|
인공지능 : 핵심기술 (5) : 신경망 (0) | 2019.04.16 |
인공지능 : 핵심기술 (3) : 검색, 탐색 알고리즘 (0) | 2019.04.14 |
인공지능 : 핵심기술 (2) : Gartner: 10대 전략 기술 동향 (0) | 2019.04.08 |
인공지능 : 핵심기술 (1) : 4차 산업혁명 (0) | 2019.04.02 |